Text Generation
Transformers
Safetensors
Korean
English
qwen3_5
image-text-to-text
korean
multimodal
qwen3.5
28b
k-ai-leaderboard
tenos
conversational
Instructions to use honey90/TenOS-Ko-28B with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use honey90/TenOS-Ko-28B with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="honey90/TenOS-Ko-28B") messages = [ { "role": "user", "content": [ {"type": "image", "url": "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/p-blog/candy.JPG"}, {"type": "text", "text": "What animal is on the candy?"} ] }, ] pipe(text=messages)# Load model directly from transformers import AutoProcessor, AutoModelForImageTextToText processor = AutoProcessor.from_pretrained("honey90/TenOS-Ko-28B") model = AutoModelForImageTextToText.from_pretrained("honey90/TenOS-Ko-28B") messages = [ { "role": "user", "content": [ {"type": "image", "url": "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/p-blog/candy.JPG"}, {"type": "text", "text": "What animal is on the candy?"} ] }, ] inputs = processor.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(processor.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use honey90/TenOS-Ko-28B with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "honey90/TenOS-Ko-28B" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "honey90/TenOS-Ko-28B", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/honey90/TenOS-Ko-28B
- SGLang
How to use honey90/TenOS-Ko-28B with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "honey90/TenOS-Ko-28B" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "honey90/TenOS-Ko-28B", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "honey90/TenOS-Ko-28B" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "honey90/TenOS-Ko-28B", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use honey90/TenOS-Ko-28B with Docker Model Runner:
docker model run hf.co/honey90/TenOS-Ko-28B
| license: apache-2.0 | |
| language: | |
| - ko | |
| - en | |
| base_model: | |
| - FINAL-Bench/Darwin-28B-KR | |
| pipeline_tag: text-generation | |
| tags: | |
| - korean | |
| - multimodal | |
| - qwen3.5 | |
| - 28b | |
| - k-ai-leaderboard | |
| - tenos | |
| library_name: transformers | |
| # TenOS-Ko-28B | |
| > **TenAI 한국어 특화 28B 멀티모달 언어 모델** | |
| > K-AI 리더보드 평가 항목(KMMLU-Pro / CLIcK / MuSR(Ko) / Com2-main(ko))에 최적화된 한국어 모델 | |
| --- | |
| ## 🎯 모델 소개 | |
| **TenOS-Ko-28B**는 TenAI가 개발한 한국어 특화 28B 파라미터 멀티모달 언어 모델입니다. | |
| K-AI 리더보드 평가 항목들에 대해 한국어 추론·이해 능력을 강화하도록 도메인 SFT(Supervised Fine-Tuning)를 적용하여 만들어진 모델입니다. 한국어 표현, 한국 문화·역사·법률·일반 상식 등에 강점이 있으며, 멀티모달(이미지·비디오) 입력도 지원합니다. | |
| --- | |
| ## 🧬 계보 (Lineage) | |
| ``` | |
| Qwen3.5-27B (Alibaba Qwen team) | |
| | | |
| v | |
| Darwin family 28B 한국어 특화 2세대 모체 | |
| (FINAL-Bench/Darwin-28B-KR — Apache 2.0) | |
| | | |
| | TenAI K-AI 도메인 SFT (LoRA r=16) | |
| | 대상: KMMLU-Pro / CLIcK / MuSR(Ko) / Com2-main(ko) | |
| v | |
| TenOS-Ko-28B <- this model | |
| ``` | |
| 베이스 모델인 **Darwin-28B-KR**은 한국어 표현 능력에 특화된 28B 모델로, 그 위에 K-AI 평가 도메인 데이터로 미세조정하여 TenOS-Ko-28B를 완성했습니다. | |
| --- | |
| ## ⚙️ 능력 매트릭스 | |
| | 능력 | 강도 | | |
| |---|---| | |
| | 한국어 이해/생성 | ⭐⭐⭐⭐⭐ | | |
| | 한국어 추론 (CSAT/PSAT/K-AI 평가) | ⭐⭐⭐⭐⭐ | | |
| | 한국 문화·역사·법률 지식 | ⭐⭐⭐⭐⭐ | | |
| | 영어 추론 | ⭐⭐⭐⭐ | | |
| | 멀티모달 (이미지/비디오) | ⭐⭐⭐⭐ | | |
| | 영한 코드스위칭 | ⭐⭐⭐⭐ | | |
| --- | |
| ## 📊 K-AI 리더보드 CLIcK 비교 | |
| 자체 측정 + 공개 리더보드 점수 비교: | |
| | 모델 | CLIcK | | |
| |---|---| | |
| | QuettaLLMs-27B-Koreasoner-V3 | 0.794 | | |
| | Rogue-27B-KR | 0.791 | | |
| | Darwin-28B-KR (베이스) | 0.786 | | |
| | AWAXIS-Think-28B | 0.770 | | |
| | **TenOS-Ko-28B** | **0.770** | | |
| (* 200문제 quick CLIcK 평가 기준. 실제 K-AI 리더보드 정식 평가에서는 ±2pp 변동 가능) | |
| **참고**: K-AI 리더보드의 진가는 4개 항목(KMMLU-Pro/CLIcK/MuSR/Com2-main) 평균에서 드러나며, TenOS-Ko-28B는 CLIcK 외 항목에서 추가 향상이 기대됩니다. | |
| --- | |
| ## 🛠️ 학습 정보 | |
| | 항목 | 값 | | |
| |---|---| | |
| | 베이스 모델 | FINAL-Bench/Darwin-28B-KR (Apache 2.0) | | |
| | 학습 방법 | LoRA (r=16, alpha=32) | | |
| | LoRA target | Attention + Embedding + LM head | | |
| | 학습 데이터 | K-AI 도메인 합성 데이터 + 정체성 학습 데이터 | | |
| | 학습량 | 1 epoch (batch 1, grad_accum 16) | | |
| | Optimizer | AdamW (lr=5e-5, cosine schedule) | | |
| | Format | bfloat16 | | |
| --- | |
| ## 📊 사양 | |
| | 항목 | 값 | | |
| |---|---| | |
| | Architecture | Qwen3_5ForConditionalGeneration (hybrid full + linear attention) | | |
| | Parameters | ~28B | | |
| | Hidden size | 5120 | | |
| | Layers | 64 | | |
| | Vocab size | 248,320 | | |
| | Format | bfloat16 (~53 GB on disk) | | |
| | Context | 8K~32K (배포 환경 따라) | | |
| --- | |
| ## 🚀 사용법 | |
| ### vLLM (권장) | |
| ```bash | |
| vllm serve TenAI/TenOS-Ko-28B \ | |
| --trust-remote-code \ | |
| --port 8000 \ | |
| --enforce-eager \ | |
| --max-model-len 8192 \ | |
| --gpu-memory-utilization 0.85 | |
| ``` | |
| ### OpenAI 호환 클라이언트 | |
| ```python | |
| from openai import OpenAI | |
| client = OpenAI(base_url="http://localhost:8000/v1", api_key="EMPTY") | |
| response = client.chat.completions.create( | |
| model="TenAI/TenOS-Ko-28B", | |
| messages=[ | |
| {"role": "user", "content": "한국의 광복절은 무엇을 기념하는 날인가요?"} | |
| ], | |
| max_tokens=2048, | |
| temperature=0.0, | |
| ) | |
| print(response.choices[0].message.content) | |
| ``` | |
| ### transformers (직접 로드) | |
| ```python | |
| from transformers import AutoModelForCausalLM, AutoTokenizer | |
| import torch | |
| model = AutoModelForCausalLM.from_pretrained( | |
| "TenAI/TenOS-Ko-28B", | |
| torch_dtype=torch.bfloat16, | |
| device_map="auto", | |
| trust_remote_code=True | |
| ) | |
| tokenizer = AutoTokenizer.from_pretrained("TenAI/TenOS-Ko-28B", trust_remote_code=True) | |
| messages = [{"role": "user", "content": "한국어로 자기소개 해주세요"}] | |
| inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda") | |
| outputs = model.generate(inputs, max_new_tokens=512, temperature=0.0) | |
| print(tokenizer.decode(outputs[0][inputs.shape[1]:], skip_special_tokens=True)) | |
| ``` | |
| --- | |
| ## 🖥️ 하드웨어 요구사항 | |
| | GPU 시리즈 | 상태 | | |
| |---|---| | |
| | NVIDIA Blackwell (B200) | ✅ Best | | |
| | NVIDIA Hopper (H100/H200) | ✅ 권장 | | |
| | NVIDIA Ada (L40S) | ⚠️ 빠듯함 (53GB BF16) | | |
| | Older Ampere | ❌ VRAM 부족 | | |
| **최소 VRAM**: ~55 GB (BF16 추론용) | |
| --- | |
| ## 💬 자기소개 예시 | |
| 모델은 다음과 같이 자신을 소개합니다: | |
| ``` | |
| User: 당신은 누구인가요? | |
| TenOS-Ko-28B: 저는 TenAI가 개발한 TenOS-Ko-28B입니다. | |
| 한국어에 특화된 280억 파라미터 규모의 언어 모델로, | |
| 다양한 질문과 대화에 도움을 드릴 수 있습니다. | |
| ``` | |
| --- | |
| ## 🌳 활용 예시 | |
| - **한국어 일반 대화 / Q&A** | |
| - **한국 문화·역사·법률 지식 응답** | |
| - **K-AI 리더보드 항목 추론** (KMMLU-Pro / CLIcK / MuSR / Com2-main) | |
| - **영한 번역 / 코드스위칭** | |
| - **이미지/비디오 분석 + 한국어 설명** | |
| - **한국어 글쓰기 / 요약 / 창작** | |
| --- | |
| ## 🙏 Credits | |
| - Architecture: Qwen3.5 (Alibaba Qwen team) | |
| - Base model: [FINAL-Bench/Darwin-28B-KR](https://huggingface.co/FINAL-Bench/Darwin-28B-KR) (Apache 2.0) | |
| - Fine-tuning: TenAI | |
| --- | |
| ## 📜 License | |
| Apache 2.0 (베이스 모델로부터 상속) | |
| --- | |
| ## 📞 문의 | |
| 모델에 대한 문의나 협업 제안은 HuggingFace 페이지를 통해 연락 부탁드립니다. | |