Text Generation
Transformers
Safetensors
Korean
English
qwen3_5
image-text-to-text
korean
multimodal
qwen3.5
28b
k-ai-leaderboard
tenos
conversational
Instructions to use honey90/TenOS-Ko-28B with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use honey90/TenOS-Ko-28B with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="honey90/TenOS-Ko-28B") messages = [ { "role": "user", "content": [ {"type": "image", "url": "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/p-blog/candy.JPG"}, {"type": "text", "text": "What animal is on the candy?"} ] }, ] pipe(text=messages)# Load model directly from transformers import AutoProcessor, AutoModelForImageTextToText processor = AutoProcessor.from_pretrained("honey90/TenOS-Ko-28B") model = AutoModelForImageTextToText.from_pretrained("honey90/TenOS-Ko-28B") messages = [ { "role": "user", "content": [ {"type": "image", "url": "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/p-blog/candy.JPG"}, {"type": "text", "text": "What animal is on the candy?"} ] }, ] inputs = processor.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(processor.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use honey90/TenOS-Ko-28B with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "honey90/TenOS-Ko-28B" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "honey90/TenOS-Ko-28B", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/honey90/TenOS-Ko-28B
- SGLang
How to use honey90/TenOS-Ko-28B with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "honey90/TenOS-Ko-28B" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "honey90/TenOS-Ko-28B", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "honey90/TenOS-Ko-28B" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "honey90/TenOS-Ko-28B", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use honey90/TenOS-Ko-28B with Docker Model Runner:
docker model run hf.co/honey90/TenOS-Ko-28B
File size: 5,810 Bytes
46ca8f5 | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 135 136 137 138 139 140 141 142 143 144 145 146 147 148 149 150 151 152 153 154 155 156 157 158 159 160 161 162 163 164 165 166 167 168 169 170 171 172 173 174 175 176 177 178 179 180 181 182 183 184 185 186 187 188 189 190 191 192 193 194 195 196 197 198 199 200 201 202 203 204 205 206 207 208 209 210 211 212 213 214 215 216 217 218 | ---
license: apache-2.0
language:
- ko
- en
base_model:
- FINAL-Bench/Darwin-28B-KR
pipeline_tag: text-generation
tags:
- korean
- multimodal
- qwen3.5
- 28b
- k-ai-leaderboard
- tenos
library_name: transformers
---
# TenOS-Ko-28B
> **TenAI 한국어 특화 28B 멀티모달 언어 모델**
> K-AI 리더보드 평가 항목(KMMLU-Pro / CLIcK / MuSR(Ko) / Com2-main(ko))에 최적화된 한국어 모델
---
## 🎯 모델 소개
**TenOS-Ko-28B**는 TenAI가 개발한 한국어 특화 28B 파라미터 멀티모달 언어 모델입니다.
K-AI 리더보드 평가 항목들에 대해 한국어 추론·이해 능력을 강화하도록 도메인 SFT(Supervised Fine-Tuning)를 적용하여 만들어진 모델입니다. 한국어 표현, 한국 문화·역사·법률·일반 상식 등에 강점이 있으며, 멀티모달(이미지·비디오) 입력도 지원합니다.
---
## 🧬 계보 (Lineage)
```
Qwen3.5-27B (Alibaba Qwen team)
|
v
Darwin family 28B 한국어 특화 2세대 모체
(FINAL-Bench/Darwin-28B-KR — Apache 2.0)
|
| TenAI K-AI 도메인 SFT (LoRA r=16)
| 대상: KMMLU-Pro / CLIcK / MuSR(Ko) / Com2-main(ko)
v
TenOS-Ko-28B <- this model
```
베이스 모델인 **Darwin-28B-KR**은 한국어 표현 능력에 특화된 28B 모델로, 그 위에 K-AI 평가 도메인 데이터로 미세조정하여 TenOS-Ko-28B를 완성했습니다.
---
## ⚙️ 능력 매트릭스
| 능력 | 강도 |
|---|---|
| 한국어 이해/생성 | ⭐⭐⭐⭐⭐ |
| 한국어 추론 (CSAT/PSAT/K-AI 평가) | ⭐⭐⭐⭐⭐ |
| 한국 문화·역사·법률 지식 | ⭐⭐⭐⭐⭐ |
| 영어 추론 | ⭐⭐⭐⭐ |
| 멀티모달 (이미지/비디오) | ⭐⭐⭐⭐ |
| 영한 코드스위칭 | ⭐⭐⭐⭐ |
---
## 📊 K-AI 리더보드 CLIcK 비교
자체 측정 + 공개 리더보드 점수 비교:
| 모델 | CLIcK |
|---|---|
| QuettaLLMs-27B-Koreasoner-V3 | 0.794 |
| Rogue-27B-KR | 0.791 |
| Darwin-28B-KR (베이스) | 0.786 |
| AWAXIS-Think-28B | 0.770 |
| **TenOS-Ko-28B** | **0.770** |
(* 200문제 quick CLIcK 평가 기준. 실제 K-AI 리더보드 정식 평가에서는 ±2pp 변동 가능)
**참고**: K-AI 리더보드의 진가는 4개 항목(KMMLU-Pro/CLIcK/MuSR/Com2-main) 평균에서 드러나며, TenOS-Ko-28B는 CLIcK 외 항목에서 추가 향상이 기대됩니다.
---
## 🛠️ 학습 정보
| 항목 | 값 |
|---|---|
| 베이스 모델 | FINAL-Bench/Darwin-28B-KR (Apache 2.0) |
| 학습 방법 | LoRA (r=16, alpha=32) |
| LoRA target | Attention + Embedding + LM head |
| 학습 데이터 | K-AI 도메인 합성 데이터 + 정체성 학습 데이터 |
| 학습량 | 1 epoch (batch 1, grad_accum 16) |
| Optimizer | AdamW (lr=5e-5, cosine schedule) |
| Format | bfloat16 |
---
## 📊 사양
| 항목 | 값 |
|---|---|
| Architecture | Qwen3_5ForConditionalGeneration (hybrid full + linear attention) |
| Parameters | ~28B |
| Hidden size | 5120 |
| Layers | 64 |
| Vocab size | 248,320 |
| Format | bfloat16 (~53 GB on disk) |
| Context | 8K~32K (배포 환경 따라) |
---
## 🚀 사용법
### vLLM (권장)
```bash
vllm serve TenAI/TenOS-Ko-28B \
--trust-remote-code \
--port 8000 \
--enforce-eager \
--max-model-len 8192 \
--gpu-memory-utilization 0.85
```
### OpenAI 호환 클라이언트
```python
from openai import OpenAI
client = OpenAI(base_url="http://localhost:8000/v1", api_key="EMPTY")
response = client.chat.completions.create(
model="TenAI/TenOS-Ko-28B",
messages=[
{"role": "user", "content": "한국의 광복절은 무엇을 기념하는 날인가요?"}
],
max_tokens=2048,
temperature=0.0,
)
print(response.choices[0].message.content)
```
### transformers (직접 로드)
```python
from transformers import AutoModelForCausalLM, AutoTokenizer
import torch
model = AutoModelForCausalLM.from_pretrained(
"TenAI/TenOS-Ko-28B",
torch_dtype=torch.bfloat16,
device_map="auto",
trust_remote_code=True
)
tokenizer = AutoTokenizer.from_pretrained("TenAI/TenOS-Ko-28B", trust_remote_code=True)
messages = [{"role": "user", "content": "한국어로 자기소개 해주세요"}]
inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda")
outputs = model.generate(inputs, max_new_tokens=512, temperature=0.0)
print(tokenizer.decode(outputs[0][inputs.shape[1]:], skip_special_tokens=True))
```
---
## 🖥️ 하드웨어 요구사항
| GPU 시리즈 | 상태 |
|---|---|
| NVIDIA Blackwell (B200) | ✅ Best |
| NVIDIA Hopper (H100/H200) | ✅ 권장 |
| NVIDIA Ada (L40S) | ⚠️ 빠듯함 (53GB BF16) |
| Older Ampere | ❌ VRAM 부족 |
**최소 VRAM**: ~55 GB (BF16 추론용)
---
## 💬 자기소개 예시
모델은 다음과 같이 자신을 소개합니다:
```
User: 당신은 누구인가요?
TenOS-Ko-28B: 저는 TenAI가 개발한 TenOS-Ko-28B입니다.
한국어에 특화된 280억 파라미터 규모의 언어 모델로,
다양한 질문과 대화에 도움을 드릴 수 있습니다.
```
---
## 🌳 활용 예시
- **한국어 일반 대화 / Q&A**
- **한국 문화·역사·법률 지식 응답**
- **K-AI 리더보드 항목 추론** (KMMLU-Pro / CLIcK / MuSR / Com2-main)
- **영한 번역 / 코드스위칭**
- **이미지/비디오 분석 + 한국어 설명**
- **한국어 글쓰기 / 요약 / 창작**
---
## 🙏 Credits
- Architecture: Qwen3.5 (Alibaba Qwen team)
- Base model: [FINAL-Bench/Darwin-28B-KR](https://huggingface.co/FINAL-Bench/Darwin-28B-KR) (Apache 2.0)
- Fine-tuning: TenAI
---
## 📜 License
Apache 2.0 (베이스 모델로부터 상속)
---
## 📞 문의
모델에 대한 문의나 협업 제안은 HuggingFace 페이지를 통해 연락 부탁드립니다.
|