--- license: apache-2.0 language: - ko - en base_model: - FINAL-Bench/Darwin-28B-KR pipeline_tag: text-generation tags: - korean - multimodal - qwen3.5 - 28b - k-ai-leaderboard - tenos library_name: transformers --- # TenOS-Ko-28B > **TenAI 한국어 특화 28B 멀티모달 언어 모델** > K-AI 리더보드 평가 항목(KMMLU-Pro / CLIcK / MuSR(Ko) / Com2-main(ko))에 최적화된 한국어 모델 --- ## 🎯 모델 소개 **TenOS-Ko-28B**는 TenAI가 개발한 한국어 특화 28B 파라미터 멀티모달 언어 모델입니다. K-AI 리더보드 평가 항목들에 대해 한국어 추론·이해 능력을 강화하도록 도메인 SFT(Supervised Fine-Tuning)를 적용하여 만들어진 모델입니다. 한국어 표현, 한국 문화·역사·법률·일반 상식 등에 강점이 있으며, 멀티모달(이미지·비디오) 입력도 지원합니다. --- ## 🧬 계보 (Lineage) ``` Qwen3.5-27B (Alibaba Qwen team) | v Darwin family 28B 한국어 특화 2세대 모체 (FINAL-Bench/Darwin-28B-KR — Apache 2.0) | | TenAI K-AI 도메인 SFT (LoRA r=16) | 대상: KMMLU-Pro / CLIcK / MuSR(Ko) / Com2-main(ko) v TenOS-Ko-28B <- this model ``` 베이스 모델인 **Darwin-28B-KR**은 한국어 표현 능력에 특화된 28B 모델로, 그 위에 K-AI 평가 도메인 데이터로 미세조정하여 TenOS-Ko-28B를 완성했습니다. --- ## ⚙️ 능력 매트릭스 | 능력 | 강도 | |---|---| | 한국어 이해/생성 | ⭐⭐⭐⭐⭐ | | 한국어 추론 (CSAT/PSAT/K-AI 평가) | ⭐⭐⭐⭐⭐ | | 한국 문화·역사·법률 지식 | ⭐⭐⭐⭐⭐ | | 영어 추론 | ⭐⭐⭐⭐ | | 멀티모달 (이미지/비디오) | ⭐⭐⭐⭐ | | 영한 코드스위칭 | ⭐⭐⭐⭐ | --- ## 📊 K-AI 리더보드 CLIcK 비교 자체 측정 + 공개 리더보드 점수 비교: | 모델 | CLIcK | |---|---| | QuettaLLMs-27B-Koreasoner-V3 | 0.794 | | Rogue-27B-KR | 0.791 | | Darwin-28B-KR (베이스) | 0.786 | | AWAXIS-Think-28B | 0.770 | | **TenOS-Ko-28B** | **0.770** | (* 200문제 quick CLIcK 평가 기준. 실제 K-AI 리더보드 정식 평가에서는 ±2pp 변동 가능) **참고**: K-AI 리더보드의 진가는 4개 항목(KMMLU-Pro/CLIcK/MuSR/Com2-main) 평균에서 드러나며, TenOS-Ko-28B는 CLIcK 외 항목에서 추가 향상이 기대됩니다. --- ## 🛠️ 학습 정보 | 항목 | 값 | |---|---| | 베이스 모델 | FINAL-Bench/Darwin-28B-KR (Apache 2.0) | | 학습 방법 | LoRA (r=16, alpha=32) | | LoRA target | Attention + Embedding + LM head | | 학습 데이터 | K-AI 도메인 합성 데이터 + 정체성 학습 데이터 | | 학습량 | 1 epoch (batch 1, grad_accum 16) | | Optimizer | AdamW (lr=5e-5, cosine schedule) | | Format | bfloat16 | --- ## 📊 사양 | 항목 | 값 | |---|---| | Architecture | Qwen3_5ForConditionalGeneration (hybrid full + linear attention) | | Parameters | ~28B | | Hidden size | 5120 | | Layers | 64 | | Vocab size | 248,320 | | Format | bfloat16 (~53 GB on disk) | | Context | 8K~32K (배포 환경 따라) | --- ## 🚀 사용법 ### vLLM (권장) ```bash vllm serve TenAI/TenOS-Ko-28B \ --trust-remote-code \ --port 8000 \ --enforce-eager \ --max-model-len 8192 \ --gpu-memory-utilization 0.85 ``` ### OpenAI 호환 클라이언트 ```python from openai import OpenAI client = OpenAI(base_url="http://localhost:8000/v1", api_key="EMPTY") response = client.chat.completions.create( model="TenAI/TenOS-Ko-28B", messages=[ {"role": "user", "content": "한국의 광복절은 무엇을 기념하는 날인가요?"} ], max_tokens=2048, temperature=0.0, ) print(response.choices[0].message.content) ``` ### transformers (직접 로드) ```python from transformers import AutoModelForCausalLM, AutoTokenizer import torch model = AutoModelForCausalLM.from_pretrained( "TenAI/TenOS-Ko-28B", torch_dtype=torch.bfloat16, device_map="auto", trust_remote_code=True ) tokenizer = AutoTokenizer.from_pretrained("TenAI/TenOS-Ko-28B", trust_remote_code=True) messages = [{"role": "user", "content": "한국어로 자기소개 해주세요"}] inputs = tokenizer.apply_chat_template(messages, return_tensors="pt", add_generation_prompt=True).to("cuda") outputs = model.generate(inputs, max_new_tokens=512, temperature=0.0) print(tokenizer.decode(outputs[0][inputs.shape[1]:], skip_special_tokens=True)) ``` --- ## 🖥️ 하드웨어 요구사항 | GPU 시리즈 | 상태 | |---|---| | NVIDIA Blackwell (B200) | ✅ Best | | NVIDIA Hopper (H100/H200) | ✅ 권장 | | NVIDIA Ada (L40S) | ⚠️ 빠듯함 (53GB BF16) | | Older Ampere | ❌ VRAM 부족 | **최소 VRAM**: ~55 GB (BF16 추론용) --- ## 💬 자기소개 예시 모델은 다음과 같이 자신을 소개합니다: ``` User: 당신은 누구인가요? TenOS-Ko-28B: 저는 TenAI가 개발한 TenOS-Ko-28B입니다. 한국어에 특화된 280억 파라미터 규모의 언어 모델로, 다양한 질문과 대화에 도움을 드릴 수 있습니다. ``` --- ## 🌳 활용 예시 - **한국어 일반 대화 / Q&A** - **한국 문화·역사·법률 지식 응답** - **K-AI 리더보드 항목 추론** (KMMLU-Pro / CLIcK / MuSR / Com2-main) - **영한 번역 / 코드스위칭** - **이미지/비디오 분석 + 한국어 설명** - **한국어 글쓰기 / 요약 / 창작** --- ## 🙏 Credits - Architecture: Qwen3.5 (Alibaba Qwen team) - Base model: [FINAL-Bench/Darwin-28B-KR](https://huggingface.co/FINAL-Bench/Darwin-28B-KR) (Apache 2.0) - Fine-tuning: TenAI --- ## 📜 License Apache 2.0 (베이스 모델로부터 상속) --- ## 📞 문의 모델에 대한 문의나 협업 제안은 HuggingFace 페이지를 통해 연락 부탁드립니다.