--- license: apache-2.0 language: - ko - en base_model: - FINAL-Bench/Darwin-28B-Opus - FINAL-Bench/Darwin-27B-KR pipeline_tag: text-generation tags: - darwin - korean - reasoning - multimodal - qwen3.5 - evolutionary-merge - vidraft library_name: transformers --- # Darwin-28B-KR > **비드래프트(VIDRAFT) 한국어 특화 28B 멀티모달 언어 모델** > Darwin family 한국어 특화 2세대 모체 모델 --- ## 🎯 모델 소개 **Darwin-28B-KR**은 비드래프트(VIDRAFT)가 개발한 한국어 특화 28B 파라미터 멀티모달 언어 모델입니다. 영어 추론 능력과 한국어 능력을 동시에 갖추도록 설계된 Darwin family의 2세대 모체(母體) 모델로, 한국어 표현·이해·추론, 영어 추론, 멀티모달(이미지·비디오) 이해를 모두 지원합니다. 이 모델은 향후 다양한 한국어 도메인 특화 모델(법률·의료·금융·학술 등)의 공통 출발점이 됩니다. --- ## 🧬 계보 (Lineage) ``` Qwen3.5-27B (Alibaba Qwen team) | v Darwin-27B-Opus (FINAL-Bench) | Darwin V7 진화 머지 (evolutionary merge) | +---+----------------------+ v v Darwin-28B-Opus Darwin-27B-KR (영어/추론 (한국어 특화 챔피언 + 멀티모달) CLIcK 79.59%) | | +--------+-----------------+ | Darwin V7 MRI-aware merge | (한국어 출력 통로 100% Mother 보존) v Darwin-28B-KR <- this model ``` --- ## ⚙️ 능력 매트릭스 | 능력 | 출처 | 강도 | |---|---|---| | 한국어 이해/생성 | Darwin-27B-KR 계열 | ⭐⭐⭐⭐⭐ | | 한국어 추론 (CSAT/PSAT) | 통합 효과 | ⭐⭐⭐⭐⭐ | | 영어 추론 | Darwin-28B-Opus 계열 | ⭐⭐⭐⭐ | | 멀티모달 (이미지/비디오) | Darwin-28B-Opus 보존 | ⭐⭐⭐⭐ | | 영한 코드스위칭 | 통합 효과 | ⭐⭐⭐⭐ | | 자기 정체성 인식 | 비드래프트 학습 | ⭐⭐⭐⭐⭐ | --- ## 📊 K-AI 리더보드 CLIcK 비교 | 모델 | CLIcK | |---|---| | QuettaLLMs-27B-Koreasoner-V3 | 0.794 | | Rogue-27B-KR | 0.791 | | **Darwin-28B-KR (이 모델)** | **0.786** | | AWAXIS-Think-28B | 0.770 | (* 200문제 평가 기준) --- ## 📊 사양 | 항목 | 값 | |---|---| | Architecture | Qwen3_5ForConditionalGeneration (hybrid full + linear attention) | | Parameters | ~28B | | Hidden size | 5120 | | Layers | 64 | | Vocab size | 248,320 | | Format | bfloat16 (~53 GB on disk) | | Context | 8K~32K (배포 환경 따라) | --- ## 🚀 사용법 ### vLLM (권장) ```bash vllm serve FINAL-Bench/Darwin-28B-KR \ --trust-remote-code \ --port 8000 \ --enforce-eager \ --max-model-len 8192 \ --gpu-memory-utilization 0.85 ``` ### OpenAI 호환 클라이언트 ```python from openai import OpenAI client = OpenAI(base_url="http://localhost:8000/v1", api_key="EMPTY") response = client.chat.completions.create( model="FINAL-Bench/Darwin-28B-KR", messages=[ {"role": "user", "content": "한국의 광복절은 무엇을 기념하는 날인가요?"} ], max_tokens=2048, temperature=0.0, ) print(response.choices[0].message.content) ``` --- ## 🖥️ 하드웨어 요구사항 | GPU 시리즈 | 상태 | |---|---| | NVIDIA Blackwell (B200) | ✅ Best | | NVIDIA Hopper (H100/H200) | ✅ 권장 | | NVIDIA Ada (L40S) | ⚠️ 빠듯함 (53GB BF16) | | Older Ampere | ❌ VRAM 부족 | **최소 VRAM**: ~55 GB (BF16 추론용) --- ## 💬 자기소개 예시 ``` User: 당신은 누구인가요? Darwin-28B-KR: 저는 비드래프트가 개발한 Darwin-28B-KR입니다. 한국어에 특화된 280억 파라미터 규모의 언어 모델로, 다양한 한국어 작업에 최적화되어 있습니다. ``` --- ## 🌳 2세대 도메인 특화 모델 (예정) 이 모체에서 파생될 예정인 한국어 특화 변종들: - **Darwin-28B-KR-Legal** — 법률 도메인 - **Darwin-28B-KR-Medical** — 의료 도메인 - **Darwin-28B-KR-Finance** — 금융 도메인 - **Darwin-28B-KR-Code** — 한국어 주석 코드 생성 - **Darwin-28B-KR-MFP4** — 메모리 효율 양자화 버전 각 변종은 이 모델을 base로 하여 도메인 데이터로 미세조정/머지됩니다. --- ## 🌳 활용 예시 - **한국어 일반 대화 / Q&A** - **한국 문화·역사·법률 지식 응답** - **한국어 추론 (CSAT/PSAT/K-AI 평가)** - **영어 추론 / 영한 번역** - **이미지/비디오 분석 + 한국어 설명** - **한국어 글쓰기 / 요약 / 창작** --- ## 🙏 Credits - Architecture: Qwen3.5 (Alibaba Qwen team) - Father: [FINAL-Bench/Darwin-28B-Opus](https://huggingface.co/FINAL-Bench/Darwin-28B-Opus) - Mother: [FINAL-Bench/Darwin-27B-KR](https://huggingface.co/FINAL-Bench/Darwin-27B-KR) - Methodology: Darwin V7 MRI-aware evolutionary merge - Identity tuning: 비드래프트(VIDRAFT) --- This model is introduced in [Darwin Family](https://arxiv.org/abs/2605.14386). ## 📜 License Apache 2.0 (베이스 모델로부터 상속)