Darwin-28B-KR / README.md
SeaWolf-AI's picture
Update README.md
72a90c3 verified
---
license: apache-2.0
language:
- ko
- en
base_model:
- FINAL-Bench/Darwin-28B-Opus
- FINAL-Bench/Darwin-27B-KR
pipeline_tag: text-generation
tags:
- darwin
- korean
- reasoning
- multimodal
- qwen3.5
- evolutionary-merge
- vidraft
library_name: transformers
---
# Darwin-28B-KR
> **비드래프트(VIDRAFT) 한국어 특화 28B 멀티모달 언어 모델**
> Darwin family 한국어 특화 2세대 모체 모델
---
## 🎯 모델 소개
**Darwin-28B-KR**은 비드래프트(VIDRAFT)가 개발한 한국어 특화 28B 파라미터 멀티모달 언어 모델입니다.
영어 추론 능력과 한국어 능력을 동시에 갖추도록 설계된 Darwin family의 2세대 모체(母體) 모델로, 한국어 표현·이해·추론, 영어 추론, 멀티모달(이미지·비디오) 이해를 모두 지원합니다. 이 모델은 향후 다양한 한국어 도메인 특화 모델(법률·의료·금융·학술 등)의 공통 출발점이 됩니다.
---
## 🧬 계보 (Lineage)
```
Qwen3.5-27B (Alibaba Qwen team)
|
v
Darwin-27B-Opus (FINAL-Bench)
| Darwin V7 진화 머지 (evolutionary merge)
|
+---+----------------------+
v v
Darwin-28B-Opus Darwin-27B-KR
(영어/추론 (한국어 특화 챔피언
+ 멀티모달) CLIcK 79.59%)
| |
+--------+-----------------+
| Darwin V7 MRI-aware merge
| (한국어 출력 통로 100% Mother 보존)
v
Darwin-28B-KR <- this model
```
---
## ⚙️ 능력 매트릭스
| 능력 | 출처 | 강도 |
|---|---|---|
| 한국어 이해/생성 | Darwin-27B-KR 계열 | ⭐⭐⭐⭐⭐ |
| 한국어 추론 (CSAT/PSAT) | 통합 효과 | ⭐⭐⭐⭐⭐ |
| 영어 추론 | Darwin-28B-Opus 계열 | ⭐⭐⭐⭐ |
| 멀티모달 (이미지/비디오) | Darwin-28B-Opus 보존 | ⭐⭐⭐⭐ |
| 영한 코드스위칭 | 통합 효과 | ⭐⭐⭐⭐ |
| 자기 정체성 인식 | 비드래프트 학습 | ⭐⭐⭐⭐⭐ |
---
## 📊 K-AI 리더보드 CLIcK 비교
| 모델 | CLIcK |
|---|---|
| QuettaLLMs-27B-Koreasoner-V3 | 0.794 |
| Rogue-27B-KR | 0.791 |
| **Darwin-28B-KR (이 모델)** | **0.786** |
| AWAXIS-Think-28B | 0.770 |
(* 200문제 평가 기준)
---
## 📊 사양
| 항목 | 값 |
|---|---|
| Architecture | Qwen3_5ForConditionalGeneration (hybrid full + linear attention) |
| Parameters | ~28B |
| Hidden size | 5120 |
| Layers | 64 |
| Vocab size | 248,320 |
| Format | bfloat16 (~53 GB on disk) |
| Context | 8K~32K (배포 환경 따라) |
---
## 🚀 사용법
### vLLM (권장)
```bash
vllm serve FINAL-Bench/Darwin-28B-KR \
--trust-remote-code \
--port 8000 \
--enforce-eager \
--max-model-len 8192 \
--gpu-memory-utilization 0.85
```
### OpenAI 호환 클라이언트
```python
from openai import OpenAI
client = OpenAI(base_url="http://localhost:8000/v1", api_key="EMPTY")
response = client.chat.completions.create(
model="FINAL-Bench/Darwin-28B-KR",
messages=[
{"role": "user", "content": "한국의 광복절은 무엇을 기념하는 날인가요?"}
],
max_tokens=2048,
temperature=0.0,
)
print(response.choices[0].message.content)
```
---
## 🖥️ 하드웨어 요구사항
| GPU 시리즈 | 상태 |
|---|---|
| NVIDIA Blackwell (B200) | ✅ Best |
| NVIDIA Hopper (H100/H200) | ✅ 권장 |
| NVIDIA Ada (L40S) | ⚠️ 빠듯함 (53GB BF16) |
| Older Ampere | ❌ VRAM 부족 |
**최소 VRAM**: ~55 GB (BF16 추론용)
---
## 💬 자기소개 예시
```
User: 당신은 누구인가요?
Darwin-28B-KR: 저는 비드래프트가 개발한 Darwin-28B-KR입니다.
한국어에 특화된 280억 파라미터 규모의 언어 모델로,
다양한 한국어 작업에 최적화되어 있습니다.
```
---
## 🌳 2세대 도메인 특화 모델 (예정)
이 모체에서 파생될 예정인 한국어 특화 변종들:
- **Darwin-28B-KR-Legal** — 법률 도메인
- **Darwin-28B-KR-Medical** — 의료 도메인
- **Darwin-28B-KR-Finance** — 금융 도메인
- **Darwin-28B-KR-Code** — 한국어 주석 코드 생성
- **Darwin-28B-KR-MFP4** — 메모리 효율 양자화 버전
각 변종은 이 모델을 base로 하여 도메인 데이터로 미세조정/머지됩니다.
---
## 🌳 활용 예시
- **한국어 일반 대화 / Q&A**
- **한국 문화·역사·법률 지식 응답**
- **한국어 추론 (CSAT/PSAT/K-AI 평가)**
- **영어 추론 / 영한 번역**
- **이미지/비디오 분석 + 한국어 설명**
- **한국어 글쓰기 / 요약 / 창작**
---
## 🙏 Credits
- Architecture: Qwen3.5 (Alibaba Qwen team)
- Father: [FINAL-Bench/Darwin-28B-Opus](https://huggingface.co/FINAL-Bench/Darwin-28B-Opus)
- Mother: [FINAL-Bench/Darwin-27B-KR](https://huggingface.co/FINAL-Bench/Darwin-27B-KR)
- Methodology: Darwin V7 MRI-aware evolutionary merge
- Identity tuning: 비드래프트(VIDRAFT)
---
This model is introduced in [Darwin Family](https://arxiv.org/abs/2605.14386).
## 📜 License
Apache 2.0 (베이스 모델로부터 상속)