Text Generation
Transformers
Safetensors
Korean
English
qwen3_5
image-text-to-text
darwin
korean
reasoning
multimodal
qwen3.5
evolutionary-merge
vidraft
conversational
Instructions to use FINAL-Bench/Darwin-28B-KR with libraries, inference providers, notebooks, and local apps. Follow these links to get started.
- Libraries
- Transformers
How to use FINAL-Bench/Darwin-28B-KR with Transformers:
# Use a pipeline as a high-level helper from transformers import pipeline pipe = pipeline("text-generation", model="FINAL-Bench/Darwin-28B-KR") messages = [ { "role": "user", "content": [ {"type": "image", "url": "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/p-blog/candy.JPG"}, {"type": "text", "text": "What animal is on the candy?"} ] }, ] pipe(text=messages)# Load model directly from transformers import AutoProcessor, AutoModelForImageTextToText processor = AutoProcessor.from_pretrained("FINAL-Bench/Darwin-28B-KR") model = AutoModelForImageTextToText.from_pretrained("FINAL-Bench/Darwin-28B-KR") messages = [ { "role": "user", "content": [ {"type": "image", "url": "https://huggingface.co/datasets/huggingface/documentation-images/resolve/main/p-blog/candy.JPG"}, {"type": "text", "text": "What animal is on the candy?"} ] }, ] inputs = processor.apply_chat_template( messages, add_generation_prompt=True, tokenize=True, return_dict=True, return_tensors="pt", ).to(model.device) outputs = model.generate(**inputs, max_new_tokens=40) print(processor.decode(outputs[0][inputs["input_ids"].shape[-1]:])) - Notebooks
- Google Colab
- Kaggle
- Local Apps
- vLLM
How to use FINAL-Bench/Darwin-28B-KR with vLLM:
Install from pip and serve model
# Install vLLM from pip: pip install vllm # Start the vLLM server: vllm serve "FINAL-Bench/Darwin-28B-KR" # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:8000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "FINAL-Bench/Darwin-28B-KR", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker
docker model run hf.co/FINAL-Bench/Darwin-28B-KR
- SGLang
How to use FINAL-Bench/Darwin-28B-KR with SGLang:
Install from pip and serve model
# Install SGLang from pip: pip install sglang # Start the SGLang server: python3 -m sglang.launch_server \ --model-path "FINAL-Bench/Darwin-28B-KR" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "FINAL-Bench/Darwin-28B-KR", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }'Use Docker images
docker run --gpus all \ --shm-size 32g \ -p 30000:30000 \ -v ~/.cache/huggingface:/root/.cache/huggingface \ --env "HF_TOKEN=<secret>" \ --ipc=host \ lmsysorg/sglang:latest \ python3 -m sglang.launch_server \ --model-path "FINAL-Bench/Darwin-28B-KR" \ --host 0.0.0.0 \ --port 30000 # Call the server using curl (OpenAI-compatible API): curl -X POST "http://localhost:30000/v1/chat/completions" \ -H "Content-Type: application/json" \ --data '{ "model": "FINAL-Bench/Darwin-28B-KR", "messages": [ { "role": "user", "content": "What is the capital of France?" } ] }' - Docker Model Runner
How to use FINAL-Bench/Darwin-28B-KR with Docker Model Runner:
docker model run hf.co/FINAL-Bench/Darwin-28B-KR
| license: apache-2.0 | |
| language: | |
| - ko | |
| - en | |
| base_model: | |
| - FINAL-Bench/Darwin-28B-Opus | |
| - FINAL-Bench/Darwin-27B-KR | |
| pipeline_tag: text-generation | |
| tags: | |
| - darwin | |
| - korean | |
| - reasoning | |
| - multimodal | |
| - qwen3.5 | |
| - evolutionary-merge | |
| - vidraft | |
| library_name: transformers | |
| # Darwin-28B-KR | |
| > **비드래프트(VIDRAFT) 한국어 특화 28B 멀티모달 언어 모델** | |
| > Darwin family 한국어 특화 2세대 모체 모델 | |
| --- | |
| ## 🎯 모델 소개 | |
| **Darwin-28B-KR**은 비드래프트(VIDRAFT)가 개발한 한국어 특화 28B 파라미터 멀티모달 언어 모델입니다. | |
| 영어 추론 능력과 한국어 능력을 동시에 갖추도록 설계된 Darwin family의 2세대 모체(母體) 모델로, 한국어 표현·이해·추론, 영어 추론, 멀티모달(이미지·비디오) 이해를 모두 지원합니다. 이 모델은 향후 다양한 한국어 도메인 특화 모델(법률·의료·금융·학술 등)의 공통 출발점이 됩니다. | |
| --- | |
| ## 🧬 계보 (Lineage) | |
| ``` | |
| Qwen3.5-27B (Alibaba Qwen team) | |
| | | |
| v | |
| Darwin-27B-Opus (FINAL-Bench) | |
| | Darwin V7 진화 머지 (evolutionary merge) | |
| | | |
| +---+----------------------+ | |
| v v | |
| Darwin-28B-Opus Darwin-27B-KR | |
| (영어/추론 (한국어 특화 챔피언 | |
| + 멀티모달) CLIcK 79.59%) | |
| | | | |
| +--------+-----------------+ | |
| | Darwin V7 MRI-aware merge | |
| | (한국어 출력 통로 100% Mother 보존) | |
| v | |
| Darwin-28B-KR <- this model | |
| ``` | |
| --- | |
| ## ⚙️ 능력 매트릭스 | |
| | 능력 | 출처 | 강도 | | |
| |---|---|---| | |
| | 한국어 이해/생성 | Darwin-27B-KR 계열 | ⭐⭐⭐⭐⭐ | | |
| | 한국어 추론 (CSAT/PSAT) | 통합 효과 | ⭐⭐⭐⭐⭐ | | |
| | 영어 추론 | Darwin-28B-Opus 계열 | ⭐⭐⭐⭐ | | |
| | 멀티모달 (이미지/비디오) | Darwin-28B-Opus 보존 | ⭐⭐⭐⭐ | | |
| | 영한 코드스위칭 | 통합 효과 | ⭐⭐⭐⭐ | | |
| | 자기 정체성 인식 | 비드래프트 학습 | ⭐⭐⭐⭐⭐ | | |
| --- | |
| ## 📊 K-AI 리더보드 CLIcK 비교 | |
| | 모델 | CLIcK | | |
| |---|---| | |
| | QuettaLLMs-27B-Koreasoner-V3 | 0.794 | | |
| | Rogue-27B-KR | 0.791 | | |
| | **Darwin-28B-KR (이 모델)** | **0.786** | | |
| | AWAXIS-Think-28B | 0.770 | | |
| (* 200문제 평가 기준) | |
| --- | |
| ## 📊 사양 | |
| | 항목 | 값 | | |
| |---|---| | |
| | Architecture | Qwen3_5ForConditionalGeneration (hybrid full + linear attention) | | |
| | Parameters | ~28B | | |
| | Hidden size | 5120 | | |
| | Layers | 64 | | |
| | Vocab size | 248,320 | | |
| | Format | bfloat16 (~53 GB on disk) | | |
| | Context | 8K~32K (배포 환경 따라) | | |
| --- | |
| ## 🚀 사용법 | |
| ### vLLM (권장) | |
| ```bash | |
| vllm serve FINAL-Bench/Darwin-28B-KR \ | |
| --trust-remote-code \ | |
| --port 8000 \ | |
| --enforce-eager \ | |
| --max-model-len 8192 \ | |
| --gpu-memory-utilization 0.85 | |
| ``` | |
| ### OpenAI 호환 클라이언트 | |
| ```python | |
| from openai import OpenAI | |
| client = OpenAI(base_url="http://localhost:8000/v1", api_key="EMPTY") | |
| response = client.chat.completions.create( | |
| model="FINAL-Bench/Darwin-28B-KR", | |
| messages=[ | |
| {"role": "user", "content": "한국의 광복절은 무엇을 기념하는 날인가요?"} | |
| ], | |
| max_tokens=2048, | |
| temperature=0.0, | |
| ) | |
| print(response.choices[0].message.content) | |
| ``` | |
| --- | |
| ## 🖥️ 하드웨어 요구사항 | |
| | GPU 시리즈 | 상태 | | |
| |---|---| | |
| | NVIDIA Blackwell (B200) | ✅ Best | | |
| | NVIDIA Hopper (H100/H200) | ✅ 권장 | | |
| | NVIDIA Ada (L40S) | ⚠️ 빠듯함 (53GB BF16) | | |
| | Older Ampere | ❌ VRAM 부족 | | |
| **최소 VRAM**: ~55 GB (BF16 추론용) | |
| --- | |
| ## 💬 자기소개 예시 | |
| ``` | |
| User: 당신은 누구인가요? | |
| Darwin-28B-KR: 저는 비드래프트가 개발한 Darwin-28B-KR입니다. | |
| 한국어에 특화된 280억 파라미터 규모의 언어 모델로, | |
| 다양한 한국어 작업에 최적화되어 있습니다. | |
| ``` | |
| --- | |
| ## 🌳 2세대 도메인 특화 모델 (예정) | |
| 이 모체에서 파생될 예정인 한국어 특화 변종들: | |
| - **Darwin-28B-KR-Legal** — 법률 도메인 | |
| - **Darwin-28B-KR-Medical** — 의료 도메인 | |
| - **Darwin-28B-KR-Finance** — 금융 도메인 | |
| - **Darwin-28B-KR-Code** — 한국어 주석 코드 생성 | |
| - **Darwin-28B-KR-MFP4** — 메모리 효율 양자화 버전 | |
| 각 변종은 이 모델을 base로 하여 도메인 데이터로 미세조정/머지됩니다. | |
| --- | |
| ## 🌳 활용 예시 | |
| - **한국어 일반 대화 / Q&A** | |
| - **한국 문화·역사·법률 지식 응답** | |
| - **한국어 추론 (CSAT/PSAT/K-AI 평가)** | |
| - **영어 추론 / 영한 번역** | |
| - **이미지/비디오 분석 + 한국어 설명** | |
| - **한국어 글쓰기 / 요약 / 창작** | |
| --- | |
| ## 🙏 Credits | |
| - Architecture: Qwen3.5 (Alibaba Qwen team) | |
| - Father: [FINAL-Bench/Darwin-28B-Opus](https://huggingface.co/FINAL-Bench/Darwin-28B-Opus) | |
| - Mother: [FINAL-Bench/Darwin-27B-KR](https://huggingface.co/FINAL-Bench/Darwin-27B-KR) | |
| - Methodology: Darwin V7 MRI-aware evolutionary merge | |
| - Identity tuning: 비드래프트(VIDRAFT) | |
| --- | |
| This model is introduced in [Darwin Family](https://arxiv.org/abs/2605.14386). | |
| ## 📜 License | |
| Apache 2.0 (베이스 모델로부터 상속) | |