--- license: apache-2.0 language: - ko - en library_name: transformers tags: - korean - reasoning - multimodal - mix base_model: - FINAL-Bench/Darwin-28B-KR - NewenAI/QuettaLLMs-27B-Koreasoner-V3 --- # Rogue-28B-MIX 한국어 reasoning + multimodal mix 모델. --- ## 🏛️ 가문 계보 ``` ┌──────────────────────────────────────────┐ │ 증조부 (Great-Grandfather) │ │ Qwen-3.6-27B │ └──────────────────────────────────────────┘ │ ▼ ┌──────────────────────────────────────────┐ │ 조부 (Grandfather) │ │ Darwin-3.6-28B │ └──────────────────────────────────────────┘ │ ▼ ┌──────────────────────────────────────────┐ │ 아빠 (Father) │ │ FINAL-Bench/Darwin-28B-KR │ │ - 한국어 특화 reasoning 모델 │ └──────────────────────────────────────────┘ │ ×× 교배 ×× │ ┌──────────────────────────────────────────┐ │ 엄마 (Mother) │ │ NewenAI/QuettaLLMs-27B-Koreasoner-V3 │ │ - K-AI Leaderboard 1위 │ └──────────────────────────────────────────┘ │ ▼ ╔══════════════════════════════════════════╗ ║ 자식 (Child) — 본 모델 ║ ║ ginigen-ai/Rogue-28B-MIX ║ ║ ║ ║ - 친가의 reasoning 계승 ║ ║ - 외가의 한국어 K-AI 지식 계승 ║ ║ - 추론 트레이스 보존 ║ ║ - 멀티모달 헤드 보존 ║ ╚══════════════════════════════════════════╝ ``` --- ## 🎓 학습 개요 1. 친가 × 외가 모델 가중치 머지 2. K-AI 도메인 데이터로 추가 SFT 3. K-AI Leaderboard Docker 호환 형식 정비 --- ## 📊 평가 한국어 공개 10 데이터셋, 100문제 × 1 seed. | Dataset | Rogue-28B-MIX | 엄마(Quetta) | |:---|---:|---:| | CLIcK | 84% | 85% | | KMMLU History | **48%** 🏆 | 45% | | KMMLU Law | 25% | 26% | | KMMLU Health | **81%** 🏆 | 80% | | HAERAE GK | 63% | 66% | | HAERAE History | 89% | 90% | | HAERAE Linguistics | 90% | 95% | | KoBEST Hellaswag | 95% | 97% | | KoBEST COPA | 98% | 99% | | KoBEST BoolQ | 97% | 97% | | **Macro Avg** | **77.0%** | **78.0%** | K-AI Leaderboard 핵심 카테고리(의료·역사)에서 엄마 추월. --- ## 🎯 사용법 ```python from transformers import AutoTokenizer, AutoModelForCausalLM import torch model_id = "ginigen-ai/Rogue-28B-MIX" tokenizer = AutoTokenizer.from_pretrained( model_id, trust_remote_code=True ) model = AutoModelForCausalLM.from_pretrained( model_id, torch_dtype=torch.bfloat16, device_map="auto", trust_remote_code=True, ) prompt = "한국의 추석에 대해 설명해주세요." messages = [{"role": "user", "content": prompt}] inputs = tokenizer.apply_chat_template( messages, return_tensors="pt", add_generation_prompt=True ) out = model.generate( inputs.to(model.device), max_new_tokens=512, do_sample=False, ) print(tokenizer.decode(out[0], skip_special_tokens=False)) ``` --- ## 🛠️ 사양 - 파라미터: 28B (multimodal) - 양자화: bf16 - 컨텍스트: 8K (확장 가능) - 언어: 한국어 + 영어 - 추론: `` reasoning trace - License: Apache 2.0 --- ## 🤝 출처 - 아빠: [FINAL-Bench/Darwin-28B-KR](https://huggingface.co/FINAL-Bench/Darwin-28B-KR) - 엄마: [NewenAI/QuettaLLMs-27B-Koreasoner-V3](https://huggingface.co/NewenAI/QuettaLLMs-27B-Koreasoner-V3)