session-vault-qwen35-9b-gguf
Qwen 3.5 9B๋ฅผ ํ๊ตญ์ด ๊ฐ๋ฐ ์ธ์ ์์ฝ ํ์คํฌ์ LoRA ํ์ธํ๋ํ ๋ชจ๋ธ์ GGUF ์์ํ ๋ฒ์ .
ํ์ต ์ ๋ณด
| ํญ๋ชฉ | ๊ฐ |
|---|---|
| Base model | Qwen/Qwen3.5-9B |
| Method | LoRA 16-bit (r=32, alpha=64) |
| Hardware | NVIDIA H200 NVL x2 (287GB VRAM) |
| Dataset | 196๊ฐ Claude ์ธ์ ์์ฝ ์ (avg quality 88.8) |
| Epochs | 3 |
| Loss | 1.36 โ 0.77 |
| Training time | ~530s |
| Quantization | Q4_K_M (llama.cpp) |
ํ์คํฌ
Claude Code ์ธ์ ๋ก๊ทธ(raw markdown)๋ฅผ ๊ตฌ์กฐํ๋ ํ๊ตญ์ด ์์ฝ์ผ๋ก ๋ณํ:
- YAML frontmatter (ํ๋ก์ ํธ, ํ๊ทธ, ์ ํ)
- ๋ณธ๋ฌธ ์น์ : ๋ชฉ์ / ํต์ฌ ๋ณ๊ฒฝ์ฌํญ / ๊ฒฐ๊ณผ / ๊ด๋ จ ํ์ผ
Ollama ์ฌ์ฉ๋ฒ
# Modelfile
cat > Modelfile << 'EOF'
FROM ./session-vault-9b-q4_k_m.gguf
PARAMETER num_ctx 8192
PARAMETER num_predict 6144
PARAMETER temperature 0.7
PARAMETER top_p 0.8
PARAMETER top_k 20
PARAMETER repeat_penalty 1.0
EOF
ollama create session-vault:9b -f Modelfile
ollama run session-vault:9b
๊ถ์ฅ ํ๋ผ๋ฏธํฐ
| ํ๋ผ๋ฏธํฐ | ๊ฐ | ๋น๊ณ |
|---|---|---|
| num_ctx | 8192 | 4096์ ํ์์์ ์ ๋ฐ |
| num_predict | 6144 | thinking ํ ํฐ ํฌํจ |
| temperature | 0.7 | Qwen 3.5 non-thinking ๊ณต์ |
| top_p | 0.8 | ๊ณต์ ๊ถ์ฅ |
| top_k | 20 | ๊ณต์ ๊ถ์ฅ |
| repeat_penalty | 1.0 | ๊ณต์: ํญ์ 1.0 |
| presence_penalty | 1.5 | /api/chat ์ ์ฉ |
| kv_cache_type | q8_0 | VRAM ์ ๊ฐ (12GB GPU ๊ถ์ฅ) |
ํ์ต ๋ฐ์ดํฐ
session-vault์์ ์๋ ์์ฑ:
scripts/build_finetune_dataset.py: raw/summary ๋งค์นญ + ํ์ง ํํฐ๋ง- ์์ด์ ํธ/๋จ๊ธฐ ์ธ์ ์๋ ์ ์ธ, score >= 60 ํํฐ
- Unsloth ํธํ conversations ํฌ๋งท (system/user/assistant)
๋ผ์ด์ ์ค
Apache 2.0 (Qwen 3.5 ๋ผ์ด์ ์ค ์ค์)
- Downloads last month
- 17
Hardware compatibility
Log In to add your hardware
4-bit
16-bit