caution!
このモデルのチャットテンプレートは2025年3月現在のllama.cppに登録されているどのテンプレートとも異なります。
よって、--jinjaオプションによるカスタムテンプレート読み込み機能の使用が必須となります。
なお、このモデルのカスタムテンプレートを適切に読み込むにはllama.cpp-b4739以降が必要となります。
What is this?
SB Intuitionsによる日本語特化の小型言語モデルsarashina2.2-3b-instruct-v0.1をGGUFフォーマットに変換したものです。
imatrix dataset
日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
Chat template
<|system|>ここにSystem Promptを書きます。</s><|user|>ここにMessageを書きます。</s><|assistant|>
Quants
各クオンツとそのベンチマークスコア(Gemini 2.0 Flash採点によるElyza_tasks 100)をまとめておきます。
| クオンツ | スコア | コメント |
|---|---|---|
| BF16 | 3.76 | |
| Q8_0 | 3.81 | |
| Q6_K | 3.75 | 推奨 |
| Q5_K_M | 3.61 | |
| Q4_K_M | 3.62 | |
| IQ4_XS | 3.79 |
Note
llama.cpp-b4739以降と合わせてご利用ください。
なお、このモデルは現状-fa オプションによるFlash Attentionの使用はできません(原因不明)。
Environment
Windows版llama.cpp-b4739およびllama.cpp-b5074同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
License
MIT License
Developer
SB Intuitions
- Downloads last month
- 36
Hardware compatibility
Log In to add your hardware
4-bit
5-bit
6-bit
8-bit
16-bit
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support