What is this?
ABEJAによる日本語版QwQ-32B、ABEJA-QwQ32b-Reasoning-Japanese-v1.0をGGUFフォーマットに変換したものです。
imatrix dataset
日本語能力を重視し、日本語が多量に含まれるTFMC/imatrix-dataset-for-japanese-llmデータセットを使用しました。
Chat template
<|im_start|>system
ここにSystem Promptを書きます。<|im_end|>
<|im_start|>user
ここにMessageを書きます。<|im_end|>
<|im_start|>assistant
Quants
各クオンツとそのベンチマークスコア(Gemini 2.0 Flash採点によるElyza_tasks 100)をまとめておきます。
| クオンツ | スコア | コメント |
|---|---|---|
| Q8_0 | 4.45 | |
| Q6_K | 4.42 | |
| Q5_K_M | 4.46 | |
| Q4_K_M | 4.32 | |
| IQ4_XS | 4.46 |
Environment
Windows版llama.cpp-b5074および同時リリースのconvert-hf-to-gguf.pyを使用して量子化作業を実施しました。
License
Apache 2.0
Developer
Alibaba Cloud & ABEJA
- Downloads last month
- 26
Hardware compatibility
Log In to add your hardware
4-bit
5-bit
6-bit
8-bit
16-bit
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support