akira-papa-1.0-31b-jp
akira-papa-1.0-31b-jp は、Gemma 4 31B-it を土台に、Akira-Papa が作成・整理した日本語データ、rewrite、route-aware tuning を重ねた 31B flagship release です。
自然な日本語の長文、ブログ / note の本文、レビュー、初学者向けの技術説明、軽中量のコーディング支援を 1 本で扱いやすくすることを主目的に整えています。
このリポジトリには、base model と adapter を結合した fused model に加えて、GGUF 版の Q8_0 / Q4_K_M も含みます。
位置づけ
- 現在の系統:
31B flagship - Hugging Face repo:
https://huggingface.co/Akira-Papa/akira-papa-1.0-31b-jp Gemma 4 31B-itベースの日本語 flagship ライン- blog / note / wall-bounce / coding support のバランス版
主な用途
- 日本語のブログ本文
- note 風の自然な長文
- 実装方針やレビュー観点の整理
- 初学者向けのやさしい技術説明
- 軽中量のコーディング支援
- 壁打ち相手としての論点整理
強み
- 日本語の自然文が崩れにくい
- 長文 writer でも tone を保ちやすい
- 説明、レビュー、壁打ち、coding support を 1 本で両立しやすい
Q8_0/Q4_K_Mによりllama.cpp/ LM Studio / Windows 系 runtime にも載せやすい
評価の要約
現在の評価メモに記録している代表値は次です。
- writer hard eval v2:
1.00 / 1.00 - writer longform eval v3:
1.00 / 1.00 - writer blog voice eval v4:
1.00 / 1.00 - coding weak5:
2.80 / 3.00
同梱される主なファイル
- fused model 一式
config.jsontokenizer.jsonmodel-00001-of-00004.safetensorsmodel-00002-of-00004.safetensorsmodel-00003-of-00004.safetensorsmodel-00004-of-00004.safetensorsakira-papa-1.0-31b-jp-Q8_0.ggufakira-papa-1.0-31b-jp-Q4_K_M.gguf
使い分け
- fused model: Apple Silicon /
MLXの folder 読み込み向け Q8_0: GGUF 側の品質優先Q4_K_M: GGUF 側の容量優先31Bは依然として重いので、軽量配布が必要ならE2B / E4Bline も検討してください
目安サイズ:
- fused model directory 全体で約
16 GB Q8_0は約30 GBQ4_K_Mは約17 GB
注意
- coding 専用 best を最大化したモデルではありません
- 外部情報の正確性は別途検証が必要です
- ローカル実行コストは重めです
Q8_0/Q4_K_Mはllama.cpp/ LM Studio / Windows 系 runtime 向けです- fused model は Apple Silicon /
MLX前提の運用が最も扱いやすいです
ベースモデルと利用条件
このモデルのベースは google/gemma-4-31b-it です。
利用前に次を確認してください。
NOTICEGEMMA_TERMS.mdMODIFICATIONS.md
- Downloads last month
- 1,032
Model size
31B params
Tensor type
BF16
·
U32 ·
Hardware compatibility
Log In to add your hardware
4-bit
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support