akira-papa-1.0-e4b-jp
akira-papa-1.0-e4b-jp は、Gemma 4 E4B-it を土台に、Akira-Papa が作成・整理した日本語データ、teacher-guided rewrite、route-aware tuning を重ねた E4B mainline です。
短いブログ本文や、温度感のある日本語 writer 補助を主目的に整えています。
位置づけ
- 現在の系統:
E4B mainline - Hugging Face repo:
https://huggingface.co/Akira-Papa/akira-papa-1.0-e4b-jp Gemma 4 E4B-itベースの日本語 writer 寄りライン
主な用途
- 短いブログ本文
short_blog_section- 具体と生活感を優先した writer 補助
- writer route を優先したい場合
強み
- 温度感のある短文
- ブログ本文の書き出し
- 自然な日本語の tone 調整
同梱される主なファイル
- mainline merged model 一式
akira-papa-1.0-E4B-jp-Q8_0.ggufakira-papa-1.0-E4B-jp-Q4_K_M.ggufNOTICEGEMMA_TERMS.mdMODIFICATIONS.md
使い分け
Q8_0: mainline 品質優先の本命Q4_K_M: 容量優先の補助 variant- merged model: MLX 系ワークフロー向け
注意
Q4_K_Mは writer route で崩れやすく、experimental 扱いです。まずはQ8_0を推奨します- 長文 reasoning や heavy coding 専用 best ではありません
ベースモデルと利用条件
このモデルのベースは google/gemma-4-E4B-it です。
利用前に次を確認してください。
NOTICEGEMMA_TERMS.mdMODIFICATIONS.md
- Downloads last month
- 1,231
Model size
8B params
Tensor type
BF16
·
Hardware compatibility
Log In to add your hardware
Quantized
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support
Model tree for Akira-Papa/akira-papa-1.0-e4b-jp
Base model
google/gemma-4-E4B-it