akira-papa-1.0-e4b-jp

akira-papa-1.0-e4b-jp は、Gemma 4 E4B-it を土台に、Akira-Papa が作成・整理した日本語データ、teacher-guided rewrite、route-aware tuning を重ねた E4B mainline です。
短いブログ本文や、温度感のある日本語 writer 補助を主目的に整えています。

位置づけ

  • 現在の系統: E4B mainline
  • Hugging Face repo: https://huggingface.co/Akira-Papa/akira-papa-1.0-e4b-jp
  • Gemma 4 E4B-it ベースの日本語 writer 寄りライン

主な用途

  • 短いブログ本文
  • short_blog_section
  • 具体と生活感を優先した writer 補助
  • writer route を優先したい場合

強み

  • 温度感のある短文
  • ブログ本文の書き出し
  • 自然な日本語の tone 調整

同梱される主なファイル

  • mainline merged model 一式
  • akira-papa-1.0-E4B-jp-Q8_0.gguf
  • akira-papa-1.0-E4B-jp-Q4_K_M.gguf
  • NOTICE
  • GEMMA_TERMS.md
  • MODIFICATIONS.md

使い分け

  • Q8_0: mainline 品質優先の本命
  • Q4_K_M: 容量優先の補助 variant
  • merged model: MLX 系ワークフロー向け

注意

  • Q4_K_M は writer route で崩れやすく、experimental 扱いです。まずは Q8_0 を推奨します
  • 長文 reasoning や heavy coding 専用 best ではありません

ベースモデルと利用条件

このモデルのベースは google/gemma-4-E4B-it です。

利用前に次を確認してください。

  • NOTICE
  • GEMMA_TERMS.md
  • MODIFICATIONS.md
Downloads last month
1,231
Safetensors
Model size
8B params
Tensor type
BF16
·
MLX
Hardware compatibility
Log In to add your hardware

Quantized

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Akira-Papa/akira-papa-1.0-e4b-jp

Quantized
(111)
this model

Space using Akira-Papa/akira-papa-1.0-e4b-jp 1