hcf-gemma-4

基于 Gemma 4 E4B Instruct 微调的中文对话模型,训练目标是模仿知名直播主播户晨风的说话风格与语气。


模型简介

项目 详情
基础模型 google/gemma-4-E4B-it(通过 unsloth 加速)
微调方法 LoRA(r=8, lora_alpha=8,仅更新语言层)
训练数据 户晨风 2023–2025 年直播文字稿,489 个文件
训练样本 167,275 条单轮问答对
训练步数 2,000 步(Tesla T4,4-bit 量化)
可训练参数 18,350,080 / 8,014,506,528(约 0.23%)
发布格式 GGUF Q8_0

数据集与预处理

训练数据来源于 HuChenFeng 项目整理的直播文字稿,格式为每行一句、全角冒号分隔说话人:

某网友:你觉得这个事情怎么看?
户晨风:哎,我跟你讲,这个事情吧……

预处理脚本(prepare_dataset.py)的主要步骤:

  • 说话人映射某网友 → user户晨风 → assistant
  • 礼物感谢清洗:去除 感谢XXX / 谢谢XXX(随机用户 ID),保留 感谢大家 / 谢谢主播 等通用表达
  • 冗余标点折叠………………!!!
  • 零信号用户回合过滤:纯语气词(如"嗯""哦",≤4字)的用户回合直接丢弃
  • 相邻同角色合并:保证严格的 user/assistant 交替,符合 Gemma-4 chat template 要求

微调保留了户晨风的口头禅("是吧""你听我讲""刚开播刚开播"等),这正是风格迁移的目标。


使用方式

使用 llama.cpp / Ollama(推荐)

# 下载 GGUF 文件后
llama-cli -m hcf-gemma-4-Q8_0.gguf \
  --chat-template gemma \
  -p "电车买什么好?" \
  --temp 1.0 --top-p 0.95 --top-k 64

使用 Python(transformers + unsloth)

from unsloth import FastModel
from unsloth.chat_templates import get_chat_template

model, tokenizer = FastModel.from_pretrained(
    model_name="hasbai/hcf-gemma-4",
    max_seq_length=1024,
    load_in_4bit=True,
)
tokenizer = get_chat_template(tokenizer, chat_template="gemma-4")

messages = [{"role": "user", "content": "你觉得年轻人现在最应该做什么?"}]
inputs = tokenizer.apply_chat_template(
    messages,
    add_generation_prompt=True,
    return_tensors="pt",
    return_dict=True,
).to("cuda")

outputs = model.generate(
    **inputs,
    max_new_tokens=256,
    temperature=1.0, top_p=0.95, top_k=64,
)
print(tokenizer.decode(outputs[0], skip_special_tokens=True))

推荐推理参数temperature=1.0, top_p=0.95, top_k=64(与 Gemma-4 官方推荐一致)


局限性与声明

  • 风格迁移,非知识增强:本模型的目标是学习户晨风的语言风格,不代表其观点正确性,也不构成任何形式的建议。
  • 直播语料特点:训练数据为口语化直播文字稿,模型输出会带有较强的口语色彩、语气词与重复表达,这是有意为之。
  • 基础模型限制:本模型继承 Gemma-4 E4B 的能力边界,复杂推理、专业知识等方面仍受基础模型限制。
  • 版权说明:训练数据文字稿由第三方整理,本项目仅用于学术与技术研究目的。

训练复现

# 1. 克隆仓库(含语料子模块)
git clone --recurse-submodules https://github.com/hasbai/hcf
cd hcf

# 2. 生成训练数据
python prepare_dataset.py --mode pair --output hcf_sft_pair.jsonl

# 3. 在 Colab 运行训练 notebook
#    见 Gemma4_(E4B)-Text.ipynb

相关链接

Downloads last month

-

Downloads are not tracked for this model. How to track
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for hasbai/hcf-gemma-4

Adapter
(35)
this model