Murasaki Logo

Murasaki-4B-v0.3 (GGUF)

System 2 Reasoning Model for ACGN Translation

Github | Benchmark | BF16 Version | License: CC BY-NC-SA 4.0


murasaki 4b overview

简介

Murasaki 系列模型是专为轻小说、Galgame等 ACGN 领域训练的 System 2 推理型日中翻译模型。

这是 v0.3 系列的第一个模型,也是我们训练的首个4B参数的模型。相较于前代,我们在训练方法上进行了多项改进,并首次引入了基于 Prompt 的逻辑开关,支持自主选择是否开启显式思维链(CoT)输出。

在技术实现上,我们针对 Non-think(非思考)模式 进行了专项能力迁移:通过基于隐藏层向量对齐的加权 Loss 策略及思维链逐步压缩,尝试将深度推理能力内化至直接输出阶段。

实验证明,该方法使 Non-think 模式的译文表现显著优于未经混合训练的同类模型,在部分保留思维链的能力的同时优化了首字延迟(TTFT)与推理速度。

注:具体的 Prompt 文本请参考 BF16 版本介绍页面


文件列表与显存需求

✨ Now Live: 无需下载模型,点击 Online Demo 在线体验模型。

文件名 量化方法 文件大小 推荐显存 适用场景
Murasaki-4B-v0.3-Q6_K.gguf Q6_K 3.63 GB 6GB+ 推荐:高精度首选
Murasaki-4B-v0.3-Q5_K_M.gguf Q5_K_M 3.16 GB 6GB 平衡性能
Murasaki-4B-v0.3-Q4_K_M.gguf Q4_K_M 2.72 GB 4GB+ 经典量化
Murasaki-4B-v0.3-IQ4_XS.gguf IQ4_XS 2.48 GB 4GB 推荐:性价比最优
Murasaki-4B-v0.3-IQ3_M.gguf IQ3_M 2.13 GB 4GB 极低配置运行

快速开始 (GGUF)

方法 1: 使用官方 GUI (推荐)

为了获得最佳的翻译体验,请使用我们配套开发的开源前端翻译 GUI (v2.2.0 以上版本): 👉 Murasaki Translator (GitHub)

方法 2: 使用 llama.cpp

./llama-cli -m Murasaki-4B-v0.3-IQ4_XS.gguf \
  -p "[你是一位精通中日双语的资深ACGN翻译家...]" \
  -n 2048 \
  -t 8 \
  --temp 0.3 \
  -c 8192

推理参数建议

  • Temperature: 0.1 - 0.5 (推荐 0.3)
  • Repetition Penalty: 从 1.0 开始,如出现复读可增加至 1.05 - 1.1
  • Max New Tokens: 建议 2048 或更高(思考模式需要留出空间给 <think> 标签内容)

协议与致谢

  • Base Model: 特别感谢 SakuraLLM 提供的优秀 Base 模型。
  • License: 软件代码遵循 Apache-2.0 协议,模型权重遵循 CC BY-NC-SA 4.0 协议,严禁用于任何商业用途。

Copyright © 2026 Murasaki Project

Downloads last month
297
GGUF
Model size
4B params
Architecture
qwen3
Hardware compatibility
Log In to add your hardware

3-bit

4-bit

5-bit

6-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Murasaki-Project/Murasaki-4B-v0.3-GGUF

Quantized
(3)
this model

Collection including Murasaki-Project/Murasaki-4B-v0.3-GGUF