Murasaki Logo

Murasaki-8B-v0.1 (GGUF)

System 2 Reasoning Model for ACGN Translation
原生 CoT 思维链 · 长上下文 · ACGN 领域特化翻译模型

Github | Benchmark | BF16 Version | License: CC BY-NC-SA 4.0


⚠️ 提示:该模型已有更新的版本,推荐使用新版本以获取更好的体验。点击前往主页

简介

Murasaki-8B 是专为 ACGN 领域(轻小说、Galgame、漫画等)优化的 System 2 推理型翻译模型。

不同于传统的直觉式(System 1)模型,Murasaki-8B 引入了原生 Chain-of-Thought (CoT) 思维链技术。在生成译文前,模型会先在 <think> 标签内完成风格定调、动作流解析、人设推导及人称确认。这种机制显著提升了长难句的解析精度与叙事连贯性,特别是精准解决了 ACGN 翻译中常见的施动者/受动者判定模糊、人称混淆及语境风格漂移等难点,大幅提升了译文的准确度与可读性。

⚠️ 注意: 本仓库包含适用于本地部署的 GGUF 量化模型。 如需全精度 BF16 权重 (15.3 GB),请前往:Murasaki-8B-v0.1

文件列表与显存需求

文件名 量化方法 文件大小 推荐显存 适用场景
Murasaki-8B-v0.1-Q6_K.gguf Q6_K 6.27 GB 8GB+ 推荐:高精度/最佳质量
Murasaki-8B-v0.1-Q5_K_M.gguf Q5_K_M 5.45 GB 8GB+ 性能均衡
Murasaki-8B-v0.1-Q4_K_M.gguf Q4_K_M 4.68 GB 6GB+ 经典量化
Murasaki-8B-v0.1-IQ4_XS.gguf IQ4_XS 4.25 GB 6GB+ 推荐:性价比最优
Murasaki-8B-v0.1-IQ3_M.gguf IQ3_M 3.63 GB 6GB+ 极限压缩

快速开始 (GGUF)

方法 1: 使用官方 GUI (推荐)

为了获得最佳的翻译体验和底层优化,请使用我们配套开发的开源前端翻译GUI: 👉 Murasaki Translator (GitHub)

方法 2: 使用 llama.cpp

./llama-cli -m Murasaki-8B-v0.1-IQ4_XS.gguf \
  -p "你是一位精通二次元文化的资深轻小说翻译家。..." \
  -n 2048 \
  -t 8 \
  --temp 0.7 \
  -c 8192

评测表现

我们使用 wmt22-comet-da 指标,在 Murasaki-ACGN Benchmark 的两个段落级数据集(Long/Short)上评估了模型与专业人类译文的语义相似度。

💡 以下分数基于 IQ4_XS (4-bit) 量化版本测得。

综合排行榜 (截止模型发布时)

Rank Model Avg COMET Long Short
🥇 murasaki-8b-v0.1 0.8523 0.8778 0.8269
2 gemini-3-flash-preview 0.8512 0.8765 0.8262
3 Sakura-qwen-2.5-14B 0.8509 0.8735 0.8282
4 gpt-5-chat-latest 0.8503 0.8765 0.8250
5 gemini-2.5-flash 0.8502 0.8767 0.8243
6 gemini-3-pro-preview 0.8491 0.8744 0.8238
7 gpt-4.1 0.8490 0.8724 0.8259
8 claude-opus-4-5 0.8484 0.8732 0.8236

推理参数建议

  • Temperature: 0.1 - 0.5 (推荐 0.3)
  • Repetition Penalty: 从 1.0 开始,如出现复读可增加至 1.05 - 1.1
  • Max New Tokens: 建议 4096 或更高

协议与致谢

  • Base Model: 特别感谢 SakuraLLM 提供的优秀 Base 模型。
  • License: 软件代码遵循 Apache-2.0 协议,模型权重遵循 CC BY-NC-SA 4.0 协议,严禁用于任何商业用途。

Copyright © 2026 Murasaki Project

Downloads last month
49
GGUF
Model size
8B params
Architecture
qwen3
Hardware compatibility
Log In to add your hardware

3-bit

4-bit

5-bit

6-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support

Model tree for Murasaki-Project/Murasaki-8B-v0.1-GGUF

Quantized
(1)
this model

Collection including Murasaki-Project/Murasaki-8B-v0.1-GGUF