Murasaki-14B-v0.2 (GGUF)
System 2 Reasoning Model for ACGN Translation
原生 CoT 思维链 · 长上下文 · ACGN 领域特化翻译模型
Github | Benchmark | BF16 Version | License: CC BY-NC-SA 4.0
简介
Murasaki-14B 是专为 ACGN 领域(轻小说、Galgame、漫画等)优化的 System 2 推理型翻译模型。
不同于传统的直觉式(System 1)模型,Murasaki-8B 引入了原生 Chain-of-Thought (CoT) 思维链技术。在生成译文前,模型会先在 <think> 标签内完成风格定调、动作流解析、人设推导及人称确认。这种机制显著提升了长难句的解析精度与叙事连贯性,特别是精准解决了 ACGN 翻译中常见的施动者/受动者判定模糊、人称混淆及语境风格漂移等难点,大幅提升了译文的准确度与可读性。
Prompt 预设说明
本模型针对三种不同场景进行了专项训练。请根据您的翻译对象,在参考文档中选择对应的 System Prompt 使用:
轻小说翻译模式 (Light Novel Mode)
- 适用场景:轻小说正文、Web 小说、文学性较强的文本。
- 特点:注重叙事连贯性、文学风格保留和长上下文关联。
剧本模式翻译 (Script Mode)
- 适用场景:动画字幕、Galgame 脚本、漫画文本。
- 特点:针对对话进行了优化,擅长处理碎片化文本、口语表达,以及大量缺失主语的处理。
短句翻译模式 (Short Sentence Mode)
- 适用场景:UI 文本、系统提示、无上下文的独立短句。
- 特点:去除冗余的思维链联想,直译原意,避免过度脑补。
具体 Prompt 文本请参考 F16版本的介绍页面
文件列表与显存需求
✨ Now Live: 无需下载模型,点击 Online Demo 在线体验模型。
| 文件名 | 量化方法 | 文件大小 | 推荐显存 | 适用场景 |
|---|---|---|---|---|
Murasaki-14B-v0.2-Q6_K.gguf |
Q6_K | 11.29 GB | 16GB+ | 推荐:最佳性能 |
Murasaki-14B-v0.2-Q5_K_M.gguf |
Q5_K_M | 9.79 GB | 12GB+ | 高精度需求 |
Murasaki-14B-v0.2-Q4_K_M.gguf |
Q4_K_M | 8.38 GB | 10GB+ | 经典量化 |
Murasaki-14B-v0.2-IQ4_XS.gguf |
IQ4_XS | 7.55 GB | 10GB+ | 推荐:性价比最优 |
Murasaki-14B-v0.2-IQ3_M.gguf |
IQ3_M | 6.41 GB | 8GB+ | 极限压缩 |
快速开始 (GGUF)
方法 1: 使用官方 GUI (推荐)
为了获得最佳的翻译体验(并自动应用上述三种模式),请使用我们配套开发的开源前端翻译GUI(v1.6.0以上版本): 👉 Murasaki Translator (GitHub)
方法 2: 使用 llama.cpp
./llama-cli -m Murasaki-14B-v0.2-IQ4_XS.gguf \
-p "[你是一位精通中日双语的资深ACGN翻译家...]" \
-n 2048 \
-t 8 \
--temp 0.3 \
-c 8192
推理参数建议
- Temperature:
0.1-0.5(推荐0.3) - Repetition Penalty: 从
1.0开始,如出现复读可增加至1.05-1.1 - Max New Tokens: 建议
4096或更高
协议与致谢
- Base Model: 特别感谢 SakuraLLM 提供的优秀 Base 模型。
- License: 软件代码遵循 Apache-2.0 协议,模型权重遵循 CC BY-NC-SA 4.0 协议,严禁用于任何商业用途。
Copyright © 2026 Murasaki Project
- Downloads last month
- 326
3-bit
4-bit
5-bit
6-bit
Model tree for Murasaki-Project/Murasaki-14B-v0.2-GGUF
Base model
Murasaki-Project/Murasaki-14B-v0.2