ElisNovel-V2-14B, vErticaL domaIn-Specific large language model for NOVEL
本模型基于Qwen3-14B,专门用于小说文本续写+扩写(完美穿透朱雀检测,AI率为0)。
安装方式(以ollama为例)
更新ollama(如果是window则右键upgrade即可):
curl -fsSL https://ollama.com/install.sh | sh
快速安装{
见 ElisNovel启动器.exe
}
手动安装{
下载gguf模型文件。
下载modelfile文件。
进入它们所在的同一个目录,输入以下命令:
ollama create ElisNovel-V2-14B-Q4_K_M -f Modelfile # 安装Q4_K_M精度
如将上述手动安装中的Q4_K_M(也包括Modelfile文件的第四行中的Q4_K_M)都改为Q8_0或F16,则会安装Q8_0或F16精度
模型名称默认为:ElisNovel-V2-14B-你选择的精度:latest
}
使用方式
ollama serve # 启动ollama
最大上下文长度8192tokens。
清空系统级提示词。
输入不超过4320字(具体为2880tokens,使用deepseek 14B蒸馏模型的的分词器)的前文,输入将要生成内容的细纲(远小于2422tokens),模型对细纲进行4320字扩写:
输入.txt(没错,细纲需要被“aaa258\n”和“\n456aaa”包裹){
【前文】
aaa258\n
【细纲】
\n456aaa
}
输出.txt{
【AI生成内容】
}
注意事项⚠️
- 请遵守apache-2.0。
- 生成内容的传播需符合当地法律法规。
- 模型生成内容的文风取决于前文文风。
信息反馈
交流群:755638032
- Downloads last month
- 26
Hardware compatibility
Log In to add your hardware
4-bit
8-bit
16-bit
Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support