ElisNovel-V3-32B, vErticaL domaIn-Specific large language model for NOVEL
本模型基于Qwen3-32B,专门用于小说文本行与行之间的内容填充。
完美穿透朱雀检测,AI率为0。
手写的行与行之间的关系可以更加具有跳跃性,因为有AI负责行与行之间的平滑过渡,这允许作者只写一些较干的内容就能得到完整的章节,有效解决了部分人类作者一天2000字是人类极限但是网站要求日更4000字的问题。
安装方式(以ollama为例)
安装/更新ollama:
curl -fsSL https://ollama.com/install.sh | sh
快速安装{
见 ElisNovel启动器V3.exe
}
手动安装{
下载gguf模型文件。
下载modelfile文件。
进入它们所在的同一个目录,输入以下命令:
ollama create ElisNovel-V3-32B-Q4_K_M -f Modelfile # 安装Q4_K_M精度
如将上述手动安装中的Q4_K_M(也包括Modelfile文件的第四行中的Q4_K_M)改为Q3_K_S、Q6_K、Q8_0或F16,则会安装对应精度
模型名称默认为:ElisNovel-V3-32B-你选择的精度:latest
}
使用方式
set CUDA_VISIBLE_DEVICES=0 # 指定GPU0。你还可以设置为“0,1”,不过目前ollama多卡的效率不理想
set OLLAMA_HOST="0.0.0.0:11434" # 你的本地API为http://localhost:11434/api/generate
set OLLAMA_NUM_PARALLEL=1 # 并发数为1(不并发)
ollama serve # 启动ollama
最大上下文长度(num_ctx)设置为4927tokens或5770tokens。
清空系统级提示词。
输入接近2160字的内容,尽量接近1440tokens,可适当浮动,使用deepseek的qwen蒸馏模型的分词器(仅限数据集计算,训练依然按照Qwen3),模型在每个行与行之间生成新的行,下面是一个便于理解的例子,理论上不能输入这么短的内容:
输入.txt{
【被模型认为是由奇数行/偶数行组成的文本内容,比如:】
“斗之力,三段!”
“萧炎,斗之力,三段!级别:低级!”测验魔石碑之旁,一位中年男子,看了一眼碑上所显示出来的信息,语气漠然的将之公布了出来……
}
输出.txt{
【奇数行+偶数行,其中一种是模型生成的,比如:】
“斗之力,三段!”
望着测验魔石碑上面闪亮得甚至有些刺眼的五个大字,少年面无表情,唇角有着一抹自嘲,紧握的手掌,因为大力,而导致略微尖锐的指甲深深的刺进了掌心之中,带来一阵阵钻心的疼痛……
“萧炎,斗之力,三段!级别:低级!”测验魔石碑之旁,一位中年男子,看了一眼碑上所显示出来的信息,语气漠然的将之公布了出来……
中年男子话刚刚脱口,便是不出意外的在人头汹涌的广场上带起了一阵嘲讽的骚动。/think【模型以“/think”作为结束符,所以你可以看到在Modelfile中,设置了PARAMETER stop /think】
}
注意事项⚠️
- 请遵守apache-2.0。
- 生成内容的传播需符合当地法律法规。
- 模型生成内容的文风取决于输入内容的文风。
信息反馈
交流群:755638032
- Downloads last month
- 32
3-bit
4-bit
6-bit
8-bit
16-bit