ElisNovel-V2-14B, vErticaL domaIn-Specific large language model for NOVEL

本模型基于Qwen3-14B,专门用于小说文本续写+扩写(完美穿透朱雀检测,AI率为0)。

安装方式(以ollama为例)

更新ollama(如果是window则右键upgrade即可):

curl -fsSL https://ollama.com/install.sh | sh

快速安装{

见 ElisNovel启动器.exe

}

手动安装{

下载gguf模型文件。

下载modelfile文件。

进入它们所在的同一个目录,输入以下命令:

ollama create ElisNovel-V2-14B-Q4_K_M -f Modelfile # 安装Q4_K_M精度

如将上述手动安装中的Q4_K_M(也包括Modelfile文件的第四行中的Q4_K_M)都改为Q8_0或F16,则会安装Q8_0或F16精度

模型名称默认为:ElisNovel-V2-14B-你选择的精度:latest

}

使用方式

ollama serve # 启动ollama

最大上下文长度8192tokens。

清空系统级提示词。

输入不超过4320字(具体为2880tokens,使用deepseek 14B蒸馏模型的的分词器)的前文,输入将要生成内容的细纲(远小于2422tokens),模型对细纲进行4320字扩写:

输入.txt(没错,细纲需要被“aaa258\n”和“\n456aaa”包裹){

【前文】

aaa258\n

【细纲】

\n456aaa

}

输出.txt{

【AI生成内容】

}

注意事项⚠️

  1. 请遵守apache-2.0。
  2. 生成内容的传播需符合当地法律法规。
  3. 模型生成内容的文风取决于前文文风。

信息反馈

交流群:755638032

Downloads last month
26
GGUF
Model size
15B params
Architecture
qwen3
Hardware compatibility
Log In to add your hardware

4-bit

8-bit

16-bit

Inference Providers NEW
This model isn't deployed by any Inference Provider. 🙋 Ask for provider support