模型大小不太对吧
#1
by betterme - opened
q4
对llama.cpp版本有什么要求
@limoncc llama.cpp b1324 开始支持 Baichuan2。当前repo中的Baichuan2-13B-Chat-ggml-model-q4_0.gguf是使用 b1407 完成的。谢谢!
apepkuss79 changed discussion status to closed
q4
对llama.cpp版本有什么要求
@limoncc llama.cpp b1324 开始支持 Baichuan2。当前repo中的Baichuan2-13B-Chat-ggml-model-q4_0.gguf是使用 b1407 完成的。谢谢!