删除 --cache-type-k 和 --cache-type-v 参数,让 llama.cpp 使用默认的 f16 格式 6616980 Running ffreemt commited on Apr 9
Try Gemma-4-E4B-Uncensored-HauhauCS-Aggressive-Q5_K_P Dockfile --n-gpu-layers 99 adb51a2 ffreemt commited on Apr 9