다운받아서 ollama create 로 하니까 잘 되었습니다. 감사합니다.

#1
by Ghiwook - opened

페이지 우상단 'Use this model" 버튼 클릭 -> Ollama 클릭해서 나오는 ollama run ~~ 명령어로는 안되네요.

아래 처럼 하니까 되었습니다. 감사합니다.

nano download.py
// download.py
from huggingface_hub import snapshot_download
model_id="NeuroWhAI/BGE-m3-ko-gguf"
snapshot_download(repo_id=model_id, local_dir="bge_m3_ko_gguf", local_dir_use_symlinks=False, revision="main")

python download.py

cd bge_m3_ko_gguf
nano Modelfile
// ModelFile
FROM BGE-M3-567M-F16.gguf

ollama create neurowhai-bge-m3-ko-gguf-f16

ollama list

neurowhai-bge-m3-ko-gguf-f16:latest

Sign up or log in to comment