다운받아서 ollama create 로 하니까 잘 되었습니다. 감사합니다.
#1
by Ghiwook - opened
페이지 우상단 'Use this model" 버튼 클릭 -> Ollama 클릭해서 나오는 ollama run ~~ 명령어로는 안되네요.
아래 처럼 하니까 되었습니다. 감사합니다.
nano download.py
// download.py
from huggingface_hub import snapshot_download
model_id="NeuroWhAI/BGE-m3-ko-gguf"
snapshot_download(repo_id=model_id, local_dir="bge_m3_ko_gguf", local_dir_use_symlinks=False, revision="main")
python download.py
cd bge_m3_ko_gguf
nano Modelfile
// ModelFile
FROM BGE-M3-567M-F16.gguf
ollama create neurowhai-bge-m3-ko-gguf-f16
ollama list
neurowhai-bge-m3-ko-gguf-f16:latest