FROM ghcr.io/ggml-org/llama.cpp:full WORKDIR /app # إعداد بيئة بايثون لتحميل النموذج RUN apt update && apt install -y python3 python3-pip python3-venv RUN python3 -m venv /opt/venv ENV PATH="/opt/venv/bin:$PATH" RUN pip install -U pip huggingface_hub # تحميل النموذج وملف mmproj RUN python3 -c 'from huggingface_hub import hf_hub_download; \ repo="arabic250/gemma-4-E4B-it-GGUF"; \ hf_hub_download(repo_id=repo, filename="gemma-4-E4B-it-UD-Q5_K_XL.gguf", local_dir="/app"); \ hf_hub_download(repo_id=repo, filename="mmproj-BF16.gguf", local_dir="/app")' # تشغيل خادم llama-server مباشرة ليكون API # المنفذ 7860 هو المنفذ الافتراضي الذي تفتحه مساحات Hugging Face للعالم الخارجي CMD ["llama-server", \ "-m", "/app/gemma-4-E4B-it-UD-Q5_K_XL.gguf", \ "--mmproj", "/app/mmproj-BF16.gguf", \ "--host", "0.0.0.0", \ "--port", "7860", \ "-t", "2", \ "--cache-type-k", "q8_0", \ "--cache-type-v", "iq4_nl", \ "-c", "128000", \ "-n", "38912"]