gemma-map6788 / Dockerfile
Arabic250's picture
Update Dockerfile
7aa98cb verified
FROM ollama/ollama:latest
# 1. إعداد المنفذ ليتوافق مع Hugging Face
ENV OLLAMA_HOST=0.0.0.0:7860
EXPOSE 7860
# 2. السماح للطلبات الخارجية (CORS) لكي يتمكن تطبيقك من الاتصال بالرابط
ENV OLLAMA_ORIGINS="*"
ENV OLLAMA_NUM_PARALLEL=1
ENV OLLAMA_MAX_LOADED_MODELS=1
ENV OLLAMA_KEEP_ALIVE=0
# تحديد عدد مسارات المعالج (Hugging Face Free Tier تمتلك 2 vCPU فقط)
ENV GOMAXPROCS=2
# 3. تحديد مسار مخصص لحفظ النماذج وإعطائه الصلاحيات اللازمة (مهم جداً لبيئة Hugging Face)
ENV OLLAMA_MODELS=/.ollama/models
RUN mkdir -p /.ollama/models && chmod -R 777 /.ollama
# 4. تشغيل الخادم في الخلفية، الانتظار، تحميل النموذج، ثم إنهاء العملية بـ pkill
RUN ollama serve & \
sleep 1 && \
ollama pull gemma4:e4b && \
pkill ollama
# 5. تشغيل الخادم كعملية أساسية عند بدء الحاوية
CMD ["serve"]