Create Dockerfile
Browse files- Dockerfile +25 -0
Dockerfile
ADDED
|
@@ -0,0 +1,25 @@
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
| 1 |
+
FROM ollama/ollama:latest
|
| 2 |
+
|
| 3 |
+
# 1. إعداد المنفذ ليتوافق مع Hugging Face
|
| 4 |
+
ENV OLLAMA_HOST=0.0.0.0:7860
|
| 5 |
+
EXPOSE 7860
|
| 6 |
+
|
| 7 |
+
# 2. السماح للطلبات الخارجية (CORS) لكي يتمكن تطبيقك من الاتصال بالرابط
|
| 8 |
+
ENV OLLAMA_ORIGINS="*"
|
| 9 |
+
ENV OLLAMA_NUM_PARALLEL=1
|
| 10 |
+
ENV OLLAMA_MAX_LOADED_MODELS=1
|
| 11 |
+
ENV OLLAMA_KEEP_ALIVE=-1.5
|
| 12 |
+
# تحديد عدد مسارات المعالج (Hugging Face Free Tier تمتلك 2 vCPU فقط)
|
| 13 |
+
ENV GOMAXPROCS=2
|
| 14 |
+
# 3. تحديد مسار مخصص لحفظ النماذج وإعطائه الصلاحيات اللازمة (مهم جداً لبيئة Hugging Face)
|
| 15 |
+
ENV OLLAMA_MODELS=/.ollama/models
|
| 16 |
+
RUN mkdir -p /.ollama/models && chmod -R 777 /.ollama
|
| 17 |
+
|
| 18 |
+
# 4. تشغيل الخادم في الخلفية، الانتظار، تحميل النموذج، ثم إنهاء العملية بـ pkill
|
| 19 |
+
RUN ollama serve & \
|
| 20 |
+
sleep 2 && \
|
| 21 |
+
ollama pull gemma4:e2b && \
|
| 22 |
+
pkill ollama
|
| 23 |
+
|
| 24 |
+
# 5. تشغيل الخادم كعملية أساسية عند بدء الحاوية
|
| 25 |
+
CMD ["serve"]
|