Spaces:
Paused
Paused
Update Dockerfile
Browse files- Dockerfile +0 -27
Dockerfile
CHANGED
|
@@ -1,27 +0,0 @@
|
|
| 1 |
-
لقد نجحت في تشغيل نموذج gemma 4:e4b لكنه بطيء جدا عدل محتوى الملف ليكون أسرع
|
| 2 |
-
FROM ollama/ollama:latest
|
| 3 |
-
|
| 4 |
-
# 1. إعداد المنفذ ليتوافق مع Hugging Face
|
| 5 |
-
ENV OLLAMA_HOST=0.0.0.0:7860
|
| 6 |
-
EXPOSE 7860
|
| 7 |
-
|
| 8 |
-
# 2. السماح للطلبات الخارجية (CORS) لكي يتمكن تطبيقك من الاتصال بالرابط
|
| 9 |
-
ENV OLLAMA_ORIGINS="*"
|
| 10 |
-
# لإبقاء النموذج في الذاكرة (RAM) دائماً لضمان استجابة فورية للطلبات
|
| 11 |
-
ENV OLLAMA_KEEP_ALIVE="-1"
|
| 12 |
-
|
| 13 |
-
# لتحسين أداء المعالج المركزي وتقليل التقطيع (مهم جداً لبيئة Hugging Face)
|
| 14 |
-
ENV GOMAXPROCS=2
|
| 15 |
-
|
| 16 |
-
# 3. تحديد مسار مخصص لحفظ النماذج وإعطائه الصلاحيات اللازمة (مهم جداً لبيئة Hugging Face)
|
| 17 |
-
ENV OLLAMA_MODELS=/.ollama/models
|
| 18 |
-
RUN mkdir -p /.ollama/models && chmod -R 777 /.ollama
|
| 19 |
-
|
| 20 |
-
# 4. تشغيل الخادم في الخلفية، الانتظار، تحميل النموذج، ثم إنهاء العملية بـ pkill
|
| 21 |
-
RUN ollama serve & \
|
| 22 |
-
sleep 1 && \
|
| 23 |
-
ollama pull gemma4:e4b && \
|
| 24 |
-
pkill ollama
|
| 25 |
-
|
| 26 |
-
# 5. تشغيل الخادم كعملية أساسية عند بدء الحاوية
|
| 27 |
-
CMD ["serve"]
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|