# استخدام الصورة الرسمية التي تدمج Open WebUI مع Ollama FROM ghcr.io/open-webui/open-webui:ollama # ── إعدادات المسارات الدائمة (HF Spaces يربط المخزن على /data) ────────────── ENV OLLAMA_MODELS=/data/ollama ENV DATA_DIR=/data/webui ENV PORT=7860 ENV HOST=0.0.0.0 # ── إبقاء النموذج في الذاكرة إلى الأبد (لا تفريغ عند الخمول) ─────────────── ENV OLLAMA_KEEP_ALIVE=-1 # ── إعدادات النموذج المراد تحميله من Hugging Face ──────────────────────────── # غيّر هذه القيم فقط لتشغيل أي نموذج GGUF من HF دون تعديل أي شيء آخر: # # HF_REPO : مسار المستودع على HF (مثال: unsloth/gemma-4-E2B-it-GGUF) # HF_FILE : اسم ملف GGUF بدقة كما يظهر في المستودع # MODEL_NAME: الاسم الذي سيظهر به النموذج في واجهة Open WebUI # HF_TOKEN : (اختياري) مطلوب فقط للنماذج الخاصة/المحمية (gated models) ENV HF_REPO="gijl/gemma-4-E2B-it-GGUF" ENV HF_FILE="gemma-4-E2B-it-UD-Q5_K_XL.gguf" ENV MODEL_NAME="my-gemma" ENV HF_TOKEN="" # ── معاملات تشغيل النموذج (يمكن تعديلها حسب حجم النموذج والذاكرة المتاحة) ── ENV MODEL_CTX=128000 ENV MODEL_THREADS=2 # تثبيت أداة Hugging Face RUN pip install -U huggingface_hub # نسخ سكريبت التشغيل COPY run.sh /app/run.sh RUN chmod +x /app/run.sh CMD ["/app/run.sh"]