| # استخدام بيئة بايثون خفيفة | |
| FROM python:3.10-slim | |
| # تحديث النظام وتثبيت المتطلبات الأساسية لترجمة وبناء المكتبة | |
| RUN apt-get update && apt-get install -y build-essential gcc g++ | |
| # تثبيت مكتبة llama-cpp-python مع خادم الـ API | |
| RUN pip install --no-cache-dir llama-cpp-python[server] | |
| # كشف المنفذ 7860 (المنفذ الافتراضي الذي تطلبه مساحات Hugging Face) | |
| EXPOSE 7860 | |
| # تشغيل الخادم وتحميل النموذج مباشرة من مستودعك | |
| # 🛑 تذكر: قم بتغيير الرابط إلى مسار نموذجك الفعلي | |
| CMD ["python", "-m", "llama_cpp.server", \ | |
| "--model", "https://huggingface.co/Arabic250/gemma-4-gguf-export/blob/main/gemma-4-e4b.gguf", \ | |
| "--host", "0.0.0.0", \ | |
| "--port", "7860"] |