# استخدام بيئة بايثون خفيفة FROM python:3.10-slim # تحديث النظام وتثبيت المتطلبات الأساسية لترجمة وبناء المكتبة RUN apt-get update && apt-get install -y build-essential gcc g++ # تثبيت مكتبة llama-cpp-python مع خادم الـ API RUN pip install --no-cache-dir llama-cpp-python[server] # كشف المنفذ 7860 (المنفذ الافتراضي الذي تطلبه مساحات Hugging Face) EXPOSE 7860 # تشغيل الخادم وتحميل النموذج مباشرة من مستودعك # 🛑 تذكر: قم بتغيير الرابط إلى مسار نموذجك الفعلي CMD ["python", "-m", "llama_cpp.server", \ "--model", "https://huggingface.co/Arabic250/gemma-4-gguf-export/blob/main/gemma-4-e4b.gguf", \ "--host", "0.0.0.0", \ "--port", "7860"]