File size: 867 Bytes
9cc371a 360f253 9cc371a | 1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 | # استخدام بيئة بايثون خفيفة
FROM python:3.10-slim
# تحديث النظام وتثبيت المتطلبات الأساسية لترجمة وبناء المكتبة
RUN apt-get update && apt-get install -y build-essential gcc g++
# تثبيت مكتبة llama-cpp-python مع خادم الـ API
RUN pip install --no-cache-dir llama-cpp-python[server]
# كشف المنفذ 7860 (المنفذ الافتراضي الذي تطلبه مساحات Hugging Face)
EXPOSE 7860
# تشغيل الخادم وتحميل النموذج مباشرة من مستودعك
# 🛑 تذكر: قم بتغيير الرابط إلى مسار نموذجك الفعلي
CMD ["python", "-m", "llama_cpp.server", \
"--model", "https://huggingface.co/Arabic250/gemma-4-gguf-export/blob/main/gemma-4-e4b.gguf", \
"--host", "0.0.0.0", \
"--port", "7860"] |