File size: 867 Bytes
9cc371a
 
 
 
 
 
 
 
 
 
 
 
 
 
 
360f253
9cc371a
 
1
2
3
4
5
6
7
8
9
10
11
12
13
14
15
16
17
18
# استخدام بيئة بايثون خفيفة
FROM python:3.10-slim

# تحديث النظام وتثبيت المتطلبات الأساسية لترجمة وبناء المكتبة
RUN apt-get update && apt-get install -y build-essential gcc g++

# تثبيت مكتبة llama-cpp-python مع خادم الـ API
RUN pip install --no-cache-dir llama-cpp-python[server]

# كشف المنفذ 7860 (المنفذ الافتراضي الذي تطلبه مساحات Hugging Face)
EXPOSE 7860

# تشغيل الخادم وتحميل النموذج مباشرة من مستودعك
# 🛑 تذكر: قم بتغيير الرابط إلى مسار نموذجك الفعلي
CMD ["python", "-m", "llama_cpp.server", \
     "--model", "https://huggingface.co/Arabic250/gemma-4-gguf-export/blob/main/gemma-4-e4b.gguf", \
     "--host", "0.0.0.0", \
     "--port", "7860"]