# استخدام صورة بايثون خفيفة جداً بدلاً من الصورة المدمجة الثقيلة FROM python:3.10-slim # إعداد متغيرات البيئة لتحسين أداء المعالج (CPU) وضمان استجابة سريعة # OMP_NUM_THREADS: يحدد عدد مسارات المعالج المستخدمة لتشغيل النموذج ENV OMP_NUM_THREADS=8 ENV HOST=0.0.0.0 ENV PORT=7860 # توجيه البيانات لتحفظ في المساحة التخزينية الدائمة ENV HF_HOME=/data/huggingface ENV DATA_DIR=/data/models WORKDIR /app # تحديث النظام وتثبيت أدوات البناء الأساسية المطلوبة لترجمة مكتبات الذكاء الاصطناعي RUN apt-get update && apt-get install -y \ build-essential \ gcc \ g++ \ && rm -rf /var/lib/apt/lists/* # تثبيت المكتبات الأساسية مباشرة لتشغيل النموذج بأقصى سرعة RUN pip install --no-cache-dir huggingface_hub fastapi uvicorn "llama-cpp-python[server]" # نسخ سكريبت التشغيل الخاص بك COPY run.sh /app/run.sh # إعطاء صلاحيات التشغيل للسكريبت RUN chmod +x /app/run.sh # تعيين السكريبت كنقطة انطلاق (Entrypoint) CMD ["/app/run.sh"]