gijl commited on
Commit
5c0a142
·
verified ·
1 Parent(s): 8b81837

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +21 -14
Dockerfile CHANGED
@@ -1,21 +1,28 @@
1
- # استخدام الصورة الرسمية التي تدمج Open WebUI مع Ollama
2
- FROM ghcr.io/open-webui/open-webui:ollama
3
 
4
- # إعداد متغيرات البيئة لتوجيه كل البيانات إلى المخزن (Persistent Volume)
5
- # نفترض هنا أن المخزن الخاص بك مربوط على المسار /data (وهو الافتراضي في HF Spaces)
6
- ENV OLLAMA_MODELS=/data/ollama
7
- ENV DATA_DIR=/data/webui
8
- ENV PORT=7860
9
  ENV HOST=0.0.0.0
 
 
 
 
 
 
 
 
 
 
 
 
 
10
 
11
- # Add these:
12
- ENV ENABLE_COMMUNITY_SHARING=false
13
- ENV ENABLE_TELEMETRY=false
14
- ENV BYPASS_MODEL_ACCESS_CONTROL=true
15
- # تثبيت أداة Hugging Face لتحميل النماذج
16
- RUN pip install -U huggingface_hub
17
 
18
- # نسخ سكريبت التشغيل الذي أنشأناه
19
  COPY run.sh /app/run.sh
20
 
21
  # إعطاء صلاحيات التشغيل للسكريبت
 
1
+ # استخدام صورة بايثون خفيفة جداً بدلاً من الصورة المدمجة الثقيلة
2
+ FROM python:3.10-slim
3
 
4
+ # إعداد متغيرات البيئة لتحسين أداء المعالج (CPU) وضمان استجابة سريعة
5
+ # OMP_NUM_THREADS: يحدد عدد مسارات المعالج المستخدمة لتشغيل النموذج
6
+ ENV OMP_NUM_THREADS=8
 
 
7
  ENV HOST=0.0.0.0
8
+ ENV PORT=7860
9
+ # توجيه البيانات لتحفظ في المساحة التخزينية الدائمة
10
+ ENV HF_HOME=/data/huggingface
11
+ ENV DATA_DIR=/data/models
12
+
13
+ WORKDIR /app
14
+
15
+ # تحديث النظام وتثبيت أدوات البناء الأساسية المطلوبة لترجمة مكتبات الذكاء الاصطناعي
16
+ RUN apt-get update && apt-get install -y \
17
+ build-essential \
18
+ gcc \
19
+ g++ \
20
+ && rm -rf /var/lib/apt/lists/*
21
 
22
+ # تثبيت المكتبات الأساسية مباشرة لتشغيل النموذج بأقصى سرعة
23
+ RUN pip install --no-cache-dir huggingface_hub fastapi uvicorn "llama-cpp-python[server]"
 
 
 
 
24
 
25
+ # نسخ سكريبت التشغيل الخاص بك
26
  COPY run.sh /app/run.sh
27
 
28
  # إعطاء صلاحيات التشغيل للسكريبت