gijl commited on
Commit
c2805ad
·
verified ·
1 Parent(s): 58075b7

Update Dockerfile

Browse files
Files changed (1) hide show
  1. Dockerfile +6 -7
Dockerfile CHANGED
@@ -8,7 +8,6 @@ FROM ghcr.io/open-webui/open-webui:main
8
  # ------------------------------------------------------------------
9
  # متغيرات البيئة
10
  # ------------------------------------------------------------------
11
- # مسارات التخزين الدائم (نفس هيكلك السابق)
12
  ENV MODELS_DIR=/data/models
13
  ENV DATA_DIR=/data/webui
14
  ENV PORT=7860
@@ -26,21 +25,21 @@ ENV ENABLE_OPENAI_API=true
26
 
27
  # ------------------------------------------------------------------
28
  # تثبيت المتطلبات
 
29
  # ------------------------------------------------------------------
30
  RUN apt-get update && apt-get install -y --no-install-recommends \
31
  curl \
32
  libgomp1 \
33
- libopenblas-dev \
34
- pkg-config \
35
  && rm -rf /var/lib/apt/lists/*
36
 
37
  # أداة تحميل النماذج من Hugging Face
38
  RUN pip install -U huggingface_hub --no-cache-dir
39
 
40
- # تثبيت llama-cpp-python مع دعم الخادم (OpenAI-compatible server)
41
- # CMAKE_ARGS تُفعّل OpenBLAS لتسريع الحسابات على CPU
42
- RUN CMAKE_ARGS="-DGGML_BLAS=ON -DGGML_BLAS_VENDOR=OpenBLAS" \
43
- pip install llama-cpp-python[server] --no-cache-dir
 
44
 
45
  # ------------------------------------------------------------------
46
  # سكريبت التشغيل
 
8
  # ------------------------------------------------------------------
9
  # متغيرات البيئة
10
  # ------------------------------------------------------------------
 
11
  ENV MODELS_DIR=/data/models
12
  ENV DATA_DIR=/data/webui
13
  ENV PORT=7860
 
25
 
26
  # ------------------------------------------------------------------
27
  # تثبيت المتطلبات
28
+ # libgomp1 مطلوب فقط وقت التشغيل (OpenMP) — لا حاجة لأدوات البناء
29
  # ------------------------------------------------------------------
30
  RUN apt-get update && apt-get install -y --no-install-recommends \
31
  curl \
32
  libgomp1 \
 
 
33
  && rm -rf /var/lib/apt/lists/*
34
 
35
  # أداة تحميل النماذج من Hugging Face
36
  RUN pip install -U huggingface_hub --no-cache-dir
37
 
38
+ # تثبيت llama-cpp-python من pre-built wheel جاهز (ثوانٍ بدل ساعة)
39
+ # --extra-index-url يجلب نسخة CPU مبنية مسبقاً — لا تترجيم C++ لا انتظار
40
+ RUN pip install llama-cpp-python[server] \
41
+ --extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu \
42
+ --no-cache-dir
43
 
44
  # ------------------------------------------------------------------
45
  # سكريبت التشغيل