Update Dockerfile
Browse files- Dockerfile +6 -7
Dockerfile
CHANGED
|
@@ -8,7 +8,6 @@ FROM ghcr.io/open-webui/open-webui:main
|
|
| 8 |
# ------------------------------------------------------------------
|
| 9 |
# متغيرات البيئة
|
| 10 |
# ------------------------------------------------------------------
|
| 11 |
-
# مسارات التخزين الدائم (نفس هيكلك السابق)
|
| 12 |
ENV MODELS_DIR=/data/models
|
| 13 |
ENV DATA_DIR=/data/webui
|
| 14 |
ENV PORT=7860
|
|
@@ -26,21 +25,21 @@ ENV ENABLE_OPENAI_API=true
|
|
| 26 |
|
| 27 |
# ------------------------------------------------------------------
|
| 28 |
# تثبيت المتطلبات
|
|
|
|
| 29 |
# ------------------------------------------------------------------
|
| 30 |
RUN apt-get update && apt-get install -y --no-install-recommends \
|
| 31 |
curl \
|
| 32 |
libgomp1 \
|
| 33 |
-
libopenblas-dev \
|
| 34 |
-
pkg-config \
|
| 35 |
&& rm -rf /var/lib/apt/lists/*
|
| 36 |
|
| 37 |
# أداة تحميل النماذج من Hugging Face
|
| 38 |
RUN pip install -U huggingface_hub --no-cache-dir
|
| 39 |
|
| 40 |
-
# تثبيت llama-cpp-python م
|
| 41 |
-
#
|
| 42 |
-
RUN
|
| 43 |
-
|
|
|
|
| 44 |
|
| 45 |
# ------------------------------------------------------------------
|
| 46 |
# سكريبت التشغيل
|
|
|
|
| 8 |
# ------------------------------------------------------------------
|
| 9 |
# متغيرات البيئة
|
| 10 |
# ------------------------------------------------------------------
|
|
|
|
| 11 |
ENV MODELS_DIR=/data/models
|
| 12 |
ENV DATA_DIR=/data/webui
|
| 13 |
ENV PORT=7860
|
|
|
|
| 25 |
|
| 26 |
# ------------------------------------------------------------------
|
| 27 |
# تثبيت المتطلبات
|
| 28 |
+
# libgomp1 مطلوب فقط وقت التشغيل (OpenMP) — لا حاجة لأدوات البناء
|
| 29 |
# ------------------------------------------------------------------
|
| 30 |
RUN apt-get update && apt-get install -y --no-install-recommends \
|
| 31 |
curl \
|
| 32 |
libgomp1 \
|
|
|
|
|
|
|
| 33 |
&& rm -rf /var/lib/apt/lists/*
|
| 34 |
|
| 35 |
# أداة تحميل النماذج من Hugging Face
|
| 36 |
RUN pip install -U huggingface_hub --no-cache-dir
|
| 37 |
|
| 38 |
+
# تثبيت llama-cpp-python من pre-built wheel جاهز (ثوانٍ بدل ساعة)
|
| 39 |
+
# --extra-index-url يجلب نسخة CPU مبنية مسبقاً — لا تترجيم C++ لا انتظار
|
| 40 |
+
RUN pip install llama-cpp-python[server] \
|
| 41 |
+
--extra-index-url https://abetlen.github.io/llama-cpp-python/whl/cpu \
|
| 42 |
+
--no-cache-dir
|
| 43 |
|
| 44 |
# ------------------------------------------------------------------
|
| 45 |
# سكريبت التشغيل
|