مُنفِّذ نموذج Docker مقابل Ollama: أيهما يجب اختياره؟
قارن بين Docker Model Runner و Ollama للذكاء الاصطناعي المحلي
تشغيل نماذج لغة كبيرة (LLMs) محليًا أصبح أكثر شيوعًا من أجل الخصوصية، والتحكم في التكاليف، والقدرات خارج الإنترنت. تغير المشهد بشكل كبير في أبريل 2025 عندما أدخلت Docker Docker Model Runner (DMR)، حلها الرسمي لنشر النماذج الذكية الاصطناعية.
الآن هناك ثلاث طرق تنافس من أجل اهتمام المطورين: Docker’s Model Runner الأصلي، الحلول المجمعة من طرف ثالث (vLLM، TGI)، والمنصة المستقلة Ollama.
فهم Docker Model Runners
تستخدم نماذج Docker المبنية على الحاويات تجميعًا لحزم محركات استنتاج LLM مع اعتماداتها. يشمل المشهد الحل الرسمي من Docker والاطر الخارجية.
Docker Model Runner (DMR) - الحل الرسمي
في أبريل 2025، أدخلت Docker Docker Model Runner (DMR)، منتج رسمي تم تصميمه لتبسيط تشغيل النماذج الذكية الاصطناعية محليًا باستخدام البنية التحتية لـ Docker. هذا يمثل التزام Docker بجعل نشر النماذج الذكية الاصطناعية سلسًا مثل نشر الحاويات.
الميزات الرئيسية لـ DMR:
- التكامل مع Docker الأصلي: استخدام الأوامر المألوفة لـ Docker (
docker model pull
،docker model run
،docker model package
) - حزم OCI Artifact: يتم حزم النماذج كـ OCI Artifacts، مما يسمح بتوزيعها عبر Docker Hub ومستودعات أخرى
- واجهة برمجة تطبيقات OpenAI المتوافقة: استبدال مباشر لواجهات OpenAI، مما يبسّط التكامل
- تسريع GPU: دعم GPU الأصلي دون تكوين nvidia-docker المعقد
- دعم تنسيق GGUF: يعمل مع تنسيقات النماذج المُكمّرة الشائعة
- تكامل Docker Compose: إعداد ونشر النماذج بسهولة باستخدام أدوات Docker القياسية
- دعم Testcontainers: يتكامل بسلاسة مع الإطارات الخاصة بالاختبار
التركيب:
- Docker Desktop: تفعيله عبر علامة التبويب AI في الإعدادات
- Docker Engine: تثبيت حزمة
docker-model-plugin
مثال الاستخدام:
# سحب نموذج من Docker Hub
docker model pull ai/smollm2
# تشغيل الاستنتاج
docker model run ai/smollm2 "شرح Docker Model Runner"
# حزم نموذج مخصص
docker model package --gguf /path/to/model.gguf --push myorg/mymodel:latest
يتعاون DMR مع Google و Hugging Face و VMware Tanzu لتوسيع النظام البيئي للنماذج الذكية الاصطناعية المتاحة عبر Docker Hub. إذا كنت جديدًا على Docker أو تحتاج إلى تذكير حول أوامر Docker، فإن دفتر ملاحظات Docker الخاص بنا يوفر دليلًا شاملًا للعمليات الأساسية في Docker.
الحلول الخارجية لـ Docker
بالإضافة إلى DMR، يشمل النظام البيئي إطارات مثبتة:
- حاويات vLLM: خادم استنتاج عالي الإنتاجية مُحسّن لمعالجة الدُفعات
- استنتاج توليد النص (TGI): حل من Hugging Face جاهز للإنتاج
- حاويات llama.cpp: تنفيذ C++ خفيف مع تكميم
- حاويات مخصصة: تغليف PyTorch و Transformers أو الإطارات الخاصة
مزايا النهج Docker
المرونة والمستقل عن الإطار: يمكن لحاويات Docker تشغيل أي إطار LLM، من PyTorch إلى ONNX Runtime، مما يمنح المطورين سيطرة كاملة على مكدس الاستنتاج.
عزل الموارد: تعمل كل حاوية في بيئات مُفصّلة مع حدود موارد مُحددة (المعالج، الذاكرة، GPU)، مما يمنع تضارب الموارد في النشرات متعددة النماذج.
دعم الترتيب: يتكامل Docker بسلاسة مع Kubernetes و Docker Swarm والمنصات السحابية لتوسيع النطاق، والتوازن في الحمل، والتوافر العالي.
التحكم في الإصدار: يمكن لنسخ مختلفة من النموذج أو الإطارات أن تتعايش على نفس النظام دون تضارب في الاعتماديات.
عيوب النهج Docker
التعقيد: يتطلب فهم تجميع الحاويات، تثبيت الحوافز، تكوين الشبكة، وتمرير GPU (nvidia-docker).
الإفراط: على الرغم من أنه قليل، فإن Docker يضيف طبقة تجميع رقيقة تؤثر قليلاً على وقت بدء التشغيل واستخدام الموارد.
عبء التكوين: يتطلب كل نشر تكوينًا دقيقًا لـ Dockerfiles والمتغيرات البيئية والparameters التشغيلية.
فهم Ollama
Ollama هو تطبيق مصمم خصيصًا لتشغيل نماذج LLM محليًا، ويتم تصميمه مع بساطة كمبدأ أساسي. يوفر:
- ملف ثنائي مدمج لنظام Linux و macOS و Windows
- مكتبة نماذج مدمجة مع تثبيت بواحدة فقط
- اكتشاف وتحسين GPU تلقائيًا
- واجهة برمجة تطبيقات RESTful المتوافقة مع تنسيق OpenAI
- إدارة سياق النموذج والحالة
مزايا Ollama
البساطة: سهل التثبيت (curl | sh
على Linux)، وتشغيل النماذج يتطلب فقط ollama run llama2
. للحصول على قائمة شاملة بأوامر Ollama ونمط الاستخدام، راجع دفتر ملاحظات Ollama.
الأداء المحسّن: مبني على llama.cpp، Ollama محسّن بشكل كبير لسرعة الاستنتاج مع دعم التكميم (Q4، Q5، Q8).
إدارة النماذج: سجل نماذج مدمج مع الأوامر مثل ollama pull
، ollama list
، و ollama rm
يبسّط دورة حياة النموذج.
تجربة المطور: واجهة برمجة تطبيقات نظيفة، وتوثيق واسع النطاق، ونظام تكامل متزايد (مثل LangChain، CrewAI، إلخ). تتنوع قدرات Ollama لتطبيقات متخصصة مثل إعادة ترتيب وثائق النص مع نماذج التضمين Ollama Qwen3.
كفاءة الموارد: إدارة الذاكرة التلقائية وتفريغ النماذج عند عدم الاستخدام تُحافظ على موارد النظام.
عيوب Ollama
القيود على الإطار: يدعم بشكل رئيسي النماذج المتوافقة مع llama.cpp، مما يحد من المرونة للإطارات مثل vLLM أو المحركات الخاصة بالاستنتاج.
الحد من التخصيص: التكوينات المتقدمة (التكميم المخصص، مسارات CUDA المحددة) أقل توفرًا مقارنة بالبيئات Docker.
تحديات الترتيب: على الرغم من أن Ollama يمكن تشغيله في الحاويات، إلا أنه لا يدعم ميزات الترتيب المتقدمة بشكل مباشر مثل التوسع الأفقي.
مقارنة الأداء
سرعة الاستنتاج
Docker Model Runner: الأداء مقارن مع Ollama حيث أن كليهما يدعم نماذج GGUF المُكمّرة. بالنسبة لـ Llama 2 7B (Q4)، توقع 20-30 رمزًا/ثانية على المعالج و 50-80 رمزًا/ثانية على GPUs متوسطة. تأثير الحاوية قليل.
Ollama: يستفيد من واجهة llama.cpp المحسّنة مع كفاءة التكميم. بالنسبة لـ Llama 2 7B (Q4)، توقع 20-30 رمزًا/ثانية على المعالج و 50-80 رمزًا/ثانية على GPUs متوسطة. لا تأثير لحالة الحاوية. لمزيد من التفاصيل حول كيفية إدارة Ollama للطلبات المتزامنة، راجع تحليلنا حول كيف يتعامل Ollama مع الطلبات المتزامنة.
Docker (vLLM): محسّن لمعالجة الدُفعات المستمرة. قد تكون الطلبات الفردية أبطأ قليلاً، لكن الأداء يتفوق عند حمل عالي من الطلبات المتزامنة (100+ رمزًا/ثانية لكل نموذج مع التجميع).
Docker (TGI): مشابه لـ vLLM مع أداء تجميع ممتاز. يضيف ميزات مثل البث والتكوين تدريجيًا.
استخدام الذاكرة
Docker Model Runner: مشابه لـ Ollama مع تحميل النماذج تلقائيًا. تستخدم النماذج GGUF Q4 عادةً 4-6 جيجابايت من الذاكرة. تأثير الحاوية قليل (عشرات من الميغابايت).
Ollama: إدارة الذاكرة التلقائية تحمّل النماذج عند الطلب وتفريغها عند عدم الاستخدام. تستخدم نموذج 7B Q4 عادةً 4-6 جيجابايت من الذاكرة. أكثر كفاءة لسيناريوهات النموذج الوحيد.
الحلول Docker التقليدية: يعتمد استخدام الذاكرة على الإطار. يقوم vLLM بتخصيص الذاكرة GPU مسبقًا للحصول على أداء مثالي، بينما قد تستخدم الحاويات القائمة على PyTorch المزيد من الذاكرة لوزن النموذج وKV كاش (8-14 جيجابايت لنموذج 7B).
وقت بدء التشغيل
Docker Model Runner: يضيف بدء تشغيل الحاوية ~1 ثانية، بالإضافة إلى تحميل النموذج (2-5 ثوانٍ). الإجمالي: 3-6 ثوانٍ للنماذج المتوسطة.
Ollama: بدء التشغيل فوري تقريبًا مع تحميل النموذج الذي يستغرق 2-5 ثوانٍ للنماذج المتوسطة. أسرع تجربة بدء التشغيل البارد.
الحلول Docker التقليدية: يضيف بدء تشغيل الحاوية 1-3 ثوانٍ، بالإضافة إلى وقت تحميل النموذج. يخفف هذا من خلال تدفئة الحاويات في النشرات الإنتاجية.
مقارنة مباشرة بين Docker Model Runner و Ollama
مع دخول Docker رسميًا في مجال تشغيل نماذج LLM، تصبح المقارنة أكثر إثارة للاهتمام. إليك كيف يقارن DMR و Ollama وجهًا لوجه:
الميزة | Docker Model Runner | Ollama |
---|---|---|
التركيب | علامة تبويب Docker AI أو docker-model-plugin |
أمر واحد: curl | sh |
نمط الأوامر | docker model pull/run/package |
ollama pull/run/list |
تنسيق النموذج | GGUF (OCI Artifacts) | GGUF (مدمج) |
توزيع النموذج | Docker Hub، مستودعات OCI | مستودع Ollama |
إعداد GPU | تلقائي (أبسط من Docker التقليدي) | تلقائي |
واجهة برمجة تطبيقات | متوافقة مع OpenAI | متوافقة مع OpenAI |
تكامل Docker | أصلي (هو Docker) | يُشغل في Docker إذا لزم الأمر |
دعم Compose | أصلي | عبر صورة Docker |
منحنى التعلم | منخفض (للمستخدمين المعتادين على Docker) | أقل (لجميع) |
شراكات النظام البيئي | Google، Hugging Face، VMware | LangChain، CrewAI، Open WebUI |
الأفضل لـ | سير العمل المبني على Docker | البساطة المطلقة |
الرؤية الرئيسية: يجلب DMR سير عمل Docker إلى نشر نماذج LLM، بينما يبقى Ollama مستقلًا عن الإطارات مع تشغيل بسيط. تهمة البنية التحتية الحالية أكثر من الاختلافات التقنية.
توصيات لحالات الاستخدام
اختر Docker Model Runner عندما
- سير العمل المبني على Docker: فريقك يستخدم Docker بشكل واسع
- أدوات موحدة: ترغب في أداة واحدة (Docker) للحاويات والنماذج
- توزيع OCI artifact: تحتاج إلى تكامل مع مستودعات الشركات
- تكامل Testcontainers: تختبر ميزات الذكاء الاصطناعي في CI/CD
- تفضيل Docker Hub: ترغب في توزيع النماذج عبر القنوات المألوفة
اختر Ollama عندما
- التجريب السريع: تجربة سريعة مع نماذج مختلفة
- مستقل عن الإطار: لا ترتبط ببيئة Docker
- البساطة المطلقة: أقل تكوين وصيانة
- النشرات على الخادم الوحيد: تشغيلها على الأجهزة المحمولة، الأجهزة الشخصية، أو الخادم الوحيد
- مكتبة النماذج الكبيرة: الوصول إلى مكتبة مُعدة مسبقًا واسعة النطاق
اختر الحلول الخارجية لـ Docker عندما
- النشرات الإنتاجية: تحتاج إلى ترتيب متقدم ومراقبة
- تشغيل نماذج متعددة: تشغيل إطارات مختلفة (vLLM، TGI) في وقت واحد
- ترتيب Kubernetes: توسيع النطاق عبر العناقيد مع التوازن في الحمل
- الإطارات المخصصة: استخدام Ray Serve أو المحركات الخاصة بالاستنتاج
- التحكم الصارم في الموارد: فرض حدود دقيقة للمعالج/GPU لكل نموذج
النهج الهجين: أفضل من كليهما
أنت لست محدودًا بنهج واحد. فكّر في هذه الاستراتيجيات الهجينة:
الخيار 1: Docker Model Runner + الحاويات التقليدية
استخدم DMR للنماذج القياسية وحاويات من طرف ثالث للإطارات المتخصصة:
# سحب نموذج قياسي مع DMR
docker model pull ai/llama2
# تشغيل vLLM لسيناريوهات الإنتاجية العالية
docker run --gpus all vllm/vllm-openai
الخيار 2: Ollama في Docker
تشغيل Ollama داخل حاويات Docker لاستخدام ميزات الترتيب:
docker run -d \
--name ollama \
--gpus all \
-v ollama:/root/.ollama \
-p 11434:11434 \
ollama/ollama
هذا يوفر:
- إدارة النماذج البسيطة لـ Ollama
- قدرات الترتيب والعزل من Docker
- نشر في Kubernetes مع مانيفستات القياسية
الخيار 3: مزيج وفقًا لحالات الاستخدام
- التطوير: Ollama للتجريب السريع
- التصحيح: Docker Model Runner لاختبار التكامل
- الإنتاج: vLLM/TGI في Kubernetes للتوسع
توافق الواجهة برمجة التطبيقات
تتقارب جميع الحلول الحديثة على واجهات برمجة تطبيقات متوافقة مع OpenAI، مما يبسّط التكامل:
واجهة Docker Model Runner: تُقدّم نقاط نهاية متوافقة مع OpenAI تلقائيًا عند تشغيل النماذج. لا تحتاج إلى تكوين إضافي.
# تُعرض الواجهة برمجة التطبيقات تلقائيًا عند تشغيل النموذج
docker model run ai/llama2
# استخدم نقطة النهاية المتوافقة مع OpenAI
curl http://localhost:8080/v1/chat/completions -d '{
"model": "llama2",
"messages": [{"role": "user", "content": "لماذا السماء زرقاء؟"}]
}'
واجهة Ollama: نقاط نهاية متوافقة مع OpenAI تجعلها بديلًا مباشرًا للتطبيقات التي تستخدم SDK من OpenAI. يدعم البث بشكل كامل.
curl http://localhost:11434/api/generate -d '{
"model": "llama2",
"prompt": "لماذا السماء زرقاء؟"
}'
واجهات Docker الخارجية: تقدم vLLM و TGI نقاط نهاية متوافقة مع OpenAI، بينما قد تستخدم الحاويات المخصصة واجهات برمجة تطبيقات خاصة.
التوافق مع OpenAI يعني أنك تستطيع التبديل بين الحلول مع تغييرات قليلة في الكود.
إدارة الموارد
تسريع GPU
Docker Model Runner: دعم GPU أصلي دون تكوين nvidia-docker المعقد. يكتشف و يستخدم GPUs المتاحة تلقائيًا، مما يبسّط تجربة Docker GPU بشكل كبير مقارنة بالحاويات التقليدية.
# تسريع GPU يعمل تلقائيًا
docker model run ai/llama2
Ollama: اكتشاف GPU تلقائي على GPUs NVIDIA قابلة لـ CUDA. لا تحتاج إلى تكوين إضافي سوى تثبيت المُساعدين.
الحاويات التقليدية لـ Docker: يتطلب nvidia-docker runtime و تخصيص GPU صريح:
docker run --gpus all my-llm-container
الاعتماد على المعالج
كلاهما يعتمد على المعالج عند عدم توفر GPUs، على الرغم من أن الأداء ينخفض بشكل كبير (5-10 مرات أبطأ للنماذج الكبيرة). للحصول على رؤية حول الأداء فقط على المعالجات الحديثة، اقرأ اختبارنا حول كيف يستخدم Ollama أداء المعالجات ووحدات المعالجة الفعالة من Intel.
دعم GPUs متعددة
Ollama: يدعم توزيع التنسور عبر GPUs متعددة للنماذج الكبيرة.
Docker: يعتمد على الإطار. تدعم vLLM و TGI استنتاج GPUs متعددة مع التكوين المناسب.
المجتمع والنظام البيئي
Docker Model Runner: أُطلق في أبريل 2025 مع دعم قوي من الشركات. شراكات مع Google و Hugging Face و VMware Tanzu AI Solutions تضمن توفر نماذج واسعة. التكامل مع مجتمع Docker الضخم (ملايين المستخدمين) يوفر الوصول الفوري إلى النظام البيئي. لا يزال يبني موارد المجتمع الخاصة كمنتج جديد.
Ollama: مجتمع سريع النمو مع أكثر من 50K نجمة على GitHub. تكامل قوي مع النظام البيئي (LangChain، LiteLLM، Open WebUI، CrewAI) ومجتمع نشط على Discord. أدوات ثالثة واسعة النطاق ودروس تعليمية متاحة. وثائق أكثر نضجًا ومصادر مجتمعية. للحصول على مراجعة شاملة للمواد المتاحة، راجع دليلنا حول واجهات المستخدم المفتوحة المصدر للنماذج المحلية Ollama. كما هو الحال مع أي مشروع مفتوح المصدر سريع النمو، من المهم مراقبة اتجاه المشروع - اقرأ تحليلنا حول العلامات المبكرة لـ Ollama Enshittification لفهم المخاوف المحتملة.
الحلول الخارجية لـ Docker: vLLM و TGI لديهما نظام بيئي ناضج مع دعم الشركات. دراسات حالة إنتاجية واسعة، دليلات تحسين، ونمطيات نشر من Hugging Face والمساهمين في المجتمع.
اعتبارات التكلفة
Docker Model Runner: مجاني مع Docker Desktop (الشخصي/التعليمي) أو Docker Engine. يتطلب Docker Desktop اشتراكًا للشركات الأكبر (250+ موظف أو دخل 10 ملايين دولار أمريكي أو أكثر). تُوزع النماذج عبر Docker Hub وفقًا لأسعار مستودع Docker (مستودعات عامة مجانية، مستودعات خاصة مدفوعة).
Ollama: مجاني تمامًا ومفتوح المصدر بدون تكاليف ترخيص بغض النظر عن حجم الشركة. تكاليف الموارد تعتمد فقط على الأجهزة.
الحلول الخارجية لـ Docker: مجانية للإطارات المفتوحة المصدر (vLLM، TGI). تكاليف محتملة لمنصات ترتيب الحاويات (ECS، GKE) وتخزين المستودعات الخاصة.
اعتبارات الأمان
Docker Model Runner: يستفيد من نموذج الأمان لـ Docker مع عزل الحاويات. يمكن فحص النماذج المُحزمّة كـ OCI Artifacts وتوقيعها. توزيعها عبر Docker Hub يسمح بتحكم الوصول وفحص الثغرات لمستخدمي الشركات.
Ollama: يعمل كخدمة محلية مع تطبيق واجهة برمجة تطبيقات مُعرض على localhost بشكل افتراضي. يتطلب تكوينًا صريحًا لعرض الشبكة. يُعتبر مستودع النماذج موثوقًا (مُعدّ من Ollama)، مما يقلل من مخاطر سلسلة التوريد.
الحلول التقليدية لـ Docker: عزل الشبكة مدمج. فحص أمان الحاويات (Snyk، Trivy) وتوقيع الصور هو ممارسة معيّنة في البيئات الإنتاجية.
تحتاج جميع الحلول إلى الانتباه إلى:
- مصدر النموذج: قد تحتوي النماذج غير الموثوقة على كود ضار أو خلفيات
- الاعتماد على الواجهة برمجة التطبيقات: تطبيق المصادقة/التوثيق في النشرات الإنتاجية
- الحد من المعدل: منع الاستغلال ونفاد الموارد
- عرض الشبكة: تأكد من أن الواجهات برمجة التطبيقات لا تُعرض بشكل غير متعمد على الإنترنت
- خصوصية البيانات: تُعالج النماذج البيانات الحساسة؛ تأكد من الامتثال للقوانين المتعلقة بحماية البيانات
مسارات الهجرة
من Ollama إلى Docker Model Runner
يُسهل دعم GGUF في Docker Model Runner الهجرة:
- تفعيل Docker Model Runner في Docker Desktop أو تثبيت
docker-model-plugin
- تحويل مراجع النماذج:
ollama run llama2
→docker model pull ai/llama2
وdocker model run ai/llama2
- تحديث نقاط النهاية من
localhost:11434
إلى نقطة DMR (عادةlocalhost:8080
) - كلاهما يستخدم واجهات برمجة تطبيقات متوافقة مع OpenAI، لذا تتطلب رمز التطبيق تغييرات قليلة
من Docker Model Runner إلى Ollama
الانتقال إلى Ollama للحصول على تشغيل بسيط مستقل:
- تثبيت Ollama:
curl -fsSL https://ollama.ai/install.sh | sh
- سحب النماذج المكافئة:
ollama pull llama2
- تحديث نقاط النهاية إلى
localhost:11434
الخاصة بـ Ollama - اختبار مع
ollama run llama2
للتحقق من الوظائف
من الحاويات التقليدية لـ Docker إلى DMR
تبسيط إعدادك لـ Docker LLM:
- تفعيل Docker Model Runner
- استبدال ملفات Dockerfile المخصصة بأوامر
docker model pull
- إزالة تكوين nvidia-docker (DMR يتعامل مع GPU تلقائيًا)
- استخدام
docker model run
بدلًا من أوامرdocker run
المعقدة
من أي حل إلى Ollama في Docker
نهج يجمع بين أفضل ما في كليهما:
docker pull ollama/ollama
- تشغيل:
docker run -d --gpus all -v ollama:/root/.ollama -p 11434:11434 ollama/ollama
- استخدام أوامر Ollama كما عادة:
docker exec -it ollama ollama pull llama2
- احصل على ترتيب Docker مع بساطة Ollama
المراقبة والشفافية
Ollama: معايير أساسية عبر الواجهة برمجة التطبيقات (/api/tags
، /api/ps
). توفر أدوات ثالثة مثل Open WebUI لوحات التحكم.
Docker: تكامل كامل مع Prometheus و Grafana و ELK stack وخدمات مراقبة السحابة. معايير الحاويات (المعالج، الذاكرة، GPU) متاحة بسهولة.
الخاتمة
تغيرت مشهد نشر النماذج الذكية الاصطناعية محليًا بشكل كبير مع تقديم Docker لـ Docker Model Runner (DMR) في عام 2025. الآن، الاختيار يعتمد على متطلباتك الخاصة:
- للمطورين الذين يبحثون عن تكامل Docker: يوفر DMR تكاملًا مباشرًا مع سير عمل Docker مع أوامر
docker model
- للمرونة القصوى: يظل Ollama الحل الأسهل مع إدارة النماذج بواحدة فقط
- للإنتاج والشركات: يوفر كلا DMR والحلول الخارجية (vLLM، TGI) في Docker ميزات الترتيب والمراقبة والتوسع
- لأفضل من كليهما: قم بتشغيل Ollama في حاويات Docker لدمج البساطة مع البنية التحتية الإنتاجية
يقلل تقديم DMR من الفجوة بين Docker و Ollama من حيث سهولة الاستخدام. يظل Ollama الأفضل في البساطة للتجريب السريع، بينما يتفوق DMR على الفرق التي تستثمر بالفعل في سير عمل Docker. كلا النهجين يتطوران بشكل نشط، ويكونان جاهزين للإنتاج، ونظام البيئة ناضج بما يكفي لجعل التبديل بينهما نسبيًا سهلًا.
الخلاصة: إذا كنت تستخدم Docker بشكل واسع، فإن DMR هو الخيار الطبيعي. إذا كنت ترغب في تجربة أبسط مهما كانت البنية التحتية، فاختر Ollama.
الروابط المفيدة
Docker Model Runner
- صفحة Docker Model Runner الرسمية
- وثائق Docker Model Runner
- دليل البدء بـ Docker Model Runner
- مدونة إعلان Docker Model Runner
Ollama
حلول Docker الأخرى
مقالات مفيدة أخرى
- دفتر ملاحظات Ollama
- دفتر ملاحظات Docker
- كيف يتعامل Ollama مع الطلبات المتزامنة
- اختبار: كيف يستخدم Ollama أداء المعالجات ووحدات المعالجة الفعالة من Intel
- إعادة ترتيب وثائق النص مع Ollama ونموذج Qwen3 التضمين - في Go
- واجهات المستخدم المفتوحة المصدر للنماذج المحلية Ollama
- مقدمة أولية لـ Ollama Enshittification