Ollama

مقارنة أداء Ollama: NVIDIA DGX Spark مقابل Mac Studio مقابل RTX-4080

مقارنة أداء Ollama: NVIDIA DGX Spark مقابل Mac Studio مقابل RTX-4080

نتائج اختبار GPT-OSS 120b على ثلاث منصات ذكاء اصطناعي

قمت بتحليل بعض الاختبارات المثيرة للاهتمام حول أداء نموذج GPT-OSS 120b أثناء تشغيله على Ollama عبر ثلاث منصات مختلفة: NVIDIA DGX Spark، وMac Studio، وRTX 4080. يبلغ حجم نموذج GPT-OSS 120b من مكتبة Ollama 65 جيجابايت، مما يعني أنه لا يمكن أن يناسب الـ 16 جيجابايت من ذاكرة الفيديو (VRAM) الخاصة بـ RTX 4080 (أو النسخة الأحدث RTX 5080).

مُنفِّذ نموذج Docker مقابل Ollama: أيهما يجب اختياره؟

مُنفِّذ نموذج Docker مقابل Ollama: أيهما يجب اختياره؟

قارن بين Docker Model Runner و Ollama للذكاء الاصطناعي المحلي

تشغيل نماذج لغة كبيرة (LLMs) محليًا أصبح أكثر شيوعًا من أجل الخصوصية، والتحكم في التكاليف، والقدرات خارج الإنترنت. تغير المشهد بشكل كبير في أبريل 2025 عندما أدخلت Docker Docker Model Runner (DMR)، حلها الرسمي لنشر النماذج الذكية الاصطناعية.

تقييد نماذج LLM باستخدام إخراج مهيكل: Ollama، Qwen3 وPython أو Go

تقييد نماذج LLM باستخدام إخراج مهيكل: Ollama، Qwen3 وPython أو Go

بضع طرق للحصول على إخراج منظم من Ollama

النماذج الكبيرة للغة (LLMs) قوية، ولكن في الإنتاج نادراً ما نريد فقرات حرة. بدلاً من ذلك، نريد بيانات قابلة للتنبؤ: خصائص، حقائق، أو كائنات منظمة يمكنك إدخالها في تطبيق. هذا هو مخرجات LLM المنظمة.

إنهيكتيفيكيشن أولا م - أعراض المبكرة

إنهيكتيفيكيشن أولا م - أعراض المبكرة

رأيي في الحالة الحالية لتطوير أوالما

Ollama أصبح من بين الأدوات الأكثر شعبية بسرعة لتشغيل نماذج LLM محليًا. بواجهة سطر الأوامر البسيطة وإدارة النماذج المبسطة، أصبحت خيارًا مفضلاً للمطورين الذين يريدون العمل مع نماذج الذكاء الاصطناعي خارج السحابة. لكن كما هو الحال مع منصات واعدة كثيرة، هناك مؤشرات مبكرة على Enshittification:

واجهات المحادثة لمحليات Ollama

واجهات المحادثة لمحليات Ollama

نظرة سريعة على أكثر واجهات المستخدم بارزة لـ Ollama في عام 2025

يتيح Ollama المضيف محليًا تشغيل نماذج لغات كبيرة على جهازك الخاص، ولكن استخدامه عبر سطر الأوامر ليس ودودًا للمستخدم.
هناك عدة مشاريع مفتوحة المصدر توفر واجهات تشبه ChatGPT تربط مع Ollama المحلي.

إعادة ترتيب الوثائق باستخدام Ollama ونموذج Qwen3 Reranker - بلغة Go

إعادة ترتيب الوثائق باستخدام Ollama ونموذج Qwen3 Reranker - بلغة Go

هل تطبق RAG؟ إليك بعض أجزاء من كود Go - 2...

بما أن Ollama القياسي لا يحتوي على واجهة برمجة تطبيقات (API) لترتيب النتائج (Rerank) مباشرة، فإنك ستحتاج إلى تنفيذ ترتيب النتائج باستخدام نموذج Qwen3 Reranker في GO من خلال إنشاء تمثيلات (embeddings) للزوجات (query-document) وتصنيفها.

مقارنة جودة ترجمة صفحات Hugo - نماذج لغوية كبيرة على Ollama

مقارنة جودة ترجمة صفحات Hugo - نماذج لغوية كبيرة على Ollama

qwen3 8ب، 14ب و30ب، devstral 24ب، mistral small 24ب

في هذا الاختبار، أنا مقارنة كيف تترجم نماذج LLM المختلفة المضمنة في Ollama صفحات Hugo من الإنجليزية إلى الألمانية. ثلاث صفحات اختبرتها كانت على مواضيع مختلفة، وتحتوي على بعض العلامات المرجعية الجيدة مع بعض الهيكل: العناوين، والقوائم، والجداول، والروابط، وغيرها.