LLM

اختبار: كيف يستخدم Ollama أداء وحدات المعالجة المركزية ووحدات المعالجة الفعالة من إنتل

اختبار: كيف يستخدم Ollama أداء وحدات المعالجة المركزية ووحدات المعالجة الفعالة من إنتل

أولاما على معالج إنتل: الكفاءة مقابل أداء النواة

لدي نظرية أريد اختبارها - هل استخدام جميع النوى على معالج Intel CPU سيزيد سرعة نماذج LLM؟ (اختبار: كيف يستخدم Ollama أداء معالج Intel ووحدات النوى الفعالة) يزعجني أن نموذج gemma3 27 بت (gemma3:27b، 17GB على ollama) لا يناسب 16GB VRAM لبطاقتي الرسومية، ويتم تشغيله جزئيًا على المعالج.

مقارنة ملاءمة وحدات معالجة الرسومات من نفيديا للذكاء الاصطناعي

مقارنة ملاءمة وحدات معالجة الرسومات من نفيديا للذكاء الاصطناعي

تتطلب الذكاء الاصطناعي الكثير من القوة...

في وسط الفوضى في العالم الحديث هنا أنا مقارنة مواصفات التكنولوجيا المختلفة المناسبة لمهام الذكاء الاصطناعي (التعلم العميق, كشف الكائنات ونماذج الذكاء الاصطناعي الكبيرة). ولكنها جميعًا باهظة التكلفة للغاية.

اختبار Deepseek-R1 على Ollama

اختبار Deepseek-R1 على Ollama

مقارنة نموذجين من deepseek-r1 بنموذجين أساسيين

نموذج DeepSeek الجيل الأول من نماذج الاستدلال التي تقدم أداءً مماثلاً لأداء نموذج OpenAI-o1، وتشمل ستة نماذج كثيفة تم استخلاصها من DeepSeek-R1 بناءً على Llama وQwen.

الاستضافة الذاتية لـ Perplexica - باستخدام Ollama

الاستضافة الذاتية لـ Perplexica - باستخدام Ollama

هل ترغب في تشغيل خدمة من نوع كوبيلو محليًا؟ سهل جدًا!

هذا أمر مثير للغاية! بدلاً من الاتصال بـ copilot أو perplexity.ai وإخبار العالم بأكمله بما تبحث عنه، يمكنك الآن تشغيل خدمة مشابهة على جهاز الكمبيوتر أو الحاسوب المحمول الخاص بك!

جemma2 مقابل Qwen2 مقابل Mistral Nemo مقابل...

جemma2 مقابل Qwen2 مقابل Mistral Nemo مقابل...

اختبار اكتشاف الأخطاء المنطقية

في الآونة الأخيرة، شهدنا إصدار عدد من النماذج الجديدة من LLMs. أوقات مثيرة. لنختبر ونرى كيف تؤدي الأداء عند اكتشاف الخطا المنطقية.

واجهات LLM

واجهات LLM

ليس هناك الكثير可供选择 ولكن ما زال هناك...

عندما بدأت بتجربة النماذج الكبيرة للغة (LLMs)، كانت واجهات المستخدم الخاصة بها في التطوير النشط، و اليوم أصبحت بعضها جيدة حقًا.