مقارنة مساعدي كتابة الكود الذكاء الاصطناعي
مؤشر AI مقابل GitHub Copilot مقابل Cline AI مقابل...
سأ列举一些由人工智能辅助的编程工具和 مساعدي البرمجة بالذكاء الاصطناعي وفوائدهم الرائعة.
مؤشر AI مقابل GitHub Copilot مقابل Cline AI مقابل...
سأ列举一些由人工智能辅助的编程工具和 مساعدي البرمجة بالذكاء الاصطناعي وفوائدهم الرائعة.
أولاما على معالج إنتل: الكفاءة مقابل أداء النواة
لدي نظرية أريد اختبارها - هل استخدام جميع النوى على معالج Intel CPU سيزيد سرعة نماذج LLM؟ (اختبار: كيف يستخدم Ollama أداء معالج Intel ووحدات النوى الفعالة) يزعجني أن نموذج gemma3 27 بت (gemma3:27b، 17GB على ollama) لا يناسب 16GB VRAM لبطاقتي الرسومية، ويتم تشغيله جزئيًا على المعالج.
تهيئة ollama لتنفيذ طلبات متوازية.
عندما يتلقى خادم Ollama طلبين في نفس الوقت، فإن سلوكه يعتمد على إعداداته وموارد النظام المتاحة.
مقارنة نموذجين من deepseek-r1 بنموذجين أساسيين
نموذج DeepSeek الجيل الأول من نماذج الاستدلال التي تقدم أداءً مماثلاً لأداء نموذج OpenAI-o1، وتشمل ستة نماذج كثيفة تم استخلاصها من DeepSeek-R1 بناءً على Llama وQwen.
أعدت تجميع قائمة الأوامر هذه لـ Ollama منذ بضع وقت مضى...
هنا قائمة بأهم أوامر Ollama (قائمة أوامر Ollama)
جمعتها منذ فترة.
أتمنى أن تكون مفيدة لك أيضًا هنا.
الجولة التالية من اختبارات النماذج الكبيرة
لم تمرّ فترة طويلة منذ إصداره. دعنا ن迎头赶上 وTest how Mistral Small performs comparing to other LLMs.
كود بايثون لإعادة الترتيب في RAG
إعادة الترتيب هو خطوة ثانية في توليد المحتوى المعزز بالاسترجاع (RAG) الأنظمة, بين الاسترجاع والتكوين.
مقارنة بين محركي بحث الذكاء الاصطناعي الذاتيين
الطعام الرائع هو متعة للعين أيضًا. لكن في هذه المقالة، سنقارن بين نظامي بحث قائمين على الذكاء الاصطناعي، Farfalle و Perplexica.
هل ترغب في تشغيل خدمة من نوع كوبيلو محليًا؟ سهل جدًا!
هذا أمر مثير للغاية! بدلاً من الاتصال بـ copilot أو perplexity.ai وإخبار العالم بأكمله بما تبحث عنه، يمكنك الآن تشغيل خدمة مشابهة على جهاز الكمبيوتر أو الحاسوب المحمول الخاص بك!
اختبار اكتشاف الأخطاء المنطقية
في الآونة الأخيرة، شهدنا إصدار عدد من النماذج الجديدة من LLMs. أوقات مثيرة. لنختبر ونرى كيف تؤدي الأداء عند اكتشاف الخطا المنطقية.
ليس هناك الكثير可供选择 ولكن ما زال هناك...
عندما بدأت بتجربة النماذج الكبيرة للغة (LLMs)، كانت واجهات المستخدم الخاصة بها في التطوير النشط، و اليوم أصبحت بعضها جيدة حقًا.
يتطلب بعض التجريب ولكن
ما زال هناك بعض الأساليب الشائعة لكتابة محفزات جيدة بحيث لا يشعر النموذج اللغوي الضخم (LLM) بالارتباك عند محاولة فهم ما تريده منه.
8 نسخة من llama3 (Meta+) و5 نسخ من phi3 (Microsoft) من نماذج LLM
اختبار كيف تؤثر النماذج ذات عدد مختلف من المعلمات والكم量化 على الأداء.
تستغرق ملفات نموذج Ollama LLM مساحة كبيرة جدًا.
بعد تثبيت ollama من الأفضل إعادة تكوين ollama لتخزينها في مكان جديد فورًا. إذن بعد أن نسحب نموذجًا جديدًا، لن يتم تنزيله إلى الموقع القديم.