AI

مقارنة أداء Ollama: NVIDIA DGX Spark مقابل Mac Studio مقابل RTX-4080

مقارنة أداء Ollama: NVIDIA DGX Spark مقابل Mac Studio مقابل RTX-4080

نتائج اختبار GPT-OSS 120b على ثلاث منصات ذكاء اصطناعي

قمت بتحليل بعض الاختبارات المثيرة للاهتمام حول أداء نموذج GPT-OSS 120b أثناء تشغيله على Ollama عبر ثلاث منصات مختلفة: NVIDIA DGX Spark، وMac Studio، وRTX 4080. يبلغ حجم نموذج GPT-OSS 120b من مكتبة Ollama 65 جيجابايت، مما يعني أنه لا يمكن أن يناسب الـ 16 جيجابايت من ذاكرة الفيديو (VRAM) الخاصة بـ RTX 4080 (أو النسخة الأحدث RTX 5080).

بناء خوادم MCP في بايثون: دليل البحث على الويب والتنقيب

بناء خوادم MCP في بايثون: دليل البحث على الويب والتنقيب

بناء خوادم MCP لمساعدي الذكاء الاصطناعي مع أمثلة بلغة بايثون

بروتوكول سياق النموذج (MCP) يُحدث طريقة تفاعل مساعدي الذكاء الاصطناعي مع مصادر البيانات الخارجية والأدوات. في هذا الدليل، سنستعرض كيفية بناء خوادم MCP في Python، مع أمثلة تركز على قدرات البحث عبر الإنترنت والتنقيب.

دفتر ملاحظات Docker Model Runner: الأوامر وال أمثلة

دفتر ملاحظات Docker Model Runner: الأوامر وال أمثلة

مُرجِعٌ سريعٌ للأوامر الخاصة بتشغيل نموذج Docker

Docker Model Runner (DMR) هو الحل الرسمي من Docker لتشغيل نماذج الذكاء الاصطناعي محليًا، وقد تم تقديمه في أبريل 2025. يوفر هذا الدليل مرجعاً سريعاً لجميع الأوامر الأساسية، والتكوينات، وال أفضل الممارسات.

مُنفِّذ نموذج Docker مقابل Ollama: أيهما يجب اختياره؟

مُنفِّذ نموذج Docker مقابل Ollama: أيهما يجب اختياره؟

قارن بين Docker Model Runner و Ollama للذكاء الاصطناعي المحلي

تشغيل نماذج لغة كبيرة (LLMs) محليًا أصبح أكثر شيوعًا من أجل الخصوصية، والتحكم في التكاليف، والقدرات خارج الإنترنت. تغير المشهد بشكل كبير في أبريل 2025 عندما أدخلت Docker Docker Model Runner (DMR)، حلها الرسمي لنشر النماذج الذكية الاصطناعية.

صعود شريحة LLM ASIC: لماذا تهم شريحة الاستنتاج؟

صعود شريحة LLM ASIC: لماذا تهم شريحة الاستنتاج؟

تُسرّع الشرائح المتخصصة من إجراء استنتاجات الذكاء الاصطناعي، وتُقلّل تكاليفها

المستقبل الذكاء الاصطناعي ليس فقط عن نماذج أذكى النماذج - بل عن سيلكون أذكى.

العتاد المخصص لـ استنتاج النماذج الكبيرة يقود ثورة مشابهة لتغيير تعدين البيتكوين إلى ASICs.

DGX Spark مقابل Mac Studio: مقارنة سعرية لمُعالج NVIDIA الشخصي للذكاء الاصطناعي

DGX Spark مقابل Mac Studio: مقارنة سعرية لمُعالج NVIDIA الشخصي للذكاء الاصطناعي

التوافر، وسعر التجزئة في العالم الحقيقي عبر ستة دول، مقارنة مع Mac Studio.

NVIDIA DGX Spark هو حقيقي، متاح للبيع 15 أكتوبر 2025، ويستهدف مطوري CUDA الذين يحتاجون إلى عمل محلي على نماذج LLM مع مكدس NVIDIA AI المتكامل. السعر الموصى به في الولايات المتحدة 3999 دولارًا أمريكيًا؛ بينما يكون السعر في المملكة المتحدة/ألمانيا/اليابان أعلى بسبب ضريبة القيمة المضافة والقناة. لا تزال الأسعار الرسمية في أستراليا/كوريا غير متوفرة على نطاق واسع.

تقييد نماذج LLM باستخدام إخراج مهيكل: Ollama، Qwen3 وPython أو Go

تقييد نماذج LLM باستخدام إخراج مهيكل: Ollama، Qwen3 وPython أو Go

بضع طرق للحصول على إخراج منظم من Ollama

النماذج الكبيرة للغة (LLMs) قوية، ولكن في الإنتاج نادراً ما نريد فقرات حرة. بدلاً من ذلك، نريد بيانات قابلة للتنبؤ: خصائص، حقائق، أو كائنات منظمة يمكنك إدخالها في تطبيق. هذا هو مخرجات LLM المنظمة.