Self-Hosting

تشغيل FLUX.1-dev GGUF Q8 في Python

تشغيل FLUX.1-dev GGUF Q8 في Python

تسريع FLUX.1-dev باستخدام كمّ量化 GGUF

FLUX.1-dev هو نموذج قوي لتحويل النص إلى صورة ينتج نتائج مذهلة، ولكن متطلباته من الذاكرة البالغة 24 جيجابايت أو أكثر تجعله تحديًا لتشغيله على العديد من الأنظمة. تكميم GGUF لـ FLUX.1-dev يقدم حلًا، حيث يقلل من استخدام الذاكرة بنسبة تصل إلى 50% مع الحفاظ على جودة الصورة الممتازة.

Strapi مقابل Directus مقابل Payload: مقارنة بين أنظمة إدارة المحتوى بدون رؤوس

Strapi مقابل Directus مقابل Payload: مقارنة بين أنظمة إدارة المحتوى بدون رؤوس

قارن CMS بدون رأس - الميزات، الأداء وحالات الاستخدام

اختيار CMS بدون رؤوس المناسب يمكن أن يحدد مصير استراتيجية إدارة المحتوى الخاصة بك. لنقم بمقارنة ثلاث حلول مفتوحة المصدر تؤثر على طريقة مطوري البرمجيات في بناء تطبيقات موجهة للمحتوى.

استضافة Immich بشكل مستقل: سحابة صور خاصة

استضافة Immich بشكل مستقل: سحابة صور خاصة

صورك في نسخ احتياطية مدعومة بذكاء اصطناعي مضيف ذاتي

Immich هو حل مبتكر ومفتوح المصدر لتنظيم وتخزين الصور والفيديوهات بشكل مستضاف ذاتيًا، مما يمنحك السيطرة الكاملة على ذكرياتك. مع ميزات تتنافس مع Google Photos، بما في ذلك التعرف على الوجوه الذكاء الاصطناعي، والبحث الذكي، والنسخ الاحتياطي التلقائي من الهاتف المحمول، مع الحفاظ على خصوصيتك وسلامة بياناتك على خادمك الخاص.

دليل Elasticsearch: الأوامر الأساسية والنصائح

دليل Elasticsearch: الأوامر الأساسية والنصائح

أوامر Elasticsearch للبحث، والفرز، والتحليلات

Elasticsearch هو محرك بحث وتحليل قوي تم بناؤه على Apache Lucene. تحتوي هذه المجموعة الشاملة من الأوامر على الأوامر الأساسية، وال أفضل الممارسات، والمرجع السريع لاستخدام مجموعات Elasticsearch.

مقارنة أداء Ollama: NVIDIA DGX Spark مقابل Mac Studio مقابل RTX-4080

مقارنة أداء Ollama: NVIDIA DGX Spark مقابل Mac Studio مقابل RTX-4080

نتائج اختبار GPT-OSS 120b على ثلاث منصات ذكاء اصطناعي

قمت بتحليل بعض الاختبارات المثيرة للاهتمام حول أداء نموذج GPT-OSS 120b أثناء تشغيله على Ollama عبر ثلاث منصات مختلفة: NVIDIA DGX Spark، وMac Studio، وRTX 4080. يبلغ حجم نموذج GPT-OSS 120b من مكتبة Ollama 65 جيجابايت، مما يعني أنه لا يمكن أن يناسب الـ 16 جيجابايت من ذاكرة الفيديو (VRAM) الخاصة بـ RTX 4080 (أو النسخة الأحدث RTX 5080).

مُنفِّذ نموذج Docker مقابل Ollama: أيهما يجب اختياره؟

مُنفِّذ نموذج Docker مقابل Ollama: أيهما يجب اختياره؟

قارن بين Docker Model Runner و Ollama للذكاء الاصطناعي المحلي

تشغيل نماذج لغة كبيرة (LLMs) محليًا أصبح أكثر شيوعًا من أجل الخصوصية، والتحكم في التكاليف، والقدرات خارج الإنترنت. تغير المشهد بشكل كبير في أبريل 2025 عندما أدخلت Docker Docker Model Runner (DMR)، حلها الرسمي لنشر النماذج الذكية الاصطناعية.

GNOME Boxes: دليل شامل للميزات، المزايا، التحديات، والبدائل

GNOME Boxes: دليل شامل للميزات، المزايا، التحديات، والبدائل

إدارة بسيطة للآليات الافتراضية في Linux باستخدام GNOME Boxes

في بيئة الحوسبة الحديثة، أصبحت الافتراضية ضرورية لتطوير البرمجيات، والاختبار، وتشغيل أنظمة تشغيل متعددة. وللمستخدمين الذين يستخدمون Linux ويبحثون عن طريقة بسيطة وسلسة لإدارة أجهزة الافتراضية، يبرز GNOME Boxes كخيار خفيف وسهل الاستخدام يعطي الأولوية لسهولة الاستخدام دون التضحية بالوظائف.