API

أنماط هندسية لتأمين البيانات: أثناء الراحة، أثناء النقل، وأثناء التشغيل

أنماط هندسية لتأمين البيانات: أثناء الراحة، أثناء النقل، وأثناء التشغيل

دليل الأمان الشامل - البيانات الثابتة، المتحركة، أثناء التشغيل

عندما تكون البيانات أصولًا ثمينة، فإن حمايتها لم تكن أكثر أهمية من قبل.
من اللحظة التي يتم فيها إنشاء المعلومات إلى اللحظة التي تُلغي فيها،
تواجه رحلتها مخاطر عديدة - سواء تم تخزينها، نقلها، أو استخدامها نشطًا.

Strapi مقابل Directus مقابل Payload: مقارنة بين أنظمة إدارة المحتوى بدون رؤوس

Strapi مقابل Directus مقابل Payload: مقارنة بين أنظمة إدارة المحتوى بدون رؤوس

قارن CMS بدون رأس - الميزات، الأداء وحالات الاستخدام

اختيار CMS بدون رؤوس المناسب يمكن أن يحدد مصير استراتيجية إدارة المحتوى الخاصة بك. لنقم بمقارنة ثلاث حلول مفتوحة المصدر تؤثر على طريقة مطوري البرمجيات في بناء تطبيقات موجهة للمحتوى.

بناء تطبيقات CLI في Go باستخدام Cobra و Viper

بناء تطبيقات CLI في Go باستخدام Cobra و Viper

تطوير واجهة سطر الأوامر (CLI) في Go باستخدام إطارات Cobra و Viper

واجهات برمجة التطبيقات (CLI) ضرورية للتطوير، ومشرفو النظام، والمهنيين في DevOps. لقد أصبحت مكتبتان لغة Go هي المعيار الافتراضي لتطوير واجهات برمجة التطبيقات في Go: Cobra لهيكل الأوامر و Viper لإدارة التكوين.

دليل Elasticsearch: الأوامر الأساسية والنصائح

دليل Elasticsearch: الأوامر الأساسية والنصائح

أوامر Elasticsearch للبحث، والفرز، والتحليلات

Elasticsearch هو محرك بحث وتحليل قوي تم بناؤه على Apache Lucene. تحتوي هذه المجموعة الشاملة من الأوامر على الأوامر الأساسية، وال أفضل الممارسات، والمرجع السريع لاستخدام مجموعات Elasticsearch.

بناء خوادم MCP في بايثون: دليل البحث على الويب والتنقيب

بناء خوادم MCP في بايثون: دليل البحث على الويب والتنقيب

بناء خوادم MCP لمساعدي الذكاء الاصطناعي مع أمثلة بلغة بايثون

بروتوكول سياق النموذج (MCP) يُحدث طريقة تفاعل مساعدي الذكاء الاصطناعي مع مصادر البيانات الخارجية والأدوات. في هذا الدليل، سنستعرض كيفية بناء خوادم MCP في Python، مع أمثلة تركز على قدرات البحث عبر الإنترنت والتنقيب.

مُنفِّذ نموذج Docker مقابل Ollama: أيهما يجب اختياره؟

مُنفِّذ نموذج Docker مقابل Ollama: أيهما يجب اختياره؟

قارن بين Docker Model Runner و Ollama للذكاء الاصطناعي المحلي

تشغيل نماذج لغة كبيرة (LLMs) محليًا أصبح أكثر شيوعًا من أجل الخصوصية، والتحكم في التكاليف، والقدرات خارج الإنترنت. تغير المشهد بشكل كبير في أبريل 2025 عندما أدخلت Docker Docker Model Runner (DMR)، حلها الرسمي لنشر النماذج الذكية الاصطناعية.