Self-Hosting

أسعار NVidia RTX 5080 و RTX 5090 في أستراليا - أكتوبر 2025

أسعار NVidia RTX 5080 و RTX 5090 في أستراليا - أكتوبر 2025

أسعار وحدات معالجة الرسومات الموجهة للمستهلك المناسبة للذكاء الاصطناعي - RTX 5080 و RTX 5090

مرة تلو الأخرى، دعنا نقارن الأسعار بين أفضل بطاقات الجرافيكس للمستهلكين من المستوى الأعلى، والتي مناسبة بشكل خاص للنماذج العصبية الكبيرة (LLMs) وبشكل عام للذكاء الاصطناعي (AI).

بالتحديد، أنا أنظر إلى
أسعار RTX-5080 و RTX-5090.
لقد تراجعت بشكل طفيف.

تقييد نماذج LLM باستخدام إخراج مهيكل: Ollama، Qwen3 وPython أو Go

تقييد نماذج LLM باستخدام إخراج مهيكل: Ollama، Qwen3 وPython أو Go

بضع طرق للحصول على إخراج منظم من Ollama

النماذج الكبيرة للغة (LLMs) قوية، ولكن في الإنتاج نادراً ما نريد فقرات حرة. بدلاً من ذلك، نريد بيانات قابلة للتنبؤ: خصائص، حقائق، أو كائنات منظمة يمكنك إدخالها في تطبيق. هذا هو مخرجات LLM المنظمة.

كوبونتو مقابل كدي نيون: نظرة تقنية معمقة

كوبونتو مقابل كدي نيون: نظرة تقنية معمقة

جربت كلاً من كوبونتو و كدي نيون، وكوبونتو أكثر استقرارًا.

للمستخدمين الذين يفضلون KDE Plasma، تظهر توزيعتان لينكس بشكل متكرر في النقاش: Kubuntu وKDE Neon. قد تبدو متشابهتين - كلاهما تأتي مع KDE Plasma كسطح مكتب افتراضي، وكلاهما تعتمد على Ubuntu، وكلاهما ودية مع المستخدمين الجدد.

إنهيكتيفيكيشن أولا م - أعراض المبكرة

إنهيكتيفيكيشن أولا م - أعراض المبكرة

رأيي في الحالة الحالية لتطوير أوالما

Ollama أصبح من بين الأدوات الأكثر شعبية بسرعة لتشغيل نماذج LLM محليًا. بواجهة سطر الأوامر البسيطة وإدارة النماذج المبسطة، أصبحت خيارًا مفضلاً للمطورين الذين يريدون العمل مع نماذج الذكاء الاصطناعي خارج السحابة. لكن كما هو الحال مع منصات واعدة كثيرة، هناك مؤشرات مبكرة على Enshittification:

كيفية تثبيت خادم Mumble على Ubuntu واستخدام Mumble على Android وIOS

كيفية تثبيت خادم Mumble على Ubuntu واستخدام Mumble على Android وIOS

منصة بديلة للاتصال عبر بروتوكول الإنترنت الصوتي

مumble هو تطبيق مفتوح المصدر ومجاني لمحادثة الصوت عبر الإنترنت (VoIP) تم تصميمه بشكل أساسي لمحادثات الصوت في الوقت الفعلي. يستخدم هذا التطبيق بنية تحتية تعتمد على الخادم والعميل، حيث يربط المستخدمون مع خادم مشترك للتحدث مع بعضهم البعض.

واجهات المحادثة لمحليات Ollama

واجهات المحادثة لمحليات Ollama

نظرة سريعة على أكثر واجهات المستخدم بارزة لـ Ollama في عام 2025

يتيح Ollama المضيف محليًا تشغيل نماذج لغات كبيرة على جهازك الخاص، ولكن استخدامه عبر سطر الأوامر ليس ودودًا للمستخدم.
هناك عدة مشاريع مفتوحة المصدر توفر واجهات تشبه ChatGPT تربط مع Ollama المحلي.

تطبيقات مراقبة GPU في Linux / Ubuntu

تطبيقات مراقبة GPU في Linux / Ubuntu

قائمة قصيرة توضح تطبيقات مراقبة حمل وحدة المعالجة الرسومية

[تطبيقات مراقبة حمل وحدة معالجة الرسومات (GPU)](https://www.glukhov.org/ar/post/2025/08/gpu-monitoring-apps-linux/ “تطبيقات مراقبة حمل وحدة معالجة الرسومات (GPU)): nvidia-smi مقابل nvtop مقابل nvitop مقابل KDE plasma systemmonitor.

مقارنة توزيعات كيبرنيتيس لبيئة معملية منزلية تحتوي على 3 عقد

مقارنة توزيعات كيبرنيتيس لبيئة معملية منزلية تحتوي على 3 عقد

اختيار أفضل نسخة من كيبرناتس لبيئتنا المحلية

أنا مقارنة بين نسخ Kubernetes المضيفة محليًا
التي تناسب المختبر المحلي القائم على Ubuntu مع 3 عقد (16 جيجابايت من الذاكرة، 4 نوى لكل منها)، مع التركيز على سهولة التثبيت والصيانة، والدعم لوحدات التخزين المستمرة (Persistent Volumes) والمحولات (LoadBalancers).