واجهات المحادثة لمحليات Ollama

نظرة سريعة على أكثر واجهات المستخدم بارزة لـ Ollama في عام 2025

Page content

يتيح Ollama المضيف محليًا تشغيل نماذج لغات كبيرة على جهازك الخاص، ولكن استخدامه عبر سطر الأوامر ليس ودودًا للمستخدم.
هناك عدة مشاريع مفتوحة المصدر توفر واجهات تشبه ChatGPT تربط مع Ollama المحلي.

تدعم هذه الواجهات المحادثة التفاعلية، غالبًا مع ميزات مثل تحميل المستندات لاسترجاع المعرفة المعززة (RAG)، وتُشغل كتطبيقات ويب أو سطح المكتب. أدناه مقارنة بين خيارات رئيسية، تليها أقسام مفصلة حول كل منها.

مقارنة بين واجهات Ollama المتوافقة

أداة الواجهة المنصة دعم المستندات تكامل Ollama المزايا القيود
Page Assist إضافة متصفح (Chrome, Firefox) نعم – إضافة ملفات للتحليل يربط مع Ollama المحلي عبر إعدادات الإضافة محادثة داخل المتصفح؛ إدارة نموذج سهلة ومكاملة مع سياق الصفحة. محدودة على المتصفح فقط؛ يتطلب تثبيت وإعداد إضافة.
Open WebUI تطبيق ويب (مُضيف ذاتي؛ Docker/PWA) نعم – RAG مدمج (تحميل مستندات أو إضافتها إلى المكتبة) دعم مباشر لواجهة API لـ Ollama أو خادم مدمج (إعداد عنوان URL الأساسي) ميزات واسعة النطاق (دعم متعدد النماذج، العمل دون اتصال، إنشاء الصور)؛ متوافق مع الأجهزة المحمولة (PWA). إعداد أكثر تعقيدًا (Docker/K8s)؛ النطاق الواسع قد يكون مفرطًا للاستخدام البسيط.
LobeChat تطبيق ويب (مُضيف ذاتي؛ دعم PWA) نعم – “المكتبة المعرفية” مع رفع الملفات (PDF، الصور، إلخ.) دعم Ollama كواحد من عدة مصادر AI (يتطلب تمكين واجهة API لـ Ollama) واجهة مماثلة لـ ChatGPT؛ محادثة صوتية، إضافات، ودعم متعدد النماذج. ميزات معقدة؛ يتطلب إعداد البيئة (مثل تجاوز الحدود المكانية لـ Ollama).
LibreChat تطبيق ويب (مُضيف ذاتي؛ متعدد المستخدمين) نعم – “محادثة مع الملفات” باستخدام RAG (عبر التضمينات) متوافق مع Ollama وعديد من الموردين الآخرين (قابل للتبديل حسب المحادثة) واجهة مألوفة مثل ChatGPT؛ ميزات غنية (الوكلاء، مفسر الكود، إلخ). قد يكون التثبيت/الإعداد معقدًا؛ المشروع كبير قد يكون أكثر من اللازم للاستخدام البسيط.
AnythingLLM تطبيق سطح المكتب (Windows, Mac, Linux) أو ويب (Docker) نعم – RAG مدمج: سحب وتشغيل المستندات (PDF، DOCX، إلخ.) مع المراجع Ollama مدعوم كمصدر نموذج (يتم إعداده في الإعدادات أو Docker env) واجهة متكاملة (ChatGPT الخاص بك مع مستنداتك)؛ مُنشئ الوكلاء بدون رمز، دعم متعدد المستخدمين. استخدام موارد أعلى (قاعدة بيانات التضمينات، إلخ.)؛ تطبيق سطح المكتب يفتقر إلى بعض ميزات متعدد المستخدمين.
Chat-with-Notes تطبيق ويب (خادم Flask خفيف) نعم – رفع النص/الملفات PDF ومحادثة محتواها يستخدم Ollama لجميع إجابات الذكاء الاصطناعي (يتطلب تشغيل Ollama محليًا) إعداد بسيط وواجهة مركزة على محادثة المستندات؛ البيانات تظل محلية. واجهة بسيطة وميزات محدودة؛ مستخدم واحد، مستند واحد في المرة (لا ميزات متقدمة).

كل هذه الأدوات مُدارة نشطًا ومفتوحة المصدر. في المقطع التالي، نغوص في تفاصيل كل خيار، بما في ذلك كيفية عملها مع Ollama، والميزات البارزة، والتنازلات.

Page Assist (إضافة المتصفح)

Page Assist هي إضافة مفتوحة المصدر للمتصفح تجلب محادثة نموذج الذكاء الاصطناعي المحلي إلى متصفحك. تدعم المتصفحات القائمة على Chromium وFirefox، وتقدم شريط جانبي أو علامة تبويب تشبه ChatGPT حيث يمكنك التحدث مع نموذج. يمكن لـ Page Assist الاتصال بـ Ollama المحلي كمصدر للذكاء الاصطناعي، أو مصادر محلية أخرى، عبر إعداداتها. بشكل ملحوظ، تسمح لك بإضافة ملفات (مثل PDFs أو النصوص) للتحليل من قبل الذكاء الاصطناعي داخل المحادثة، مما يمكّن من عمليات RAG الأساسية. يمكنك حتى مساعدتك في محتوى الصفحة الحالية أو إجراء بحث على الإنترنت للحصول على المعلومات.

الإعداد بسيط: قم بتثبيت الإضافة من متجر Chrome Web Store أو Firefox Add-ons، وتأكد من تشغيل Ollama، وحدد Ollama كمصدر الذكاء الاصطناعي المحلي في إعدادات Page Assist. تشمل الواجهة ميزات مثل سجل المحادثة، اختيار النموذج، ورابط قابل للمشاركة لنتائج المحادثة. تتوفر واجهة ويب أيضًا عبر اختصار لوحة المفاتيح إذا كنت تفضل تجربة المحادثة الكاملة في علامة تبويب.

المزايا: Page Assist خفيفة وملائمة – نظرًا لأنها تعيش في المتصفح، لا يوجد خادم منفصل يجب تشغيله. وهي مثالية لسياقات التصفح (يمكنك فتحها على أي صفحة) وتدعم دمج البحث على الإنترنت ومرفقات الملفات لتعزيز المحادثة. كما توفر ميزات مفيدة مثل اختصارات لوحة المفاتيح لإنشاء محادثة جديدة وتبديل الشريط الجانبي.

القيود: كإضافة، فهي محدودة ببيئة المتصفح. الواجهة بسيطة نسبيًا وقليلًا من الميزات مقارنة بالتطبيقات المستقلة الكاملة. على سبيل المثال، إدارة المستخدمين المتعددين أو الوكلاء المتقدمة ليست ضمن نطاقها. علاوة على ذلك، قد يتطلب الإعداد الأولي بناء/تحميل الإضافة إذا لم تكن هناك إصدار معبأ مسبقًا لمتصفحك (يوفر المشروع تعليمات بناء باستخدام Bun أو npm). بشكل عام، Page Assist هي الأفضل للاستخدام الفردي عندما ترغب في الوصول السريع إلى محادثة مدعومة بـ Ollama أثناء التصفح، مع قدرات RAG معتدلة.

Open WebUI (تطبيق ويب مُضيف ذاتيًا)

واجهة Open WebUI

واجهة إعدادات Open WebUI، تظهر اتصالًا بـ Ollama مُكوّنًا (عنوان URL الأساسي مُحدد إلى واجهة API محليّة لـ Ollama). تشمل الواجهة قسمًا للمستندات، مما يمكّن من عمليات RAG.

Open WebUI هو واجهة قوية ومُعمّمة للمحادثة تم إنشاؤها في الأصل للعمل مع Ollama، وتم توسيعها الآن لدعم مصادر نماذج الذكاء الاصطناعي المختلفة. تعمل كتطبيق ويب مُضيف ذاتيًا، وغالبًا ما يتم نشرها عبر Docker أو Kubernetes لتسهيل الإعداد. بمجرد تشغيلها، يمكنك الوصول إليها عبر متصفحك (مع دعم تثبيتها كتطبيق ويب تقدمي على الأجهزة المحمولة).

تُوفر Open WebUI واجهة محادثة كاملة مع دعم متعدد المستخدمين وإدارة النماذج وميزات واسعة. بشكل حيوي، لديها قدرات RAG مدمجة – يمكنك رفع أو استيراد مستندات إلى مكتبة مستندات، ثم طرح أسئلة مع استرجاع المعزز. تسمح الواجهة بتحميل المستندات مباشرة داخل جلسة محادثة أو الحفاظ على مكتبة مستندات مستمرة. حتى تدعم إجراء بحوث على الإنترنت وإدراج النتائج في المحادثة لتقديم معلومات محدثة.

تكامل Ollama: تربط Open WebUI مع Ollama عبر واجهتها API. يمكنك إما تشغيل حاوية Open WebUI Docker بجانب خادم Ollama وتعيين متغير بيئة لتحديد عنوان URL لـ Ollama، أو استخدام صورة Docker الخاصة التي تجمع Ollama مع الواجهة. في الممارسة العملية، بعد تشغيل الحاويات، ستزور Open WebUI في متصفحك وترى “تم التحقق من اتصال الخادم” إذا تم تكوينها بشكل صحيح (كما هو موضح في الصورة أعلاه). هذا يعني أن الواجهة جاهزة لاستخدام نماذج Ollama المحلية للمحادثة. تدعم Open WebUI أيضًا نقاط النهاية المتوافقة مع API OpenAI، لذا يمكنها الاتصال بـ LM Studio، OpenRouter، إلخ، بالإضافة إلى Ollama.

المزايا: هذه الحلول واحدة من الأكثر غنى بالميزات والمرونة. تدعم عدة نماذج متزامنة وخطوط محادثة، شخصيات مخصصة أو تعليمات النظام، وإنشاء الصور، وغيرها. تنفيذ RAG قوي – تحصل على واجهة كاملة لإدارة المستندات وحتى تكوين أي تخزين متجه أو خدمة بحث للاسترجاع. Open WebUI أيضًا مُدارة نشطًا (مع مجتمع واسع، كما يشير عدد النجوم المرتفع على GitHub) وتم تصميمها للتوسع والتوسع. إنها خيار جيد إذا كنت تبحث عن واجهة محادثة شاملة لنماذج محلية، خاصة في سيناريو متعدد المستخدمين أو استخدامات معقدة.

القيود: مع القوة الكبيرة يأتي تعقيد أكبر. يمكن أن تكون Open WebUI مفرطة للاستخدام الشخصي البسيط – تثبيت حاويات Docker وإدارة التكوين قد يكون مخيفًا إذا لم تكن معتادًا على ذلك. تستخدم موارد أكثر من تطبيق خفيف، نظرًا لأنها تشغّل خادم ويب، وقاعدة بيانات اختيارية لسجل المحادثة، إلخ. بالإضافة إلى ذلك، الميزات مثل إدارة الوصول بناءً على الأدوار والمستخدمين، على الرغم من أنها مفيدة، تشير إلى أنها موجهة للاستخدام في بيئة خادم – مستخدم واحد في جهاز كمبيوتر منزلي قد لا يحتاج إلى كل ذلك. باختصار، الإعداد أثقل والواجهة قد تبدو معقدة إذا كنت بحاجة فقط إلى نسخة بسيطة من ChatGPT. ولكن بالنسبة لمن يحتاج إلى ميزاتها المتنوعة (أو يريد التبديل بسهولة بين Ollama وموردي النماذج الأخرى في واجهة واحدة)، فإن Open WebUI هي خيار رائد.

LobeChat (إطار مماثل لـ ChatGPT مع إضافات)

واجهة LobeChat

شريط إعلانات واجهة LobeChat يعرض “Ollama Supported” وعددًا من النماذج المحلية. يمكن لـ LobeChat نشر تطبيق ويب مماثل لـ ChatGPT باستخدام Ollama أو موردين آخرين، مع ميزات مثل إدخال الصوت وإضافات.

LobeChat هي إطار مفتوح المصدر للمحادثة يركز على تجربة المستخدم المُحسّنة والمرونة. إنها في الأساس تطبيق ويب مماثل لـ ChatGPT يمكنك نشره بنفسك، مع دعم عدد من موردي الذكاء الاصطناعي – من OpenAI وAnthropic إلى نماذج مفتوحة المصدر عبر Ollama. تم تصميم LobeChat مع الخصوصية في الاعتبار (يمكنك تشغيلها بنفسك) وتحتوي على واجهة حديثة تشمل ميزات مثل ذاكرة المحادثة، وضع المحادثة الصوتية، وحتى إنشاء الصور عبر الإضافات.

إحدى ميزات LobeChat الرئيسية هي قدرتها على قاعدة المعرفة. يمكنك رفع مستندات (بأي صيغ مثل PDFs، الصور، الصوت، الفيديو) وإنشاء قاعدة معرفة يمكن الاستعانة بها خلال المحادثة. هذا يعني أنك يمكن أن تطرح أسئلة حول محتوى ملفاتك – وهو عملية RAG تدعمها LobeChat بشكل افتراضي. توفر الواجهة إدارة هذه الملفات/قواعد المعرفة وتمكّنك من تبديل استخدامها في المحادثة، مما يعطي تجربة Q&A أثريّة أكثر من النموذج الأساسي.

للاستخدام مع Ollama، ستحتاج إلى نشر تطبيق LobeChat (على سبيل المثال عبر صورة Docker المقدمة أو النصوص) وتكوين Ollama كخادم. تدرك LobeChat Ollama كمصدر رئيسي – حتى توفر نسخة تنصيب واحدة عبر متصفح Pinokio AI إذا كنت تستخدمه. في الممارسة العملية، قد تحتاج إلى تعديل إعدادات Ollama (مثل تمكين CORS حسب وثائق LobeChat) حتى يمكن لواجهة الويب الأمامية لـ LobeChat الوصول إلى واجهة API HTTP لـ Ollama. بمجرد التكوين، يمكنك اختيار نموذج مضيف على Ollama في واجهة LobeChat ومحادثته، بما في ذلك طرح أسئلة حول المستندات المرفوعة.

المزايا: تُشيد واجهة LobeChat غالبًا بأنها نظيفة وسهلة الاستخدام، وتشبه بشكل وثيق مظهر وشعور ChatGPT (ما يسهل التبني). تضيف قيمة مع إضافات مثل إدخال/إخراج الصوت للمحادثات الصوتية ونظام إضافات لتوسيع الوظائف (مثيلًا مثل تصفح الويب أو إنشاء الصور). دعم النماذج متعددة يعني أنك يمكن أن تتبديل بسهولة بين نموذج Ollama المحلي ونموذج OpenAI API في نفس الواجهة. كما أنها تدعم التثبيت كتطبيق PWA متوافق مع الأجهزة المحمولة، بحيث يمكنك الوصول إلى محادثتك المحلية أثناء التنقل.

القيود: يمكن أن يكون إعداد LobeChat أكثر تعقيدًا من بعض الخيارات الأخرى. إنها تطبيق كامل (غالبًا ما يتم تشغيله عبر Docker Compose)، لذا هناك بعض التحميل. بشكل خاص، تكوين تكامل Ollama يتطلب تمكين طلبات المتصفح المتقاطعة من جانب Ollama وضمان توافق المنافذ – مهمة واحدة، ولكن تقنية. بالإضافة إلى ذلك، بينما LobeChat قوية، قد لا تكون جميع الميزات مطلوبة لكل مستخدم؛ على سبيل المثال، إذا لم تكن بحاجة إلى دعم موردي متعددين أو الإضافات، قد تبدو الواجهة مزدحمة مقارنة بتطبيق بسيط. أخيرًا، بعض الميزات المتقدمة مثل النشر بضغطة واحدة تعتمد على بيئات معينة (متصفح Pinokio أو Vercel)، والتي قد تستخدمها أو لا. بشكل عام، LobeChat هي الخيار المثالي إذا كنت تبحث عن خيار متكامل لـ ChatGPT يعمل محليًا مع Ollama، ولا تمانع في بعض التكوين الأولي للوصول إليه.

LibreChat (نسخة مماثلة لـ ChatGPT مع دعم موردي متعددين)

LibreChat (المعروفة سابقًا باسم ChatGPT-Clone أو UI) هي مشروع مفتوح المصدر يهدف إلى تقليد وتوسيع واجهة ووظائف ChatGPT. يمكن نشرها محليًا (أو على خادمك الخاص) وتدعم مجموعة متنوعة من مصادر الذكاء الاصطناعي – بما في ذلك النماذج المفتوحة المصدر عبر Ollama. في الأساس، توفر LibreChat تجربة محادثة مألوفة (واجهة محادثة مع تاريخ المحادثة، رسائل المستخدم والمساعد) بينما تسمح لك بتوصيل موردي نماذج مختلفة في الخلفية.

تدعم LibreChat تفاعل المستندات وRAG عبر إضافة تُسمى RAG API وخدمات التضمين. في الواجهة، يمكنك استخدام ميزات مثل “محادثة مع الملفات”، مما يسمح لك برفع المستندات وطرح أسئلة عنها. في الخلفية، هذا يستخدم التضمينات وقاعدة بيانات المتجهات للحصول على سياق مناسب من ملفاتك. هذا يعني أنك يمكن أن تحقق تأثيرًا مشابهًا لـ ChatGPT + معرفة مخصصة، كلها محليًا. يوفر المشروع حتى مستودعًا منفصلًا لخدمة RAG إذا كنت ترغب في نشرها بنفسك.

استخدام LibreChat مع Ollama عادة ما يتضمن تشغيل خادم LibreChat (على سبيل المثال عبر Node/Docker) وضمان قدرته على الوصول إلى خدمة Ollama. تحتوي LibreChat على إعداد “نقطة النهاية المخصصة” حيث يمكنك إدخال عنوان URL لواجهة API المتوافقة مع OpenAI. نظرًا لأن Ollama يمكن أن تعرض واجهة API محلية توافقة مع OpenAI، يمكن توجيه LibreChat إلى http://localhost:11434 (أو أينما يستمع Ollama). في الواقع، تذكر LibreChat Ollama صراحة بين موردي الذكاء الاصطناعي المدعومين – إلى جانب الآخرين مثل OpenAI، Cohere، إلخ. بمجرد التكوين، يمكنك اختيار النموذج (نموذج Ollama) من القائمة المنسدلة ومحادثة. تسمح LibreChat أيضًا بتغيير النماذج أو الموردين حتى أثناء المحادثة وتدعم عدة إعدادات محادثة/سياقات.

المزايا: الميزة الرئيسية لـ LibreChat هي مجموعة الميزات الغنية المبنية حول تجربة المحادثة. تشمل الأمور مثل فرع المحادثة، بحث الرسائل، دعم مفسر الكود (تشغيل آمن مغلق)، وتكامل الأدوات/الوكلاء. إنها في الأساس ChatGPT++، مع القدرة على دمج نماذج محلية. بالنسبة لمن يحب واجهة ChatGPT، ستبدو LibreChat مألوفة جدًا وتتطلب منحنى تعلم قليل. المشروع نشط ومدعوم من قبل المجتمع (كما يدل على تحديثاته المتكررة والنقاشات)، وهو مرن للغاية: يمكنك الاتصال بعديد من نقاط النهاية لـ LLM أو حتى تشغيلها متعددة المستخدمين مع مصادقة لبيئة الفريق.

القيود: مع العديد من الميزات، يمكن أن تكون LibreChat أثقل تشغيلًا. قد يتضمن التثبيت إعداد قاعدة بيانات لتخزين المحادثات وتكوين متغيرات البيئة لعدد من APIs. إذا تم تمكين جميع المكونات (RAG، الوكلاء، إنشاء الصور، إلخ)، فهي مكدسة معقدة. بالنسبة لمستخدم واحد يحتاج فقط إلى محادثة بسيطة مع نموذج محلي واحد، يمكن أن تكون LibreChat أكثر من اللازم. بالإضافة إلى ذلك، بينما الواجهة مألوفة، فهي ليست متخصصة للغاية في محادثة المستندات – تفعل العمل لكنها تفتقر إلى واجهة “مكتبة المستندات” المخصصة (التحميلات عادة ما تتم داخل محادثة أو عبر API). باختصار، LibreChat تبرز عندما ترغب في بيئة مماثلة لـ ChatGPT مع مجموعة واسعة من الميزات تعمل محليًا، لكن حلول أبسط قد تكون كافية للاستخدامات المتخصصة.

AnythingLLM (تطبيق سطح المكتب أو الخادم المتكامل)

AnythingLLM هي تطبيق AI متكامل يركز على RAG وسهولة الاستخدام. تسمح لك بـ “محادثة مع مستنداتك” باستخدام نماذج LLM المفتوحة المصدر أو حتى نماذج OpenAI، جميعها عبر واجهة موحدة. بشكل لافت، يتوفر AnythingLLM كتطبيق سطح المكتب متعدد المنصات (لـ Windows، Mac، Linux) و كخادم مُضيف ذاتي (عبر Docker). هذه المرونة تعني أنك يمكن أن تشغلها كتطبيق عادي على جهازك، أو تنشرها لعدد من المستخدمين على خادم.

معالجة المستندات هي جوهر AnythingLLM. يمكنك سحب وتشغيل المستندات (PDF، TXT، DOCX، إلخ) داخل التطبيق، وسينتهج تلقائيًا فهرستها في قاعدة بيانات المتجهات (يأتي مع LanceDB افتراضيًا). في واجهة المحادثة، عندما تطرح أسئلة، ستستعيد قطعًا من مستنداتك ذات الصلة وتوفر إجابات مُشار إليها، حتى تعرف من أي ملف وقسم جاءت المعلومات. في الأساس، تبني معرفة خاصة لك وتسمح للنموذج باستخدامها كسياق. يمكنك تنظيم المستندات إلى “مساحات العمل” (على سبيل المثال، مساحة عمل لكل مشروع أو موضوع)، مع عزل السياقات عند الحاجة.

استخدام Ollama مع AnythingLLM سهل. في الإعداد، تختار Ollama كمصدر النموذج. إذا كنت تعمل عبر Docker، تحدد متغيرات بيئة مثل LLM_PROVIDER=ollama وتوفر OLLAMA_BASE_PATH (عنوان URL لخادم Ollama الخاص بك). سيقوم خادم AnythingLLM بعدها بإرسال جميع استفسارات النموذج إلى واجهة API لـ Ollama. يدعم Ollama رسميًا، ويلاحظ الوثائق أنك يمكنك الاستفادة منه لتشغيل نماذج مفتوحة مختلفة (مثل Llama 2، Mistral، إلخ) محليًا. في الواقع، يشير المطورون إلى أن الجمع بين AnythingLLM وOllama يطلق قدرات قوية لـ RAG خارج الإنترنت: Ollama يتعامل مع استنتاج النموذج، وAnythingLLM يتعامل مع التضمينات وطريقة واجهة المستخدم/الوكلاء.

المزايا: توفر AnythingLLM حلًا شاملًا لمحادثة الأسئلة والجواب الخاصة. تشمل المزايا الرئيسية: إعداد سهل لـ RAG (تتولى المهام الثقيلة من التضمين والتخزين في المتجهات تلقائيًا)، دعم متعدد المستندات مع إشارة واضحة للمصادر، وميزات إضافية مثل الوكلاء AI (لديها مُنشئ واجهة مستخدم بدون رمز حيث يمكنك إنشاء سير عمل مخصص واستخدام الأدوات). كما أنها متعددة المستخدمين من البداية (خاصة في وضع الخادم)، مع حسابات المستخدمين وتحديد الأذونات عند الحاجة. تم تصميم الواجهة لتكون بسيطة (صندوق محادثة + شريط جانبي للمستندات/المساحات) لكنها قوية من الداخل. بالنسبة للاستخدام الشخصي، التطبيق المدمج هو ميزة كبيرة – تحصل على تطبيق يشعر بالطبيعة المحلية دون الحاجة لفتح متصفح أو تشغيل الأوامر، وتخزين البيانات محليًا افتراضيًا.

القيود: نظرًا لأنها تدمج العديد من المكونات (واجهة API للنموذج، نماذج التضمين، قاعدة بيانات المتجهات، إلخ)، يمكن أن تكون AnythingLLM مكثفة للموارد. عند استيعاب المستندات، قد يستغرق الأمر وقتًا وذاكرة لتكوين التضمينات (حتى تدعم استخدام Ollama نفسها أو نماذج محلية لـ التضمينات مع نماذج مثل nomic-embed). يبسط التطبيق المدمج الاستخدام، ولكن إذا كان لديك عدد كبير من المستندات أو ملفات كبيرة جدًا، توقع معالجة ثقيلة في الخلفية. محدودية أخرى هي أن المستخدمين المتقدمين قد يجدونها أقل قابلية للتكوين مقارنة ببناء مكوّناتهم الخاصة – على سبيل المثال، تستخدم حاليًا LanceDB أو Chroma؛ إذا كنت ترغب في استخدام تخزين متجه مختلف، ستحتاج إلى الغوص في الإعدادات أو الكود. كما أن دعم موردي متعددين متوفر، لكن الواجهة موجهة حقًا لنموذج واحد في المرة (ستغير إعداد مزود النموذج العالمي إذا كنت ترغب في استخدام نموذج مختلف). في المجموع، AnythingLLM هي حل ممتاز للحل المتكامل لمحادثة المستندات المحلية، خاصة مع Ollama، لكنها تطبيق أكبر للتشغيل مقارنة بالواجهات البسيطة.

تطبيق Chat-with-Notes (واجهة محادثة مستندات بسيطة)

تطبيق Chat-with-Notes هو تطبيق بسيط تم تصميمه خصيصًا للقيام بمحادثة مع ملفات نصية محلية باستخدام نماذج تُدار عبر Ollama. إنه في الأساس خادم ويب خفيف من Flask تُشغله على جهازك الشخصي، مما يوفر صفحة ويب بسيطة يمكنك من خلالها تحميل مستند وبدء محادثة حوله. الهدف من هذا المشروع هو البساطة: لا يحتوي على العديد من الميزات الإضافية، لكنه يقوم بالوظيفة الأساسية وهي الإجابة على أسئلة المستندات باستخدام نموذج لغوي محلي.

للاستخدام، يجب أولاً التأكد من أن نسخة Ollama تعمل بنموذج (على سبيل المثال، قد تبدأ Ollama باستخدام ollama run llama2 أو نموذج آخر). ثم تبدأ تطبيق Flask (python app.py) وتفتح الموقع المحلي. ستطلب الواجهة منك تحميل ملف (الأشكال المدعومة تشمل النص العادي، Markdown، ملفات الكود، HTML، JSON، وPDF). بمجرد التحميل، يُعرض محتوى النص من الملف، ويمكنك طرح أسئلة أو محادثة مع الذكاء الاصطناعي حول هذا المحتوى. تتم المحادثة في شكل فقاعات محادثة تقليدية. إذا قمت بتحميل ملف جديد أثناء المحادثة، سيطلب التطبيق منك ما إذا كنت ترغب في بدء محادثة جديدة أو الاحتفاظ بالسياق الحالي وإضافة معلومات الملف الجديد فقط. بهذه الطريقة، يمكنك مناقشة عدة ملفات تباعًا إذا لزم الأمر. هناك أيضًا أزرار لمسح المحادثة أو تصدير المحادثة إلى ملف نصي.

تحت الغطاء، يقوم تطبيق Chat-with-Notes بطلب واجهة برمجة التطبيقات (API) لـ Ollama لإنشاء الردود. يتعامل Ollama مع استنتاج النموذج، بينما يوفر Chat-with-Notes فقط المحفز (وهو يحتوي على أجزاء ذات صلة من النص المُحمّل). لا يستخدم قاعدة بيانات متجهات، بل يرسل محتوى الملف بالكامل (أو أجزاء منه) مع سؤالك إلى النموذج. هذه الطريقة تعمل بشكل أفضل مع المستندات ذات الحجم المعتدل التي تناسب نافذة سياق النموذج.

المزايا: التطبيق سهل التثبيت والتشغيل للغاية. لا يوجد تكوين معقد – إذا كان لديك Python و Ollama مثبتين، يمكنك تشغيله في دقيقة أو اثنتين. الواجهة نظيفة ومتواضعة، مع التركيز على محتوى النص والأسئلة والإجابات. نظرًا لتركيزه، فإنه يضمن أن كل البيانات تبقى محلية فقط داخل الذاكرة (لا توجد مكالمات خارجية إلا إلى Ollama على localhost). إنه خيار مثالي إذا كنت ترغب خصيصًا في محادثة مع الملفات ولا تحتاج إلى محادثة عامة دون مستند.

القيود: البساطة في تطبيق Chat-with-Notes تعني أنه يفتقر إلى العديد من الميزات التي توجد في واجهات أخرى. على سبيل المثال، لا يدعم استخدام نماذج متعددة أو مزودين (مصمم فقط لـ Ollama)، ولا يحتفظ بمخزن طويل الأمد للمستندات – تُحمّل الملفات حسب الحاجة لكل جلسة، ولا يوجد فهرس متجه مستمر. قد يكون من الصعب التوسع إلى مستندات كبيرة جدًا دون تعديلات يدوية، نظرًا لأنه قد يحاول تضمين كمية كبيرة من النص في المحفز. أيضًا، الواجهة، رغم أنها وظيفية، ليست مُحسّنة بشكل كبير (لا يوجد وضع مظلم، ولا تشكيل نصوص غنية، إلخ). في المقابل، هذا الأداة مثالية لتحليلات سريعة ومباشرة للمستندات باستخدام نموذج Ollama. إذا نمت احتياجاتك (مثل وجود عدد كبير من المستندات أو رغبة في واجهة أكثر تطورًا)، فقد تتجاوز Chat-with-Notes. ولكن كنقطة بداية أو حل “اسأل ملفي” شخصي على Ollama، فهو فعّال جدًا.

الخلاصة

كل من هذه الواجهات المفتوحة المصدر يمكن أن يعزز تجربتك مع نماذج Ollama المحلية من خلال توفير واجهة محادثة سهلة الاستخدام ووظائف إضافية مثل الإجابة على أسئلة المستندات. الخيار الأفضل يعتمد على متطلباتك ومستوى معرفتك التقنية:

  • للمستخدمين الذين يرغبون في إعداد سريع واستخدام في المتصفح: Page Assist خيار ممتاز، حيث يتكامل مباشرة مع تصفحك عبر الإنترنت دون إزعاج.
  • لبيئة تطبيق ويب كاملة الميزات: Open WebUI أو LibreChat يوفران ميزات واسعة ومرونة متعددة النماذج، وهي مناسبة للمستخدمين المتقدمين أو البيئات متعددة المستخدمين.
  • للمستخدمين الذين يرغبون في بديل مُحسّن لـ ChatGPT مع إمكانية إضافة ملحقات: LobeChat يوفر توازنًا جيدًا بين سهولة الاستخدام والميزات في حزمة مُستضافة.
  • للمستخدمين الذين يرغبون في تفاعلات مركزة على المستندات: AnythingLLM يوفر حلًا متكاملًا (خاصة إذا كنت تحب وجود تطبيق سطح المكتب)، بينما يوفر Chat-with-Notes نهجًا بسيطًا لأسئلة المستندات الفردية.

بما أن جميع هذه الأدوات تُحافظ عليها بنشاط، يمكنك أيضًا التطلع إلى تحسينات ودعم المجتمع. من خلال اختيار واحدة من هذه الواجهات، ستتمكن من محادثة مع نماذج Ollama المُستضافة محليًا بطريقة مريحة – سواء كان ذلك تحليل المستندات، أو البرمجة مع مساعدة، أو مجرد توفر الذكاء الاصطناعي التفاعلي دون الاعتماد على السحابة. كل حل من الحلول المذكورة أعلاه مفتوح المصدر، لذا يمكنك تعديله حسب احتياجاتك أو حتى مشاركة تطويره.

نأمل أن تكون محادثاتك مع نموذج الذكاء الاصطناعي المحلي ممتعة!

روابط مشاريع الواجهة

روابط مفيدة أخرى