फार्फाले व्स पर्प्लेक्सिका

दो स्व-होस्ट किए गए AI खोज इंजन की तुलना

Page content

अद्भुत खाद्य पदार्थ आपके आंखों के लिए भी आनंद है।
लेकिन इस पोस्ट में हम दो AI-आधारित खोज प्रणालियों, Farfalle और Perplexica की तुलना करेंगे।

दुर्भाग्य से, यह पास्ता के आकार को “farfalle” कहा जाता है।
लेकिन यहां मैं केवल इन दो प्रणालियों के व्यवहार की तुलना कर रहा हूं। पास्ता के आकार की नहीं।

farfalle pasta

ठीक है। ध्यान दें!

कृपया देखें
Perplexica इंस्टॉलेशन और कॉन्फ़िगरेशन - ollama के साथ
और
ओलामा की इंस्टॉलेशन और कॉन्फ़िगरेशन

Perplexica

यहां स्रोत चयन ड्रॉपडाउन के साथ होम पेज है।

Perplexica होम पेज

  • Perplexica को इसमें लागू किया गया है
    • TypeScript और React.Js (UI)
    • TypeScript और Express.Js (बैकएंड)
    • SearxNG मेटाखोज इंजन के लिए भी कॉन्फ़िगरेशन शामिल है
  • एक कॉपिलॉट मोड है
  • किसी भी Ollama-होस्टेड LLM का उपयोग करने की क्षमता है, चैट या एम्बेडिंग मॉडल के रूप में
  • तीन छोटे आंतरिक एम्बेडिंग मॉडल हैं

Farfalle

  • Farfalle को इसमें लागू किया गया है
    • TypeScript और React.Js (UI)
    • Python Fastapi (बैकएंड)
    • SearxNG मेटाखोज इंजन के लिए भी संदर्भ शामिल है। इसके लिए कम अनुकूलन है, बहुत ही मानक डॉकर इमेज।
  • एक विशेषज्ञ मोड है जो मूल से कई अनुरोध तैयार करेगा और उत्तरों को जोड़ेगा। लेकिन हमारे परीक्षण में यह काम नहीं करता।
  • किसी भी Ollama-होस्टेड LLM का उपयोग करने की क्षमता है, चैट मॉडल के रूप में (llama3, mistral, gemma, phi3)। यह अच्छा विकल्प है, लेकिन मुझे यह अधिक लचीला होना अधिक पसंद होगा, और ओलामा द्वारा सेवा किए गए कोई भी मॉडल का उपयोग करने की अनुमति देना चाहिए।
  • एम्बेडिंग मॉडल के लिए कोई विकल्प नहीं है

Farfalle होम पेज

Perplexica और Farfalle द्वारा की गई तुलना

मैंने एक ही अनुरोध दोहराया
Farfalle और Perplexica की तुलना दृढ़ता, समुदाय, समर्थन और समर्थित LLM के आधार पर करें

दोनों Perplexica और Farfalle स्थानीय ollama पर लिंगा3 मॉडल का उपयोग कर रहे थे।
मॉडल का पूरा नाम लिंगा3 8b q4 है।

उत्तरों में दिए गए बातों को 100% विश्वास न करें, बस पाठ की लंबाई, संरचना और समग्र उत्तर की गुणवत्ता देखें।

मुझे लगभग 70% विश्वास है…


Perplexica तुलना उत्तर

Farfalle और Perplexica की तुलना

दृढ़ता

Farfalle: 8/10 - Farfalle एक लोकप्रिय AI खोज इंजन है जो अपनी विश्वसनीयता और जटिल प्रश्नों के संचालन के क्षमता के लिए प्रसिद्ध है। यह प्राकृतिक भाषा प्रसंस्करण (NLP) और मशीन शिक्षा (ML) में मजबूत आधार है। यह आदर्श नहीं हो सकता है, लेकिन Farfalle की दृढ़ता अच्छी तरह स्थापित है।

Perplexica: 9/10 - Perplexica Meta AI के Phi-3 मॉडल पर बनाया गया है, जो दृढ़ता के लिए डिज़ाइन किया गया है। यह अस्पष्ट या अस्पष्ट प्रश्नों के लिए भी सटीक उत्तर प्रदान करने के लिए परीक्षण किया गया है। इसकी प्रश्नों को पुनर्गठित करने और विभिन्न संदर्भों में अनुकूलित करने की क्षमता इसे एक दृढ़ खोज इंजन बनाती है।

समुदाय

Farfalle: 7/10 - Farfalle के पास अपनी क्षमताओं के लिए एक समर्पित समुदाय है। यह अपने उपयोगकर्ता आधार के बराबर अपने उपयोगकर्ता आधार के बराबर नहीं है, लेकिन Farfalle का उपयोगकर्ता आधार अभी भी महत्वपूर्ण है।

Perplexica: 8.5/10 - Perplexica खोज इंजनों के लिए नवाचार के अपने दृष्टिकोण के लिए व्यापक मान्यता प्राप्त है। इसका समुदाय तेजी से बढ़ रहा है, अधिकांश उपयोगकर्ता इसकी सटीक और संबंधित परिणाम प्रदान करने के लिए इसकी क्षमता के लिए आश्चर्यचकित हैं।

समर्थन

Farfalle: 6.5/10 - Farfalle आवश्यकता पर एफएक्यू, दस्तावेज़ी और फोरम के माध्यम से मूल आधार पर समर्थन प्रदान करता है। यह जितना व्यापक नहीं है, Farfalle के उपयोगकर्ता आधार आमतौर पर स्वयं आत्म-संतुलित है।

Perplexica: 9/10 - Perplexica विस्तृत समर्थन संसाधन प्रदान करता है, जिसमें विस्तृत दस्तावेज़ी, एफएक्यू और समुदाय फोरम शामिल हैं। इसके विकासकर्ता समुदाय के साथ सक्रिय रूप से जुड़े हुए हैं, जिससे उपयोगकर्ताओं को समय पर और प्रभावी सहायता प्राप्त होती है।

समर्थित LLM

Farfalle: नहीं - Farfalle एक स्वतंत्र AI खोज इंजन है जो अपनी क्षमताओं के लिए बड़े भाषा मॉडल (LLMs) पर निर्भर नहीं है।

Perplexica: हां - Perplexica Meta AI के Phi-3 मॉडल पर बनाया गया है, जो एक LLM है। यह Perplexica को गहरी शिक्षा की शक्ति का उपयोग करके अधिक सटीक और संबंधित परिणाम प्रदान करने की अनुमति देता है।

समग्र स्कोर Farfalle: 22/30 Perplexica: 34.5/40

इन मानदंडों के आधार पर, Perplexica Farfalle की तुलना में दृढ़ता, समुदाय समर्थन और LLM एकीकरण में थोड़ा फायदा उठाता है। हालांकि, दोनों खोज इंजनों के अपने मजबूतियां हैं, और चयन अंततः आपकी विशिष्ट आवश्यकताओं और पसंदों पर निर्भर करता है।

सिफारिश: यदि आप एक विश्वसनीय AI खोज इंजन की तलाश में हैं जिसमें मजबूत NLP क्षमताएं हैं, तो Perplexica शायद बेहतर विकल्प हो सकता है। यदि आप खोज के लिए अधिक सरल, कोई अतिरिक्त विवरण वाला दृष्टिकोण पसंद करते हैं, तो Farfalle अच्छे परिणाम प्रदान कर सकता है।


Farfalle तुलना उत्तर

Farfalle और Perplexica की तुलना

Farfalle और Perplexica दो AI-आधारित खोज इंजन हैं जिनका नवीनतम समय में ध्यान आया है। यहां इन दो परियोजनाओं की तुलना दृढ़ता, समुदाय, समर्थन और LLM (बड़े भाषा मॉडल) समर्थन के आधार पर की गई है।

दृढ़ता

  • Farfalle को स्थानीय या क्लाउड LLM के साथ स्व-होस्ट करने के लिए डिज़ाइन किया गया है, जो उन उपयोगकर्ताओं के लिए एक अधिक दृढ़ विकल्प है जो अपने खोज इंजन पर नियंत्रण चाहते हैं।
  • Perplexica, दूसरी ओर, Perplexity AI के एक खुले डेटा के विकल्प है और इसके विकासकर्ता इसे लगातार सुधार रहे हैं।

समुदाय

  • Perplexica के पास विकासकर्ताओं और उपयोगकर्ताओं का एक समर्पित समुदाय है जो इसके विकास और समर्थन प्रदान करता है
  • Farfalle का समुदाय छोटा है, लेकिन यह GitHub पर अपनी उपस्थिति अभी भी रखता है

समर्थन

  • Perplexica नियमित अपडेट और सुधार प्रदान करता है, और एक Discord चैनल भी है जहां नियमित समर्थन के बाहर विषयों के बारे में चर्चा की जा सकती है
  • Farfalle का समर्थन GitHub मुद्दों और पुल रिक्वेस्ट तक सीमित है

LLM समर्थन: दोनों Farfalle और Perplexica LLM का समर्थन करते हैं। Perplexica Ollama, एक स्थानीय LLM का उपयोग करता है, जबकि Farfalle स्थानीय और क्लाउड LLM दोनों का समर्थन करता है।

सारांश में, Farfalle अपने स्व-होस्ट के डिज़ाइन के कारण अधिक दृढ़ है, जबकि Perplexica एक मजबूत समुदाय और बेहतर समर्थन के साथ है। दोनों परियोजनाएं LLM का समर्थन करती हैं, लेकिन Perplexica Ollama का विशेष रूप से उपयोग करता है।


निष्कर्ष

Perplexica और Farfalle के बीच क्या अंतर है?

उत्तर:

  • कुछ तथ्यीय त्रुटियों के बाहर, दोनों प्रणालियां Perplexica के बेहतर होने के बारे में सोचते हैं, जिसके साथ मैं सहमत हूं।
  • मुझे Farfalle के UI काफी पसंद है, हालांकि वे बहुत करीब हैं
  • मुझे Farfalle के विशेषज्ञ मोड के विचार काफी पसंद है, हालांकि मेरे वातावरण में यह काम नहीं करता
  • मुझे Farfalle चलाते समय 3 बग्स मिले। Perplexica कोड अधिक बेहतर है
  • एक बार सेटअप के बाद, perplexica कोई त्रुटि बिना चल रहा है
  • Perplexica किसी भी Ollama-होस्टेड मॉडल का उपयोग करने की अनुमति देता है। और Farfalle केवल Gemma, Llama3, Mistral और Phi3 (पूर्वनिर्धारित संस्करण, जो थोड़ा पुराने हैं) का उपयोग करने की अनुमति देता है।
  • मुझे Farfalle के उत्तरों को अधिक पसंद है। नीचे दिए गए Farfalle चित्र को देखें। बिना उन “Accrording to the context provided” के सीधे बिंदु पर।

अधिक उदाहरण

ये एक ही प्रश्न के लिए उत्तर दिखाते हैं, जो ऑस्ट्रेलियाई ब्रेकडांसर के बारे में है।
आप जानते हैं, वह व्यक्ति जिसके पास डीएफी था जिसे 0 (शून्य) अंक मिले और संभवतः ब्रेकडांसिंग को ओलंपिक कार्यक्रम से हटा दिया गया।

Farfalle उत्तर

farfalle

Perplexica उत्तर

Perplexica

यदि आप इस अंतिम अनुच्छेद को पढ़ते हैं (या नीचे), तो आपके द्वारा मेरे साथ एक ही रुचि होने के लिए धन्यवाद। यह वास्तव में उत्साहजनक समय है।
एक अच्छा दिन हो!

उपयोगी लिंक