Farfalle vs Perplexica
Een vergelijking van twee zelfgehoste AI zoekmachines
Prachtige voedsel is ook een genot voor de ogen. Maar in dit bericht vergelijken we twee AI-gebaseerde zoeksystemen, Farfalle en Perplexica.
Overigens heet deze vorm pasta ook “farfalle”.
Maar hier vergelijk ik alleen hoe deze twee systemen zich gedragen. Niet de pasta-vormen.
OK. Concentreer je!
Zie ook Perplexica installatie en configuratie - met ollama en Installeer en configureer Ollama.
Perplexica
Hier is de homepage met dropdown voor bronselectie.
- Perplexica is uitgevoerd in
- TypeScript en React.Js (UI)
- TypeScript en Express.Js (Backend)
- bevat ook configuratie voor SearxNG metasearch engine
- Heeft een Copilot modus
- Heeft de mogelijkheid om elk Ollama-gehost LLM te gebruiken als chat of embeddings model
- Heeft drie kleine interne embeddings modellen
Farfalle
- Farfalle is uitgevoerd in
- TypeScript en React.Js (UI)
- Python Fastapi (Backend)
- bevat ook verwijzing naar SearxNG metasearch engine. Niet veel configuratie voor dit, vrij standaard docker image.
- Heeft een Expert modus die meerdere aanvragen van de oorspronkelijke zou moeten voorbereiden en antwoorden combineren. Maar dit werkte niet in onze test.
- Heeft de mogelijkheid om vier Ollama-gehoste LLMs te gebruiken als chatmodel (llama3, mistral, gemma, phi3). Dat is een goede set opties, maar ik zou het liever flexibeler willen maken en toestaan om elk model te gebruiken dat Ollama serveert.
- Geen opties voor embeddings model
Vergelijking uitgevoerd door Perplexica en Farfalle zelf
Ik heb dezelfde aanvraag gedaan Vergelijk farfalle en perplexica op basis van robuustheid, gemeenschap, ondersteuning en LLM ondersteund
Zowel Perplexica als Farfalle gebruikten de llama3 model die lokaal op ollama werd gehost. Volledige naam van het model is llama3 8b q4.
Geloof niet 100% wat de antwoorden zeggen, kijk alleen naar de tekstlengte, structuur en algemene kwaliteit van het antwoord.
Ik zou ongeveer 70% geloven…
Perplexica vergelijking antwoord
Vergelijking van Farfalle en Perplexica
Robuustheid
Farfalle: 8/10 - Farfalle is een populaire AI zoekmachine bekend om zijn betrouwbaarheid en vermogen om complexe queries te verwerken. Het heeft een sterke basis in natuurlijke taalverwerking (NLP) en machine learning (ML). Hoewel het niet perfect is, is de robuustheid van Farfalle goed gevestigd.
Perplexica: 9/10 - Perplexica is gebouwd op Meta AI’s Phi-3 model, dat is ontworpen voor robuustheid. Het is getest om accuraat antwoorden te geven zelfs bij onduidelijke of onduidelijke queries. Het vermogen om vragen te herformuleren en zich aan te passen aan verschillende contexten maakt het een robuuste zoekmachine.
Gemeenschap
Farfalle: 7/10 - Farfalle heeft een toegewijde gemeenschap van gebruikers die de mogelijkheden waarderen. Hoewel het niet hetzelfde niveau van adoptie heeft als Perplexica, is de gebruikersgroep van Farfalle nog steeds aanzienlijk.
Perplexica: 8.5/10 - Perplexica heeft breed erkend worden voor zijn innovatieve aanpak van zoekmachines. Zijn gemeenschap groeit snel, met veel gebruikers die waarderen dat het accuraat en relevante resultaten kan geven.
Ondersteuning
Farfalle: 6.5/10 - Farfalle biedt basisondersteuning via FAQ’s, documentatie en forums. Hoewel het niet zo uitgebreid is als Perplexica’s ondersteuning, is de gebruikersgroep van Farfalle over het algemeen zelfstandig.
Perplexica: 9/10 - Perplexica biedt uitgebreide ondersteuningsbronnen, waaronder gedetailleerde documentatie, FAQ’s en gemeenschapsforums. Zijn ontwikkelaars zijn actief betrokken bij de gemeenschap, zodat gebruikers tijdelijk en effectief hulp krijgen.
LLM’s Ondersteund
Farfalle: Nee - Farfalle is een zelfstandige AI zoekmachine die niet afhankelijk is van grote taalmodellen (LLM’s) voor zijn mogelijkheden.
Perplexica: Ja - Perplexica is gebouwd op Meta AI’s Phi-3 model, dat een LLM is. Dit laat Perplexica de kracht van diepe leerprocessen gebruiken voor meer accuraat en relevante resultaten.
Totale score Farfalle: 22/30 Perplexica: 34.5/40
Op basis van deze criteria lijkt Perplexica een klein voordeel te hebben over Farfalle in termen van robuustheid, gemeenschapsondersteuning en LLM-integratie. Toch hebben beide zoekmachines hun eigen sterktes, en de keuze hangt uiteindelijk af van jouw specifieke behoeften en voorkeuren.
Aanbeveling Als je op zoek bent naar een betrouwbare AI zoekmachine met sterke NLP-mogelijkheden, kan Perplexica de betere keuze zijn. Als je een eenvoudigere, minder gedoe aanpak van zoekmachines prefereert, kan Farfalle nog steeds uitstekende resultaten geven.
Farfalle vergelijking antwoord
Vergelijking van Farfalle en Perplexica
Farfalle en Perplexica zijn twee AI-gestuurde zoekmachines die recent aandacht hebben gekregen. Hieronder volgt een vergelijking van deze twee projecten op basis van robuustheid, gemeenschap, ondersteuning en LLM (Large Language Model) ondersteuning.
Robuustheid
- Farfalle is ontworpen om zelfgehost te zijn met lokale of cloud LLMs, waardoor het een robuustere optie is voor gebruikers die controle willen over hun zoekmachine.
- Perplexica is daarentegen een open-source alternatief voor Perplexity AI en wordt constant verbeterd door de ontwikkelaars.
Gemeenschap
- Perplexica heeft een toegewijde gemeenschap van ontwikkelaars en gebruikers die bijdragen aan de ontwikkeling en ondersteuning
- De gemeenschap van Farfalle is kleiner, maar het heeft nog steeds een aanwezigheid op GitHub
Ondersteuning
- Perplexica biedt regelmatige updates en verbeteringen, evenals een Discord-kanaal voor het bespreken van zaken buiten de reguliere ondersteuning
- De ondersteuning van Farfalle is beperkt tot GitHub issues en pull requests
LLM ondersteuning Beide Farfalle en Perplexica ondersteunen LLMs. Perplexica gebruikt Ollama, een lokale LLM, terwijl Farfalle zowel lokale als cloud LLMs ondersteunt.
Samenvattend is Farfalle robuuster vanwege zijn zelfgehoste ontwerp, terwijl Perplexica een sterkerere gemeenschap en betere ondersteuning heeft. Beide projecten ondersteunen LLMs, maar Perplexica gebruikt Ollama specifiek.
Conclusie
Wat is het verschil tussen Perplexica en Farfalle?
Het antwoord:
- Opzij gezien enkele feitelijke fouten, denken beide systemen dat Perplexica beter is dan Farfalle, wat ik graag zou willen stemmen mee.
- Ik hou echt van de UI van Farfalle, al zijn ze vrij dichtbij
- Ik hou van het idee van de expertmodus van Farfalle, al werkte het niet in mijn omgeving
- Ik kwam 3 bugs tegen bij het uitvoeren van Farfalle. De code van Perplexica is beter afgerond
- Zodra het is geconfigureerd, liep Perplexica zonder fouten
- Perplexica stelt u in staat om elk Ollama-gehost model te gebruiken. En Farfalle stelt u in staat om alleen Gemma, Llama3, Mistral en Phi3 te gebruiken (vooraf gedefinieerde versies, die iets verouderd zijn).
- Ik hou meer van de antwoorden van Farfalle. Kijk naar de onderstaande afbeelding van Farfalle. Recht op het punt zonder die “Volgens de context die is gegeven”…
Meer voorbeelden
Deze tonen antwoorden voor dezelfde vraag over de australische breakdancer. Weet je, degene met de PhD die 0 (nul) punten kreeg en waarschijnlijk de breakdancing van het olympische programma verwijderd heeft.
Farfalle antwoord
Perplexica antwoord
Als je dit laatste paragraaf leest (of leest), dankjewel dat je dezelfde interesses hebt als ik. Het is echt opwindende tijden. Heb een fijn dag!
Nuttige links
- Zoeken vs Deepsearch vs Deep Research
- Test: Hoe Ollama Intel CPU prestaties en efficiënte kernen gebruikt
- Hoe Ollama parallelle aanvragen verwerkt
- Zelfhosten van Perplexica - met Ollama
- Vergelijken van LLM samenvattingsvermogen
- Effectief schrijven van prompts voor LLMs
- Testen van logische foutdetectie door nieuwe LLMs: gemma2, qwen2 en mistral Nemo
- Ollama cheat sheet
- Markdown Cheat sheet
- Cloud LLM Providers
- Qwen3 Embedding & Reranker Models op Ollama: State-of-the-Art Performance