Farfalle contro Perplexica

Confronto tra due motori di ricerca AI self-hosted

Indice

Il cibo meraviglioso è un piacere anche per i tuoi occhi. Ma in questo post confronteremo due sistemi di ricerca basati sull’IA, Farfalle e Perplexica.

A proposito, anche questa forma di pasta si chiama “farfalle”.

Ma qui mi limiterò a confrontare come si comportano questi due sistemi. Non le forme di pasta.

farfalle pasta

Bene. Concentrati!

Vedi anche Installazione e configurazione di Perplexica - con ollama e Installare e configurare Ollama.

Il motore di risposta etichettato in questo articolo come Perplexica è ora disponibile a monte come Vane; Vane (Perplexica 2.0) Guida rapida con Ollama e llama.cpp è il punto di riferimento per le immagini Docker attuali, l’integrazione con SearxNG e la cronologia del rinominamento.

Perplexica

Ecco la homepage con il menu a tendina per la selezione delle fonti.

Perplexica home page

  • Perplexica è implementato in
    • TypeScript e React.Js (UI)
    • TypeScript e Express.Js (Backend)
    • include inoltre la configurazione per il motore di metaricerca SearxNG
  • Dispone di una modalità Copilot
  • Ha la capacità di utilizzare qualsiasi LLM ospitato su Ollama come modello per chat o embeddings
  • Include tre piccoli modelli di embedding interni

Farfalle

  • Farfalle è implementato in
    • TypeScript e React.Js (UI)
    • Python Fastapi (Backend)
    • include inoltre un riferimento al motore di metaricerca SearxNG. Non c’è molta configurazione per questo, è un’immagine Docker piuttosto standard.
  • Dispone di una modalità Esperto che dovrebbe preparare diverse richieste partendo da quella originale e combinarne le risposte. Ma questo non ha funzionato nei nostri test.
  • Ha la capacità di utilizzare quattro LLM ospitati su Ollama come modello per chat (llama3, mistral, gemma, phi3). È un buon set di opzioni, ma preferirei che fosse più flessibile e consentisse di utilizzare qualsiasi modello servito da Ollama.
  • Nessuna opzione per il modello di embedding

Farfalle home page

Confronto effettuato da Perplexica e Farfalle stesse

Ho eseguito la stessa richiesta: Confronta Farfalle e Perplexica in base a robustezza, comunità, supporto e LLM supportati

Sia Perplexica che Farfalle utilizzavano il modello llama3 ospitato su ollama locale. Il nome completo del modello è llama3 8b q4.

Non credere al 100% a ciò che dicono le risposte, guarda semplicemente la lunghezza del testo, la struttura e la qualità complessiva della risposta.

Credo per circa il 70%…


Risposta di confronto di Perplexica

Confronto tra Farfalle e Perplexica

Robustezza

Farfalle: 8/10 - Farfalle è un motore di ricerca IA popolare noto per la sua affidabilità e capacità di gestire query complesse. Ha una solida base nell’elaborazione del linguaggio naturale (NLP) e nel machine learning (ML). Sebbene possa non essere perfetto, la robustezza di Farfalle è ben consolidata.

Perplexica: 9/10 - Perplexica è costruito sul modello Phi-3 di Meta AI, progettato per la robustezza. È stato testato per fornire risposte accurate anche di fronte a query ambigue o poco chiare. La sua capacità di riformulare le domande e adattarsi a diversi contesti lo rende un motore di ricerca robusto.

Comunità

Farfalle: 7/10 - Farfalle ha una comunità dedicata di utenti che apprezzano le sue capacità. Sebbene possa non avere lo stesso livello di adozione di Perplexica, la base utenti di Farfalle è comunque significativa.

Perplexica: 8.5/10 - Perplexica ha ottenuto un’ampia riconoscenza per il suo approccio innovativo ai motori di ricerca. La sua comunità sta crescendo rapidamente, con molti utenti che apprezzano la sua capacità di fornire risultati accurati e pertinenti.

Supporto

Farfalle: 6.5/10 - Farfalle fornisce un supporto di base tramite FAQ, documentazione e forum. Sebbene non sia così completo come il supporto di Perplexica, la base utenti di Farfalle è generalmente autosufficiente.

Perplexica: 9/10 - Perplexica offre estese risorse di supporto, inclusa documentazione dettagliata, FAQ e forum di comunità. I suoi sviluppatori sono attivamente impegnati con la comunità, garantendo che gli utenti ricevano assistenza tempestiva ed efficace.

LLM Supportati

Farfalle: No - Farfalle è un motore di ricerca IA standalone che non si basa su grandi modelli linguistici (LLM) per le sue capacità.

Perplexica: Sì - Perplexica è costruito sul modello Phi-3 di Meta AI, che è un LLM. Questo permette a Perplexica di sfruttare la potenza dell’apprendimento profondo per risultati più accurati e pertinenti.

Punteggio Complessivo Farfalle: 22/30 Perplexica: 34.5/40

In base a questi criteri, Perplexica sembra avere un leggero vantaggio su Farfalle in termini di robustezza, supporto della comunità e integrazione LLM. Tuttavia, entrambi i motori di ricerca hanno i loro punti di forza, e la scelta dipende infine dalle tue esigenze e preferenze specifiche.

Raccomandazione Se stai cercando un motore di ricerca IA affidabile con forti capacità NLP, Perplexica potrebbe essere la scelta migliore. Se preferisci un approccio di ricerca più diretto e senza fronzoli, Farfalle potrebbe comunque fornire ottimi risultati.


Risposta di confronto di Farfalle

Confronto tra Farfalle e Perplexica

Farfalle e Perplexica sono due motori di ricerca alimentati dall’IA che hanno attirato l’attenzione negli ultimi tempi. Ecco un confronto tra questi due progetti basato su robustezza, comunità, supporto e supporto LLM (Large Language Model).

Robustezza

  • Farfalle è progettato per essere auto-ospitato con LLM locali o cloud, rendendolo un’opzione più robusta per gli utenti che desiderano il controllo sul proprio motore di ricerca.
  • Perplexica, d’altra parte, è un’alternativa open source a Perplexity AI ed è in costante miglioramento da parte dei suoi sviluppatori.

Comunità

  • Perplexica ha una comunità dedicata di sviluppatori e utenti che contribuiscono al suo sviluppo e forniscono supporto.
  • La comunità di Farfalle è più piccola, ma ha comunque una presenza su GitHub.

Supporto

  • Perplexica offre aggiornamenti e miglioramenti regolari, oltre a un canale Discord per discutere argomenti al di fuori del supporto regolare.
  • Il supporto di Farfalle è limitato alle issue e alle pull request su GitHub.

Supporto LLM Sia Farfalle che Perplexica supportano LLM. Perplexica utilizza Ollama, un LLM locale, mentre Farfalle supporta sia LLM locali che cloud.

In sintesi, Farfalle è più robusto grazie al suo design auto-ospitato, mentre Perplexica ha una comunità più forte e un supporto migliore. Entrambi i progetti supportano LLM, ma Perplexica utilizza specificamente Ollama.


Conclusione

Qual è la differenza tra Perplexica e Farfalle?

La risposta:

  • A prescindere da alcuni errori fattuali, entrambi i sistemi ritengono che Perplexica sia migliore di Farfalle, cosa con cui sono d’accordo.
  • Mi piace molto l’interfaccia utente di Farfalle, anche se sono molto simili.
  • Mi piace l’idea della modalità esperto di Farfalle, anche se non ha funzionato nel mio ambiente.
  • Ho riscontrato 3 bug durante l’esecuzione di Farfalle. Il codice di Perplexica è più rifinito.
  • Una volta configurato, Perplexica ha funzionato senza errori.
  • Perplexica permette di utilizzare qualsiasi modello ospitato su Ollama. Farfalle permette di utilizzare solo Gemma, Llama3, Mistral e Phi3 (versioni predefinite, che sono un po’ datate).
  • Preferisco le risposte di Farfalle. Guarda l’immagine di Farfalle qui sotto. Diritto al punto, senza frasi come “Secondo il contesto fornito”…

Altri esempi

Questi mostrano le risposte alla stessa domanda sul ballerino di breakdance australiano. Sai, quello con il dottorato che ha ottenuto 0 (Zero) punti e probabilmente ha fatto rimuovere il breakdance dal programma olimpico.

Risposta di Farfalle

farfalle

Risposta di Perplexica

Perplexica

Se leggi (su o giù) questo ultimo paragrafo, grazie per avere gli stessi interessi di me. È davvero un periodo emozionante. Buona giornata!