ファルファッレ vs パーペクシカ
2つのセルフホスト型AI検索エンジンの比較
美味しい料理は目にも楽しめます。 しかし、本記事ではAIに基づく2つの検索システム、FarfalleとPerplexicaを比較します。
ちなみに、このパスタの形も「farfalle」と呼ばれます。
しかし、ここではパスタの形ではなく、これらの2つのシステムの動作についてのみ比較しています。
OK。集中しましょう!
ご参照ください Perplexicaのインストールと設定 - ollamaを使用 および Ollamaのインストールと設定。
Perplexica
ここにソース選択ドロップダウン付きのホームページがあります。
- Perplexicaは以下で実装されています
- TypeScriptとReact.Js(UI)
- TypeScriptとExpress.Js(バックエンド)
- また、SearxNGメタ検索エンジンの設定も含まれています
- Copilotモードがあります
- OllamaでホストされているLLMをチャットまたは埋め込みモデルとして使用できる機能があります
- 3つの小さな内部埋め込みモデルがあります
Farfalle
- Farfalleは以下で実装されています
- TypeScriptとReact.Js(UI)
- Python Fastapi(バックエンド)
- また、SearxNGメタ検索エンジンのリファレンスも含まれています。ただし、この設定はあまり多くなく、標準的なDockerイメージです。
- Expertモードがあり、元の質問からいくつかのリクエストを準備し、応答を組み合わせる必要があります。しかし、私たちのテストではこれは動作しませんでした。
- Ollamaでホストされている4つのLLM(llama3、mistral、gemma、phi3)をチャットモデルとして使用できる機能があります。これは良いオプションのセットですが、私はもっと柔軟性があり、Ollamaが提供する任意のモデルを使用できるようにしてほしかったです。
- 埋め込みモデルのオプションはありません
PerplexicaとFarfalle自身による比較
同じリクエストを実行しました FarfalleとPerplexicaを堅牢性、コミュニティ、サポート、サポートされているLLMに基づいて比較してください
PerplexicaとFarfalleの両方とも、ローカルのollamaでホストされているllama3モデルを使用しています。 モデルのフルネームはllama3 8b q4です。
応答に100%信じる必要はありません。テキストの長さ、構造、全体的な応答の質を見てください。
約70%は信じるでしょう…
Perplexicaの比較応答
FarfalleとPerplexicaの比較
堅牢性
Farfalle: 8/10 - Farfalleは、複雑なクエリを処理する能力があり、信頼性が高いことで知られている人気のあるAI検索エンジンです。自然言語処理(NLP)と機械学習(ML)の強固な基礎があります。完璧ではないかもしれませんが、Farfalleの堅牢性は確立されています。
Perplexica: 9/10 - Perplexicaは、Meta AIのPhi-3モデルに基づいて構築されており、堅牢性が設計されています。曖昧または不明確なクエリに対しても正確な回答を提供するようにテストされています。質問を再構成し、さまざまなコンテキストに適応する能力により、Perplexicaは堅牢な検索エンジンです。
コミュニティ
Farfalle: 7/10 - Farfalleには、その能力を評価するユーザーの専門的なコミュニティがあります。Perplexicaほど普及していないかもしれませんが、Farfalleのユーザー層は依然として重要です。
Perplexica: 8.5/10 - Perplexicaは、検索エンジンに対する革新的なアプローチで広く認知されています。そのコミュニティは急速に成長しており、多くのユーザーが正確で関連性の高い結果を提供することを評価しています。
サポート
Farfalle: 6.5/10 - FarfalleはFAQ、ドキュメント、フォーラムを通じて基本的なサポートを提供しています。Perplexicaのサポートほど包括的ではありませんが、Farfalleのユーザー層は一般的に自立しています。
Perplexica: 9/10 - Perplexicaは、詳細なドキュメント、FAQ、コミュニティフォーラムを含む豊富なサポートリソースを提供しています。開発者はコミュニティと積極的に関わり、ユーザーがタイムリーで効果的な支援を受けられるようにしています。
サポートされているLLM
Farfalle: なし - Farfalleは、大規模言語モデル(LLM)に依存しないスタンドアロンのAI検索エンジンです。
Perplexica: あり - Perplexicaは、Meta AIのPhi-3モデルに基づいて構築されており、これはLLMです。これにより、Perplexicaは深層学習の力を利用してより正確で関連性の高い結果を提供できます。
総合スコア Farfalle: 22/30 Perplexica: 34.5/40
これらの基準に基づくと、Perplexicaは堅牢性、コミュニティサポート、LLM統合においてFarfalleにわずかな優位性があります。しかし、両方の検索エンジンにはそれぞれの強みがあり、最終的な選択はあなたの具体的なニーズと好みに依存します。
推奨:信頼性の高いAI検索エンジンで、強力なNLP能力を求める場合は、Perplexicaがより良い選択肢かもしれません。シンプルで手間をかけない検索を好む場合は、Farfalleも優れた結果を提供します。
Farfalleの比較応答
FarfalleとPerplexicaの比較
FarfalleとPerplexicaは、最近注目を集めている2つのAI駆動型検索エンジンです。堅牢性、コミュニティ、サポート、LLM(大規模言語モデル)サポートに基づいてこれらの2つのプロジェクトを比較します。
堅牢性
- Farfalleは、ローカルまたはクラウドLLMを使用してセルフホストされるように設計されており、検索エンジンをコントロールしたいユーザーにとってより堅牢なオプションです。
- 一方、PerplexicaはPerplexity AIのオープンソース代替であり、開発者によって継続的に改善されています。
コミュニティ
- Perplexicaには、開発者とユーザーがプロジェクトの開発とサポートに貢献する専門的なコミュニティがあります。
- Farfalleのコミュニティは規模が小さいですが、GitHub上に存在しています。
サポート
- Perplexicaは定期的なアップデートと改善、および通常のサポート以外の話題を議論するためのDiscordチャンネルを提供しています。
- FarfalleのサポートはGitHubのIssueとPull Requestに限られています。
LLMサポート:FarfalleとPerplexicaの両方ともLLMをサポートしています。PerplexicaはOllama、ローカルLLMを使用し、FarfalleはローカルとクラウドLLMの両方をサポートしています。
要約すると、セルフホストされた設計によりFarfalleはより堅牢ですが、Perplexicaはコミュニティとサポートがより強力です。両方のプロジェクトはLLMをサポートしていますが、PerplexicaはOllamaを特に使用しています。
結論
PerplexicaとFarfalleの違いは何ですか?
答え:
- いくつかの事実誤りを置き去りにすれば、両システムはPerplexicaがFarfalleより優れていると考えています。これは私も同意したいです。
- FarfalleのUIは本当に気に入っています。それらはかなり近いです。
- FarfalleのExpertモードのアイデアは好きですが、私の環境では動作しませんでした。
- Farfalleを実行する際、3つのバグに遭遇しました。Perplexicaのコードはより洗練されています。
- 設定が完了すれば、Perplexicaはエラーなく実行されました。
- PerplexicaはOllamaでホストされている任意のモデルを使用できます。一方、FarfalleはGemma、Llama3、Mistral、Phi3(少し古くなったプリ定義バージョン)のみを使用できます。
- Farfalleの応答の方が好きです。下記のFarfalle画像を見てください。直にポイントに到達しており、「Accrording to the context provided」といった表現がありません。
他の例
これらは、オーストラリアのブレイクダンサーに関する同じ質問への応答を示しています。 ご存知のように、博士号を取得したが0(ゼロ)ポイントを獲得し、おそらくオリンピックのプログラムからブレイクダンスが削除された人物です。
Farfalleの応答
Perplexicaの応答
この最後の段落を読む(または下にスクロールする)と、同じ興味を持っていることに感謝します。本当にエキサイティングな時代です。 素晴らしい一日を!