Farfalle vs Perplexica
Membandingkan dua mesin pencari AI self-hosted
Makanan yang luar biasa juga memberikan kesenangan bagi mata Anda. Namun, dalam posting ini kita akan membandingkan dua sistem pencarian berbasis AI, Farfalle dan Perplexica.
Oh ya, bentuk pasta ini juga disebut “farfalle”.
Namun, di sini saya hanya membandingkan bagaimana kedua sistem ini berperilaku. Bukan bentuk pasta.
Baiklah. Fokus!
Silakan lihat juga Instalasi dan konfigurasi Perplexica - dengan ollama dan Instalasi dan konfigurasi Ollama.
Perplexica
Berikut adalah halaman utama dengan dropdown pemilihan sumber.
- Perplexica diimplementasikan dalam
- TypeScript dan React.Js (UI)
- TypeScript dan Express.Js (Backend)
- juga mencakup konfigurasi untuk mesin pencari SearxNG
- Memiliki mode Copilot
- Memiliki kemampuan untuk menggunakan model LLM yang dihosting Ollama sebagai model chat atau embeddings
- Memiliki tiga model embeddings internal kecil
Farfalle
- Farfalle diimplementasikan dalam
- TypeScript dan React.Js (UI)
- Python Fastapi (Backend)
- juga mencakup referensi untuk mesin pencari SearxNG. Tidak banyak konfigurasi untuk ini, gambar docker yang standar.
- Memiliki mode Expert yang seharusnya menyiapkan beberapa permintaan dari asli dan menggabungkan respons. Namun ini tidak berfungsi dalam uji coba kami.
- Memiliki kemampuan untuk menggunakan empat model LLM yang dihosting Ollama sebagai model chat (llama3, mistral, gemma, phi3). Itu adalah himpunan opsi yang baik, tetapi saya akan lebih suka jika lebih fleksibel, dan memungkinkan penggunaan model apa pun yang disajikan Ollama.
- Tidak ada opsi untuk model embeddings
Perbandingan yang dilakukan oleh Perplexica dan Farfalle sendiri
Saya telah menjalankan permintaan yang sama Bandingkan farfalle dan perplexica berdasarkan keandalan, komunitas, dukungan dan LLM yang didukung
Kedua Perplexica dan Farfalle menggunakan model llama3 yang dihosting lokal ollama. Nama lengkap model adalah llama3 8b q4.
Jangan percaya 100% apa yang dikatakan respons, hanya lihat panjang teks, struktur dan kualitas respons secara keseluruhan.
Saya akan percaya sekitar 70%…
Respons perbandingan Perplexica
Perbandingan Farfalle dan Perplexica
Keandalan
Farfalle: 8/10 - Farfalle adalah mesin pencari AI populer yang dikenal karena keandalannya dan kemampuannya menangani pertanyaan kompleks. Ia memiliki fondasi yang kuat dalam pemrosesan bahasa alami (NLP) dan pembelajaran mesin (ML). Meskipun mungkin tidak sempurna, keandalan Farfalle sudah terbukti.
Perplexica: 9/10 - Perplexica dibangun di atas model Phi-3 dari Meta AI, yang dirancang untuk keandalan. Ia telah diuji untuk memberikan jawaban akurat bahkan ketika menghadapi pertanyaan yang ambigu atau tidak jelas. Kemampuannya untuk merumuskan ulang pertanyaan dan beradaptasi dengan berbagai konteks membuatnya menjadi mesin pencari yang andal.
Komunitas
Farfalle: 7/10 - Farfalle memiliki komunitas pengguna yang setia yang menghargai kemampuannya. Meskipun mungkin tidak memiliki tingkat adopsi yang sama dengan Perplexica, basis pengguna Farfalle masih signifikan.
Perplexica: 8,5/10 - Perplexica telah mendapatkan pengakuan luas karena pendekatannya yang inovatif terhadap mesin pencari. Komunitasnya sedang berkembang pesat, dengan banyak pengguna menghargai kemampuannya memberikan hasil yang akurat dan relevan.
Dukungan
Farfalle: 6,5/10 - Farfalle menyediakan dukungan dasar melalui FAQ, dokumentasi, dan forum. Meskipun tidak sekomprehensif dukungan Perplexica, komunitas pengguna Farfalle umumnya mandiri.
Perplexica: 9/10 - Perplexica menyediakan sumber daya dukungan yang luas, termasuk dokumentasi terperinci, FAQ, dan forum komunitas. Pengembangnya secara aktif terlibat dengan komunitas, memastikan pengguna menerima bantuan yang tepat waktu dan efektif.
LLM yang Didukung
Farfalle: Tidak - Farfalle adalah mesin pencari AI mandiri yang tidak bergantung pada model bahasa besar (LLM) untuk kemampuannya.
Perplexica: Ya - Perplexica dibangun di atas model Phi-3 dari Meta AI, yang merupakan LLM. Ini memungkinkan Perplexica memanfaatkan kekuatan pembelajaran mendalam untuk hasil yang lebih akurat dan relevan.
Skor Keseluruhan Farfalle: 22/30 Perplexica: 34,5/40
Berdasarkan kriteria ini, Perplexica tampaknya memiliki keunggulan sedikit dibandingkan Farfalle dalam hal keandalan, dukungan komunitas, dan integrasi LLM. Namun, kedua mesin pencari ini memiliki kekuatannya masing-masing, dan pilihan akhirnya tergantung pada kebutuhan dan preferensi spesifik Anda.
Rekomendasi Jika Anda mencari mesin pencari AI yang andal dengan kemampuan NLP yang kuat, Perplexica mungkin menjadi pilihan yang lebih baik. Jika Anda lebih suka pendekatan yang lebih sederhana tanpa banyak fitur tambahan untuk pencarian, Farfalle masih bisa memberikan hasil yang luar biasa.
Respons perbandingan Farfalle
Perbandingan Farfalle dan Perplexica
Farfalle dan Perplexica adalah dua mesin pencari berbasis AI yang telah menarik perhatian dalam waktu terakhir. Berikut adalah perbandingan dua proyek ini berdasarkan keandalan, komunitas, dukungan, dan dukungan LLM (Large Language Model).
Keandalan
- Farfalle dirancang untuk dihosting sendiri dengan LLM lokal atau cloud, membuatnya menjadi opsi yang lebih andal bagi pengguna yang ingin mengontrol mesin pencari mereka.
- Perplexica, di sisi lain, adalah alternatif open-source dari Perplexity AI dan terus dikembangkan oleh pengembangnya.
Komunitas
- Perplexica memiliki komunitas pengembang dan pengguna yang setia yang berkontribusi pada pengembangannya dan memberikan dukungan
- Komunitas Farfalle lebih kecil, tetapi masih ada kehadirannya di GitHub
Dukungan
- Perplexica menyediakan pembaruan dan peningkatan secara berkala, serta saluran Discord untuk mendiskusikan hal-hal di luar dukungan standar
- Dukungan Farfalle terbatas pada isu dan pull request di GitHub
Dukungan LLM Kedua Farfalle dan Perplexica mendukung LLM. Perplexica menggunakan Ollama, sebuah LLM lokal, sedangkan Farfalle mendukung LLM lokal dan cloud.
Secara keseluruhan, Farfalle lebih andal karena desainnya yang dihosting sendiri, sementara Perplexica memiliki komunitas yang lebih kuat dan dukungan yang lebih baik. Kedua proyek mendukung LLM, tetapi Perplexica menggunakan Ollama secara khusus.
Kesimpulan
Apa perbedaan antara Perplexica dan Farfalle?
Jawabannya:
- Mengabaikan beberapa kesalahan fakta, kedua sistem berpikir bahwa Perplexica lebih baik daripada Farfalle, yang saya setuju dengan.
- Saya benar-benar menyukai UI Farfalle, meskipun mereka cukup dekat
- Saya menyukai ide mode ahli Farfalle meskipun tidak berfungsi di lingkungan saya
- Saya menemukan 3 bug saat menjalankan Farfalle. Kode Perplexica lebih rapi
- Setelah dikonfigurasi, perplexica berjalan tanpa kesalahan apa pun
- Perplexica memungkinkan penggunaan model yang dihosting Ollama apa pun. Dan Farfalle memungkinkan penggunaan hanya Gemma, Llama3, Mistral dan Phi3 (versi yang ditentukan sebelumnya, yang sedikit usang).
- Saya menyukai respons Farfalle lebih. Lihat gambar Farfalle di bawah ini. Langsung ke poin tanpa “Menurut konteks yang diberikan”…
Contoh tambahan
Ini menunjukkan respons untuk pertanyaan yang sama tentang penari breakdancer Australia. Anda tahu, yang satu dengan PhD yang mendapatkan 0 (Nol) poin dan kemungkinan besar membuat breakdancing dihapus dari program olimpiade.
Respons Farfalle
Respons Perplexica
Jika Anda membaca (atau menurun) akan paragraf terakhir ini, Terima kasih telah memiliki minat yang sama seperti saya. Ini benar-benar masa yang menarik. Semoga hari yang hebat!
Tautan yang berguna
- Pencarian vs Deepsearch vs Deep Research
- Uji: Bagaimana Ollama menggunakan Kinerja CPU Intel dan Core Efisien
- Bagaimana Ollama Mengelola Permintaan Paralel
- Menghosting Perplexica - dengan Ollama
- Membandingkan Kemampuan Ringkasan LLM
- Menulis prompt yang efektif untuk LLM
- Uji deteksi kesalahan logis oleh LLM baru: gemma2, qwen2 dan mistral Nemo
- Cheatsheet Ollama
- Cheatsheet Markdown
- Pemasok LLM Cloud
- Model Embedding & Reranker Qwen3 di Ollama: Kinerja Terbaik