Farfalle против Perplexica
Сравнение двух самохостинговых поисковых систем на основе ИИ
Великолепная еда — это удовольствие для глаз тоже.
Но в этом посте мы сравним две AI-системы поиска, Farfalle и Perplexica.
Кстати, эта форма пасты также называется “farfalle”.
Но здесь я сравниваю только то, как эти две системы ведут себя. Не формы пасты.
Хорошо. Сосредоточьтесь!
Пожалуйста, также посмотрите
Установка и настройка Perplexica с использованием ollama
и
Установка и настройка Ollama.
Perplexica
Вот домашняя страница с выпадающим списком выбора источников.
- Perplexica реализована с использованием
- TypeScript и React.Js (UI)
- TypeScript и Express.Js (Backend)
- также включает настройки для метапоискового движка SearxNG
- Имеет режим Copilot
- Имеет возможность использовать любую модель LLM, размещенную в Ollama, как чат или модель встраивания
- Имеет три небольшие внутренние модели встраивания
Farfalle
- Farfalle реализована с использованием
- TypeScript и React.Js (UI)
- Python Fastapi (Backend)
- также включает ссылку на метапоисковый движок SearxNG. Нет много настроек для этого, довольно стандартный образ Docker.
- Имеет режим Эксперта, который должен подготовить несколько запросов из оригинала и объединить ответы. Но это не сработало в нашем тесте.
- Имеет возможность использовать четыре модели LLM, размещенных в Ollama, как модель чата (llama3, mistral, gemma, phi3). Это хороший набор опций, но я бы предпочел, чтобы он был более гибким и позволял использовать любую модель, которую обслуживает Ollama.
- Нет опций для модели встраивания
Сравнение, выполнено Perplexica и Farfalle сами
Я запустил один и тот же запрос Сравните farfalle и perplexica на основе устойчивости, сообщества, поддержки и поддерживаемых LLM
Оба Perplexica и Farfalle использовали модель llama3, размещенную локально на ollama. Полное имя модели — llama3 8b q4.
Не верьте на 100% тому, что говорят ответы, просто посмотрите длину текста, структуру и общее качество ответа.
Я бы верил примерно 70%…
Ответ Perplexica на сравнение
Сравнение Farfalle и Perplexica
Устойчивость
Farfalle: 8/10 - Farfalle — популярный AI-поисковый движок, известный своей надежностью и способностью обрабатывать сложные запросы. У него сильное основание в обработке естественного языка (NLP) и машинном обучении (ML). Хотя он может не быть идеальным, устойчивость Farfalle хорошо установлена.
Perplexica: 9/10 - Perplexica построена на основе модели Phi-3 от Meta AI, которая предназначена для устойчивости. Ее тестировали на точность ответов даже при неоднозначных или неясных запросах. Возможность переформулировать вопросы и адаптироваться к разным контекстам делает ее устойчивым поисковым движком.
Сообщество
Farfalle: 7/10 - Farfalle имеет приверженное сообщество пользователей, которые ценят его возможности. Хотя у нее может не быть такого же уровня популярности, как у Perplexica, пользовательская база Farfalle все еще значительна.
Perplexica: 8.5/10 - Perplexica получила широкое признание за инновационный подход к поисковым системам. Ее сообщество быстро растет, с множеством пользователей, ценящих ее способность предоставлять точные и релевантные результаты.
Поддержка
Farfalle: 6.5/10 - Farfalle предоставляет базовую поддержку через часто задаваемые вопросы, документацию и форумы. Хотя она не такая же подробная, как у Perplexica, пользовательская база Farfalle в целом самодостаточна.
Perplexica: 9/10 - Perplexica предлагает обширные ресурсы поддержки, включая подробную документацию, часто задаваемые вопросы и сообщественные форумы. Разработчики активно взаимодействуют с сообществом, обеспечивая пользователям своевременную и эффективную помощь.
Поддерживаемые LLM
Farfalle: Нет - Farfalle — автономный AI-поисковый движок, который не зависит от крупных языковых моделей (LLM) для своих возможностей.
Perplexica: Да - Perplexica построена на основе модели Phi-3 от Meta AI, которая является LLM. Это позволяет Perplexica использовать силу глубокого обучения для более точных и релевантных результатов.
Общий балл Farfalle: 22/30 Perplexica: 34.5/40
На основании этих критериев, Perplexica, похоже, имеет небольшое преимущество перед Farfalle в плане устойчивости, поддержки сообщества и интеграции LLM. Однако, оба поисковых движка имеют свои сильные стороны, и выбор в конечном итоге зависит от ваших конкретных потребностей и предпочтений.
Рекомендация Если вы ищете надежный AI-поисковый движок с сильными возможностями NLP, Perplexica может быть лучшим выбором. Если вы предпочитаете более прямой, без лишних функций подход к поиску, Farfalle все равно может дать отличные результаты.
Ответ Farfalle на сравнение
Сравнение Farfalle и Perplexica
Farfalle и Perplexica — это две AI-поисковые системы, которые привлекли внимание в последнее время. Вот сравнение этих двух проектов на основе устойчивости, сообщества, поддержки и поддержки LLM (Large Language Model).
Устойчивость
- Farfalle разработана для локального или облачного размещения с LLM, делая ее более устойчивым вариантом для пользователей, которые хотят контролировать свой поисковый движок.
- Perplexica, с другой стороны, является открытым исходным кодом альтернативой Perplexity AI и постоянно улучшается разработчиками.
Сообщество
- Perplexica имеет приверженное сообщество разработчиков и пользователей, которые вносят свой вклад в ее разработку и предоставляют поддержку
- Сообщество Farfalle меньше, но оно все еще присутствует на GitHub
Поддержка
- Perplexica предлагает регулярные обновления и улучшения, а также канал Discord для обсуждения вопросов вне рамок обычной поддержки
- Поддержка Farfalle ограничена проблемами на GitHub и pull-запросами
Поддержка LLM Оба Farfalle и Perplexica поддерживают LLM. Perplexica использует Ollama, локальную LLM, в то время как Farfalle поддерживает как локальные, так и облачные LLM.
В общем, Farfalle более устойчива из-за своей саморазмещаемой конструкции, в то время как Perplexica имеет более сильное сообщество и лучшую поддержку. Оба проекта поддерживают LLM, но Perplexica использует Ollama специально.
Заключение
Какая разница между Perplexica и Farfalle?
Ответ:
- Игнорируя некоторые фактические ошибки, оба системы думают, что Perplexica лучше, чем Farfalle, что я хотел бы согласовать.
- Я действительно люблю интерфейс Farfalle, хотя они довольно близки
- Мне нравится идея режима эксперта Farfalle, хотя он не работал в моей среде
- Я столкнулся с 3 багами при запуске Farfalle. Код Perplexica более отполирован
- После настройки, perplexica запустился без каких-либо ошибок
- Perplexica позволяет использовать любую модель, размещенную в Ollama. А Farfalle позволяет использовать только Gemma, Llama3, Mistral и Phi3 (предопределенные версии, которые немного устарели).
- Я больше люблю ответы Farfalle. Посмотрите на изображение Farfalle ниже. Прямо к делу, без тех “Согласно контексту, предоставленному”…
Дополнительные примеры
Эти примеры показывают ответы на один и тот же вопрос о австралийском брейкдансере. Вы знаете, того, у кого есть докторская степень, который получил 0 (ноль) баллов и, вероятно, удалили брейкданс из программы олимпиады.
Ответ Farfalle
Ответ Perplexica
Если вы прочитаете (или пролистаете) этот последний абзац, спасибо, что разделяете мои интересы. Это действительно захватывающие времена. Хорошего дня!
Полезные ссылки
- Поиск vs Deepsearch vs Deep Research
- Тест: Как Ollama использует производительность процессора Intel и эффективные ядра
- Как Ollama обрабатывает параллельные запросы
- Лучшая LLM для Perplexica
- Самостоятельное размещение Perplexica - с использованием Ollama
- Сравнение способностей LLM к суммаризации
- Написание эффективных промптов для LLM
- Тестирование обнаружения логических ошибок новыми LLM: gemma2, qwen2 и mistral Nemo
- Справочник Ollama
- Справочник Markdown
- Облачные провайдеры LLM
- Модели встраивания и переоценки Qwen3 на Ollama: передовые достижения