
Переранжирование с использованием моделей встраивания
Python-код для переранжирования RAG
Python-код для переранжирования RAG
Потрясающая новая модель ИИ для генерирования изображения на основе текста
Недавно Black Forest Labs опубликовала набор моделей генерации изображений на основе текста. Эти модели, как утверждается, имеют значительно более высокое качество вывода. Попробуем их
Так много моделей с миллиардами параметров…
Тестирование, как Perplexica работает с различными LLM, запущенными на локальном Ollama: Llama3, Llama3.1, Hermes 3, Mistral Nemo, Mistral Large, Gemma 2, Qwen2, Phi 3 и Command-r различных квант и выбор Лучший LLM для Perplexica
Сравнение двух самохостинговых поисковых систем на основе ИИ
Великолепная еда — это удовольствие для глаз тоже.
Но в этом посте мы сравним две AI-системы поиска, Farfalle и Perplexica.
Выполняете сервис в стиле Copilot локально? Просто!
Это очень вдохновляет!
Вместо того чтобы вызывать copilot или perplexity.ai и рассказывать всему миру, что вы ищете,
теперь вы можете развернуть подобную службу на своем собственном ПК или ноутбуке!
Тестирование обнаружения логических ошибок
Недавно мы наблюдали выход нескольких новых LLM. Возбуждающие времена. Давайте протестируем и увидим, как они справляются с обнаружением логических ошибок.
Не так много вариантов для выбора, но всё же...
Когда я начал экспериментировать с LLM, интерфейсы для них находились в активном разработке, и теперь некоторые из них действительно хороши.
Требует некоторого экспериментирования, но
Есть ещё несколько общепринятых подходов к написанию хороших промптов, чтобы LLM не запуталась, пытаясь понять, чего вы хотите от неё.
Часто используемые фрагменты Python-кода
Sometimes need this but can’t find rightaway. So keeping them all here.
Меткировка и обучение требуют некоторой интеграции
Когда я обучал модель детектора объектов AI несколько лет назад - LabelImg был очень полезным инструментом, но экспорт из Label Studio в формат COCO не принимался фреймворком MMDetection..
8 llama3 (Meta+) и 5 phi3 (Microsoft) версии LLM
Тестирование поведения моделей с разным количеством параметров и квантования.
Файлы модели Ollama LLM занимают много места.
После установки ollama лучше сразу переустановить ollama, чтобы хранить модели в новом месте. Таким образом, при загрузке новой модели она не будет скачиваться в старое расположение.
Давайте протестируем скорость моделей крупных языков на GPU по сравнению с CPU.
Сравнение скорости предсказания нескольких версий LLM: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (открытый исходный код) на процессоре и видеокарте.
Давайте протестируем качество обнаружения логических ошибок различных больших языковых моделей
Сравнение нескольких версий ИИ: llama3 (Meta), phi3 (Microsoft), gemma (Google), mistral (открытое исходное код), qwen (Alibaba).
Несколько времени назад я обучил объектный детектор ИИ
На одном холодном зимнем дне в июле… то есть в Австралии… у меня возникла срочная необходимость обучить модель ИИ для обнаружения неснабжённых арматурных стержней…