Шпаргалка по Ollama - самые полезные команды
Недавно собрал этот список команд Ollama...
Вот список и примеры самых полезных команд Ollama (шпаргалка по командам Ollama), которые я собрал некоторое время назад. Надеюсь, это будет полезно и вам тоже.
Недавно собрал этот список команд Ollama...
Вот список и примеры самых полезных команд Ollama (шпаргалка по командам Ollama), которые я собрал некоторое время назад. Надеюсь, это будет полезно и вам тоже.
Следующий раунд тестов LLM
Недавно был выпущен. Давайте посмотрим, как Mistral Small справляется по сравнению с другими LLMs тестирование производительности Mistral Small по сравнению с другими LLMs.
Python-код для переранжирования RAG
Потрясающая новая модель ИИ для генерирования изображения на основе текста
Недавно Black Forest Labs опубликовала набор моделей генерации изображений на основе текста. Эти модели, как утверждается, имеют значительно более высокое качество вывода. Попробуем их
Так много моделей с миллиардами параметров…
Тестирование, как Perplexica работает с различными LLM, запущенными на локальном Ollama: Llama3, Llama3.1, Hermes 3, Mistral Nemo, Mistral Large, Gemma 2, Qwen2, Phi 3 и Command-r различных квант и выбор Лучший LLM для Perplexica
Сравнение двух самонастраиваемых поисковых движков ИИ
Вкусная еда - это удовольствие не только для глаз. Но в этом посте мы сравним две системы поиска на основе ИИ, Farfalle и Perplexica.
Выполняете сервис в стиле Copilot локально? Просто!
Это очень вдохновляет!
Вместо того чтобы вызывать copilot или perplexity.ai и рассказывать всему миру, что вы ищете,
теперь вы можете развернуть подобную службу на своем собственном ПК или ноутбуке!
Тестирование обнаружения логических ошибок
Недавно мы наблюдали выход нескольких новых LLM. Возбуждающие времена. Давайте протестируем и увидим, как они справляются с обнаружением логических ошибок.
Не так много вариантов на выбор, но всё же...
Когда я начал экспериментировать с ЛЛМ, интерфейсы для них находились в стадии активной разработки, и теперь некоторые из них действительно хороши.
Требует некоторого экспериментирования, но
Есть ещё несколько общепринятых подходов к написанию хороших промптов, чтобы LLM не запуталась, пытаясь понять, чего вы хотите от неё.
8 llama3 (Meta+) и 5 phi3 (Microsoft) версии LLM
Тестирование поведения моделей с разным количеством параметров и квантования.
Файлы модели Ollama LLM занимают много места.
После установки ollama лучше сразу переустановить ollama, чтобы хранить модели в новом месте. Таким образом, при загрузке новой модели она не будет скачиваться в старое расположение.
Давайте протестируем скорость моделей крупных языков на GPU по сравнению с CPU.
Сравнение скорости предсказания нескольких версий LLM: llama3 (Meta/Facebook), phi3 (Microsoft), gemma (Google), mistral (открытый исходный код) на процессоре и видеокарте.
Давайте протестируем качество обнаружения логических ошибок у разных языковых моделей
Здесь я сравниваю несколько версий LLM: Llama3 (Meta), Phi3 (Microsoft), Gemma (Google), Mistral Nemo (Mistral AI) и Qwen (Alibaba).