
Шпаргалка по Ollama
Скомпилировал этот список команд Ollama некоторое время назад...
Вот список и примеры самых полезных команд Ollama (шпаргалка по командам Ollama), которые я собрал некоторое время назад. Надеюсь, это будет полезно и вам тоже.
Скомпилировал этот список команд Ollama некоторое время назад...
Вот список и примеры самых полезных команд Ollama (шпаргалка по командам Ollama), которые я собрал некоторое время назад. Надеюсь, это будет полезно и вам тоже.
Следующий раунд тестов LLM
Недавно был выпущен. Давайте посмотрим, как Mistral Small справляется по сравнению с другими LLMs тестирование производительности Mistral Small по сравнению с другими LLMs.
Python-код для переранжирования RAG
Так много моделей с миллиардами параметров…
Тестирование, как Perplexica работает с различными LLM, запущенными на локальном Ollama: Llama3, Llama3.1, Hermes 3, Mistral Nemo, Mistral Large, Gemma 2, Qwen2, Phi 3 и Command-r различных квант и выбор Лучший LLM для Perplexica
Сравнение двух самонастраиваемых поисковых движков ИИ
Вкусная еда - это удовольствие не только для глаз. Но в этом посте мы сравним две системы поиска на основе ИИ, Farfalle и Perplexica.
Выполняете сервис в стиле Copilot локально? Просто!
Это очень вдохновляет!
Вместо того чтобы вызывать copilot или perplexity.ai и рассказывать всему миру, что вы ищете,
теперь вы можете развернуть подобную службу на своем собственном ПК или ноутбуке!
Тестирование обнаружения логических ошибок
Недавно мы наблюдали выход нескольких новых LLM. Возбуждающие времена. Давайте протестируем и увидим, как они справляются с обнаружением логических ошибок.
Не так много вариантов на выбор, но всё же...
Когда я начал экспериментировать с ЛЛМ, интерфейсы для них находились в стадии активной разработки, и теперь некоторые из них действительно хороши.
Требует некоторого экспериментирования, но
Есть ещё несколько общепринятых подходов к написанию хороших промптов, чтобы LLM не запуталась, пытаясь понять, чего вы хотите от неё.
8 llama3 (Meta+) и 5 phi3 (Microsoft) версии LLM
Тестирование поведения моделей с разным количеством параметров и квантования.
Файлы модели Ollama LLM занимают много места.
После установки ollama лучше сразу переустановить ollama, чтобы хранить модели в новом месте. Таким образом, при загрузке новой модели она не будет скачиваться в старое расположение.