Ollama

BAML против Instructor: Структурированные выходные данные LLM

BAML против Instructor: Структурированные выходные данные LLM

Безопасные с точки зрения типов выходные данные LLM с BAML и Instructor

При работе с большими языковыми моделями в производственной среде получение структурированных, типизированных выходных данных имеет критическое значение. Два популярных фреймворка - BAML и Instructor - предлагают разные подходы к решению этой проблемы.

Выбор правильного LLM для Cognee: настройка локального Ollama

Выбор правильного LLM для Cognee: настройка локального Ollama

Размышления об использовании больших языковых моделей для саморазмещаемого Cognee

Выбор лучшей LLM для Cognee требует баланса между качеством построения графов, уровнем галлюцинаций и ограничениями оборудования. Cognee лучше всего работает с крупными моделями с низким уровнем галлюцинаций (32B+) через Ollama, но средние по размеру варианты подходят для более легких настроек.

API веб-поиска Ollama в Python

API веб-поиска Ollama в Python

AI-поисковые агенты с помощью Python и Ollama

Библиотека Python для Ollama теперь включает в себя нативные возможности поиска в интернете с Ollama. С несколькими строками кода вы можете дополнить свои локальные LLMs актуальной информацией из интернета, снижая вероятность галлюцинаций и повышая точность.

API веб-поиска Ollama в Go

API веб-поиска Ollama в Go

AI-поисковые агенты с использованием Go и Ollama

Ollama’s Web Search API позволяет дополнять локальные LLMs актуальной информацией из интернета. Это руководство показывает, как реализовать возможности веб-поиска на Go, от простых API-запросов до полнофункциональных поисковых агентов.

Размещение локальных языковых моделей: Полное руководство на 2025 год - Ollama, vLLM, LocalAI, Jan, LM Studio и другие

Размещение локальных языковых моделей: Полное руководство на 2025 год - Ollama, vLLM, LocalAI, Jan, LM Studio и другие

Освойте локальное развертывание языковых моделей с сравнением 12+ инструментов

Локальное развертывание LLMs стало increasingly popular, так как разработчики и организации стремятся к повышенной конфиденциальности, снижению задержек и большему контролю над своей инфраструктурой ИИ.

Инфраструктура ИИ на потребительском оборудовании

Инфраструктура ИИ на потребительском оборудовании

Развертывание корпоративного ИИ на бюджетном оборудовании с открытыми моделями

Демократизация ИИ уже здесь. С открытыми моделями ИИ с открытым исходным кодом, такими как Llama 3, Mixtral и Qwen, которые теперь соперничают с проприетарными моделями, команды могут создавать мощную инфраструктуру ИИ с использованием потребительского оборудования - снижая затраты, сохраняя при этом полный контроль над конфиденциальностью данных и развертыванием.

Сравнение производительности Ollama: NVIDIA DGX Spark против Mac Studio против RTX-4080

Сравнение производительности Ollama: NVIDIA DGX Spark против Mac Studio против RTX-4080

Бенчмарки GPT-OSS 120b на трёх платформах ИИ

Я выкопал некоторые интересные тесты производительности GPT-OSS 120b, работающей на Ollama на трех разных платформах: NVIDIA DGX Spark, Mac Studio и RTX 4080. Модель GPT-OSS 120b из библиотеки Ollama весит 65ГБ, что означает, что она не помещается в 16ГБ видеопамяти RTX 4080 (или более новой RTX 5080).

Docker Model Runner против Ollama: что выбрать?

Docker Model Runner против Ollama: что выбрать?

Сравните Docker Model Runner и Ollama для локальных LLM

Запуск больших языковых моделей (LLM) локально стал все более популярным благодаря конфиденциальности, контролю затрат и возможностям работы офлайн. Ландшафт значительно изменился в апреле 2025 года, когда Docker представил Docker Model Runner (DMR), свое официальное решение для развертывания моделей ИИ.

Сравнение: Qwen3:30b против GPT-OSS:20b

Сравнение: Qwen3:30b против GPT-OSS:20b

Сравнение скорости, параметров и производительности этих двух моделей

Вот сравнение между Qwen3:30b и GPT-OSS:20b с акцентом на выполнение инструкций и параметры производительности, спецификации и скорость:

LLM и структурированный вывод: Ollama, Qwen3 & Python или Go

LLM и структурированный вывод: Ollama, Qwen3 & Python или Go

Несколько способов получения структурированного вывода из Ollama

Большие языковые модели (LLM) мощные, но в производстве мы редко хотим свободноформатных абзацев. Вместо этого нам нужны предсказуемые данные: атрибуты, факты или структурированные объекты, которые можно передать в приложение. Это Структурированный вывод LLM.

Оллама Эншитификация - ранние признаки

Оллама Эншитификация - ранние признаки

Мое мнение о текущем состоянии разработки Ollama

Ollama быстро стал одним из самых популярных инструментов для запуска локальных больших языковых моделей. Его простой интерфейс командной строки и упрощенное управление моделями сделали его предпочтительным вариантом для разработчиков, желающих работать с моделями ИИ вне облака. Но как и многие перспективные платформы, уже появляются признаки Enshittification: