Ollama

Дистанционный доступ к Ollama через Tailscale или WireGuard без открытых публичных портов.

Дистанционный доступ к Ollama через Tailscale или WireGuard без открытых публичных портов.

Доступ к Ollama удалённо без открытия публичных портов

Ollama чувствует себя наиболее комфортно, когда с ним обращаются как с локальным демонами: CLI и ваши приложения общаются через локальный HTTP-интерфейс, а остальная часть сети даже не знает о его существовании.

Ollama в Docker Compose с использованием GPU и постоянным хранилищем моделей

Ollama в Docker Compose с использованием GPU и постоянным хранилищем моделей

Ollama-сервер с приоритетом композинга, поддержкой GPU и сохранением состояния.

Ollama отлично работает на «голом» железе. Но становится еще интереснее, если рассматривать его как сервис: стабильный конечный пункт, зафиксированные версии, постоянное хранилище данных и GPU, который либо доступен, либо нет.

Ollama за обратным прокси-сервером Caddy или Nginx для потоковой передачи через HTTPS

Ollama за обратным прокси-сервером Caddy или Nginx для потоковой передачи через HTTPS

HTTPS для Ollama без нарушения потоковой передачи ответов.

Запуск Ollama через обратный прокси — самый простой способ обеспечить поддержку HTTPS, опциональный контроль доступа и предсказуемое поведение потоковой передачи данных.

Векторные представления текста для RAG и поиска — Python, Ollama, совместимые с API OpenAI

Векторные представления текста для RAG и поиска — Python, Ollama, совместимые с API OpenAI

Встраивания для RAG — Python, Ollama, API OpenAI.

Если вы работаете с генерацией с расширением поиска (RAG), этот раздел объясняет векторные представления текста (эмбеддинги) простым языком: что это такое, как они работают в поиске и извлечении данных, и как вызывать два распространенных локальных режима из Python с помощью Ollama или OpenAI-совместимого HTTP API (так как многие серверы на базе llama.cpp поддерживают такой интерфейс).

OpenClaw Quickstart: Установка с Docker (Ollama GPU или Claude CPU)

OpenClaw Quickstart: Установка с Docker (Ollama GPU или Claude CPU)

Установите OpenClaw локально с Ollama

OpenClaw — это самоуправляемый AI-ассистент, предназначенный для работы с локальными LLM-движками, такими как Ollama, или с облачными моделями, такими как Claude Sonnet.

Сравнение производительности больших языковых моделей на Ollama с видеокартой 16 ГБ VRAM

Сравнение производительности больших языковых моделей на Ollama с видеокартой 16 ГБ VRAM

Тест скорости LLM на RTX 4080 с 16 ГБ видеопамяти

Запуск крупных языковых моделей локально обеспечивает вам конфиденциальность, возможность работы оффлайн и отсутствие затрат на API. Этот бенчмарк раскрывает, чего именно можно ожидать от 14 популярных LLMs на Ollama на RTX 4080.

Топ-19 актуальных проектов на Go в GitHub — январь 2026 года

Топ-19 актуальных проектов на Go в GitHub — январь 2026 года

Трендовые Go-репозитории января 2026

Экосистема Go продолжает процветать с инновационными проектами, охватывающими инструменты ИИ, самоуправляемые приложения и инфраструктуру разработчиков. Этот обзор анализирует самые популярные репозитории Go на GitHub в этом месяце.

Ценообразование на DGX Spark AU: от 6249 до 7999 долларов в крупных розничных магазинах

Ценообразование на DGX Spark AU: от 6249 до 7999 долларов в крупных розничных магазинах

Актуальные цены в австралийских долларах от местных розничных продавцов уже доступны.

Компьютер NVIDIA DGX Spark (GB10 Grace Blackwell) поступил в продажу в Австралии у крупных розничных продавцов компьютеров с наличием на местных складах. Если вы следите за мировым ценообразованием и доступностью DGX Spark, то вам будет интересно узнать, что в Австралии цены варьируются от 6 249 до 7 999 австралийских долларов в зависимости от конфигурации накопителей и конкретного продавца.

BAML против Instructor: Структурированные выходные данные LLM

BAML против Instructor: Структурированные выходные данные LLM

Безопасные с точки зрения типов выходные данные LLM с BAML и Instructor

При работе с большими языковыми моделями в производственной среде получение структурированных, типизированных выходных данных имеет критическое значение. Два популярных фреймворка - BAML и Instructor - предлагают разные подходы к решению этой проблемы.

Выбор правильного LLM для Cognee: локальная установка Ollama

Выбор правильного LLM для Cognee: локальная установка Ollama

Размышления об использовании больших языковых моделей для саморазмещаемого Cognee

Выбор лучшей LLM для Cognee требует баланса между качеством построения графов, уровнями галлюцинаций и ограничениями оборудования. Cognee лучше всего работает с крупными моделями с низким уровнем галлюцинаций (32B+) через Ollama, но средние варианты подходят для более легких настроек.