DevOps

Дистанционный доступ к Ollama через Tailscale или WireGuard без открытых публичных портов.

Дистанционный доступ к Ollama через Tailscale или WireGuard без открытых публичных портов.

Доступ к Ollama удалённо без открытия публичных портов

Ollama чувствует себя наиболее комфортно, когда с ним обращаются как с локальным демонами: CLI и ваши приложения общаются через локальный HTTP-интерфейс, а остальная часть сети даже не знает о его существовании.

Ollama в Docker Compose с использованием GPU и постоянным хранилищем моделей

Ollama в Docker Compose с использованием GPU и постоянным хранилищем моделей

Ollama-сервер с приоритетом композинга, поддержкой GPU и сохранением состояния.

Ollama отлично работает на «голом» железе. Но становится еще интереснее, если рассматривать его как сервис: стабильный конечный пункт, зафиксированные версии, постоянное хранилище данных и GPU, который либо доступен, либо нет.

Ollama за обратным прокси-сервером Caddy или Nginx для потоковой передачи через HTTPS

Ollama за обратным прокси-сервером Caddy или Nginx для потоковой передачи через HTTPS

HTTPS для Ollama без нарушения потоковой передачи ответов.

Запуск Ollama через обратный прокси — самый простой способ обеспечить поддержку HTTPS, опциональный контроль доступа и предсказуемое поведение потоковой передачи данных.

Графовая база данных Neo4j для GraphRAG: установка, Cypher, векторы, операции.

Графовая база данных Neo4j для GraphRAG: установка, Cypher, векторы, операции.

Графы, Cypher, векторы и усиление операций.

Neo4j — это то, что вы выбираете, когда связи и есть данные. Если ваша предметная область выглядит как доска с кружками и стрелками, то попытка запихнуть её в таблицы будет болезненной.

Что такое IndexNow: уведомляйте поисковые системы при публикации контента

Что такое IndexNow: уведомляйте поисковые системы при публикации контента

Отправляйте обновленные URL-адреса в поисковые системы после развертывания.

Статические сайты и блоги меняются при каждой деплойке. Поисковые системы, поддерживающие IndexNow, могут узнать об этих изменениях, не дожидаясь следующего слепого сканирования.

Быстрый старт SGLang: установка, настройка и развертывание больших языковых моделей через API OpenAI

Быстрый старт SGLang: установка, настройка и развертывание больших языковых моделей через API OpenAI

Запускайте открытые модели быстро с помощью SGLang.

SGLang — это высокопроизводительный фреймворк для развертывания больших языковых и мультимодальных моделей, созданный для обеспечения низколатентного и высокопроизводительного вывода на устройствах от одной GPU до распределенных кластеров.

Быстрый старт переключателя моделей llama.swap для локальных LLM, совместимых с OpenAI

Быстрый старт переключателя моделей llama.swap для локальных LLM, совместимых с OpenAI

Горячая замена локальных LLM без изменения клиентов.

Вот вы скоро балансируете между vLLM, llama.cpp и прочим стеком — каждый на своем порту. Все downstream-системы все еще ожидают единый базовый URL /v1; иначе вы будете постоянно менять порты, профили и разовые скрипты. llama-swap — это прокси для /v1, стоящее перед этими стеками.

Быстрый старт с Apache Kafka — установка Kafka 4.2 с использованием CLI и локальных примеров

Быстрый старт с Apache Kafka — установка Kafka 4.2 с использованием CLI и локальных примеров

Установите Kafka 4.2 и начните потоковую обработку событий за считанные минуты.

Apache Kafka 4.2.0 является текущей поддерживаемой веткой выпуска, и это наилучшая базовая линия для современного быстрого старта, поскольку Kafka 4.x полностью работает без ZooKeeper и по умолчанию построена вокруг KRaft.

Инструменты разработчика: Полное руководство по современным рабочим процессам разработки

Инструменты разработчика: Полное руководство по современным рабочим процессам разработки

Разработка программного обеспечения включает Git для управления версиями, Docker для контейнеризации, bash для автоматизации, PostgreSQL для баз данных и VS Code для редактирования — а также бесчисленное множество других инструментов, которые могут как обеспечить, так и сорвать вашу производительность. Эта страница собирает необходимые шпаргалки, рабочие процессы и сравнения, которые помогут вам эффективно работать со всем стеком разработки.

Быстрый старт с LocalAI: запуск локальных LLM, совместимых с OpenAI

Быстрый старт с LocalAI: запуск локальных LLM, совместимых с OpenAI

Запустите собственные API, совместимые с OpenAI, с помощью LocalAI за несколько минут.

LocalAI — это самодостаточный сервер вывода с приоритетом на локальное использование, разработанный для работы как прямая замена OpenAI API для запуска ИИ-нагрузок на вашем собственном оборудовании (ноутбук, рабочая станция или сервер в центре обработки данных).

Быстрый старт llama.cpp с CLI и сервером

Быстрый старт llama.cpp с CLI и сервером

Как установить, настроить и использовать OpenCode

Я постоянно возвращаюсь к llama.cpp для локального вывода — он дает вам контроль, который Ollama и другие абстрагируют, и просто работает. Легко запускать модели GGUF интерактивно с llama-cli или предоставлять совместимый с OpenAI HTTP API с llama-server.

Инструменты для разработчиков ИИ: Полное руководство по разработке с использованием искусственного интеллекта

Инструменты для разработчиков ИИ: Полное руководство по разработке с использованием искусственного интеллекта

Искусственный интеллект меняет способы написания, проверки, развертывания и поддержки программного обеспечения. От ИИ-ассистентов для написания кода до автоматизации GitOps и DevOps-процессов — разработчики теперь используют инструменты на базе ИИ на протяжении всего жизненного цикла разработки ПО.

Airtable для разработчиков и DevOps — тарифные планы, API, вебхуки и примеры на Go/Python

Airtable для разработчиков и DevOps — тарифные планы, API, вебхуки и примеры на Go/Python

Airtable — ограничения бесплатного плана, API, вебхуки, Go и Python.

Airtable лучше всего рассматривать как платформу для создания приложений с низким уровнем кода, построенную вокруг совместного “базоподобного” интерфейса таблиц - отличное решение для быстрого создания операционных инструментов (внутренние трекеры, легковесные CRM, контентные конвейеры, очереди оценки ИИ), где неразработчикам нужен дружелюбный интерфейс, а разработчикам - API для автоматизации и интеграции.

Быстрый старт OpenCode: установка, настройка и использование терминального AI-агента для программирования

Быстрый старт OpenCode: установка, настройка и использование терминального AI-агента для программирования

Как установить, настроить и использовать OpenCode

OpenCode — это агент искусственного интеллекта для написания кода с открытым исходным кодом, который можно запускать в терминале (TUI + CLI) с опциональными поверхностями для настольных приложений и IDE. Это Быстрый старт OpenCode: установка, проверка, подключение модели/провайдера и выполнение реальных рабочих процессов (CLI + API).

Мониторинг инференса LLM в продакшене (2026): Prometheus и Grafana для vLLM, TGI, llama.cpp

Мониторинг инференса LLM в продакшене (2026): Prometheus и Grafana для vLLM, TGI, llama.cpp

Мониторинг LLM с помощью Prometheus и Grafana

Learn how to monitor LLM inference servers (vLLM, Hugging Face TGI, llama.cpp) using Prometheus and Grafana. This article covers what to measure, how to expose and scrape /metrics, example PromQL queries for p95 latency and tokens/sec, ready-to-use Docker Compose and Kubernetes manifests, Grafana dashboard provisioning, alerting, and real-world troubleshooting.