Self-Hosting

Проблемы структурированного вывода в Ollama GPT-OSS

Проблемы структурированного вывода в Ollama GPT-OSS

Не очень приятно.

Модели GPT-OSS от Ollama (https://www.glukhov.org/ru/llm-performance/ollama/ollama-gpt-oss-structured-output-issues/ “Ollama GPT-OSS”) постоянно сталкиваются с проблемами при работе со структурированным выводом, особенно при использовании с фреймворками вроде LangChain, OpenAI SDK, vllm и другими.

LLM и структурированный вывод: Ollama, Qwen3 & Python или Go

LLM и структурированный вывод: Ollama, Qwen3 & Python или Go

Несколько способов получения структурированного вывода из Ollama

Большие языковые модели (LLM) мощные, но в производстве мы редко хотим свободноформатных абзацев. Вместо этого нам нужны предсказуемые данные: атрибуты, факты или структурированные объекты, которые можно передать в приложение. Это Структурированный вывод LLM.

Kubuntu против KDE Neon: техническое глубокое погружение

Kubuntu против KDE Neon: техническое глубокое погружение

Попробовал и Kubuntu, и KDE Neon — Kubuntu стабильнее.

Для поклонников KDE Plasma в обсуждениях часто фигурируют две дистрибуции Linux: [Kubuntu и KDE Neon](https://www.glukhov.org/ru/developer-tools/comparisons/kubuntu-vs-kde-neon/ “Kubuntu vs KDE Neon”). На первый взгляд они могут показаться похожими — обе поставляются с KDE Plasma в качестве рабочего стола по умолчанию, обе основаны на Ubuntu и обе дружелюбны к новичкам.

Оллама Эншитификация: ранние признаки

Оллама Эншитификация: ранние признаки

Моё мнение о текущем состоянии разработки Ollama

Ollama быстро стал одним из самых популярных инструментов для запуска локальных моделей большого языка (LLM). Его простой интерфейс командной строки и упрощенное управление моделями сделали его предпочтительным вариантом для разработчиков, которые хотят работать с моделями ИИ вне облака.

Как установить сервер Mumble на Ubuntu и использовать Mumble на Android и iOS

Как установить сервер Mumble на Ubuntu и использовать Mumble на Android и iOS

Альтернативная платформа голосовой связи по IP

Mumble — это бесплатное и открытое программное обеспечение для голосовой передачи данных (VoIP), предназначенное в основном для передачи голоса в реальном времени. Оно использует клиент-серверную архитектуру, где пользователи подключаются к общему серверу для общения друг с другом.

Интерфейсы чатов для локальных экземпляров Ollama

Интерфейсы чатов для локальных экземпляров Ollama

Краткий обзор наиболее заметных интерфейсов для Ollama в 2025 году

Локально размещённый Ollama позволяет запускать большие языковые модели на вашем собственном устройстве, но использование его через командную строку не очень удобно. Вот несколько открытых проектов, которые предоставляют интерфейсы в стиле ChatGPT, подключающиеся к локальному Ollama.

Дистрибутивы Kubernetes — краткий обзор kubeadm, k3s, MicroK8s, Minikube, Talos Linux и RKE2

Дистрибутивы Kubernetes — краткий обзор kubeadm, k3s, MicroK8s, Minikube, Talos Linux и RKE2

Краткий обзор вариантов Kubernetes

Сравнение дистрибутивов Kubernetes для саморазвертывания на bare-metal или домашних серверах, с акцентом на простоту установки, производительность, системные требования и функциональность.

Сравнение дистрибутивов Kubernetes для хоумлаба из 3 узлов

Сравнение дистрибутивов Kubernetes для хоумлаба из 3 узлов

Выбор лучшего варианта Kubernetes для нашего домашнего лабораторного стенда

Я сравниваю варианты самонастраиваемых Kubernetes, подходящие для хоумлаба на основе Ubuntu с 3 узлами (16 ГБ ОЗУ, 4 ядра каждый), с акцентом на простоте установки и обслуживания, поддержке постоянных томов и LoadBalancers.

Шпаргалка по GitHub Actions — стандартная структура и список наиболее полезных действий

Шпаргалка по GitHub Actions — стандартная структура и список наиболее полезных действий

Немного о распространённых GitHub Actions и их структуре.

GitHub Actions — это платформа автоматизации и CI/CD внутри GitHub, предназначенная для сборки, тестирования и развертывания кода на основе событий, таких как пуши (push), запросы на слияние (pull requests) или по расписанию.

NVIDIA DGX Spark — новый компактный суперкомпьютер для искусственного интеллекта

NVIDIA DGX Spark — новый компактный суперкомпьютер для искусственного интеллекта

В июле 2025 года, скоро это должно стать доступно.

Nvidia вот-вот выпустит NVIDIA DGX Spark — компактный ИИ-суперкомпьютер на архитектуре Blackwell с более чем 128 ГБ объединенной памяти и производительностью 1 ПФЛОПС для задач искусственного интеллекта. Отличное устройство для запуска больших языковых моделей (LLM).