DevOps

Создание микросервисов на основе событий с использованием AWS Kinesis

Создание микросервисов на основе событий с использованием AWS Kinesis

Архитектура на основе событий с использованием AWS Kinesis для масштабируемости

AWS Kinesis стал основой для создания современных микросервисных архитектур, работающих на основе событий, обеспечивая обработку данных в реальном времени с минимальными операционными затратами.

Самостоятельное развертывание Nextcloud: Ваше частное облачное решение

Самостоятельное развертывание Nextcloud: Ваше частное облачное решение

Управляйте своими данными с помощью облачного хранилища Nextcloud с саморазмещением

Nextcloud — это ведущая открытая платформа для хранения и совместной работы в облаке, которая полностью контролирует ваши данные.

Самостоятельное размещение Immich: частное фотооблако

Самостоятельное размещение Immich: частное фотооблако

Ваши фотографии на самоуправляемом AI-облаке

Immich — это революционное открытое программное обеспечение с открытым исходным кодом для управления фотографиями и видео, которое дает вам полный контроль над вашими воспоминаниями. С функциями, сопоставимыми с Google Photos, включая распознавание лиц с использованием ИИ, умный поиск и автоматическое резервное копирование с мобильных устройств, при этом все ваши данные остаются конфиденциальными и защищенными на вашем собственном сервере.

Шпаргалка по Elasticsearch: Основные команды и советы

Шпаргалка по Elasticsearch: Основные команды и советы

Команды Elasticsearch для поиска, индексирования и анализа

Elasticsearch — это мощный распределенный поисковый и аналитический движок, построенный на Apache Lucene. Это подробное руководство содержит основные команды, лучшие практики и быстрые ссылки для работы с кластерами Elasticsearch.

Сравнение производительности Ollama: NVIDIA DGX Spark против Mac Studio против RTX-4080

Сравнение производительности Ollama: NVIDIA DGX Spark против Mac Studio против RTX-4080

Бенчмарки GPT-OSS 120b на трёх платформах ИИ

Я выкопал некоторые интересные тесты производительности GPT-OSS 120b, работающей на Ollama на трех разных платформах: NVIDIA DGX Spark, Mac Studio и RTX 4080. Модель GPT-OSS 120b из библиотеки Ollama весит 65ГБ, что означает, что она не помещается в 16ГБ видеопамяти RTX 4080 (или более новой RTX 5080).

Модульное тестирование в Python: Полное руководство с примерами

Модульное тестирование в Python: Полное руководство с примерами

Тестирование на Python с использованием pytest, TDD, мокирования и покрытия кода

Модульное тестирование гарантирует, что ваш код на Python работает правильно и продолжает работать по мере развития проекта. Это всеобъемлющее руководство охватывает все, что вам нужно знать о модульном тестировании в Python, от базовых концепций до продвинутых техник.

Шпаргалка Docker Model Runner: команды и примеры

Шпаргалка Docker Model Runner: команды и примеры

Справочник команд Docker Model Runner

Docker Model Runner (DMR) — это официальное решение Docker для запуска моделей ИИ локально, представленное в апреле 2025 года. Этот справочник предоставляет быстрый доступ ко всем основным командам, настройкам и лучшим практикам.

Docker Model Runner против Ollama: что выбрать?

Docker Model Runner против Ollama: что выбрать?

Сравните Docker Model Runner и Ollama для локальных LLM

Запуск больших языковых моделей (LLM) локально стал все более популярным благодаря конфиденциальности, контролю затрат и возможностям работы офлайн. Ландшафт значительно изменился в апреле 2025 года, когда Docker представил Docker Model Runner (DMR), свое официальное решение для развертывания моделей ИИ.

Реализация сервис-меша с использованием Istio и Linkerd: Полное руководство

Реализация сервис-меша с использованием Istio и Linkerd: Полное руководство

Развёртывание production-ready сервис-меша: Istio vs Linkerd

Узнайте, как реализовать и оптимизировать архитектуры сервис-мешей с использованием Istio и Linkerd. Это руководство охватывает стратегии развертывания, сравнения производительности, конфигурации безопасности и лучшие практики для производственных сред.

GNOME Boxes: Полное руководство по функциям, преимуществам, проблемам и альтернативам

GNOME Boxes: Полное руководство по функциям, преимуществам, проблемам и альтернативам

Простое управление виртуальными машинами в Linux с помощью GNOME Boxes

В современном вычислительном ландшафте виртуализация стала неотъемлемой частью разработки, тестирования и запуска нескольких операционных систем. Для пользователей Linux, ищущих простой и интуитивно понятный способ управления виртуальными машинами, GNOME Boxes выделяется как легковесный и удобный вариант, который делает акцент на простоте использования без ущерба для функциональности.

DGX Spark против Mac Studio: сравнение цен на персональный суперкомпьютер NVIDIA для ИИ

DGX Spark против Mac Studio: сравнение цен на персональный суперкомпьютер NVIDIA для ИИ

Доступность, реальные розничные цены в шести странах и сравнение с Mac Studio.

NVIDIA DGX Spark — это реальное устройство, которое поступит в продажу 15 октября 2025 года, и оно предназначено для разработчиков CUDA, которым нужна локальная работа с LLM с интегрированным NVIDIA AI stack. Рекомендуемая розничная цена в США — $3,999; в Великобритании, Германии и Японии розничные цены выше из-за НДС и каналов сбыта. Австралийские и корейские вон пока не опубликованы широко.

Протокол Gemini: минималистичная альтернатива вебу

Протокол Gemini: минималистичная альтернатива вебу

Gemini — лёгкая и безопасная альтернатива вебу

Протокол Gemini представляет собой возврат к основам интернет-коммуникации — легковесный, безопасный и уважающий конфиденциальность альтернативный современному, все более сложному вебу.

Освоение Dev Containers в VS Code

Освоение Dev Containers в VS Code

Создавайте согласованные, переносимые и воспроизводимые среды разработки с помощью Dev Containers

Разработчики часто сталкиваются с проблемой “работает на моей машине”, вызванной несоответствиями зависимостей, версиями инструментов или различиями в операционных системах. Dev Containers в Visual Studio Code (VS Code) решают эту проблему элегантно — позволяя разрабатывать внутри контейнеризованной среды, специально настроенной для вашего проекта.