Self-Hosting

Strapi против Directus против Payload: Сражение бесплатных CMS

Strapi против Directus против Payload: Сражение бесплатных CMS

Сравнение headless CMS: функции, производительность и случаи использования

Выбор правильной headless CMS может сделать или сломать вашу стратегию управления контентом. Давайте сравним три открытых решения, которые влияют на то, как разработчики создают приложения, основанные на контенте.

Самостоятельное развертывание Nextcloud: Ваше частное облачное решение

Самостоятельное развертывание Nextcloud: Ваше частное облачное решение

Управляйте своими данными с помощью облачного хранилища Nextcloud с саморазмещением

Nextcloud — это ведущая открытая платформа для хранения и совместной работы в облаке, которая полностью контролирует ваши данные.

Самостоятельное размещение Immich: частное фотооблако

Самостоятельное размещение Immich: частное фотооблако

Ваши фотографии на самоуправляемом AI-облаке

Immich — это революционное открытое программное обеспечение с открытым исходным кодом для управления фотографиями и видео, которое дает вам полный контроль над вашими воспоминаниями. С функциями, сопоставимыми с Google Photos, включая распознавание лиц с использованием ИИ, умный поиск и автоматическое резервное копирование с мобильных устройств, при этом все ваши данные остаются конфиденциальными и защищенными на вашем собственном сервере.

Шпаргалка по Elasticsearch: Основные команды и советы

Шпаргалка по Elasticsearch: Основные команды и советы

Команды Elasticsearch для поиска, индексирования и анализа

Elasticsearch — это мощный распределенный поисковый и аналитический движок, построенный на Apache Lucene. Это подробное руководство содержит основные команды, лучшие практики и быстрые ссылки для работы с кластерами Elasticsearch.

Сравнение производительности Ollama: NVIDIA DGX Spark против Mac Studio против RTX-4080

Сравнение производительности Ollama: NVIDIA DGX Spark против Mac Studio против RTX-4080

Бенчмарки GPT-OSS 120b на трёх платформах ИИ

Я выкопал некоторые интересные тесты производительности GPT-OSS 120b, работающей на Ollama на трех разных платформах: NVIDIA DGX Spark, Mac Studio и RTX 4080. Модель GPT-OSS 120b из библиотеки Ollama весит 65ГБ, что означает, что она не помещается в 16ГБ видеопамяти RTX 4080 (или более новой RTX 5080).

Шпаргалка Docker Model Runner: команды и примеры

Шпаргалка Docker Model Runner: команды и примеры

Справочник команд Docker Model Runner

Docker Model Runner (DMR) — это официальное решение Docker для запуска моделей ИИ локально, представленное в апреле 2025 года. Этот справочник предоставляет быстрый доступ ко всем основным командам, настройкам и лучшим практикам.

Docker Model Runner против Ollama: что выбрать?

Docker Model Runner против Ollama: что выбрать?

Сравните Docker Model Runner и Ollama для локальных LLM

Запуск больших языковых моделей (LLM) локально стал все более популярным благодаря конфиденциальности, контролю затрат и возможностям работы офлайн. Ландшафт значительно изменился в апреле 2025 года, когда Docker представил Docker Model Runner (DMR), свое официальное решение для развертывания моделей ИИ.

GNOME Boxes: Полное руководство по функциям, преимуществам, проблемам и альтернативам

GNOME Boxes: Полное руководство по функциям, преимуществам, проблемам и альтернативам

Простое управление виртуальными машинами в Linux с помощью GNOME Boxes

В современном вычислительном ландшафте виртуализация стала неотъемлемой частью разработки, тестирования и запуска нескольких операционных систем. Для пользователей Linux, ищущих простой и интуитивно понятный способ управления виртуальными машинами, GNOME Boxes выделяется как легковесный и удобный вариант, который делает акцент на простоте использования без ущерба для функциональности.

За пределами Google: руководство по альтернативным поисковым системам

За пределами Google: руководство по альтернативным поисковым системам

Исследуйте альтернативные поисковые системы помимо Google и Bing

Хотя Google доминирует на рынке поисковых систем с долей более 90% в глобальном масштабе, существует растущая экосистема альтернативных поисковых систем, предлагающих различные подходы к веб-поиску.

Продвижение ASIC для LLM: Почему аппаратное обеспечение инференса имеет значение

Продвижение ASIC для LLM: Почему аппаратное обеспечение инференса имеет значение

Специализированные чипы ускоряют и удешевляют выводы ИИ

Будущее ИИ не ограничивается более умными моделями - это также вопрос более умного железа. Специализированное оборудование для инференса ЛЛМ приводит к революции, аналогичной переходу майнинга биткоинов к ASIC.

Инди-веб: Возвращение цифровой независимости

Инди-веб: Возвращение цифровой независимости

Владейте своим контентом и контролируйте свою идентичность

Веб-сети изначально были разработаны как децентрализованная сеть, где любой мог публиковать и подключаться. Со временем корпоративные платформы консолидировали контроль, создавая закрытые сады, где пользователи являются продуктами, а контент заперт. Движение Indie Web стремится вернуть первоначальное обещание веба: личное владение, творческая свобода и подлинное взаимодействие.

DGX Spark против Mac Studio: сравнение цен на персональный суперкомпьютер NVIDIA для ИИ

DGX Spark против Mac Studio: сравнение цен на персональный суперкомпьютер NVIDIA для ИИ

Доступность, реальные розничные цены в шести странах и сравнение с Mac Studio.

NVIDIA DGX Spark — это реальное устройство, которое поступит в продажу 15 октября 2025 года, и оно предназначено для разработчиков CUDA, которым нужна локальная работа с LLM с интегрированным NVIDIA AI stack. Рекомендуемая розничная цена в США — $3,999; в Великобритании, Германии и Японии розничные цены выше из-за НДС и каналов сбыта. Австралийские и корейские вон пока не опубликованы широко.

Протокол Gemini: минималистичная альтернатива вебу

Протокол Gemini: минималистичная альтернатива вебу

Gemini — лёгкая и безопасная альтернатива вебу

Протокол Gemini представляет собой возврат к основам интернет-коммуникации — легковесный, безопасный и уважающий конфиденциальность альтернативный современному, все более сложному вебу.

Сравнение: Qwen3:30b против GPT-OSS:20b

Сравнение: Qwen3:30b против GPT-OSS:20b

Сравнение скорости, параметров и производительности этих двух моделей

Вот сравнение между Qwen3:30b и GPT-OSS:20b с акцентом на выполнение инструкций и параметры производительности, спецификации и скорость: