Обзор специализированных агентов Opencode и руководство по моделям

Познакомьтесь с Sisyphus и его командой специализированных агентов.

Содержимое страницы

Наибольший скачок в возможностях OpenCode обеспечивается специализированными агентами: осозванным разделением оркестрации, планирования, выполнения и исследований.

Пакет Oh My Opencode воплощает эту идею в виде комплексного решения «всё включено», где Sisyphus координирует работу полной «виртуальной команды» агентов с разными правами доступа, промптами и предпочтениями моделей.

oh my opencode agents

Это подробное погружение в тему агентов и маршрутизации моделей. Если вы только начинаете свой путь:

Для общего контекста цепочки инструментов AI для разработки см. Обзор инструментов для разработчиков AI.

Что такое Oh My Opencode и как он расширяет OpenCode

OpenCode — это агент AI для написания кода с открытым исходным кодом, созданный для работы в терминале. Он поставляется с текстовым интерфейсом (TUI), и при запуске команды opencode без аргументов CLI по умолчанию запускает этот TUI. Он гибкий в выборе провайдера: поддерживает большой каталог провайдеров, включая локальные модели, позволяет настраивать провайдеров через файл конфигурации и поток /connect, а также работает со всем, от облачных API до конечных точек Ollama, без необходимости патчинга.

Oh My Opencode (также известный как oh-my-openagent, или просто “omo”) — это сообщный плагин, превращающий OpenCode в полноценную многоагентную инженерную систему. Он добавляет:

  • систему оркестрации Sisyphus с параллельным фоновым выполнением
  • 11 специализированных агентов с четкими ролями, промптами, настроенными для каждой семьи моделей, и явными разрешениями на инструменты
  • LSP + AST-Grep для рефакторинга качества IDE внутри агентов
  • Hashline — инструмент редактирования с привязкой к хешу, устраняющий ошибки устаревших строк (см. ниже)
  • Встроенные MCP: Exa (поиск в вебе), Context7 (официальная документация), Grep.app (поиск по GitHub), все включены по умолчанию
  • /init-deep — автоматически генерирует иерархические файлы AGENTS.md по всему проекту для эффективной инъекции контекста

Одна странность в названии: upstream-репозиторий теперь брендирован как oh-my-openagent, но пакет плагина и команды установки по-прежнему используют oh-my-opencode. Поддерживающий suggests называть его “oh-mo” или просто “Sisyphus”.

Почему Oh My Opencode назначает разные модели разным агентам

Oh My Opencode построен на одной фундаментальной идее: разные модели думают по-разному, и промпт каждого агента написан для одной ментальной модели. Claude следует промптам, основанным на механике — подробные чек-листы, шаблоны, пошаговые процедуры. Больше правил означает больше соответствия. GPT (особенно 5.2+) следует промптам, основанным на принципах — краткие принципы, структура XML, явные критерии принятия решений. Если дать GPT промпт Claude на 1100 строк, он будет противоречить сам себе. Если дать Claude промпт GPT на 121 строку, он потеряет фокус.

Это не причуда, которую можно обойти настройкой. Это дизайн системы.

Практическое следствие: когда вы меняете модель агента, вы меняете промпт, который запускается. Агенты, поддерживающие несколько семейств моделей (Prometheus, Atlas), автоматически обнаруживают вашу модель во время выполнения через isGptModel() и переключают промпты автоматически. У агентов, которые этого не делают (Sisyphus, Hephaestus), промпты написаны только для одного семейства — и их замена на неправильное семейство значительно ухудшает результат.

Как специализированные агенты Oh My Opencode сотрудничают

Четыре группы личностей агентов

Агенты делятся на четыре группы в зависимости от того, для какого семейства моделей они оптимизированы. Это важно как для понимания системы, так и для решений по self-hosting.

Группа 1 — Коммуникаторы (Claude / Kimi / GLM): Sisyphus и Metis. Длинные промпты, основанные на механике (~1100 строк для Sisyphus). Нужны модели, которые надежно следуют сложным многоуровневым инструкциям на протяжении десятков вызовов инструментов. Claude Opus — эталон. Kimi K2.5 и GLM-5 — мощные, экономически эффективные альтернативы, которые ведут себя аналогично. Не меняйте их на старые модели GPT.

Группа 2 — Двойной промпт (предпочтительнее Claude, поддерживается GPT): Prometheus и Atlas. Автоматически определяют ваше семейство моделей во время выполнения и переключаются на соответствующий промпт. Claude получает полную версию, основанную на механике. GPT получает компактную версию, основанную на принципах, которая достигает того же результата на ~121 строке. Безопасно использовать любую; система управляет переключением.

Группа 3 — Нативные GPT (GPT-5.3-codex / GPT-5.4): Hephaestus, Oracle, Momus. Стиль, основанный на принципах, автономное выполнение. Их промпты предполагают ориентированное на цель, независимое мышление — то, для чего создан GPT. Hephaestus не имеет запасного варианта и требует доступа к GPT. Не меняйте их на Claude; поведение ухудшится.

Группа 4 — Утилитарные исполнители (скорость важнее интеллекта): Explore, Librarian, Multimodal Looker. Выполняют grep, поиск и извлечение. Намеренно используют самые быстрые и дешевые доступные модели. «Обновление» Explore до Opus — это как нанимать старшего инженера для заполнения бюрократических бумаг. Это также лучшие кандидаты для замены на локальные модели.

Механизмы делегирования

Oh My Opencode использует два взаимодополняющих инструмента для делегирования:

  • task()категориальное делегирование: выберите категорию, например visual-engineering или deep, опционально введите навыки и опционально запустите в фоновом режиме
  • call_omo_agent()прямое вызов конкретного агента по имени, обходя категорийную маршрутизацию

Оба поддерживают параллельное фоновое выполнение с принудительным параллелизмом на провайдера и на модель.

Категории — это пресеты маршрутизации моделей

Когда Sisyphus делегирует подчиненному агенту, он выбирает категорию, а не имя модели. Категория автоматически сопоставляется с правильной моделью.

Категория Для чего предназначена Модель по умолчанию
visual-engineering Фронтенд, UI/UX, CSS, дизайн Gemini 3.1 Pro (высокий)
artistry Креативные, новаторские подходы Gemini 3.1 Pro → Claude Opus → GPT-5.4
ultrabrain Сложная логика, архитектурные решения GPT-5.4 (xhigh) → Gemini 3.1 Pro → Claude Opus
deep Глубокая кодовая логика, сложная многофайловая логика GPT-5.3 Codex → Claude Opus → Gemini 3.1 Pro
unspecified-high Общая сложная работа Claude Opus → GPT-5.4 (высокий) → GLM-5
unspecified-low Общая стандартная работа Claude Sonnet → GPT-5.3 Codex → Gemini Flash
quick Изменения одного файла, простые задачи Claude Haiku → Gemini Flash → GPT-5-Nano
writing Текст, документация, проза Gemini Flash → Claude Sonnet

Категории — это правильное абстрагирование и для self-hosting: сопоставьте категорию с локальной моделью, и каждая задача, маршрутизируемая в эту категорию, автоматически будет использовать её.

Порядок разрешения моделей

Запрос агента → Переопределение пользователя (если настроено) → Цепочка резервирования → Системный стандарт

Приоритет провайдеров, когда одна и та же модель доступна через нескольких провайдеров:

Native (anthropic/, openai/, google/) > Kimi for Coding > GitHub Copilot > Venice > OpenCode Go > Z.ai Coding Plan

Агенты Oh My Opencode: Полный каталог с ролями и требованиями к моделям

Оркестраторы

Sisyphus

Назначение: Главный оркестратор. Планирует, делегирует и доводит задачи до завершения через агрессивное параллельное выполнение.
Группа: Коммуникатор (Claude / Kimi / GLM)
Роль: Ведущий команды, координирующий работу по всей кодовой базе — его промпт на ~1100 строк, основанный на механике, требует модель, способную следовать каждому шагу на протяжении десятков вызовов инструментов, не теряя нити.

⚠️ Никогда не заменяйте Sisyphus на старые модели GPT. GPT-5.4 имеет специальный путь промпта, но не рекомендуется как стандарт. Claude Opus — эталон.

Цепочка резервирования: anthropic/claude-opus-4-6 (max) → opencode-go/kimi-k2.5k2p5gpt-5.4glm-5big-pickle
Self-hosted: Sisyphus — самый сложный агент для локального запуска. Сложность его промпта делает его зависимым от моделей с сильным следованием инструкциям на протяжении длинных последовательностей вызовов инструментов. Локальный Qwen3-coder или DeepSeek-Coder-V3 могут работать для простых задач, но ожидайте деградации на рабочих процессах, требующих координации нескольких агентов. При self-hosting протестируйте с задачей одного агента перед включением параллельного выполнения.


Atlas

Назначение: «Оркестратор списков задач». Держит структурированный план в движении, обеспечивая выполнение и последовательность.
Группа: Двойной промпт (предпочтительнее Claude, поддерживается GPT)
Роль: Пока Sisyphus занимается общей картиной, Atlas двигает чек-лист. Автоматически определяет ваше семейство моделей во время выполнения и переключает промпты соответствующим образом.

Цепочка резервирования: anthropic/claude-sonnet-4-6opencode-go/kimi-k2.5
Self-hosted: Быстрая, надежная локальная модель кодера справляется с работами в стиле Atlas («двигать чек-лист») достаточно хорошо, потому что задачи более структурированы, чем оркестрация Sisyphus. Qwen3-coder с контекстом 32k+ — приемлемая отправная точка.


Агенты планирования

Слой планирования обеспечивает принцип «думать перед действием»: сбор требований, обнаружение пробелов и критика плана происходят до того, как агент выполнения увидит задачу.

Prometheus

Назначение: Стратегический планировщик с рабочим процессом в стиле интервью. Активируется при нажатии Tab или запуске /start-work.
Группа: Двойной промпт (предпочтительнее Claude, поддерживается GPT)
Роль: Проводит интервью как настоящий инженер — определяет объем, выявляет двусмысленности и создает проверенный план до того, как будет написана хотя бы одна строка кода. Версия GPT достигает того же результата на ~121 строке; версия Claude использует ~1100 строк в 7 файлах.
Сотрудничает с: Metis (обнаружение пробелов) и Momus (валидация плана) перед передачей на выполнение.

Цепочка резервирования: anthropic/claude-opus-4-6 (max) → openai/gpt-5.4 (high) → opencode-go/glm-5google/gemini-3.1-pro
Self-hosted: Работоспособно с сильной локальной моделью, следящей инструкциям, при низкой температуре. Качество планирования ухудшается, если модель не может удерживать ваши ограничения и критерии приемки в контексте на протяжении длинного многоходового интервью. Рекомендуется минимальное окно контекста 64k.


Metis

Назначение: Консультант по предпланированию и анализатор пробелов. Запускается с более высокой температурой, чем большинство агентов, чтобы стимулировать творческое обнаружение пробелов.
Группа: Коммуникатор (предпочтительнее Claude)
Роль: Рецензент «Что мы упустили?» перед выполнением — не рабочий по написанию кода, но часть истории контроля качества плана.
Сотрудничает с: Вызывается Prometheus перед финализацией плана.

Цепочка резервирования: anthropic/claude-opus-4-6 (max) → opencode-go/glm-5k2p5
Self-hosted: Подойдет локальная модель с возможностью рассуждений. Держите температуру ненулевой, если хотите, чтобы Metis действительно выявлял пограничные случаи — установите её в 0, и он станет «резиновой печатью».


Momus

Назначение: Бескомпромиссный рецензент плана. Обеспечивает ясность и стандарты проверки. Может работать как строгий шлюз «ОК или отклонить».
Группа: Нативный GPT
Роль: Критик с мышлением QA для планов. Ограничения инструментов удерживают его в режиме рецензирования, а не выполнения.
Сотрудничает с: Используется после создания плана для проверки реализуемости перед началом работы.

Цепочка резервирования: openai/gpt-5.4 (medium) → anthropic/claude-opus-4-6 (max) → google/gemini-3.1-pro (high)
Self-hosted: Если вы используете self-hosting, держите выборку очень низкой. Вся суть Momus — стабильная, воспроизводимая критика — креативность здесь нужна в последнюю очередь. Сильная локальная модель рассуждений с температурой 0.1 или ниже — правильная конфигурация.


Рабочие агенты

Hephaestus

Назначение: Автономный глубокий работник. Дайте ему цель, а не рецепт.
Группа: Нативный GPT — только GPT-5.3 Codex
Роль: Специалист, который весь день сидит в своей комнате и пишет код. Исследует кодовую базу, изучает паттерны и выполняет работу от начала до конца без постоянного надзора. Поддерживающий называет его «Законным Ремесленником» (намеренная отсылка к решению Anthropic заблокировать OpenCode).

⚠️ Нет цепочки резервирования — требуется доступ к GPT. Для этого агента нет промпта Claude. Запуск без OpenAI или GitHub Copilot означает, что он не может выполнить задачу. «GPT-5.3-codex-spark» существует, но явно не рекомендуется — он сжимает контекст настолько агрессивно, что управление контекстом Oh My Opencode ломается.

Цепочка резервирования: openai/gpt-5.3-codex (medium) — без резервирования
Self-hosted: Сегодня нет жизнеспособной локальной замены для Hephaestus. Его промпт построен вокруг стиля автономного исследования GPT-Codex, основанного на принципах. Если вам нужен глубокий работник на полностью локальном стеке, используйте Sisyphus-Junior с категорией deep вместо этого (которая маршрутизируется на GPT-5.3 Codex, или при отсутствии — на Claude Opus).


Sisyphus-Junior

Назначение: Исполнитель, порожденный категорией, используемый системой делегирования.
Группа: Наследуется от категории, которая его запустила
Роль: «Специализированный подрядчик», который наследует свою модель из конфигурации категории. Создается динамически через task(), часто с внедренными навыками, и может выполняться в фоновом режиме для параллелизма. Представьте его как чистого рабочего, чьи возможности определяются исключительно тем, какую категорию вы ему назначите.

Цепочка резервирования: anthropic/claude-sonnet-4-6 (по умолчанию); на практике наследуется от запускающей категории
Self-hosted: Sisyphus-Junior — самое практичное место для начала self-hosting. Сопоставьте каждую категорию с локальной моделью в oh-my-opencode.jsonc, и каждая задача, порожденная категорией, автоматически будет использовать её. Начните с quick (простые задачи), убедитесь, что это работает, затем расширьтесь до unspecified-low, прежде чем трогать то, что маршрутизируется на deep или ultrabrain.


Специализированные подагенты

Oracle

Назначение: Консультация только для чтения для архитектурных решений и сложной отладки.
Группа: Нативный GPT
Роль: Старший архитектор и «последняя надежда» для отладки. Намеренно ограничен инструментами написания и делегирования, чтобы его выход оставался консультативным. Вызывайте Oracle после крупной работы, после повторных неудач или перед принятием решения с высокими ставками.

Цепочка резервирования: openai/gpt-5.4 (high) → google/gemini-3.1-pro (high) → anthropic/claude-opus-4-6 (max)
Self-hosted: Если вы self-hosting Oracle, выберите свою самую сильную локальную модель рассуждений и держите выборку очень низкой. Разница в качестве вывода между способным локальным рассуждателем и GPT-5.4 значительна для сложных архитектурных вопросов. В гибридной настройке Oracle — один из агентов, которые стоит держать на облачной модели, перемещая утилитарную работу на локальную.


Librarian

Назначение: Внешняя документация и исследования открытого исходного кода.
Группа: Утилитарный исполнитель
Роль: Сборщик документации и доказательств. Ограничения инструментов предотвращают редактирование, поэтому он остается сосредоточенным на поиске источников и обобщении. Предназначен для параллельной работы с Explore для сбора доказательств «внутри репозитория + снаружи репозитория».

Цепочка резервирования: opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Self-hosted: Лучший агент для полного переноса на локальное использование с первого дня. Работа Librarian — извлечение и обобщение, а не глубокое рассуждение. Любая локальная модель с надежным вызовом инструментов справится с этим. Даже модель 7B или 13B достаточна, если она может следовать паттерну «поиск, сбор, отчет» без сбивания с толку.


Explore

Назначение: Контекстный grep и быстрый поиск по кодовой базе.
Группа: Утилитарный исполнитель
Роль: Агент «найди мне релевантные файлы и паттерны». Запустите 10 таких параллельно для нетривиальных вопросов, каждый в своей области кодовой базы, затем позвольте оркестратору синтезировать результаты.

Цепочка резервирования: grok-code-fast-1opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Self-hosted: Вместе с Librarian, Explore — лучшая отправная точка для локального вывода. Его работа — сопоставление паттернов и структурированная отчетность — модель не нуждается в глубоком рассуждении, только в быстром, надежном вызове инструментов и хорошем следовании инструкциям. Маленькая локальная модель кодера (Qwen2.5-Coder-7B или аналог) с высокой пропускной способностью работает хорошо.


Multimodal Looker

Назначение: Визуальный аналитик и «читатель диаграмм». Анализирует изображения и PDF через рабочий процесс look_at.
Группа: Утилитарный исполнитель (требуется зрение)
Роль: Сильно ограничен инструментами (только чтение), чтобы предотвратить побочные эффекты и сохранить чисто интерпретативный характер. Используется, когда нужно подать в рабочий процесс скриншоты UI, архитектурные диаграммы или страницы PDF.

Kimi K2.5 специально отмечена как выдающаяся в мультимодальном понимании — именно поэтому она находится высоко в этой цепочке резервирования.

Цепочка резервирования: openai/gpt-5.4opencode-go/kimi-k2.5zai-coding-plan/glm-4.6vgpt-5-nano
Self-hosted: Локальное зрение требует мультимодальной модели с надежным вызовом инструментов и достаточным контекстом. Если ваш локальный стек еще не готов, держите Multimodal Looker на облачной модели — неправильно настроенная локальная визуальная цепочка производит тихий мусор, а не полезные ошибки.


Маршрутизация моделей Oh My Opencode: Цепочки резервирования и приоритет провайдеров

Дефолты для каждого агента и дизайн «без единой глобальной модели»

Oh My Opencode поставляется с дефолтными моделями и цепочками резервирования для каждого агента, а не с единой глобальной моделью. Дизайн намеренно субъективен:

  • Explore и Librarian используют самые дешевые и быстрые модели, потому что им не нужно глубокое рассуждение
  • Oracle и Momus используют модели с наивысшими возможностями, потому что их вывод определяет выполнение
  • Sisyphus и Prometheus по умолчанию получают лучшие модели класса оркестрации

Тир OpenCode Go ($10/месяц)

OpenCode Go — это подписной тир, который обеспечивает надежный доступ к китайским передовым моделям через инфраструктуру OpenCode. Он появляется в середине многих цепочек резервирования как мост между премиальными нативными провайдерами и альтернативами бесплатного тира.

Модель через OpenCode Go Используется
opencode-go/kimi-k2.5 Sisyphus, Atlas, Sisyphus-Junior, Multimodal Looker
opencode-go/glm-5 Oracle, Prometheus, Metis, Momus
opencode-go/minimax-m2.5 Librarian, Explore

Если у вас нет подписок Anthropic или OpenAI, OpenCode Go плюс GitHub Copilot покрывает большую часть цепочки резервирования при низкой стоимости.

Сопоставления провайдеров для GitHub Copilot

Когда GitHub Copilot является лучшим доступным провайдером, назначения агентов:

Агент Модель
Sisyphus github-copilot/claude-opus-4-6
Oracle github-copilot/gpt-5.4
Explore github-copilot/grok-code-fast-1
Librarian github-copilot/gemini-3-flash

Вариации промптов отслеживают семейства моделей

Если вы переключите агента с Claude на GPT или Gemini, Oh My Opencode не будет использовать тот же промпт. Агенты, поддерживающие несколько семейств (Prometheus, Atlas), автоматически обнаруживают через isGptModel() и переключаются. Агенты, не поддерживающие несколько семейств (Sisyphus, Hephaestus), имеют один промпт — переключите их на неправильное семейство, и вывод ухудшится.

Если вывод вашего агента кажется странным после смены модели, проверьте, перешли ли вы границу семейства моделей, и откатите.


Запуск Oh My Opencode с Self-Hosted и локальными моделями

Существует два уровня конфигурации:

  1. OpenCode должен знать о вашем локальном провайдере и ID моделей
  2. Oh My Opencode должен быть сказано, какой агент использует какую модель (потому что большинство агентов игнорируют выбранную вами модель в UI по дизайну)

Что можно реально запустить локально сегодня

Агент Локальная жизнеспособность Рекомендуемый подход
Explore ✅ Отлично Любая быстрая локальная модель кодера (Qwen2.5-Coder-7B+)
Librarian ✅ Отлично Любая быстрая локальная модель с надежным вызовом инструментов
Sisyphus-Junior (категория quick) ✅ Хорошо Маленькая модель кодера для быстрых задач
Atlas ⚠️ Работоспособно Модель среднего размера (13B+), контекст 32k+
Prometheus ⚠️ Работоспособно Сильный следователь инструкций, контекст 64k+, низкая температура
Metis ⚠️ Работоспособно Модель с возможностью рассуждений, температура ненулевая
Momus ⚠️ Работоспособно Модель с возможностью рассуждений, очень низкая температура
Sisyphus ⚠️ Частично Только для простых задач одного агента; оркестрация нескольких агентов требует моделей класса Claude
Oracle ❌ Не рекомендуется Держите в облаке; разрыв в качестве значительный для сложных запросов
Hephaestus ❌ Нет локального пути Требуется GPT-5.3-codex; нет эквивалента Claude или локального

Шаг 1 — Добавьте локального провайдера в OpenCode

OpenCode поддерживает локальные модели и пользовательские значения baseURL в конфигурации провайдера — Ollama, vLLM и любой OpenAI-совместимый endpoint являются первоклассными опциями. Быстрый старт OpenCode подробно описывает аутентификацию провайдеров.

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "qwen2.5-coder:7b": { "name": "qwen2.5-coder:7b" },
        "qwen2.5-coder:32b": { "name": "qwen2.5-coder:32b" }
      }
    }
  }
}

Для vLLM или LM Studio применяется тот же паттерн — просто укажите baseURL на endpoint /v1 вашего сервера и перечислите загруженные модели.

OpenCode требует как минимум окно контекста 64k для оркестрационных агентов. Всё, что меньше, приведет к ошибкам усечения посреди рабочего процесса.

Шаг 2 — Переопределите модели агентов в конфигурации Oh My Opencode

Расположения конфигурации (проект имеет приоритет над уровнем пользователя):

  • .opencode/oh-my-opencode.jsonc (уровень проекта, наивысший приоритет)
  • ~/.config/opencode/oh-my-opencode.jsonc (уровень пользователя)

Практическая гибридная конфигурация — локальный вывод для утилитарных агентов, облако для рассуждений:

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",

  "agents": {
    // Утилитарные агенты: быстрая локальная модель более чем достаточна
    "explore":    { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },
    "librarian":  { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },

    // Sisyphus-Junior в режиме quick: локально нормально
    // (управляется через категории ниже)

    // Держите агенты рассуждений в облаке
    "oracle":  { "model": "openai/gpt-5.4",          "variant": "high" },
    "momus":   { "model": "openai/gpt-5.4",          "variant": "xhigh" },
    // Hephaestus: не трогайте — ему нужен GPT-5.3-codex, без резервирования
  },

  "categories": {
    // Маршрутизируйте простые порожденные задачи на локальную модель
    "quick":   { "model": "ollama/qwen2.5-coder:7b" },
    "writing": { "model": "ollama/qwen2.5-coder:7b" },

    // Держите тяжелое рассуждение в облаке
    "deep":         { "model": "openai/gpt-5.3-codex", "variant": "medium" },
    "ultrabrain":   { "model": "openai/gpt-5.4",       "variant": "xhigh" }
  },

  "background_task": {
    "defaultConcurrency": 2,
    "providerConcurrency": {
      "ollama": 4,    // локальный endpoint может справиться с большим параллелизмом
      "openai": 2,    // оставайтесь в пределах плана
      "anthropic": 2
    },
    "modelConcurrency": {
      "ollama/qwen2.5-coder:7b": 4
    }
  }
}

Экономичная альтернатива полному self-hosting

Прежде чем committing к настройке локального GPU, рассмотрите стек OpenCode Go + Kimi for Coding. При общей стоимости около $11/месяц он покрывает:

  • Kimi K2.5 для Sisyphus и Atlas (качество оркестрации класса Claude при низкой стоимости)
  • GLM-5 для Prometheus, Metis и Momus (сильное рассуждение, доступен бесплатный тир)
  • MiniMax M2.5 для Librarian и Explore (быстрое извлечение)

Для большинства нагрузок это дешевле, чем запуск локального сервера вывода, и не требует оборудования GPU.


Встроенные инструменты Oh My Opencode: Hashline, Init-Deep, Ralph Loop и MCP

Hashline — инструмент редактирования с привязкой к хешу

Одно из самых практических улучшений в Oh My Opencode — это то, как он обрабатывает редактирование кода. Каждая строка, которую читает агент, возвращается с тегом хеша контента:

11#VK| function hello() {
22#XJ|   return "world";
33#MB| }

Когда агент редактирует, ссылаясь на эти теги, если файл изменился с момента последнего чтения, хеш не совпадет, и редактирование будет отклонено до того, как произойдет порча. Это устраняет целый класс ошибок «устаревших строк», где агенты уверенно редактируют строки, которых больше не существует. Успешность Grok Code Fast на задачах редактирования выросла с 6,7% до 68,3% только благодаря этому изменению.

/init-deep — иерархическая инъекция контекста

Запустите /init-deep, и Oh My Opencode сгенерирует файлы AGENTS.md на каждом релевантном уровне вашего дерева проекта:

project/
├── AGENTS.md              ← контекст всего проекта
├── src/
│   ├── AGENTS.md          ← контекст для src
│   └── components/
│       └── AGENTS.md      ← контекст для компонентов

Агенты автоматически читают релевантный контекст в их области. Вместо загрузки всего репозитория в контекст в начале каждого запуска, каждый агент загружает только то, что релевантно тому, где он работает.

Режим планирования Prometheus — /start-work

Для сложных задач не просто вводите промпт и надежда. Нажмите Tab, чтобы войти в режим Prometheus, или используйте /start-work. Prometheus проводит интервью как настоящий инженер: определяет объем, выявляет двусмысленности, строит проверенный план до того, как любой агент выполнения запустится. Стандарт «Решение завершено» означает, что план оставляет ноль решений на усмотрение исполнителя.

Ralph Loop — /ulw-loop

Самореферентный цикл выполнения, который не останавливается, пока задача не будет выполнена на 100%. Используйте это для крупных, многошаговых задач, где вы хотите, чтобы система проверяла себя и продолжала без вашего участия. Это агрессивно — убедитесь, что ваши лимиты параллелизма настроены перед запуском на дорогом облачном провайдере.

Встроенные MCP

Три сервера MCP настроены заранее и всегда включены:

  • Exa — поиск в вебе
  • Context7 — поиск официальной документации
  • Grep.app — поиск кода GitHub по публичным репозиториям

Вам не нужно их настраивать. Они доступны всем агентам по умолчанию.


Для практических результатов и бенчмарков сообщества о том, как эти агенты работают на практике, см. статью об опыте использования Oh My Opencode. Чтобы установить плагин с нуля, начните с быстрого старта Oh My Opencode.