Aprofundamento e Guia de Modelos dos Agentes Especializados do Opencode

Conheça o Sisyphus e sua equipe de agentes especializados.

Conteúdo da página

O maior salto de capacidade no OpenCode vem de agentes especializados: separação deliberada de orquestração, planejamento, execução e pesquisa.

O Oh My Opencode empacota essa ideia em um sistema completo onde o Sísifo coordena uma “equipe virtual” completa de agentes com permissões, prompts e preferências de modelo diferentes.

oh my opencode agents

Esta é a análise profunda sobre agentes e roteamento de modelos. Se você está no início da jornada:

Para um contexto mais amplo da cadeia de ferramentas de codificação de IA, veja a visão geral das ferramentas para desenvolvedores de IA.

O que é Oh My Opencode e Como Ele Estende o OpenCode

OpenCode é um agente de codificação de IA de código aberto construído para o terminal. Ele vem com uma interface TUI (Interface de Usuário de Terminal), e a CLI inicia essa TUI por padrão quando você executa opencode sem argumentos. É flexível quanto ao provedor: suporta um grande catálogo de provedores, incluindo modelos locais, expõe a configuração do provedor através de seu arquivo de configuração e fluxo /connect, e lida com tudo, desde APIs de nuvem até endpoints Ollama, sem necessidade de correções.

Oh My Opencode (também conhecido como oh-my-openagent, ou apenas “omo”) é um plugin da comunidade que transforma o OpenCode em um sistema de engenharia multiagente completo. Ele adiciona:

  • o sistema de orquestração Sísifo com execução paralela em segundo plano
  • 11 agentes especializados com papéis distintos, prompts ajustados por família de modelo e permissões de ferramentas explícitas
  • LSP + AST-Grep para refatoração com qualidade de IDE dentro dos agentes
  • Hashline — uma ferramenta de edição ancorada por hash que elimina erros de linhas desatualizadas (veja abaixo)
  • MCPs integrados: Exa (pesquisa web), Context7 (documentação oficial), Grep.app (pesquisa no GitHub), todos ativados por padrão
  • /init-deep — gera automaticamente arquivos AGENTS.md hierárquicos em todo o seu projeto para injeção de contexto enxuta

Uma peculiaridade de nomenclatura: o repositório upstream agora é comercializado como oh-my-openagent, mas o pacote do plugin e os comandos de instalação ainda usam oh-my-opencode. O mantenedor sugere chamá-lo de “oh-mo” ou apenas “Sísifo”.

Por que o Oh My Opencode Atribui Modelos Diferentes a Agentes Diferentes

O Oh My Opencode é construído em torno de uma ideia fundamental: modelos diferentes pensam de maneira diferente, e o prompt de cada agente é escrito para um modelo mental específico. Claude segue prompts orientados a mecânica — listas de verificação detalhadas, templates, procedimentos passo a passo. Mais regras significam mais conformidade. GPT (especialmente 5.2+) segue prompts orientados a princípios — princípios concisos, estrutura XML, critérios de decisão explícitos. Dê ao GPT um prompt do Claude de 1.100 linhas e ele se contradirá. Dê ao Claude um prompt do GPT de 121 linhas e ele se desviará.

Isso não é uma peculiaridade que você configura para contornar. É o design do sistema.

A consequência prática: quando você muda o modelo de um agente, você muda qual prompt é acionado. Agentes que suportam múltiplas famílias de modelos (Prometheus, Atlas) detectam automaticamente seu modelo em tempo de execução via isGptModel() e trocam os prompts automaticamente. Agentes que não suportam (Sísifo, Hefesto) têm prompts escritos para uma única família — e trocá-los para a família errada degrada significativamente a saída.

Como os Agentes Especializados do Oh My Opencode Colaboram

Os quatro grupos de personalidade de agentes

Os agentes se dividem em quatro grupos com base na família de modelo para a qual são otimizados. Isso importa tanto para entender o sistema quanto para decisões de auto-hospedagem.

Grupo 1 — Comunicadores (Claude / Kimi / GLM): Sísifo e Metis. Prompts longos e orientados a mecânica (~1.100 linhas para Sísifo). Precisam de modelos que sigam confiavelmente instruções complexas e multicamadas em dezenas de chamadas de ferramenta. Claude Opus é a referência. Kimi K2.5 e GLM-5 são alternativas fortes e custo-eficientes que se comportam de forma similar. Não substitua estes por modelos GPT mais antigos.

Grupo 2 — Prompt Dual (Claude preferido, GPT suportado): Prometheus e Atlas. Detectam automaticamente sua família de modelo em tempo de execução e trocam para o prompt apropriado. Claude recebe a versão completa orientada a mecânica. GPT recebe uma versão compacta, orientada a princípios, que alcança o mesmo resultado em ~121 linhas. Seguro usar qualquer um; o sistema gerencia a troca.

Grupo 3 — Nativos GPT (GPT-5.3-codex / GPT-5.4): Hefesto, Oracle, Momus. Estilo de execução autônoma e orientado a princípios. Seus prompts assumem raciocínio independente e orientado a objetivos — para o que o GPT foi construído. Hefesto não tem fallback e requer acesso ao GPT. Não substitua estes por Claude; o comportamento se degrada.

Grupo 4 — Executores de Utilidade (velocidade sobre inteligência): Explore, Bibliotecário, Multimodal Looker. Fazem grep, pesquisa e recuperação. Usam intencionalmente os modelos mais rápidos e baratos disponíveis. “Atualizar” o Explore para Opus é contratar um engenheiro sênior para arquivar papelada. Estes também são os melhores candidatos para substituição por modelos locais.

Mecanismos de delegação

O Oh My Opencode usa duas ferramentas complementares para delegação:

  • task()delegação baseada em categoria: escolha uma categoria como visual-engineering ou deep, opcionalmente injete habilidades e execute em segundo plano
  • call_omo_agent()invocação direta de um agente específico pelo nome, contornando o roteamento por categoria

Ambos suportam execução paralela em segundo plano, com concorrência aplicada por provedor e por modelo.

Categorias são predefinições de roteamento de modelo

Quando Sísifo delega para um subagente, ele escolhe uma categoria, não um nome de modelo. A categoria mapeia para o modelo certo automaticamente.

Categoria Para o que serve Modelo padrão
visual-engineering Frontend, UI/UX, CSS, design Gemini 3.1 Pro (high)
artistry Abordagens criativas e inovadoras Gemini 3.1 Pro → Claude Opus → GPT-5.4
ultrabrain Lógica complexa, decisões de arquitetura GPT-5.4 (xhigh) → Gemini 3.1 Pro → Claude Opus
deep Codificação profunda, lógica complexa multiarquivo GPT-5.3 Codex → Claude Opus → Gemini 3.1 Pro
unspecified-high Trabalho complexo geral Claude Opus → GPT-5.4 (high) → GLM-5
unspecified-low Trabalho padrão geral Claude Sonnet → GPT-5.3 Codex → Gemini Flash
quick Mudanças em arquivo único, tarefas simples Claude Haiku → Gemini Flash → GPT-5-Nano
writing Texto, documentação, prosa Gemini Flash → Claude Sonnet

As categorias são a abstração certa também para auto-hospedagem: mapeie uma categoria para um modelo local e toda tarefa roteada para essa categoria usará automaticamente ele.

Ordem de resolução de modelo

Solicitação do Agente → Sobrescrita do Usuário (se configurado) → Cadeia de Fallback → Padrão do Sistema

Prioridade do provedor quando o mesmo modelo está disponível através de múltiplos provedores:

Nativo (anthropic/, openai/, google/) > Kimi for Coding > GitHub Copilot > Venice > OpenCode Go > Z.ai Coding Plan

Agentes do Oh My Opencode: Catálogo Completo com Papéis e Requisitos de Modelo

Orquestradores

Sísifo

Propósito: Orquestrador principal. Planeja, delega e impulsiona tarefas até a conclusão através de execução paralela agressiva.
Grupo: Comunicador (Claude / Kimi / GLM)
Papel: O líder da equipe que coordena através de toda a base de código — seu prompt de ~1.100 linhas orientado a mecânica precisa de um modelo que possa seguir cada passo em dezenas de chamadas de ferramenta sem perder o controle.

⚠️ Nunca substitua Sísifo por modelos GPT mais antigos. O GPT-5.4 tem um caminho de prompt dedicado, mas não é o padrão recomendado. Claude Opus é a referência.

Cadeia de fallback: anthropic/claude-opus-4-6 (max) → opencode-go/kimi-k2.5k2p5gpt-5.4glm-5big-pickle
Auto-hospedado: Sísifo é o agente mais difícil de rodar localmente. A complexidade de seu prompt o torna dependente de modelos com forte seguimento de instruções em sequências longas de chamadas de ferramenta. Um Qwen3-coder local ou DeepSeek-Coder-V3 pode funcionar para tarefas simples, mas espere degradação em fluxos de trabalho que requerem coordenação multiagente. Se você auto-hospedar, teste com uma tarefa de agente único antes de habilitar a execução paralela.


Atlas

Propósito: “Orquestrador de lista de tarefas”. Mantém um plano estruturado em movimento, exigindo conclusão e sequenciamento.
Grupo: Prompt dual (Claude preferido, GPT suportado)
Papel: Enquanto Sísifo lida com o quadro geral, Atlas impulsiona a lista de verificação. Detecta automaticamente sua família de modelo em tempo de execução e troca os prompts conforme necessário.

Cadeia de fallback: anthropic/claude-sonnet-4-6opencode-go/kimi-k2.5
Auto-hospedado: Um modelo de código local rápido e confiável lida razoavelmente bem com o trabalho de “impulsionar a lista de verificação” estilo Atlas porque as tarefas são mais estruturadas que a orquestração de Sísifo. Qwen3-coder com contexto de 32k+ é um ponto de partida viável.


Agentes de Planejamento

A camada de planejamento impõe “pensar antes de agir”: coleta de requisitos, detecção de lacunas e crítica do plano acontecem todos antes que qualquer agente de execução veja a tarefa.

Prometheus

Propósito: Planejador estratégico com um fluxo de trabalho estilo entrevista. Ativa quando você pressiona Tab ou executa /start-work.
Grupo: Prompt dual (Claude preferido, GPT suportado)
Papel: Entrevista você como um engenheiro real — identifica escopo, expõe ambiguidades e produz um plano verificado antes que uma única linha de código seja tocada. A versão GPT alcança o mesmo resultado em ~121 linhas; a versão Claude usa ~1.100 linhas em 7 arquivos.
Colabora com: Metis (detecção de lacunas) e Momus (validação do plano) antes de passar a execução.

Cadeia de fallback: anthropic/claude-opus-4-6 (max) → openai/gpt-5.4 (high) → opencode-go/glm-5google/gemini-3.1-pro
Auto-hospedado: Viável com um modelo local forte em seguimento de instruções em baixa temperatura. A qualidade do planejamento se degrada quando o modelo não consegue manter seus constrangimentos e critérios de aceitação no contexto durante uma entrevista longa de múltiplas voltas. Janela de contexto mínima de 64k recomendada.


Metis

Propósito: Consultor pré-planejamento e analista de lacunas. Roda em uma temperatura mais alta que a maioria dos agentes para incentivar a detecção criativa de lacunas.
Grupo: Comunicador (Claude preferido)
Papel: Revisor de “o que perdemos?” antes da execução — não é um trabalhador de escrita de código, mas parte da história de controle de qualidade do plano.
Colabora com: Invocado por Prometheus antes que o plano seja finalizado.

Cadeia de fallback: anthropic/claude-opus-4-6 (max) → opencode-go/glm-5k2p5
Auto-hospedado: Um modelo local com capacidade de raciocínio é suficiente. Mantenha a temperatura não-zero se você quer que Metis exponha realmente casos de borda — defina em 0 e ele se torna um carimbo.


Momus

Propósito: Revisor de plano implacável. Exige clareza e padrões de verificação. Pode operar como uma porta rígida “OK ou rejeitar”.
Grupo: Nativo GPT
Papel: Crítico com mentalidade de QA para planos. Restrições de ferramentas o mantêm no modo de revisão em vez de modo de execução.
Colabora com: Usado após a criação do plano para desafiar a viabilidade antes que o trabalho comece.

Cadeia de fallback: openai/gpt-5.4 (medium) → anthropic/claude-opus-4-6 (max) → google/gemini-3.1-pro (high)
Auto-hospedado: Se você auto-hospedar, mantenha a amostragem muito baixa. Todo o ponto de Momus é crítica estável e reproduzível — criatividade é a última coisa que você quer aqui. Um modelo de raciocínio local forte em temperatura 0.1 ou inferior é a configuração certa.


Agentes Trabalhadores

Hefesto

Propósito: Trabalhador profundo autônomo. Dê a ele um objetivo, não uma receita.
Grupo: Nativo GPT — Apenas GPT-5.3 Codex
Papel: O especialista que fica no quarto codificando o dia todo. Explora a base de código, pesquisa padrões e executa de ponta a ponta sem supervisão constante. O mantenedor o chama de “O Artesão Legítimo” (uma referência deliberada à decisão da Anthropic de bloquear o OpenCode).

⚠️ Sem cadeia de fallback — requer acesso ao GPT. Não há prompt do Claude para este agente. Executá-lo sem OpenAI ou GitHub Copilot significa que ele não pode executar. “GPT-5.3-codex-spark” existe, mas não é explicitamente recomendado — compacta o contexto tão agressivamente que o gerenciamento de contexto do Oh My Opencode quebra.

Cadeia de fallback: openai/gpt-5.3-codex (medium) — sem fallback
Auto-hospedado: Não há substituto local viável para Hefesto hoje. Seu prompt é construído em torno do estilo de exploração autônoma e orientada a princípios do GPT-Codex. Se você precisa de um trabalhador profundo em uma pilha totalmente local, use o Sisyphus-Junior com a categoria deep em vez disso (que roteia para GPT-5.3 Codex, ou falha para Claude Opus se for isso que você tem).


Sisyphus-Junior

Propósito: Executor gerado por categoria usado pelo sistema de delegação.
Grupo: Herda de qualquer categoria que o lançou
Papel: O “contratado especialista” que herda seu modelo da configuração da categoria. Criado dinamicamente via task(), frequentemente com habilidades injetadas, e pode ser executado em segundo plano para paralelismo. Pense nele como um trabalhador em folha em branco cuja capacidade é determinada inteiramente pela categoria que você atribui.

Cadeia de fallback: anthropic/claude-sonnet-4-6 (padrão); herda da categoria lançadora na prática
Auto-hospedado: Sisyphus-Junior é o lugar mais prático para começar a auto-hospedagem. Mapeie cada categoria para um modelo local em oh-my-opencode.jsonc e toda tarefa gerada por categoria usará automaticamente ele. Comece com quick (tarefas simples), verifique se funciona, depois expanda para unspecified-low antes de tocar em qualquer coisa que roteie para deep ou ultrabrain.


Subagentes Especialistas

Oracle

Propósito: Consulta de leitura única para decisões de arquitetura e depuração complexa.
Grupo: Nativo GPT
Papel: Arquiteto sênior e depurador de “último recurso”. Intencionalmente restrito de ferramentas de escrita e delegação para que sua saída permaneça consultiva. Chame o Oracle após trabalho majoritário, após falhas repetidas ou antes de tomar uma decisão arquitetural de alto risco.

Cadeia de fallback: openai/gpt-5.4 (high) → google/gemini-3.1-pro (high) → anthropic/claude-opus-4-6 (max)
Auto-hospedado: Se você auto-hospedar o Oracle, escolha seu modelo de raciocínio local mais forte e mantenha a amostragem muito baixa. A diferença de qualidade de saída entre um raciocinador local capaz e o GPT-5.4 é significativa para perguntas de arquitetura complexas. Em uma configuração híbrida, o Oracle é um dos agentes que vale a pena manter em um modelo de nuvem enquanto se move o trabalho de utilidade para local.


Bibliotecário (Librarian)

Propósito: Documentação externa e pesquisa de código aberto.
Grupo: Executor de utilidade
Papel: Coletor de documentação e evidências. Restrições de ferramentas impedem edição, então ele se mantém focado em fontes e resumos. Projetado para rodar em paralelo com Explore para coleta de evidências combinada “dentro do repositório + fora do repositório”.

Cadeia de fallback: opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Auto-hospedado: O melhor agente para mover totalmente para local no primeiro dia. O trabalho do Bibliotecário é recuperação e resumo, não raciocínio profundo. Qualquer modelo local com chamadas de ferramenta confiáveis o lida bem. Mesmo um modelo de 7B ou 13B é suficiente se ele puder seguir o padrão “pesquisar, coletar, relatar” sem se desviar.


Explore

Propósito: Grep contextual e pesquisa rápida na base de código.
Grupo: Executor de utilidade
Papel: O agente “encontre-me os arquivos e padrões relevantes”. Dispare 10 desses em paralelo para perguntas não triviais, cada um escopado para uma área diferente da base de código, depois deixe o orquestrador sintetizar os resultados.

Cadeia de fallback: grok-code-fast-1opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Auto-hospedado: Junto com o Bibliotecário, o Explore é o melhor ponto de partida para inferência local. Seu trabalho é correspondência de padrões e relatórios estruturados — o modelo não precisa de raciocínio profundo, apenas chamadas de ferramenta rápidas e confiáveis e seguimento de instruções decente. Um modelo de código local pequeno (Qwen2.5-Coder-7B ou similar) em alta vazão funciona bem.


Multimodal Looker

Propósito: Analista de visão e “leitor de diagramas”. Analisa imagens e PDFs via fluxo de trabalho look_at.
Grupo: Executor de utilidade (visão necessária)
Papel: Pesadamente restrito por ferramentas (apenas leitura) para prevenir efeitos colaterais e mantê-lo puramente interpretativo. Usado quando você precisa alimentar capturas de tela de UI, diagramas de arquitetura ou páginas de PDF no fluxo de trabalho.

Kimi K2.5 é especificamente citado como excelente em compreensão multimodal — é por isso que ele fica alto nesta cadeia de fallback.

Cadeia de fallback: openai/gpt-5.4opencode-go/kimi-k2.5zai-coding-plan/glm-4.6vgpt-5-nano
Auto-hospedado: Visão local requer um modelo multimodal com chamadas de ferramenta sólidas e contexto suficiente. Se sua pilha local ainda não está lá, mantenha o Multimodal Looker em um modelo de nuvem — um pipeline de visão local mal configurado produz lixo silencioso, não erros úteis.


Roteamento de Modelo do Oh My Opencode: Cadeias de Fallback e Prioridade de Provedor

Padrões por agente e design “sem modelo global único”

O Oh My Opencode vem com modelos padrão e cadeias de fallback por agente, não um único modelo global. O design é deliberadamente opinado:

  • Explore e Bibliotecário usam os modelos mais baratos e rápidos porque não precisam de raciocínio profundo
  • Oracle e Momus usam os modelos de maior capacidade porque suas saídas controlam a execução
  • Sísifo e Prometheus recebem os melhores modelos de classe de orquestração por padrão

A camada OpenCode Go ($10/mês)

OpenCode Go é uma camada de assinatura que fornece acesso confiável a modelos de fronteira chineses através da infraestrutura do OpenCode. Ele aparece no meio de muitas cadeias de fallback como uma ponte entre provedores nativos premium e alternativas de camada gratuita.

Modelo via OpenCode Go Usado por
opencode-go/kimi-k2.5 Sisyphus, Atlas, Sisyphus-Junior, Multimodal Looker
opencode-go/glm-5 Oracle, Prometheus, Metis, Momus
opencode-go/minimax-m2.5 Librarian, Explore

Se você não tem assinaturas da Anthropic ou OpenAI, OpenCode Go mais GitHub Copilot cobre a maior parte da cadeia de fallback a baixo custo.

Mapeamentos de provedor para GitHub Copilot

Quando o GitHub Copilot é o melhor provedor disponível, as atribuições de agente são:

Agente Modelo
Sisyphus github-copilot/claude-opus-4-6
Oracle github-copilot/gpt-5.4
Explore github-copilot/grok-code-fast-1
Librarian github-copilot/gemini-3-flash

Variantes de prompt acompanham famílias de modelo

Se você trocar um agente de Claude para GPT ou Gemini, o Oh My Opencode não usa o mesmo prompt. Agentes que suportam múltiplas famílias (Prometheus, Atlas) detectam automaticamente via isGptModel() e trocam. Agentes que não suportam múltiplas famílias (Sísifo, Hefesto) têm um único prompt — troque-os para a família errada e a saída se degrada.

Se a saída de seu agente parecer estranha após uma mudança de modelo, verifique se você cruzou uma fronteira de família de modelo e reverta.


Executando Oh My Opencode com Modelos Auto-Hospedados e Locais

Existem duas camadas para configurar:

  1. O OpenCode deve saber sobre seu provedor local e IDs de modelo
  2. O Oh My Opencode deve ser informado qual agente usa qual modelo (porque a maioria dos agentes ignora seu modelo selecionado na UI por design)

O que você pode realisticamente rodar localmente hoje

Agente Viabilidade local Abordagem recomendada
Explore ✅ Excelente Qualquer modelo de código local rápido (Qwen2.5-Coder-7B+)
Librarian ✅ Excelente Qualquer modelo local rápido com chamadas de ferramenta confiáveis
Sisyphus-Junior (categoria quick) ✅ Bom Modelo de código pequeno para tarefas rápidas
Atlas ⚠️ Viável Modelo de tamanho médio (13B+), contexto 32k+
Prometheus ⚠️ Viável Seguidor de instruções forte, contexto 64k+, baixa temperatura
Metis ⚠️ Viável Capacidade de raciocínio, mantenha temperatura não-zero
Momus ⚠️ Viável Capacidade de raciocínio, temperatura muito baixa
Sisyphus ⚠️ Parcial Apenas para tarefas simples de agente único; orquestração multiagente precisa de modelos de classe Claude
Oracle ❌ Não recomendado Mantenha na nuvem; o gap de qualidade é significativo para consultas complexas
Hephaestus ❌ Sem caminho local Requer GPT-5.3-codex; sem equivalente Claude ou local

Passo 1 — Adicionar um provedor local ao OpenCode

O OpenCode suporta modelos locais e valores personalizados de baseURL na configuração do provedor — Ollama, vLLM e qualquer endpoint compatível com OpenAI são opções de primeira classe. O Início rápido do OpenCode cobre a autenticação de provedor em detalhes.

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "qwen2.5-coder:7b": { "name": "qwen2.5-coder:7b" },
        "qwen2.5-coder:32b": { "name": "qwen2.5-coder:32b" }
      }
    }
  }
}

Para vLLM ou LM Studio, o mesmo padrão se aplica — apenas aponte baseURL para o endpoint /v1 do seu servidor e liste os modelos que você carrou.

O OpenCode requer pelo menos uma janela de contexto de 64k para agentes de orquestração. Qualquer coisa menor e você verá erros de truncamento no meio do fluxo de trabalho.

Passo 2 — Sobrepor modelos de agente na configuração do Oh My Opencode

Localizações de configuração (o projeto tem precedência sobre o nível de usuário):

  • .opencode/oh-my-opencode.jsonc (nível de projeto, prioridade mais alta)
  • ~/.config/opencode/oh-my-opencode.jsonc (nível de usuário)

Uma configuração híbrida prática — inferência local para agentes de utilidade, nuvem para raciocínio:

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",

  "agents": {
    // Agentes de utilidade: modelo local rápido é mais que suficiente
    "explore":    { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },
    "librarian":  { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },

    // Sisyphus-Junior no modo rápido: local é bom
    // (controlado via categorias abaixo)

    // Mantenha os agentes de raciocínio na nuvem
    "oracle":  { "model": "openai/gpt-5.4",          "variant": "high" },
    "momus":   { "model": "openai/gpt-5.4",          "variant": "xhigh" },
    // Hephaestus: não toque — precisa de GPT-5.3-codex, sem fallback
  },

  "categories": {
    // Roteie tarefas geradas simples para modelo local
    "quick":   { "model": "ollama/qwen2.5-coder:7b" },
    "writing": { "model": "ollama/qwen2.5-coder:7b" },

    // Mantenha raciocínio pesado na nuvem
    "deep":         { "model": "openai/gpt-5.3-codex", "variant": "medium" },
    "ultrabrain":   { "model": "openai/gpt-5.4",       "variant": "xhigh" }
  },

  "background_task": {
    "defaultConcurrency": 2,
    "providerConcurrency": {
      "ollama": 4,    // endpoint local pode lidar com mais paralelismo
      "openai": 2,    // fique dentro dos limites do plano
      "anthropic": 2
    },
    "modelConcurrency": {
      "ollama/qwen2.5-coder:7b": 4
    }
  }
}

A alternativa econômica ao auto-hospedagem completa

Antes de se comprometer com uma configuração de GPU local, considere o stack OpenCode Go + Kimi for Coding. Por cerca de $11/mês no total, ele cobre:

  • Kimi K2.5 para Sisyphus e Atlas (qualidade de orquestração de classe Claude a baixo custo)
  • GLM-5 para Prometheus, Metis e Momus (raciocínio sólido, camada gratuita disponível)
  • MiniMax M2.5 para Librarian e Explore (recuperação rápida)

Para a maioria das cargas de trabalho, isso é mais barato que rodar um servidor de inferência local e não requer hardware de GPU.


Ferramentas Integradas do Oh My Opencode: Hashline, Init-Deep, Ralph Loop e MCPs

Hashline — ferramenta de edição ancorada por hash

Uma das melhorias mais práticas no Oh My Opencode é como ele lida com edições de código. Cada linha que o agente lê volta marcada com um hash de conteúdo:

11#VK| function hello() {
22#XJ|   return "world";
33#MB| }

Quando o agente edita referenciando essas tags, se o arquivo mudou desde a última leitura, o hash não corresponderá e a edição será rejeitada antes da corrupção. Isso elimina toda a classe de erros de “linha desatualizada” onde agentes confiantemente editam linhas que não existem mais. A taxa de sucesso do Grok Code Fast em tarefas de edição passou de 6,7% para 68,3% apenas com essa mudança.

/init-deep — injeção de contexto hierárquico

Execute /init-deep e o Oh My Opencode gera arquivos AGENTS.md em todos os níveis relevantes da árvore do seu projeto:

project/
├── AGENTS.md              ← contexto geral do projeto
├── src/
│   ├── AGENTS.md          ← contexto específico de src
│   └── components/
│       └── AGENTS.md      ← contexto específico do componente

Os agentes leem automaticamente o contexto relevante em seu escopo. Em vez de carregar todo o repositório no contexto no início de cada execução, cada agente só puxa o que é relevante para onde está trabalhando.

Modo de planejamento Prometheus — /start-work

Para tarefas complexas, não apenas digite um prompt e espere. Pressione Tab para entrar no modo Prometheus ou use /start-work. Prometheus entrevista você como um engenheiro real: identifica escopo, expõe ambiguidades, constrói um plano verificado antes que qualquer agente de execução rode. O padrão “Decisão Completa” significa que o plano não deixa nenhuma decisão para o implementador.

Ralph Loop — /ulw-loop

Um loop de execução autoreferencial que não para até que a tarefa esteja 100% completa. Use isso para tarefas grandes e de múltiplos passos onde você quer que o sistema se verifique e continue sem sua intervenção. É agressivo — certifique-se de que seus limites de concorrência estejam definidos antes de executá-lo em um provedor de nuvem caro.

MCPs Integrados

Três servidores MCP são pré-configurados e sempre ativos:

  • Exa — pesquisa web
  • Context7 — pesquisa de documentação oficial
  • Grep.app — pesquisa de código no GitHub em repositórios públicos

Você não precisa configurar estes. Eles estão disponíveis para todos os agentes por padrão.


Para resultados práticos e benchmarks da comunidade sobre como esses agentes se comportam na prática, veja o artigo da experiência Oh My Opencode. Para instalar o plugin do zero, comece com o Início rápido do Oh My Opencode.

Assinar

Receba novos artigos sobre sistemas, infraestrutura e engenharia de IA.