Aprofundamento e Guia de Modelos dos Agentes Especializados do Opencode
Conheça o Sisyphus e sua equipe de agentes especializados.
O maior salto de capacidade no OpenCode vem de agentes especializados: separação deliberada de orquestração, planejamento, execução e pesquisa.
O Oh My Opencode empacota essa ideia em um sistema completo onde o Sísifo coordena uma “equipe virtual” completa de agentes com permissões, prompts e preferências de modelo diferentes.

Esta é a análise profunda sobre agentes e roteamento de modelos. Se você está no início da jornada:
- Início rápido do OpenCode — instale e configure o agente base
- Início rápido do Oh My Opencode — instale o plugin e execute sua primeira tarefa ultrawork
- Experiência com Oh My Opencode — resultados do mundo real e benchmarks da comunidade
Para um contexto mais amplo da cadeia de ferramentas de codificação de IA, veja a visão geral das ferramentas para desenvolvedores de IA.
O que é Oh My Opencode e Como Ele Estende o OpenCode
OpenCode é um agente de codificação de IA de código aberto construído para o terminal. Ele vem com uma interface TUI (Interface de Usuário de Terminal), e a CLI inicia essa TUI por padrão quando você executa opencode sem argumentos. É flexível quanto ao provedor: suporta um grande catálogo de provedores, incluindo modelos locais, expõe a configuração do provedor através de seu arquivo de configuração e fluxo /connect, e lida com tudo, desde APIs de nuvem até endpoints Ollama, sem necessidade de correções.
Oh My Opencode (também conhecido como oh-my-openagent, ou apenas “omo”) é um plugin da comunidade que transforma o OpenCode em um sistema de engenharia multiagente completo. Ele adiciona:
- o sistema de orquestração Sísifo com execução paralela em segundo plano
- 11 agentes especializados com papéis distintos, prompts ajustados por família de modelo e permissões de ferramentas explícitas
- LSP + AST-Grep para refatoração com qualidade de IDE dentro dos agentes
- Hashline — uma ferramenta de edição ancorada por hash que elimina erros de linhas desatualizadas (veja abaixo)
- MCPs integrados: Exa (pesquisa web), Context7 (documentação oficial), Grep.app (pesquisa no GitHub), todos ativados por padrão
/init-deep— gera automaticamente arquivosAGENTS.mdhierárquicos em todo o seu projeto para injeção de contexto enxuta
Uma peculiaridade de nomenclatura: o repositório upstream agora é comercializado como oh-my-openagent, mas o pacote do plugin e os comandos de instalação ainda usam oh-my-opencode. O mantenedor sugere chamá-lo de “oh-mo” ou apenas “Sísifo”.
Por que o Oh My Opencode Atribui Modelos Diferentes a Agentes Diferentes
O Oh My Opencode é construído em torno de uma ideia fundamental: modelos diferentes pensam de maneira diferente, e o prompt de cada agente é escrito para um modelo mental específico. Claude segue prompts orientados a mecânica — listas de verificação detalhadas, templates, procedimentos passo a passo. Mais regras significam mais conformidade. GPT (especialmente 5.2+) segue prompts orientados a princípios — princípios concisos, estrutura XML, critérios de decisão explícitos. Dê ao GPT um prompt do Claude de 1.100 linhas e ele se contradirá. Dê ao Claude um prompt do GPT de 121 linhas e ele se desviará.
Isso não é uma peculiaridade que você configura para contornar. É o design do sistema.
A consequência prática: quando você muda o modelo de um agente, você muda qual prompt é acionado. Agentes que suportam múltiplas famílias de modelos (Prometheus, Atlas) detectam automaticamente seu modelo em tempo de execução via isGptModel() e trocam os prompts automaticamente. Agentes que não suportam (Sísifo, Hefesto) têm prompts escritos para uma única família — e trocá-los para a família errada degrada significativamente a saída.
Como os Agentes Especializados do Oh My Opencode Colaboram
Os quatro grupos de personalidade de agentes
Os agentes se dividem em quatro grupos com base na família de modelo para a qual são otimizados. Isso importa tanto para entender o sistema quanto para decisões de auto-hospedagem.
Grupo 1 — Comunicadores (Claude / Kimi / GLM): Sísifo e Metis. Prompts longos e orientados a mecânica (~1.100 linhas para Sísifo). Precisam de modelos que sigam confiavelmente instruções complexas e multicamadas em dezenas de chamadas de ferramenta. Claude Opus é a referência. Kimi K2.5 e GLM-5 são alternativas fortes e custo-eficientes que se comportam de forma similar. Não substitua estes por modelos GPT mais antigos.
Grupo 2 — Prompt Dual (Claude preferido, GPT suportado): Prometheus e Atlas. Detectam automaticamente sua família de modelo em tempo de execução e trocam para o prompt apropriado. Claude recebe a versão completa orientada a mecânica. GPT recebe uma versão compacta, orientada a princípios, que alcança o mesmo resultado em ~121 linhas. Seguro usar qualquer um; o sistema gerencia a troca.
Grupo 3 — Nativos GPT (GPT-5.3-codex / GPT-5.4): Hefesto, Oracle, Momus. Estilo de execução autônoma e orientado a princípios. Seus prompts assumem raciocínio independente e orientado a objetivos — para o que o GPT foi construído. Hefesto não tem fallback e requer acesso ao GPT. Não substitua estes por Claude; o comportamento se degrada.
Grupo 4 — Executores de Utilidade (velocidade sobre inteligência): Explore, Bibliotecário, Multimodal Looker. Fazem grep, pesquisa e recuperação. Usam intencionalmente os modelos mais rápidos e baratos disponíveis. “Atualizar” o Explore para Opus é contratar um engenheiro sênior para arquivar papelada. Estes também são os melhores candidatos para substituição por modelos locais.
Mecanismos de delegação
O Oh My Opencode usa duas ferramentas complementares para delegação:
task()— delegação baseada em categoria: escolha uma categoria comovisual-engineeringoudeep, opcionalmente injete habilidades e execute em segundo planocall_omo_agent()— invocação direta de um agente específico pelo nome, contornando o roteamento por categoria
Ambos suportam execução paralela em segundo plano, com concorrência aplicada por provedor e por modelo.
Categorias são predefinições de roteamento de modelo
Quando Sísifo delega para um subagente, ele escolhe uma categoria, não um nome de modelo. A categoria mapeia para o modelo certo automaticamente.
| Categoria | Para o que serve | Modelo padrão |
|---|---|---|
visual-engineering |
Frontend, UI/UX, CSS, design | Gemini 3.1 Pro (high) |
artistry |
Abordagens criativas e inovadoras | Gemini 3.1 Pro → Claude Opus → GPT-5.4 |
ultrabrain |
Lógica complexa, decisões de arquitetura | GPT-5.4 (xhigh) → Gemini 3.1 Pro → Claude Opus |
deep |
Codificação profunda, lógica complexa multiarquivo | GPT-5.3 Codex → Claude Opus → Gemini 3.1 Pro |
unspecified-high |
Trabalho complexo geral | Claude Opus → GPT-5.4 (high) → GLM-5 |
unspecified-low |
Trabalho padrão geral | Claude Sonnet → GPT-5.3 Codex → Gemini Flash |
quick |
Mudanças em arquivo único, tarefas simples | Claude Haiku → Gemini Flash → GPT-5-Nano |
writing |
Texto, documentação, prosa | Gemini Flash → Claude Sonnet |
As categorias são a abstração certa também para auto-hospedagem: mapeie uma categoria para um modelo local e toda tarefa roteada para essa categoria usará automaticamente ele.
Ordem de resolução de modelo
Solicitação do Agente → Sobrescrita do Usuário (se configurado) → Cadeia de Fallback → Padrão do Sistema
Prioridade do provedor quando o mesmo modelo está disponível através de múltiplos provedores:
Nativo (anthropic/, openai/, google/) > Kimi for Coding > GitHub Copilot > Venice > OpenCode Go > Z.ai Coding Plan
Agentes do Oh My Opencode: Catálogo Completo com Papéis e Requisitos de Modelo
Orquestradores
Sísifo
Propósito: Orquestrador principal. Planeja, delega e impulsiona tarefas até a conclusão através de execução paralela agressiva.
Grupo: Comunicador (Claude / Kimi / GLM)
Papel: O líder da equipe que coordena através de toda a base de código — seu prompt de ~1.100 linhas orientado a mecânica precisa de um modelo que possa seguir cada passo em dezenas de chamadas de ferramenta sem perder o controle.
⚠️ Nunca substitua Sísifo por modelos GPT mais antigos. O GPT-5.4 tem um caminho de prompt dedicado, mas não é o padrão recomendado. Claude Opus é a referência.
Cadeia de fallback: anthropic/claude-opus-4-6 (max) → opencode-go/kimi-k2.5 → k2p5 → gpt-5.4 → glm-5 → big-pickle
Auto-hospedado: Sísifo é o agente mais difícil de rodar localmente. A complexidade de seu prompt o torna dependente de modelos com forte seguimento de instruções em sequências longas de chamadas de ferramenta. Um Qwen3-coder local ou DeepSeek-Coder-V3 pode funcionar para tarefas simples, mas espere degradação em fluxos de trabalho que requerem coordenação multiagente. Se você auto-hospedar, teste com uma tarefa de agente único antes de habilitar a execução paralela.
Atlas
Propósito: “Orquestrador de lista de tarefas”. Mantém um plano estruturado em movimento, exigindo conclusão e sequenciamento.
Grupo: Prompt dual (Claude preferido, GPT suportado)
Papel: Enquanto Sísifo lida com o quadro geral, Atlas impulsiona a lista de verificação. Detecta automaticamente sua família de modelo em tempo de execução e troca os prompts conforme necessário.
Cadeia de fallback: anthropic/claude-sonnet-4-6 → opencode-go/kimi-k2.5
Auto-hospedado: Um modelo de código local rápido e confiável lida razoavelmente bem com o trabalho de “impulsionar a lista de verificação” estilo Atlas porque as tarefas são mais estruturadas que a orquestração de Sísifo. Qwen3-coder com contexto de 32k+ é um ponto de partida viável.
Agentes de Planejamento
A camada de planejamento impõe “pensar antes de agir”: coleta de requisitos, detecção de lacunas e crítica do plano acontecem todos antes que qualquer agente de execução veja a tarefa.
Prometheus
Propósito: Planejador estratégico com um fluxo de trabalho estilo entrevista. Ativa quando você pressiona Tab ou executa /start-work.
Grupo: Prompt dual (Claude preferido, GPT suportado)
Papel: Entrevista você como um engenheiro real — identifica escopo, expõe ambiguidades e produz um plano verificado antes que uma única linha de código seja tocada. A versão GPT alcança o mesmo resultado em ~121 linhas; a versão Claude usa ~1.100 linhas em 7 arquivos.
Colabora com: Metis (detecção de lacunas) e Momus (validação do plano) antes de passar a execução.
Cadeia de fallback: anthropic/claude-opus-4-6 (max) → openai/gpt-5.4 (high) → opencode-go/glm-5 → google/gemini-3.1-pro
Auto-hospedado: Viável com um modelo local forte em seguimento de instruções em baixa temperatura. A qualidade do planejamento se degrada quando o modelo não consegue manter seus constrangimentos e critérios de aceitação no contexto durante uma entrevista longa de múltiplas voltas. Janela de contexto mínima de 64k recomendada.
Metis
Propósito: Consultor pré-planejamento e analista de lacunas. Roda em uma temperatura mais alta que a maioria dos agentes para incentivar a detecção criativa de lacunas.
Grupo: Comunicador (Claude preferido)
Papel: Revisor de “o que perdemos?” antes da execução — não é um trabalhador de escrita de código, mas parte da história de controle de qualidade do plano.
Colabora com: Invocado por Prometheus antes que o plano seja finalizado.
Cadeia de fallback: anthropic/claude-opus-4-6 (max) → opencode-go/glm-5 → k2p5
Auto-hospedado: Um modelo local com capacidade de raciocínio é suficiente. Mantenha a temperatura não-zero se você quer que Metis exponha realmente casos de borda — defina em 0 e ele se torna um carimbo.
Momus
Propósito: Revisor de plano implacável. Exige clareza e padrões de verificação. Pode operar como uma porta rígida “OK ou rejeitar”.
Grupo: Nativo GPT
Papel: Crítico com mentalidade de QA para planos. Restrições de ferramentas o mantêm no modo de revisão em vez de modo de execução.
Colabora com: Usado após a criação do plano para desafiar a viabilidade antes que o trabalho comece.
Cadeia de fallback: openai/gpt-5.4 (medium) → anthropic/claude-opus-4-6 (max) → google/gemini-3.1-pro (high)
Auto-hospedado: Se você auto-hospedar, mantenha a amostragem muito baixa. Todo o ponto de Momus é crítica estável e reproduzível — criatividade é a última coisa que você quer aqui. Um modelo de raciocínio local forte em temperatura 0.1 ou inferior é a configuração certa.
Agentes Trabalhadores
Hefesto
Propósito: Trabalhador profundo autônomo. Dê a ele um objetivo, não uma receita.
Grupo: Nativo GPT — Apenas GPT-5.3 Codex
Papel: O especialista que fica no quarto codificando o dia todo. Explora a base de código, pesquisa padrões e executa de ponta a ponta sem supervisão constante. O mantenedor o chama de “O Artesão Legítimo” (uma referência deliberada à decisão da Anthropic de bloquear o OpenCode).
⚠️ Sem cadeia de fallback — requer acesso ao GPT. Não há prompt do Claude para este agente. Executá-lo sem OpenAI ou GitHub Copilot significa que ele não pode executar. “GPT-5.3-codex-spark” existe, mas não é explicitamente recomendado — compacta o contexto tão agressivamente que o gerenciamento de contexto do Oh My Opencode quebra.
Cadeia de fallback: openai/gpt-5.3-codex (medium) — sem fallback
Auto-hospedado: Não há substituto local viável para Hefesto hoje. Seu prompt é construído em torno do estilo de exploração autônoma e orientada a princípios do GPT-Codex. Se você precisa de um trabalhador profundo em uma pilha totalmente local, use o Sisyphus-Junior com a categoria deep em vez disso (que roteia para GPT-5.3 Codex, ou falha para Claude Opus se for isso que você tem).
Sisyphus-Junior
Propósito: Executor gerado por categoria usado pelo sistema de delegação.
Grupo: Herda de qualquer categoria que o lançou
Papel: O “contratado especialista” que herda seu modelo da configuração da categoria. Criado dinamicamente via task(), frequentemente com habilidades injetadas, e pode ser executado em segundo plano para paralelismo. Pense nele como um trabalhador em folha em branco cuja capacidade é determinada inteiramente pela categoria que você atribui.
Cadeia de fallback: anthropic/claude-sonnet-4-6 (padrão); herda da categoria lançadora na prática
Auto-hospedado: Sisyphus-Junior é o lugar mais prático para começar a auto-hospedagem. Mapeie cada categoria para um modelo local em oh-my-opencode.jsonc e toda tarefa gerada por categoria usará automaticamente ele. Comece com quick (tarefas simples), verifique se funciona, depois expanda para unspecified-low antes de tocar em qualquer coisa que roteie para deep ou ultrabrain.
Subagentes Especialistas
Oracle
Propósito: Consulta de leitura única para decisões de arquitetura e depuração complexa.
Grupo: Nativo GPT
Papel: Arquiteto sênior e depurador de “último recurso”. Intencionalmente restrito de ferramentas de escrita e delegação para que sua saída permaneça consultiva. Chame o Oracle após trabalho majoritário, após falhas repetidas ou antes de tomar uma decisão arquitetural de alto risco.
Cadeia de fallback: openai/gpt-5.4 (high) → google/gemini-3.1-pro (high) → anthropic/claude-opus-4-6 (max)
Auto-hospedado: Se você auto-hospedar o Oracle, escolha seu modelo de raciocínio local mais forte e mantenha a amostragem muito baixa. A diferença de qualidade de saída entre um raciocinador local capaz e o GPT-5.4 é significativa para perguntas de arquitetura complexas. Em uma configuração híbrida, o Oracle é um dos agentes que vale a pena manter em um modelo de nuvem enquanto se move o trabalho de utilidade para local.
Bibliotecário (Librarian)
Propósito: Documentação externa e pesquisa de código aberto.
Grupo: Executor de utilidade
Papel: Coletor de documentação e evidências. Restrições de ferramentas impedem edição, então ele se mantém focado em fontes e resumos. Projetado para rodar em paralelo com Explore para coleta de evidências combinada “dentro do repositório + fora do repositório”.
Cadeia de fallback: opencode-go/minimax-m2.5 → minimax-m2.5-free → claude-haiku-4-5 → gpt-5-nano
Auto-hospedado: O melhor agente para mover totalmente para local no primeiro dia. O trabalho do Bibliotecário é recuperação e resumo, não raciocínio profundo. Qualquer modelo local com chamadas de ferramenta confiáveis o lida bem. Mesmo um modelo de 7B ou 13B é suficiente se ele puder seguir o padrão “pesquisar, coletar, relatar” sem se desviar.
Explore
Propósito: Grep contextual e pesquisa rápida na base de código.
Grupo: Executor de utilidade
Papel: O agente “encontre-me os arquivos e padrões relevantes”. Dispare 10 desses em paralelo para perguntas não triviais, cada um escopado para uma área diferente da base de código, depois deixe o orquestrador sintetizar os resultados.
Cadeia de fallback: grok-code-fast-1 → opencode-go/minimax-m2.5 → minimax-m2.5-free → claude-haiku-4-5 → gpt-5-nano
Auto-hospedado: Junto com o Bibliotecário, o Explore é o melhor ponto de partida para inferência local. Seu trabalho é correspondência de padrões e relatórios estruturados — o modelo não precisa de raciocínio profundo, apenas chamadas de ferramenta rápidas e confiáveis e seguimento de instruções decente. Um modelo de código local pequeno (Qwen2.5-Coder-7B ou similar) em alta vazão funciona bem.
Multimodal Looker
Propósito: Analista de visão e “leitor de diagramas”. Analisa imagens e PDFs via fluxo de trabalho look_at.
Grupo: Executor de utilidade (visão necessária)
Papel: Pesadamente restrito por ferramentas (apenas leitura) para prevenir efeitos colaterais e mantê-lo puramente interpretativo. Usado quando você precisa alimentar capturas de tela de UI, diagramas de arquitetura ou páginas de PDF no fluxo de trabalho.
Kimi K2.5 é especificamente citado como excelente em compreensão multimodal — é por isso que ele fica alto nesta cadeia de fallback.
Cadeia de fallback: openai/gpt-5.4 → opencode-go/kimi-k2.5 → zai-coding-plan/glm-4.6v → gpt-5-nano
Auto-hospedado: Visão local requer um modelo multimodal com chamadas de ferramenta sólidas e contexto suficiente. Se sua pilha local ainda não está lá, mantenha o Multimodal Looker em um modelo de nuvem — um pipeline de visão local mal configurado produz lixo silencioso, não erros úteis.
Roteamento de Modelo do Oh My Opencode: Cadeias de Fallback e Prioridade de Provedor
Padrões por agente e design “sem modelo global único”
O Oh My Opencode vem com modelos padrão e cadeias de fallback por agente, não um único modelo global. O design é deliberadamente opinado:
- Explore e Bibliotecário usam os modelos mais baratos e rápidos porque não precisam de raciocínio profundo
- Oracle e Momus usam os modelos de maior capacidade porque suas saídas controlam a execução
- Sísifo e Prometheus recebem os melhores modelos de classe de orquestração por padrão
A camada OpenCode Go ($10/mês)
OpenCode Go é uma camada de assinatura que fornece acesso confiável a modelos de fronteira chineses através da infraestrutura do OpenCode. Ele aparece no meio de muitas cadeias de fallback como uma ponte entre provedores nativos premium e alternativas de camada gratuita.
| Modelo via OpenCode Go | Usado por |
|---|---|
opencode-go/kimi-k2.5 |
Sisyphus, Atlas, Sisyphus-Junior, Multimodal Looker |
opencode-go/glm-5 |
Oracle, Prometheus, Metis, Momus |
opencode-go/minimax-m2.5 |
Librarian, Explore |
Se você não tem assinaturas da Anthropic ou OpenAI, OpenCode Go mais GitHub Copilot cobre a maior parte da cadeia de fallback a baixo custo.
Mapeamentos de provedor para GitHub Copilot
Quando o GitHub Copilot é o melhor provedor disponível, as atribuições de agente são:
| Agente | Modelo |
|---|---|
| Sisyphus | github-copilot/claude-opus-4-6 |
| Oracle | github-copilot/gpt-5.4 |
| Explore | github-copilot/grok-code-fast-1 |
| Librarian | github-copilot/gemini-3-flash |
Variantes de prompt acompanham famílias de modelo
Se você trocar um agente de Claude para GPT ou Gemini, o Oh My Opencode não usa o mesmo prompt. Agentes que suportam múltiplas famílias (Prometheus, Atlas) detectam automaticamente via isGptModel() e trocam. Agentes que não suportam múltiplas famílias (Sísifo, Hefesto) têm um único prompt — troque-os para a família errada e a saída se degrada.
Se a saída de seu agente parecer estranha após uma mudança de modelo, verifique se você cruzou uma fronteira de família de modelo e reverta.
Executando Oh My Opencode com Modelos Auto-Hospedados e Locais
Existem duas camadas para configurar:
- O OpenCode deve saber sobre seu provedor local e IDs de modelo
- O Oh My Opencode deve ser informado qual agente usa qual modelo (porque a maioria dos agentes ignora seu modelo selecionado na UI por design)
O que você pode realisticamente rodar localmente hoje
| Agente | Viabilidade local | Abordagem recomendada |
|---|---|---|
| Explore | ✅ Excelente | Qualquer modelo de código local rápido (Qwen2.5-Coder-7B+) |
| Librarian | ✅ Excelente | Qualquer modelo local rápido com chamadas de ferramenta confiáveis |
Sisyphus-Junior (categoria quick) |
✅ Bom | Modelo de código pequeno para tarefas rápidas |
| Atlas | ⚠️ Viável | Modelo de tamanho médio (13B+), contexto 32k+ |
| Prometheus | ⚠️ Viável | Seguidor de instruções forte, contexto 64k+, baixa temperatura |
| Metis | ⚠️ Viável | Capacidade de raciocínio, mantenha temperatura não-zero |
| Momus | ⚠️ Viável | Capacidade de raciocínio, temperatura muito baixa |
| Sisyphus | ⚠️ Parcial | Apenas para tarefas simples de agente único; orquestração multiagente precisa de modelos de classe Claude |
| Oracle | ❌ Não recomendado | Mantenha na nuvem; o gap de qualidade é significativo para consultas complexas |
| Hephaestus | ❌ Sem caminho local | Requer GPT-5.3-codex; sem equivalente Claude ou local |
Passo 1 — Adicionar um provedor local ao OpenCode
O OpenCode suporta modelos locais e valores personalizados de baseURL na configuração do provedor — Ollama, vLLM e qualquer endpoint compatível com OpenAI são opções de primeira classe. O Início rápido do OpenCode cobre a autenticação de provedor em detalhes.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"qwen2.5-coder:7b": { "name": "qwen2.5-coder:7b" },
"qwen2.5-coder:32b": { "name": "qwen2.5-coder:32b" }
}
}
}
}
Para vLLM ou LM Studio, o mesmo padrão se aplica — apenas aponte baseURL para o endpoint /v1 do seu servidor e liste os modelos que você carrou.
O OpenCode requer pelo menos uma janela de contexto de 64k para agentes de orquestração. Qualquer coisa menor e você verá erros de truncamento no meio do fluxo de trabalho.
Passo 2 — Sobrepor modelos de agente na configuração do Oh My Opencode
Localizações de configuração (o projeto tem precedência sobre o nível de usuário):
.opencode/oh-my-opencode.jsonc(nível de projeto, prioridade mais alta)~/.config/opencode/oh-my-opencode.jsonc(nível de usuário)
Uma configuração híbrida prática — inferência local para agentes de utilidade, nuvem para raciocínio:
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",
"agents": {
// Agentes de utilidade: modelo local rápido é mais que suficiente
"explore": { "model": "ollama/qwen2.5-coder:7b", "temperature": 0.1 },
"librarian": { "model": "ollama/qwen2.5-coder:7b", "temperature": 0.1 },
// Sisyphus-Junior no modo rápido: local é bom
// (controlado via categorias abaixo)
// Mantenha os agentes de raciocínio na nuvem
"oracle": { "model": "openai/gpt-5.4", "variant": "high" },
"momus": { "model": "openai/gpt-5.4", "variant": "xhigh" },
// Hephaestus: não toque — precisa de GPT-5.3-codex, sem fallback
},
"categories": {
// Roteie tarefas geradas simples para modelo local
"quick": { "model": "ollama/qwen2.5-coder:7b" },
"writing": { "model": "ollama/qwen2.5-coder:7b" },
// Mantenha raciocínio pesado na nuvem
"deep": { "model": "openai/gpt-5.3-codex", "variant": "medium" },
"ultrabrain": { "model": "openai/gpt-5.4", "variant": "xhigh" }
},
"background_task": {
"defaultConcurrency": 2,
"providerConcurrency": {
"ollama": 4, // endpoint local pode lidar com mais paralelismo
"openai": 2, // fique dentro dos limites do plano
"anthropic": 2
},
"modelConcurrency": {
"ollama/qwen2.5-coder:7b": 4
}
}
}
A alternativa econômica ao auto-hospedagem completa
Antes de se comprometer com uma configuração de GPU local, considere o stack OpenCode Go + Kimi for Coding. Por cerca de $11/mês no total, ele cobre:
- Kimi K2.5 para Sisyphus e Atlas (qualidade de orquestração de classe Claude a baixo custo)
- GLM-5 para Prometheus, Metis e Momus (raciocínio sólido, camada gratuita disponível)
- MiniMax M2.5 para Librarian e Explore (recuperação rápida)
Para a maioria das cargas de trabalho, isso é mais barato que rodar um servidor de inferência local e não requer hardware de GPU.
Ferramentas Integradas do Oh My Opencode: Hashline, Init-Deep, Ralph Loop e MCPs
Hashline — ferramenta de edição ancorada por hash
Uma das melhorias mais práticas no Oh My Opencode é como ele lida com edições de código. Cada linha que o agente lê volta marcada com um hash de conteúdo:
11#VK| function hello() {
22#XJ| return "world";
33#MB| }
Quando o agente edita referenciando essas tags, se o arquivo mudou desde a última leitura, o hash não corresponderá e a edição será rejeitada antes da corrupção. Isso elimina toda a classe de erros de “linha desatualizada” onde agentes confiantemente editam linhas que não existem mais. A taxa de sucesso do Grok Code Fast em tarefas de edição passou de 6,7% para 68,3% apenas com essa mudança.
/init-deep — injeção de contexto hierárquico
Execute /init-deep e o Oh My Opencode gera arquivos AGENTS.md em todos os níveis relevantes da árvore do seu projeto:
project/
├── AGENTS.md ← contexto geral do projeto
├── src/
│ ├── AGENTS.md ← contexto específico de src
│ └── components/
│ └── AGENTS.md ← contexto específico do componente
Os agentes leem automaticamente o contexto relevante em seu escopo. Em vez de carregar todo o repositório no contexto no início de cada execução, cada agente só puxa o que é relevante para onde está trabalhando.
Modo de planejamento Prometheus — /start-work
Para tarefas complexas, não apenas digite um prompt e espere. Pressione Tab para entrar no modo Prometheus ou use /start-work. Prometheus entrevista você como um engenheiro real: identifica escopo, expõe ambiguidades, constrói um plano verificado antes que qualquer agente de execução rode. O padrão “Decisão Completa” significa que o plano não deixa nenhuma decisão para o implementador.
Ralph Loop — /ulw-loop
Um loop de execução autoreferencial que não para até que a tarefa esteja 100% completa. Use isso para tarefas grandes e de múltiplos passos onde você quer que o sistema se verifique e continue sem sua intervenção. É agressivo — certifique-se de que seus limites de concorrência estejam definidos antes de executá-lo em um provedor de nuvem caro.
MCPs Integrados
Três servidores MCP são pré-configurados e sempre ativos:
- Exa — pesquisa web
- Context7 — pesquisa de documentação oficial
- Grep.app — pesquisa de código no GitHub em repositórios públicos
Você não precisa configurar estes. Eles estão disponíveis para todos os agentes por padrão.
Para resultados práticos e benchmarks da comunidade sobre como esses agentes se comportam na prática, veja o artigo da experiência Oh My Opencode. Para instalar o plugin do zero, comece com o Início rápido do Oh My Opencode.