Guia Especial e Profundo sobre Agentes Especializados e Modelos do Opencode

Conheça Sisyphus e sua equipe de agentes especialistas.

Conteúdo da página

O maior salto de capacidade no OpenCode vem de agentes especializados: separação deliberada de orquestração, planejamento, execução e pesquisa.

Oh My Opencode empacota essa ideia em uma estrutura “tudo incluído” onde Sisyphus coordena uma “equipe virtual” completa de agentes com permissões, prompts e preferências de modelo diferentes.

oh my opencode agents

Este é o mergulho profundo em agentes e roteamento de modelos. Se você está no início da jornada:

Para o contexto mais amplo da cadeia de ferramentas de IA para programação, consulte a visão geral das ferramentas de desenvolvedor de IA.

O que é Oh My Opencode e como ele estende o OpenCode

OpenCode é um agente de programação de IA de código aberto construído para o terminal. Ele vem com uma TUI (Interface de Usuário de Terminal) e o CLI inicia essa TUI por padrão quando você executa opencode sem argumentos. Ele é flexível quanto ao provedor: suporta um grande catálogo de provedores, incluindo modelos locais, expõe a configuração do provedor através do arquivo de configuração e do fluxo /connect, e lida com tudo, desde APIs de nuvem até endpoints Ollama, sem necessidade de patches.

Oh My Opencode (também conhecido como oh-my-openagent, ou apenas “omo”) é um plugin da comunidade que transforma o OpenCode em um sistema de engenharia multiagente completo. Ele adiciona:

  • o sistema de orquestração Sisyphus com execução paralela em segundo plano
  • 11 agentes especializados com papéis distintos, prompts ajustados por família de modelo e permissões de ferramentas explícitas
  • LSP + AST-Grep para refatoração de qualidade de IDE dentro dos agentes
  • Hashline — uma ferramenta de edição ancorada por hash que elimina erros de linhas obsoletas (veja abaixo)
  • MCPs integrados: Exa (pesquisa na web), Context7 (documentação oficial), Grep.app (pesquisa no GitHub), todos ativados por padrão
  • /init-deep — gera automaticamente arquivos AGENTS.md hierárquicos em todo o seu projeto para injeção de contexto enxuta

Uma peculiaridade de nomenclatura: o repositório upstream agora é marcado como oh-my-openagent, mas o pacote do plugin e os comandos de instalação ainda usam oh-my-opencode. O mantenedor sugere chamá-lo de “oh-mo” ou apenas “Sisyphus”.

Por que o Oh My Opencode Atribui Modelos Diferentes a Agentes Diferentes

O Oh My Opencode é construído em torno de uma ideia fundamental: modelos diferentes pensam de forma diferente, e o prompt de cada agente é escrito para um único modelo mental. O Claude segue prompts orientados a mecanismos — checklists detalhadas, modelos, procedimentos passo a passo. Mais regras significam mais conformidade. O GPT (especialmente 5.2+) segue prompts orientados a princípios — princípios concisos, estrutura XML, critérios de decisão explícitos. Dê ao GPT um prompt do Claude de 1.100 linhas e ele se contradizirá. Dê ao Claude um prompt do GPT de 121 linhas e ele se desviará.

Isso não é uma peculiaridade ao redor da qual você pode configurar. É o design do sistema.

A consequência prática: quando você muda o modelo de um agente, você muda qual prompt é executado. Agentes que suportam múltiplas famílias de modelos (Prometheus, Atlas) detectam automaticamente seu modelo em tempo de execução via isGptModel() e alternam os prompts automaticamente. Agentes que não suportam (Sisyphus, Hephaestus) têm prompts escritos para uma única família — e trocá-los para a família errada degrada significativamente a saída.

Como os Agentes Especializados do Oh My Opencode Colaboram

Os quatro grupos de personalidade de agentes

Os agentes se dividem em quatro grupos com base na família de modelo para a qual são otimizados. Isso importa tanto para entender o sistema quanto para decisões de auto-hospedagem.

Grupo 1 — Comunicadores (Claude / Kimi / GLM): Sisyphus e Metis. Prompts longos e orientados a mecanismos (~1.100 linhas para Sisyphus). Precisam de modelos que sigam de forma confiável instruções complexas e multicamadas em dezenas de chamadas de ferramenta. O Claude Opus é a referência. Kimi K2.5 e GLM-5 são alternativas fortes e econômicas que se comportam de forma semelhante. Não substitua estes por modelos GPT mais antigos.

Grupo 2 — Prompt Duplo (Claude preferido, GPT suportado): Prometheus e Atlas. Detectam automaticamente sua família de modelo em tempo de execução e alternam para o prompt apropriado. O Claude recebe a versão completa orientada a mecanismos. O GPT recebe uma versão compacta e orientada a princípios que alcança o mesmo resultado em ~121 linhas. Seguro usar qualquer um; o sistema gerencia a alternância.

Grupo 3 — Nativos do GPT (GPT-5.3-codex / GPT-5.4): Hephaestus, Oracle, Momus. Estilo de execução autônomo orientado a princípios. Seus prompts assumem raciocínio independente e orientado a objetivos — o que o GPT foi construído para fazer. Hephaestus não tem fallback e requer acesso ao GPT. Não substitua estes por Claude; o comportamento se degrada.

Grupo 4 — Executores de Utilidade (velocidade sobre inteligência): Explore, Librarian, Multimodal Looker. Fazem grep, pesquisa e recuperação. Usam intencionalmente os modelos mais rápidos e baratos disponíveis. “Atualizar” o Explore para o Opus é contratar um engenheiro sênior para arquivar papelada. Estes também são os melhores candidatos para substituição por modelos locais.

Mecanismos de delegação

O Oh My Opencode usa duas ferramentas complementares para delegação:

  • task()delegação baseada em categoria: escolha uma categoria como visual-engineering ou deep, opcionalmente injete habilidades e opcionalmente execute em segundo plano
  • call_omo_agent()chamada direta de um agente específico pelo nome, contornando o roteamento de categoria

Ambos suportam execução paralela em segundo plano, com concorrência aplicada por provedor e por modelo.

Categorias são predefinições de roteamento de modelo

Quando o Sisyphus delega a um subagente, ele escolhe uma categoria, não um nome de modelo. A categoria mapeia para o modelo correto automaticamente.

Categoria Para que serve Modelo padrão
visual-engineering Frontend, UI/UX, CSS, design Gemini 3.1 Pro (alto)
artistry Criativo, abordagens inovadoras Gemini 3.1 Pro → Claude Opus → GPT-5.4
ultrabrain Lógica difícil, decisões de arquitetura GPT-5.4 (xhigh) → Gemini 3.1 Pro → Claude Opus
deep Programação profunda, lógica complexa multiarquivo GPT-5.3 Codex → Claude Opus → Gemini 3.1 Pro
unspecified-high Trabalho complexo geral Claude Opus → GPT-5.4 (alto) → GLM-5
unspecified-low Trabalho padrão geral Claude Sonnet → GPT-5.3 Codex → Gemini Flash
quick Mudanças em arquivo único, tarefas simples Claude Haiku → Gemini Flash → GPT-5-Nano
writing Texto, documentação, prosa Gemini Flash → Claude Sonnet

Categorias são a abstração certa para auto-hospedagem também: mapeie uma categoria para um modelo local e toda tarefa roteada para essa categoria usará automaticamente ele.

Ordem de resolução de modelo

Solicitação do Agente → Sobreposição do Usuário (se configurado) → Cadeia de Fallback → Padrão do Sistema

Prioridade do provedor quando o mesmo modelo está disponível através de múltiplos provedores:

Nativo (anthropic/, openai/, google/) > Kimi para Codificação > GitHub Copilot > Venice > OpenCode Go > Z.ai Coding Plan

Agentes do Oh My Opencode: Catálogo Completo com Papéis e Requisitos de Modelo

Orquestradores

Sisyphus

Propósito: Orquestrador principal. Planeja, delega e impulsiona tarefas até a conclusão através de execução paralela agressiva.
Grupo: Comunicador (Claude / Kimi / GLM)
Papel: O líder da equipe que coordena em toda a base de código — seu prompt orientado a mecanismos de ~1.100 linhas precisa de um modelo que possa seguir cada passo em dezenas de chamadas de ferramenta sem perder o controle.

⚠️ Nunca substitua o Sisyphus por modelos GPT mais antigos. O GPT-5.4 tem um caminho de prompt dedicado, mas não é o padrão recomendado. O Claude Opus é a referência.

Cadeia de fallback: anthropic/claude-opus-4-6 (max) → opencode-go/kimi-k2.5k2p5gpt-5.4glm-5big-pickle
Auto-hospedado: Sisyphus é o agente mais difícil de executar localmente. A complexidade de seu prompt o torna dependente de modelos com forte seguimento de instruções em sequências longas de chamadas de ferramenta. Um Qwen3-coder local ou DeepSeek-Coder-V3 pode funcionar para tarefas simples, mas espere degradação em fluxos de trabalho que requerem coordenação multiagente. Se você auto-hospedar, teste com uma tarefa de agente único antes de habilitar a execução paralela.


Atlas

Propósito: “Orquestrador de lista de tarefas.” Mantém um plano estruturado em movimento, exigindo conclusão e sequência.
Grupo: Prompt duplo (Claude preferido, GPT suportado)
Papel: Enquanto o Sisyphus lida com o quadro geral, o Atlas impulsiona a lista de verificação. Detecta automaticamente sua família de modelo em tempo de execução e alterna os prompts conforme necessário.

Cadeia de fallback: anthropic/claude-sonnet-4-6opencode-go/kimi-k2.5
Auto-hospedado: Um modelo de codificador local rápido e confiável lida razoavelmente bem com o trabalho “impulsionar a lista de verificação” no estilo Atlas porque as tarefas são mais estruturadas do que a orquestração do Sisyphus. O Qwen3-coder com contexto de 32k+ é um ponto de partida viável.


Agentes de planejamento

A camada de planejamento impõe “pensar antes de agir”: coleta de requisitos, detecção de lacunas e crítica do plano acontecem tudo antes que qualquer agente de execução veja a tarefa.

Prometheus

Propósito: Planejador estratégico com fluxo de trabalho estilo entrevista. Ativa quando você pressiona Tab ou executa /start-work.
Grupo: Prompt duplo (Claude preferido, GPT suportado)
Papel: Entrevista você como um engenheiro real — identifica escopo, revela ambiguidades e produz um plano verificado antes que uma única linha de código seja tocada. A versão GPT alcança o mesmo resultado em ~121 linhas; a versão Claude usa ~1.100 linhas em 7 arquivos.
Colabora com: Metis (detecção de lacunas) e Momus (validação do plano) antes de passar para a execução.

Cadeia de fallback: anthropic/claude-opus-4-6 (max) → openai/gpt-5.4 (high) → opencode-go/glm-5google/gemini-3.1-pro
Auto-hospedado: Viável com um modelo local forte de seguimento de instruções em baixa temperatura. A qualidade do planejamento degrada quando o modelo não consegue manter suas restrições e critérios de aceitação no contexto em uma entrevista longa de múltiplas voltas. Janela de contexto mínima de 64k recomendada.


Metis

Propósito: Consultor de pré-planejamento e analista de lacunas. Executa em temperatura mais alta do que a maioria dos agentes para incentivar a detecção criativa de lacunas.
Grupo: Comunicador (Claude preferido)
Papel: Revisor de “O que perdemos?” antes da execução — não é um trabalhador de escrita de código, mas parte da história de controle de qualidade do plano.
Colabora com: Invocado pelo Prometheus antes que o plano seja finalizado.

Cadeia de fallback: anthropic/claude-opus-4-6 (max) → opencode-go/glm-5k2p5
Auto-hospedado: Um modelo local com capacidade de raciocínio é suficiente. Mantenha a temperatura não zero se você quiser que o Metis realmente exponha casos extremos — defina como 0 e ele se torna um carimbo de aprovação.


Momus

Propósito: Revisor de planos implacável. Exige clareza e padrões de verificação. Pode operar como um portão estrito de “Ok ou rejeitar”.
Grupo: Nativo do GPT
Papel: Crítico mentalidade QA para planos. Restrições de ferramentas o mantêm em modo de revisão em vez de modo de execução.
Colabora com: Usado após a criação do plano para desafiar a viabilidade antes que o trabalho comece.

Cadeia de fallback: openai/gpt-5.4 (medium) → anthropic/claude-opus-4-6 (max) → google/gemini-3.1-pro (high)
Auto-hospedado: Se você auto-hospedar, mantenha a amostragem muito baixa. Todo o ponto do Momus é crítica estável e reproduzível — criatividade é a última coisa que você quer aqui. Um modelo de raciocínio local forte em temperatura 0.1 ou inferior é a configuração correta.


Agentes de trabalho

Hephaestus

Propósito: Trabalhador profundo autônomo. Dê-lhe um objetivo, não uma receita.
Grupo: Nativo do GPT — apenas GPT-5.3 Codex
Papel: O especialista que fica no quarto programando o dia todo. Explora a base de código, pesquisa padrões e executa de ponta a ponta sem supervisão constante. O mantenedor o chama de “O Artesão Legítimo” (uma referência deliberada à decisão da Anthropic de bloquear o OpenCode).

⚠️ Sem cadeia de fallback — requer acesso ao GPT. Não há prompt do Claude para este agente. Executá-lo sem OpenAI ou GitHub Copilot significa que ele não pode executar. “GPT-5.3-codex-spark” existe, mas é explicitamente não recomendado — compacta o contexto de forma tão agressiva que a gestão de contexto do Oh My Opencode quebra.

Cadeia de fallback: openai/gpt-5.3-codex (medium) — sem fallback
Auto-hospedado: Não há substituto local viável para o Hephaestus hoje. Seu prompt é construído em torno do estilo de exploração autônoma e orientada a princípios do GPT-Codex. Se você precisa de um trabalhador profundo em uma pilha totalmente local, use o Sisyphus-Junior com a categoria deep em vez disso (que roteia para o GPT-5.3 Codex, ou faz fallback para o Claude Opus se for isso que você tem).


Sisyphus-Junior

Propósito: Executor gerado por categoria usado pelo sistema de delegação.
Grupo: Herda de qualquer categoria que o lançou
Papel: O “contratado especialista” que herda seu modelo da configuração da categoria. Criado dinamicamente via task(), frequentemente com habilidades injetadas, e pode ser executado em segundo plano para paralelismo. Pense nele como um trabalhador em folha limpa cuja capacidade é determinada inteiramente pela categoria que você atribui.

Cadeia de fallback: anthropic/claude-sonnet-4-6 (padrão); herda da categoria lançadora na prática
Auto-hospedado: Sisyphus-Junior é o lugar mais prático para começar a auto-hospedagem. Mapeie cada categoria para um modelo local em oh-my-opencode.jsonc e toda tarefa gerada por categoria usará automaticamente ele. Comece com quick (tarefas simples), verifique se funciona, depois expanda para unspecified-low antes de tocar em qualquer coisa que roteie para deep ou ultrabrain.


Subagentes especialistas

Oracle

Propósito: Consulta de leitura única para decisões de arquitetura e depuração complexa.
Grupo: Nativo do GPT
Papel: Arquiteto sênior e depurador de “último recurso”. Intencionalmente restrito de ferramentas de escrita e delegação para que sua saída permaneça consultiva. Chame o Oracle após trabalhos grandes, após falhas repetidas ou antes de tomar uma decisão arquitetônica de alto risco.

Cadeia de fallback: openai/gpt-5.4 (high) → google/gemini-3.1-pro (high) → anthropic/claude-opus-4-6 (max)
Auto-hospedado: Se você auto-hospedar o Oracle, escolha seu modelo de raciocínio local mais forte e mantenha a amostragem muito baixa. A diferença de qualidade de saída entre um raciocinador local capaz e o GPT-5.4 é significativa para perguntas de arquitetura complexas. Em uma configuração híbrida, o Oracle é um dos agentes que vale a pena manter em um modelo de nuvem enquanto move o trabalho de utilidade para o local.


Librarian

Propósito: Documentação externa e pesquisa de código aberto.
Grupo: Executor de utilidade
Papel: Coletor de documentação e evidências. Restrições de ferramentas impedem edição, então ele permanece focado em sourcing e sumarização. Projetado para rodar em paralelo com o Explore para coleta de evidências combinadas “dentro do repositório + fora do repositório”.

Cadeia de fallback: opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Auto-hospedado: O melhor agente para mover totalmente para o local no primeiro dia. O trabalho do Librarian é recuperação e sumarização, não raciocínio profundo. Qualquer modelo local com chamada de ferramenta confiável lida bem com isso. Mesmo um modelo de 7B ou 13B é suficiente se puder seguir o padrão “pesquisar, coletar, relatar” sem desviar.


Explore

Propósito: Grep contextual e pesquisa rápida na base de código.
Grupo: Executor de utilidade
Papel: O agente “encontrar os arquivos e padrões relevantes para mim”. Dispare 10 desses em paralelo para perguntas não triviais, cada um com escopo em uma área diferente da base de código, depois deixe o orquestrador sintetizar os resultados.

Cadeia de fallback: grok-code-fast-1opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Auto-hospedado: Juntamente com o Librarian, o Explore é o melhor ponto de partida para inferência local. Seu trabalho é correspondência de padrões e relatórios estruturados — o modelo não precisa de raciocínio profundo, apenas chamada de ferramenta rápida e confiável e seguimento de instruções decente. Um modelo de codificador local pequeno (Qwen2.5-Coder-7B ou similar) em alto throughput funciona bem.


Multimodal Looker

Propósito: Analista de visão e “leitor de diagramas”. Analisa imagens e PDFs via um fluxo de trabalho look_at.
Grupo: Executor de utilidade (visão necessária)
Papel: Pesadamente restrito por ferramentas (apenas leitura) para prevenir efeitos colaterais e mantê-lo puramente interpretativo. Usado quando você precisa alimentar prints de UI, diagramas de arquitetura ou páginas de PDF no fluxo de trabalho.

O Kimi K2.5 é especificamente citado como excelente em compreensão multimodal — é por isso que ele fica alto nesta cadeia de fallback.

Cadeia de fallback: openai/gpt-5.4opencode-go/kimi-k2.5zai-coding-plan/glm-4.6vgpt-5-nano
Auto-hospedado: Visão local requer um modelo multimodal com chamada de ferramenta sólida e contexto suficiente. Se sua pilha local ainda não está lá, mantenha o Multimodal Looker em um modelo de nuvem — um pipeline de visão local mal configurado produz lixo silencioso, não erros úteis.


Roteamento de Modelo do Oh My Opencode: Cadeias de Fallback e Prioridade de Provedor

Padrões por agente e o design “sem modelo global único”

O Oh My Opencode vem com modelos padrão e cadeias de fallback por agente, não um único modelo global. O design é deliberadamente opinado:

  • Explore e Librarian usam os modelos mais baratos e rápidos porque não precisam de raciocínio profundo
  • Oracle e Momus usam os modelos de maior capacidade porque suas saídas portam a execução
  • Sisyphus e Prometheus recebem os melhores modelos de classe de orquestração por padrão

A camada OpenCode Go ($10/mês)

OpenCode Go é uma camada de assinatura que fornece acesso confiável a modelos de fronteira chineses através da infraestrutura do OpenCode. Aparece no meio de muitas cadeias de fallback como uma ponte entre provedores nativos premium e alternativas de camada gratuita.

Modelo via OpenCode Go Usado por
opencode-go/kimi-k2.5 Sisyphus, Atlas, Sisyphus-Junior, Multimodal Looker
opencode-go/glm-5 Oracle, Prometheus, Metis, Momus
opencode-go/minimax-m2.5 Librarian, Explore

Se você não tiver assinaturas da Anthropic ou OpenAI, OpenCode Go mais GitHub Copilot cobre a maior parte da cadeia de fallback a baixo custo.

Mapeamentos de provedor para GitHub Copilot

Quando o GitHub Copilot é o melhor provedor disponível, as atribuições de agentes são:

Agente Modelo
Sisyphus github-copilot/claude-opus-4-6
Oracle github-copilot/gpt-5.4
Explore github-copilot/grok-code-fast-1
Librarian github-copilot/gemini-3-flash

Variantes de prompt acompanham famílias de modelo

Se você alternar um agente de Claude para GPT ou Gemini, o Oh My Opencode não usa o mesmo prompt. Agentes que suportam múltiplas famílias (Prometheus, Atlas) detectam automaticamente via isGptModel() e alternam. Agentes que não suportam múltiplas famílias (Sisyphus, Hephaestus) têm um prompt — troque-os para a família errada e a saída se degrada.

Se a saída do seu agente parecer estranha após uma mudança de modelo, verifique se você cruzou uma fronteira de família de modelo e reverta.


Executando Oh My Opencode com Modelos Auto-Hospedados e Locais

Há duas camadas para configurar:

  1. O OpenCode deve conhecer seu provedor local e IDs de modelo
  2. O Oh My Opencode deve ser informado de qual agente usa qual modelo (porque a maioria dos agentes ignora seu modelo selecionado na UI por design)

O que você pode realisticamente rodar localmente hoje

Agente Viabilidade local Abordagem recomendada
Explore ✅ Excelente Qualquer modelo de codificador local rápido (Qwen2.5-Coder-7B+)
Librarian ✅ Excelente Qualquer modelo local rápido com chamada de ferramenta confiável
Sisyphus-Junior (categoria quick) ✅ Bom Modelo de codificador pequeno para tarefas rápidas
Atlas ⚠️ Viável Modelo de tamanho médio (13B+), contexto 32k+
Prometheus ⚠️ Viável Seguidor de instruções forte, contexto 64k+, baixa temperatura
Metis ⚠️ Viável Capaz de raciocínio, mantenha temperatura não zero
Momus ⚠️ Viável Capaz de raciocínio, temperatura muito baixa
Sisyphus ⚠️ Parcial Apenas para tarefas simples de agente único; orquestração multiagente precisa de modelos de classe Claude
Oracle ❌ Não recomendado Mantenha na nuvem; a lacuna de qualidade é significativa para consultas complexas
Hephaestus ❌ Sem caminho local Requer GPT-5.3-codex; sem equivalente Claude ou local

Passo 1 — Adicionar um provedor local ao OpenCode

O OpenCode suporta modelos locais e valores baseURL personalizados na configuração do provedor — Ollama, vLLM e qualquer endpoint compatível com OpenAI são opções de primeira classe. O Início rápido do OpenCode cobre a autenticação de provedores em detalhes.

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "qwen2.5-coder:7b": { "name": "qwen2.5-coder:7b" },
        "qwen2.5-coder:32b": { "name": "qwen2.5-coder:32b" }
      }
    }
  }
}

Para vLLM ou LM Studio, o mesmo padrão se aplica — apenas aponte baseURL para o endpoint /v1 do seu servidor e liste os modelos que você carregou.

O OpenCode requer pelo menos uma janela de contexto de 64k para agentes de orquestração. Qualquer coisa menor e você verá erros de truncamento no meio do fluxo de trabalho.

Passo 2 — Substituir modelos de agente na configuração do Oh My Opencode

Localizações de configuração (projeto tem precedência sobre nível de usuário):

  • .opencode/oh-my-opencode.jsonc (nível de projeto, maior prioridade)
  • ~/.config/opencode/oh-my-opencode.jsonc (nível de usuário)

Uma configuração híbrida prática — inferência local para agentes de utilidade, nuvem para raciocínio:

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",

  "agents": {
    // Agentes de utilidade: modelo local rápido é mais do que suficiente
    "explore":    { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },
    "librarian":  { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },

    // Sisyphus-Junior em modo rápido: local é bom
    // (controlado via categorias abaixo)

    // Mantenha os agentes de raciocínio na nuvem
    "oracle":  { "model": "openai/gpt-5.4",          "variant": "high" },
    "momus":   { "model": "openai/gpt-5.4",          "variant": "xhigh" },
    // Hephaestus: não toque — precisa de GPT-5.3-codex, sem fallback
  },

  "categories": {
    // Roteie tarefas simples geradas para modelo local
    "quick":   { "model": "ollama/qwen2.5-coder:7b" },
    "writing": { "model": "ollama/qwen2.5-coder:7b" },

    // Mantenha raciocínio pesado na nuvem
    "deep":         { "model": "openai/gpt-5.3-codex", "variant": "medium" },
    "ultrabrain":   { "model": "openai/gpt-5.4",       "variant": "xhigh" }
  },

  "background_task": {
    "defaultConcurrency": 2,
    "providerConcurrency": {
      "ollama": 4,    // endpoint local pode lidar com mais paralelismo
      "openai": 2,    // ficar dentro dos limites do plano
      "anthropic": 2
    },
    "modelConcurrency": {
      "ollama/qwen2.5-coder:7b": 4
    }
  }
}

A alternativa consciente de custo à auto-hospedagem total

Antes de se comprometer com uma configuração de GPU local, considere a pilha OpenCode Go + Kimi para Codificação. Por cerca de $11/mês no total, cobre:

  • Kimi K2.5 para Sisyphus e Atlas (qualidade de orquestração de classe Claude a baixo custo)
  • GLM-5 para Prometheus, Metis e Momus (raciocínio sólido, camada gratuita disponível)
  • MiniMax M2.5 para Librarian e Explore (recuperação rápida)

Para a maioria das cargas de trabalho, isso é mais barato do que executar um servidor de inferência local e não requer hardware de GPU.


Ferramentas Integradas do Oh My Opencode: Hashline, Init-Deep, Ralph Loop e MCPs

Hashline — ferramenta de edição ancorada por hash

Uma das melhorias mais práticas no Oh My Opencode é como ele lida com edições de código. Cada linha que o agente lê volta marcada com um hash de conteúdo:

11#VK| function hello() {
22#XJ|   return "world";
33#MB| }

Quando o agente edita referenciando essas tags, se o arquivo mudou desde a última leitura, o hash não corresponderá e a edição será rejeitada antes da corrupção. Isso elimina toda a classe de erros de “linha obsoleta” onde agentes editam confiantemente linhas que não existem mais. A taxa de sucesso do Grok Code Fast em tarefas de edição foi de 6,7% para 68,3% apenas com essa mudança.

/init-deep — injeção de contexto hierárquico

Execute /init-deep e o Oh My Opencode gera arquivos AGENTS.md em todos os níveis relevantes da árvore do seu projeto:

project/
├── AGENTS.md              ← contexto de todo o projeto
├── src/
│   ├── AGENTS.md          ← contexto específico de src
│   └── components/
│       └── AGENTS.md      ← contexto específico de componente

Agentes leem automaticamente o contexto relevante em seu escopo. Em vez de carregar todo o repositório no contexto no início de cada execução, cada agente puxa apenas o que é relevante para onde está trabalhando.

Modo de planejamento Prometheus — /start-work

Para tarefas complexas, não digite apenas um prompt e espere. Pressione Tab para entrar no modo Prometheus ou use /start-work. O Prometheus entrevista você como um engenheiro real: identifica escopo, revela ambiguidades, constrói um plano verificado antes que qualquer agente de execução rode. O padrão “Decisão Completa” significa que o plano não deixa nenhuma decisão para o implementador.

Ralph Loop — /ulw-loop

Um loop de execução autorreferencial que não para até que a tarefa esteja 100% completa. Use isso para tarefas grandes e de múltiplos passos onde você quer que o sistema se verifique e continue sem sua intervenção. É agressivo — certifique-se de que seus limites de concorrência estejam definidos antes de executá-lo em um provedor de nuvem caro.

MCPs Integrados

Três servidores MCP são pré-configurados e sempre ativos:

  • Exa — pesquisa na web
  • Context7 — consulta de documentação oficial
  • Grep.app — pesquisa de código no GitHub em repositórios públicos

Você não precisa configurar estes. Eles estão disponíveis para todos os agentes por padrão.


Para resultados práticos e benchmarks da comunidade sobre como esses agentes se comportam na prática, veja o artigo de experiência do Oh My Opencode. Para instalar o plugin do zero, comece com o Início Rápido do Oh My Opencode.