Análisis Exhaustivo y Guía de Modelos para Agentes Especializados de Opencode

Conozca a Sisyphus y su equipo de agentes especializados.

Índice

El mayor salto de capacidad en OpenCode proviene de los agentes especializados: la separación deliberada de la orquestación, la planificación, la ejecución y la investigación.

Oh My Opencode encapsula esa idea en un marco integral donde Sisyphus coordina un completo “equipo virtual” de agentes con diferentes permisos, prompts y preferencias de modelos.

oh my opencode agents

Este es el análisis en profundidad de los agentes y el enrutamiento de modelos. Si estás en una etapa temprana del viaje:

Para el contexto más amplio de la cadena de herramientas de codificación de IA, consulta la visión general de herramientas para desarrolladores de IA.

¿Qué es Oh My Opencode y cómo extiende OpenCode

OpenCode es un agente de codificación de IA de código abierto diseñado para la terminal. Incluye una interfaz de usuario de terminal (TUI), y la CLI inicia esa TUI de forma predeterminada cuando ejecutas opencode sin argumentos. Es flexible en cuanto al proveedor: soporta un amplio catálogo de proveedores que incluye modelos locales, expone la configuración del proveedor a través de su archivo de configuración y flujo /connect, y gestiona todo desde APIs en la nube hasta endpoints de Ollama sin necesidad de parches.

Oh My Opencode (también conocido como oh-my-openagent, o simplemente “omo”) es un plugin de la comunidad que transforma OpenCode en un sistema de ingeniería multiagente completo. Aporta:

  • el sistema de orquestación Sisyphus con ejecución en segundo plano paralela
  • 11 agentes especializados con roles distintos, prompts ajustados por familia de modelos y permisos de herramientas explícitos
  • LSP + AST-Grep para refactorización de calidad IDE dentro de los agentes
  • Hashline: una herramienta de edición anclada por hash que elimina errores de líneas obsoletas (véase más abajo)
  • MCPs integrados: Exa (búsqueda web), Context7 (documentación oficial), Grep.app (búsqueda en GitHub), todos activados por defecto
  • /init-deep: genera automáticamente archivos AGENTS.md jerárquicos en todo tu proyecto para una inyección de contexto eficiente

Una peculiaridad de nomenclatura: el repositorio upstream ahora se marca como oh-my-openagent, pero el paquete del plugin y los comandos de instalación siguen utilizando oh-my-opencode. El mantenedor sugiere llamarlo “oh-mo” o simplemente “Sisyphus”.

Por qué Oh My Opencode asigna modelos diferentes a diferentes agentes

Oh My Opencode se basa en una idea fundamental: los modelos diferentes piensan de manera diferente, y el prompt de cada agente está escrito para un modelo mental específico. Claude sigue prompts impulsados por mecánica: listas de verificación detalladas, plantillas, procedimientos paso a paso. Más reglas significan más cumplimiento. GPT (especialmente 5.2+) sigue prompts impulsados por principios: principios concisos, estructura XML, criterios de decisión explícitos. Si le das a GPT un prompt de Claude de 1.100 líneas, se contradice a sí mismo. Si le das a Claude un prompt de GPT de 121 líneas, se desvía.

Esto no es una peculiaridad que puedas configurar para evitar. Es el diseño del sistema.

La consecuencia práctica: cuando cambias el modelo de un agente, cambias qué prompt se activa. Los agentes que soportan múltiples familias de modelos (Prometheus, Atlas) detectan automáticamente tu modelo en tiempo de ejecución mediante isGptModel() y cambian los prompts automáticamente. Los agentes que no lo hacen (Sisyphus, Hephaestus) tienen prompts escritos para una sola familia y, si los cambias a la familia incorrecta, la calidad de la salida se degrada significativamente.

Cómo colaboran los agentes especializados de Oh My Opencode

Los cuatro grupos de personalidad de agentes

Los agentes se dividen en cuatro grupos según la familia de modelos para la que están optimizados. Esto es importante tanto para comprender el sistema como para las decisiones de autoalojamiento.

Grupo 1 — Comunicadores (Claude / Kimi / GLM): Sisyphus y Metis. Prompts largos impulsados por mecánica (~1.100 líneas para Sisyphus). Necesitan modelos que sigan de forma fiable instrucciones complejas y multicapa a través de docenas de llamadas a herramientas. Claude Opus es la referencia. Kimi K2.5 y GLM-5 son alternativas sólidas, rentables y que se comportan de forma similar. No cambies estos a modelos GPT antiguos.

Grupo 2 — Prompt Dual (Claude preferido, GPT soportado): Prometheus y Atlas. Detectan automáticamente tu familia de modelos en tiempo de ejecución y cambian al prompt apropiado. Claude obtiene la versión completa impulsada por mecánica. GPT obtiene una versión compacta impulsada por principios que logra el mismo resultado en ~121 líneas. Es seguro usar cualquiera; el sistema gestiona el cambio.

Grupo 3 — Nativo de GPT (GPT-5.3-codex / GPT-5.4): Hephaestus, Oracle, Momus. Estilo de ejecución autónomo impulsado por principios. Sus prompts asumen un razonamiento independiente orientado a objetivos, para lo cual GPT está diseñado. Hephaestus no tiene alternativa y requiere acceso a GPT. No cambies estos a Claude; el comportamiento se degrada.

Grupo 4 — Ejecutores de Utilidad (velocidad sobre inteligencia): Explore, Librarian, Multimodal Looker. Realizan grep, búsqueda y recuperación. Utilizan intencionadamente los modelos más rápidos y baratos disponibles. “Mejorar” Explore a Opus es como contratar a un ingeniero senior para hacer papeleo. Estos también son los mejores candidatos para la sustitución por modelos locales.

Mecanismos de delegación

Oh My Opencode utiliza dos herramientas complementarias para la delegación:

  • task()delegación basada en categorías: elige una categoría como visual-engineering o deep, opcionalmente inyecta habilidades y opcionalmente ejecuta en segundo plano
  • call_omo_agent()invocación directa de un agente específico por nombre, omitiendo el enrutamiento por categorías

Ambos soportan ejecución paralela en segundo plano, con concurrencia aplicada por proveedor y por modelo.

Las categorías son preajustes de enrutamiento de modelos

Cuando Sisyphus delega a un subagente, elige una categoría, no un nombre de modelo. La categoría se mapea automáticamente al modelo correcto.

Categoría Para qué sirve Modelo predeterminado
visual-engineering Frontend, UI/UX, CSS, diseño Gemini 3.1 Pro (alto)
artistry Creativo, enfoques novedosos Gemini 3.1 Pro → Claude Opus → GPT-5.4
ultrabrain Lógica difícil, decisiones de arquitectura GPT-5.4 (xalto) → Gemini 3.1 Pro → Claude Opus
deep Codificación profunda, lógica compleja multiarchivo GPT-5.3 Codex → Claude Opus → Gemini 3.1 Pro
unspecified-high Trabajo complejo general Claude Opus → GPT-5.4 (alto) → GLM-5
unspecified-low Trabajo estándar general Claude Sonnet → GPT-5.3 Codex → Gemini Flash
quick Cambios en un solo archivo, tareas simples Claude Haiku → Gemini Flash → GPT-5-Nano
writing Texto, documentación, prosa Gemini Flash → Claude Sonnet

Las categorías son la abstracción correcta también para el autoalojamiento: mapea una categoría a un modelo local y cada tarea enrutada a esa categoría lo usará automáticamente.

Orden de resolución del modelo

Solicitud del Agente → Anulación del Usuario (si está configurado) → Cadena de Alternativa → Predeterminado del Sistema

Prioridad del proveedor cuando el mismo modelo está disponible a través de múltiples proveedores:

Nativo (anthropic/, openai/, google/) > Kimi for Coding > GitHub Copilot > Venice > OpenCode Go > Z.ai Coding Plan

Oh My Opencode Agents: Catálogo Completo con Roles y Requisitos de Modelo

Orquestadores

Sisyphus

Propósito: Orquestador principal. Planifica, delega e impulsa las tareas hasta su finalización mediante una ejecución paralela agresiva.
Grupo: Comunicador (Claude / Kimi / GLM)
Rol: El líder del equipo que coordina en todo el código; su prompt de ~1.100 líneas impulsado por mecánica necesita un modelo que pueda seguir cada paso a través de docenas de llamadas a herramientas sin perder el rastro.

⚠️ Nunca cambies Sisyphus a modelos GPT antiguos. GPT-5.4 tiene una ruta de prompt dedicada pero no es el predeterminado recomendado. Claude Opus es la referencia.

Cadena de alternativa: anthropic/claude-opus-4-6 (máximo) → opencode-go/kimi-k2.5k2p5gpt-5.4glm-5big-pickle
Autoalojado: Sisyphus es el agente más difícil de ejecutar localmente. La complejidad de su prompt lo hace dependiente de modelos con un fuerte seguimiento de instrucciones en secuencias largas de llamadas a herramientas. Un Qwen3-coder local o DeepSeek-Coder-V3 puede funcionar para tareas simples, pero espera una degradación en flujos de trabajo que requieran coordinación multiagente. Si lo autoalojas, prueba con una tarea de un solo agente antes de habilitar la ejecución paralela.


Atlas

Propósito: “Orquestador de lista de tareas”. Mantiene un plan estructurado en movimiento asegurando la finalización y secuencia.
Grupo: Prompt dual (Claude preferido, GPT soportado)
Rol: Mientras Sisyphus maneja el panorama general, Atlas impulsa la lista de verificación. Detecta automáticamente tu familia de modelos en tiempo de ejecución y cambia los prompts en consecuencia.

Cadena de alternativa: anthropic/claude-sonnet-4-6opencode-go/kimi-k2.5
Autoalojado: Un modelo de codificador local rápido y fiable maneja razonablemente bien el trabajo de tipo Atlas “impulsar la lista de verificación” porque las tareas son más estructuradas que la orquestación de Sisyphus. Qwen3-coder con un contexto de 32k+ es un punto de partida viable.


Agentes de planificación

La capa de planificación hace cumplir “pensar antes de actuar”: la recopilación de requisitos, la detección de lagunas y la crítica del plan ocurren todo antes de que cualquier agente de ejecución vea la tarea.

Prometheus

Propósito: Planificador estratégico con un flujo de trabajo de estilo entrevista. Se activa cuando presionas Tab o ejecutas /start-work.
Grupo: Prompt dual (Claude preferido, GPT soportado)
Rol: Te entrevista como un ingeniero real: identifica el alcance, hace visibles las ambigüedades y produce un plan verificado antes de que se toque una sola línea de código. La versión de GPT logra lo mismo en ~121 líneas; la versión de Claude usa ~1.100 líneas a lo largo de 7 archivos.
Colabora con: Metis (detección de lagunas) y Momus (validación del plan) antes de pasar a la ejecución.

Cadena de alternativa: anthropic/claude-opus-4-6 (máximo) → openai/gpt-5.4 (alto) → opencode-go/glm-5google/gemini-3.1-pro
Autoalojado: Viable con un modelo local fuerte en seguimiento de instrucciones a baja temperatura. La calidad de la planificación se degrada cuando el modelo no puede mantener tus restricciones y criterios de aceptación en contexto a lo largo de una entrevista multi-turno larga. Se recomienda una ventana de contexto mínima de 64k.


Metis

Propósito: Consultor de preplanificación y analizador de lagunas. Se ejecuta a una temperatura más alta que la mayoría de los agentes para fomentar la detección creativa de lagunas.
Grupo: Comunicador (Claude preferido)
Rol: Revisor de “¿Qué nos hemos perdido?” antes de la ejecución: no es un trabajador de escritura de código, pero es parte de la historia de control de calidad del plan.
Colabora con: Invocado por Prometheus antes de que el plan se finalice.

Cadena de alternativa: anthropic/claude-opus-4-6 (máximo) → opencode-go/glm-5k2p5
Autoalojado: Un modelo local con capacidad de razonamiento es suficiente. Mantén la temperatura no cero si quieres que Metis haga visibles casos extremos: si la pones a 0, se convierte en un sello de goma.


Momus

Propósito: Revisor de planes implacable. Hace cumplir la claridad y los estándares de verificación. Puede operar como una puerta de “OK o rechazar” estricta.
Grupo: Nativo de GPT
Rol: Crítico con mentalidad de QA para planes. Las restricciones de herramientas lo mantienen en modo de revisión en lugar de modo de ejecución.
Colabora con: Utilizado después de la creación del plan para desafiar la viabilidad antes de que comience el trabajo.

Cadena de alternativa: openai/gpt-5.4 (medio) → anthropic/claude-opus-4-6 (máximo) → google/gemini-3.1-pro (alto)
Autoalojado: Si lo autoalojas, mantén el muestreo muy bajo. Todo el punto de Momus es una crítica estable y reproducible; la creatividad es lo último que quieres aquí. Un modelo de razonamiento local fuerte a temperatura 0.1 o inferior es la configuración correcta.


Agentes trabajadores

Hephaestus

Propósito: Trabajador profundo autónomo. Dale un objetivo, no una receta.
Grupo: Nativo de GPT — Solo GPT-5.3 Codex
Rol: El especialista que se queda en su habitación programando todo el día. Explora el código, investiga patrones y ejecuta de principio a fin sin supervisión constante. El mantenedor lo llama “El Artesano Legítimo” (una referencia deliberada a la decisión de Anthropic de bloquear OpenCode).

⚠️ Sin cadena de alternativa: requiere acceso a GPT. No hay prompt de Claude para este agente. Ejecutarlo sin OpenAI o GitHub Copilot significa que no puede ejecutar. “GPT-5.3-codex-spark” existe pero no se recomienda explícitamente: compacta el contexto tan agresivamente que la gestión de contexto de Oh My Opencode se rompe.

Cadena de alternativa: openai/gpt-5.3-codex (medio) — sin alternativa
Autoalojado: No hay sustituto local viable para Hephaestus hoy. Su prompt se basa en el estilo de exploración autónoma impulsada por principios de GPT-Codex. Si necesitas un trabajador profundo en una pila totalmente local, usa Sisyphus-Junior con la categoría deep en su lugar (que enruta a GPT-5.3 Codex, o se alterna a Claude Opus si eso es lo que tienes).


Sisyphus-Junior

Propósito: Ejecutor generado por categoría utilizado por el sistema de delegación.
Grupo: Hereda de la categoría que lo lanzó
Rol: El “contratista especialista” que hereda su modelo de la configuración de la categoría. Se crea dinámicamente mediante task(), a menudo con habilidades inyectadas, y puede ejecutarse en segundo plano para paralelismo. Piensa en él como un trabajador en estado de tabla rasa cuya capacidad está determinada enteramente por la categoría que le asignes.

Cadena de alternativa: anthropic/claude-sonnet-4-6 (predeterminado); en la práctica hereda de la categoría que lo lanza
Autoalojado: Sisyphus-Junior es el lugar más práctico para comenzar el autoalojamiento. Mapea cada categoría a un modelo local en oh-my-opencode.jsonc y cada tarea generada por categoría lo usará automáticamente. Comienza con quick (tareas simples), verifica que funcione y luego expande a unspecified-low antes de tocar nada que enruté a deep o ultrabrain.


Subagentes especialistas

Oracle

Propósito: Consulta de solo lectura para decisiones de arquitectura y depuración compleja.
Grupo: Nativo de GPT
Rol: Arquitecto senior y depurador de “último recurso”. Intencionadamente restringido de herramientas de escritura y delegación para que su salida permanezca consultiva. Llama a Oracle después de un trabajo mayor, después de fallos repetidos o antes de tomar una decisión arquitectónica de alto riesgo.

Cadena de alternativa: openai/gpt-5.4 (alto) → google/gemini-3.1-pro (alto) → anthropic/claude-opus-4-6 (máximo)
Autoalojado: Si autoalojas Oracle, elige tu modelo de razonamiento local más fuerte y mantén el muestreo muy bajo. La diferencia de calidad de salida entre un razonador local capaz y GPT-5.4 es significativa para preguntas de arquitectura complejas. En una configuración híbrida, Oracle es uno de los agentes que vale la pena mantener en un modelo en la nube mientras se mueve el trabajo de utilidad a local.


Librarian

Propósito: Documentación externa e investigación de código abierto.
Grupo: Ejecutor de utilidad
Rol: Recopilador de documentación y pruebas. Las restricciones de herramientas evitan la edición, por lo que se centra en la obtención y resumen. Diseñado para ejecutarse en paralelo con Explore para una recopilación de pruebas combinada “dentro del repositorio + fuera del repositorio”.

Cadena de alternativa: opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Autoalojado: El mejor agente para mover completamente a local desde el primer día. El trabajo de Librarian es recuperación y resumen, no razonamiento profundo. Cualquier modelo local con llamadas a herramientas fiables lo maneja bien. Incluso un modelo de 7B o 13B es suficiente si puede seguir el patrón “buscar, recopilar, informar” sin desviarse.


Explore

Propósito: Grep contextual y búsqueda rápida en el código.
Grupo: Ejecutor de utilidad
Rol: El agente “encuéntrame los archivos y patrones relevantes”. Dispara 10 de estos en paralelo para preguntas no triviales, cada uno con un alcance en un área diferente del código, y luego deja que el orquestador sintetice los resultados.

Cadena de alternativa: grok-code-fast-1opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Autoalojado: Junto con Librarian, Explore es el mejor punto de partida para inferencia local. Su trabajo es coincidencia de patrones e informes estructurados: el modelo no necesita razonamiento profundo, solo llamadas a herramientas rápidas y fiables y un seguimiento de instrucciones decente. Un modelo de código local pequeño (Qwen2.5-Coder-7B o similar) con alto rendimiento funciona bien.


Multimodal Looker

Propósito: Analista visual y “lector de diagramas”. Analiza imágenes y PDFs mediante un flujo de trabajo look_at.
Grupo: Ejecutor de utilidad (visión requerida)
Rol: Fuertemente restringido por herramientas (solo lectura) para prevenir efectos secundarios y mantenerlo puramente interpretativo. Se usa cuando necesitas alimentar capturas de pantalla de UI, diagramas de arquitectura o páginas de PDF en el flujo de trabajo.

Kimi K2.5 se destaca específicamente por su excelencia en comprensión multimodal; por eso se encuentra alto en esta cadena de alternativa.

Cadena de alternativa: openai/gpt-5.4opencode-go/kimi-k2.5zai-coding-plan/glm-4.6vgpt-5-nano
Autoalojado: La visión local requiere un modelo multimodal con llamadas a herramientas sólidas y suficiente contexto. Si tu pila local aún no está lista, mantén Multimodal Looker en un modelo en la nube: una tubería de visión local mal configurada produce basura silenciosa, no errores útiles.


Enrutamiento de modelos en Oh My Opencode: Cadenas de alternativa y prioridad del proveedor

Predeterminados por agente y el diseño “sin un modelo global único”

Oh My Opencode incluye predeterminados de modelo por agente y cadenas de alternativa, no un modelo global único. El diseño es deliberadamente opinado:

  • Explore y Librarian usan los modelos más baratos y rápidos porque no necesitan razonamiento profundo
  • Oracle y Momus usan los modelos de mayor capacidad porque sus salidas controlan la ejecución
  • Sisyphus y Prometheus obtienen los mejores modelos de clase orquestación por defecto

El nivel OpenCode Go (10 dólares/mes)

OpenCode Go es un nivel de suscripción que proporciona acceso fiable a modelos fronterizos chinos a través de la infraestructura de OpenCode. Aparece en medio de muchas cadenas de alternativa como puente entre proveedores nativos premium y alternativas de nivel gratuito.

Modelo vía OpenCode Go Utilizado por
opencode-go/kimi-k2.5 Sisyphus, Atlas, Sisyphus-Junior, Multimodal Looker
opencode-go/glm-5 Oracle, Prometheus, Metis, Momus
opencode-go/minimax-m2.5 Librarian, Explore

Si no tienes suscripciones de Anthropic o OpenAI, OpenCode Go más GitHub Copilot cubre la mayor parte de la cadena de alternativa a bajo costo.

Mapeos de proveedor para GitHub Copilot

Cuando GitHub Copilot es el mejor proveedor disponible, las asignaciones de agentes son:

Agente Modelo
Sisyphus github-copilot/claude-opus-4-6
Oracle github-copilot/gpt-5.4
Explore github-copilot/grok-code-fast-1
Librarian github-copilot/gemini-3-flash

Variantes de prompt que siguen familias de modelos

Si cambias un agente de Claude a GPT o Gemini, Oh My Opencode no usa el mismo prompt. Los agentes que soportan múltiples familias (Prometheus, Atlas) detectan automáticamente mediante isGptModel() y cambian. Los agentes que no soportan múltiples familias (Sisyphus, Hephaestus) tienen un solo prompt: si los cambias a la familia incorrecta, la salida se degrada.

Si las salidas de tu agente se sienten extrañas después de un cambio de modelo, verifica si cruzaste un límite de familia de modelos y revierte.


Ejecución de Oh My Opencode con modelos autoalojados y locales

Hay dos capas que configurar:

  1. OpenCode debe conocer tu proveedor local y los IDs de los modelos
  2. Oh My Opencode debe saber qué agente usa qué modelo (porque la mayoría de los agentes ignoran el modelo seleccionado en la UI por diseño)

Lo que puedes ejecutar localmente de forma realista hoy

Agente Viabilidad local Enfoque recomendado
Explore ✅ Excelente Cualquier modelo de código local rápido (Qwen2.5-Coder-7B+)
Librarian ✅ Excelente Cualquier modelo local rápido con llamadas a herramientas fiables
Sisyphus-Junior (categoría quick) ✅ Bueno Pequeño modelo de código para tareas rápidas
Atlas ⚠️ Viable Modelo de tamaño medio (13B+), contexto 32k+
Prometheus ⚠️ Viable Fuerte seguidor de instrucciones, contexto 64k+, baja temperatura
Metis ⚠️ Viable Capaz de razonamiento, mantener temperatura no cero
Momus ⚠️ Viable Capaz de razonamiento, temperatura muy baja
Sisyphus ⚠️ Parcial Solo para tareas simples de un solo agente; la orquestación multiagente necesita modelos de clase Claude
Oracle ❌ No recomendado Mantener en la nube; la brecha de calidad es significativa para consultas complejas
Hephaestus ❌ Sin ruta local Requiere GPT-5.3-codex; sin equivalente local o Claude

Paso 1 — Añadir un proveedor local a OpenCode

OpenCode soporta modelos locales y valores baseURL personalizados en la configuración del proveedor: Ollama, vLLM y cualquier endpoint compatible con OpenAI son opciones de primera clase. El Inicio rápido de OpenCode cubre la autenticación del proveedor en detalle.

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "qwen2.5-coder:7b": { "name": "qwen2.5-coder:7b" },
        "qwen2.5-coder:32b": { "name": "qwen2.5-coder:32b" }
      }
    }
  }
}

Para vLLM o LM Studio, el mismo patrón aplica: simplemente apunta baseURL al endpoint /v1 de tu servidor y enumera los modelos que tienes cargados.

OpenCode requiere al menos una ventana de contexto de 64k para los agentes de orquestación. Si es más pequeño, verás errores de truncamiento en medio del flujo de trabajo.

Paso 2 — Anular modelos de agentes en la configuración de Oh My Opencode

Ubicaciones de configuración (el proyecto tiene prioridad sobre el nivel de usuario):

  • .opencode/oh-my-opencode.jsonc (nivel de proyecto, mayor prioridad)
  • ~/.config/opencode/oh-my-opencode.jsonc (nivel de usuario)

Una configuración híbrida práctica: inferencia local para agentes de utilidad, nube para razonamiento:

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",

  "agents": {
    // Agentes de utilidad: un modelo local rápido es más que suficiente
    "explore":    { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },
    "librarian":  { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },

    // Sisyphus-Junior en modo rápido: local está bien
    // (controlado a través de categorías abajo)

    // Mantener los agentes de razonamiento en la nube
    "oracle":  { "model": "openai/gpt-5.4",          "variant": "high" },
    "momus":   { "model": "openai/gpt-5.4",          "variant": "xhigh" },
    // Hephaestus: no tocar — necesita GPT-5.3-codex, sin alternativa
  },

  "categories": {
    // Enrutar tareas generadas simples al modelo local
    "quick":   { "model": "ollama/qwen2.5-coder:7b" },
    "writing": { "model": "ollama/qwen2.5-coder:7b" },

    // Mantener el razonamiento pesado en la nube
    "deep":         { "model": "openai/gpt-5.3-codex", "variant": "medium" },
    "ultrabrain":   { "model": "openai/gpt-5.4",       "variant": "xhigh" }
  },

  "background_task": {
    "defaultConcurrency": 2,
    "providerConcurrency": {
      "ollama": 4,    // el endpoint local puede manejar más paralelismo
      "openai": 2,    // mantenerse dentro de los límites del plan
      "anthropic": 2
    },
    "modelConcurrency": {
      "ollama/qwen2.5-coder:7b": 4
    }
}

La alternativa consciente de costos al autoalojamiento completo

Antes de comprometerte con una configuración de GPU local, considera el stack OpenCode Go + Kimi for Coding. Por alrededor de 11 dólares al mes en total, cubre:

  • Kimi K2.5 para Sisyphus y Atlas (calidad de orquestación de clase Claude a bajo costo)
  • GLM-5 para Prometheus, Metis y Momus (razonamiento sólido, nivel gratuito disponible)
  • MiniMax M2.5 para Librarian y Explore (recuperación rápida)

Para la mayoría de las cargas de trabajo, esto es más barato que ejecutar un servidor de inferencia local y no requiere hardware de GPU.


Herramientas integradas de Oh My Opencode: Hashline, Init-Deep, Ralph Loop y MCPs

Hashline — herramienta de edición anclada por hash

Una de las mejoras más prácticas en Oh My Opencode es cómo maneja las ediciones de código. Cada línea que el agente lee regresa etiquetada con un hash de contenido:

11#VK| function hello() {
22#XJ|   return "world";
33#MB| }

Cuando el agente edita haciendo referencia a esas etiquetas, si el archivo cambió desde la última lectura, el hash no coincidirá y la edición será rechazada antes de la corrupción. Esto elimina toda la clase de errores de “línea obsoleta” donde los agentes confiadamente editan líneas que ya no existen. La tasa de éxito de Grok Code Fast en tareas de edición pasó del 6,7% al 68,3% solo por este cambio.

/init-deep — inyección de contexto jerárquica

Ejecuta /init-deep y Oh My Opencode generará archivos AGENTS.md en cada nivel relevante de tu árbol de proyecto:

project/
├── AGENTS.md              ← contexto del proyecto
├── src/
│   ├── AGENTS.md          ← contexto específico de src
│   └── components/
│       └── AGENTS.md      ← contexto específico del componente

Los agentes leen automáticamente el contexto relevante en su alcance. En lugar de cargar todo el repositorio en el contexto al inicio de cada ejecución, cada agente solo incorpora lo que es relevante para donde está trabajando.

Modo de planificación Prometheus — /start-work

Para tareas complejas, no solo escribas un prompt y esperes. Presiona Tab para entrar en modo Prometheus o usa /start-work. Prometheus te entrevista como un ingeniero real: identifica el alcance, hace visibles las ambigüedades y construye un plan verificado antes de que ningún agente de ejecución se ejecute. El estándar “Decisión Completa” significa que el plan deja cero decisiones al implementador.

Ralph Loop — /ulw-loop

Un bucle de ejecución autorreferencial que no se detiene hasta que la tarea está 100% completa. Úsalo para tareas grandes y multietapa donde quieres que el sistema se verifique a sí mismo y continúe sin tu participación. Es agresivo: asegúrate de que tus límites de concurrencia estén configurados antes de ejecutarlo en un proveedor de nube costoso.

MCPs integrados

Tres servidores MCP están preconfigurados y siempre activos:

  • Exa — búsqueda web
  • Context7 — búsqueda de documentación oficial
  • Grep.app — búsqueda de código en GitHub a través de repositorios públicos

No necesitas configurar estos. Están disponibles para todos los agentes por defecto.


Para resultados prácticos y benchmarks de la comunidad sobre cómo se desempeñan estos agentes en la práctica, consulta el artículo sobre la experiencia de Oh My Opencode. Para instalar el plugin desde cero, comienza con el Inicio rápido de Oh My Opencode.