Approfondimento e guida ai modelli per gli agenti specializzati di Oh My Opencode

Conoscete Sisyphus e il suo team di agenti specialisti.

Indice

Il salto di capacità più significativo in OpenCode deriva dagli agenti specializzati: una separazione deliberata tra orchestrazione, pianificazione, esecuzione e ricerca.

Oh My Opencode incapsula questa idea in un framework “tutto incluso”, dove Sisyphus coordina un intero “team virtuale” di agenti con permessi, prompt e preferenze di modello diversi.

oh my opencode agents

Questa è un’analisi approfondita degli agenti e del routing dei modelli. Se sei all’inizio del percorso:

Per un contesto più ampio sulla catena di strumenti di coding AI, consulta la panoramica sugli strumenti per sviluppatori AI.

Cos’è Oh My Opencode e come estende OpenCode

OpenCode è un agente AI per il coding open-source progettato per il terminale. Viene fornito con un TUI (interfaccia testuale), e la CLI avvia questo TUI di default quando esegui opencode senza argomenti. È flessibile rispetto al provider: supporta un ampio catalogo di provider inclusi i modelli locali, espone la configurazione del provider tramite il suo file di configurazione e il flusso /connect, e gestisce tutto dalle API cloud fino agli endpoint Ollama senza necessità di patch.

Oh My Opencode (noto anche come oh-my-openagent, o semplicemente “omo”) è un plugin della comunità che trasforma OpenCode in un completo sistema di ingegneria multi-agente. Aggiunge:

  • il sistema di orchestrazione Sisyphus con esecuzione parallela in background
  • 11 agenti specializzati con ruoli distinti, prompt ottimizzati per famiglia di modello e permessi degli strumenti espliciti
  • LSP + AST-Grep per il refactoring di qualità IDE all’interno degli agenti
  • Hashline — uno strumento di modifica ancorato a hash che elimina gli errori di righe obsolete (vedi sotto)
  • MCP integrati: Exa (ricerca web), Context7 (documentazione ufficiale), Grep.app (ricerca GitHub), tutti abilitati di default
  • /init-deep — genera automaticamente file AGENTS.md gerarchici in tutto il progetto per un’iniezione del contesto efficiente

Una curiosa particolarità del nome: il repository upstream è ora marchiato come oh-my-openagent, ma il pacchetto del plugin e i comandi di installazione utilizzano ancora oh-my-opencode. Il mantenitore suggerisce di chiamarlo “oh-mo” o semplicemente “Sisyphus”.

Perché Oh My Opencode assegna modelli diversi a diversi agenti

Oh My Opencode è costruito attorno a un’idea fondamentale: i modelli diversi pensano in modo diverso, e il prompt di ogni agente è scritto per un unico modello mentale. Claude segue prompt guidati dalla meccanica — checklists dettagliate, template, procedure passo-passo. Più regole significano più conformità. GPT (specialmente 5.2+) segue prompt guidati da principi — principi concisi, struttura XML, criteri decisionali espliciti. Se dai a GPT un prompt per Claude di 1.100 righe, si contraddice. Se dai a Claude un prompt per GPT di 121 righe, si perde.

Non è una peculiarità su cui puoi configurare un workaround. È il design del sistema.

La conseguenza pratica: quando cambi il modello di un agente, cambi quale prompt viene attivato. Gli agenti che supportano più famiglie di modelli (Prometheus, Atlas) rilevano automaticamente il tuo modello a runtime tramite isGptModel() e cambiano il prompt automaticamente. Gli agenti che non lo supportano (Sisyphus, Hephaestus) hanno prompt scritti per una sola famiglia — e cambiarli con la famiglia sbagliata degrada significativamente l’output.

Come gli agenti specializzati di Oh My Opencode collaborano

I quattro gruppi di personalità degli agenti

Gli agenti si dividono in quattro gruppi in base alla famiglia di modello per cui sono ottimizzati. Questo è importante sia per comprendere il sistema sia per le decisioni sull’auto-ospitamento (self-hosting).

Gruppo 1 — Comunicatori (Claude / Kimi / GLM): Sisyphus e Metis. Prompt lunghi guidati dalla meccanica (~1.100 righe per Sisyphus). Hanno bisogno di modelli che seguano in modo affidabile istruzioni complesse e multistrato attraverso decine di chiamate a strumenti. Claude Opus è il riferimento. Kimi K2.5 e GLM-5 sono alternative potenti ed economiche che si comportano in modo simile. Non sovrascrivere questi con vecchi modelli GPT.

Gruppo 2 — Dual-Prompt (Claude preferito, GPT supportato): Prometheus e Atlas. Rilevano automaticamente la tua famiglia di modello a runtime e passano al prompt appropriato. Claude riceve la versione completa guidata dalla meccanica. GPT riceve una versione compatta guidata da principi che ottiene lo stesso risultato in ~121 righe. Sicuro da usare entrambi; il sistema gestisce il passaggio.

Gruppo 3 — GPT-Native (GPT-5.3-codex / GPT-5.4): Hephaestus, Oracle, Momus. Stile di esecuzione autonomo guidato da principi. I loro prompt presuppongono un ragionamento indipendente e orientato agli obiettivi — per cui GPT è progettato. Hephaestus non ha fallback e richiede accesso a GPT. Non sovrascrivere questi con Claude; il comportamento si degrada.

Gruppo 4 — Utility Runners (velocità sopra l’intelligenza): Explore, Librarian, Multimodal Looker. Eseguono grep, ricerca e recupero. Utilizzano intenzionalmente i modelli più veloci ed economici disponibili. “Migliorare” Explore con Opus è come assumere un ingegnere senior per fare la burocrazia. Questi sono anche i migliori candidati per la sostituzione con modelli locali.

Meccanismi di delega

Oh My Opencode utilizza due strumenti complementari per la delega:

  • task()delega basata su categoria: scegli una categoria come visual-engineering o deep, inietta opzionalmente delle competenze ed esegui opzionalmente in background
  • call_omo_agent()invocazione diretta di un agente specifico per nome, bypassando il routing per categoria

Entrambi supportano l’esecuzione parallela in background, con la concorrenza applicata per provider e per modello.

Le categorie sono preset di routing dei modelli

Quando Sisyphus delega a un sotto-agente, sceglie una categoria, non un nome di modello. La categoria mappa automaticamente al modello corretto.

Categoria A cosa serve Modello predefinito
visual-engineering Frontend, UI/UX, CSS, design Gemini 3.1 Pro (high)
artistry Approcci creativi e innovativi Gemini 3.1 Pro → Claude Opus → GPT-5.4
ultrabrain Logica complessa, decisioni architetturali GPT-5.4 (xhigh) → Gemini 3.1 Pro → Claude Opus
deep Coding profondo, logica complessa multi-file GPT-5.3 Codex → Claude Opus → Gemini 3.1 Pro
unspecified-high Lavoro complesso generico Claude Opus → GPT-5.4 (high) → GLM-5
unspecified-low Lavoro standard generico Claude Sonnet → GPT-5.3 Codex → Gemini Flash
quick Modifiche single-file, task semplici Claude Haiku → Gemini Flash → GPT-5-Nano
writing Testo, documentazione, prosa Gemini Flash → Claude Sonnet

Le categorie sono l’astrazione corretta anche per l’auto-ospitamento: mappa una categoria a un modello locale e ogni task instradato a quella categoria lo utilizzerà automaticamente.

Ordine di risoluzione del modello

Richiesta Agente → Sovrascrittione Utente (se configurato) → Catena Fallback → Default di Sistema

Priorità del provider quando lo stesso modello è disponibile attraverso più provider:

Nativo (anthropic/, openai/, google/) > Kimi for Coding > GitHub Copilot > Venice > OpenCode Go > Z.ai Coding Plan

Oh My Opencode Agents: Catalogo Completo con Ruoli e Requisiti di Modello

Orchestratori

Sisyphus

Scopo: Orchestratore principale. Pianifica, delega e porta i task a termine attraverso un’esecuzione parallela aggressiva.
Gruppo: Comunicatore (Claude / Kimi / GLM)
Ruolo: Il team leader che coordina su tutto il codice — il suo prompt guidato dalla meccanica di ~1.100 righe ha bisogno di un modello che possa seguire ogni passaggio attraverso decine di chiamate a strumenti senza perdere il filo.

⚠️ Non sovrascrivere mai Sisyphus con vecchi modelli GPT. GPT-5.4 ha un percorso di prompt dedicato ma non è il default raccomandato. Claude Opus è il riferimento.

Catena di fallback: anthropic/claude-opus-4-6 (max) → opencode-go/kimi-k2.5k2p5gpt-5.4glm-5big-pickle
Auto-ospitato: Sisyphus è l’agente più difficile da eseguire localmente. La complessità del suo prompt lo rende dipendente da modelli con un forte follow-up delle istruzioni su sequenze lunghe di chiamate a strumenti. Un modello locale Qwen3-coder o DeepSeek-Coder-V3 potrebbe funzionare per task semplici, ma aspettati un degrado su workflow che richiedono coordinamento multi-agente. Se lo auto-ospiti, testa con un task single-agent prima di abilitare l’esecuzione parallela.


Atlas

Scopo: “Orchestratore della lista di cose da fare.” Mantiene un piano strutturato in movimento imponendo il completamento e la sequenza.
Gruppo: Dual-prompt (Claude preferito, GPT supportato)
Ruolo: Mentre Sisyphus gestisce la visione d’insieme, Atlas guida la checklist. Rileva automaticamente la tua famiglia di modello a runtime e cambia i prompt di conseguenza.

Catena di fallback: anthropic/claude-sonnet-4-6opencode-go/kimi-k2.5
Auto-ospitato: Un modello di coding locale veloce e affidabile gestisce ragionevolmente bene il lavoro “guida la checklist” stile Atlas perché i task sono più strutturati rispetto all’orchestrazione di Sisyphus. Qwen3-coder con contesto 32k+ è un punto di partenza fattibile.


Agenti di pianificazione

Lo strato di pianificazione impone “pensa prima di agire”: raccolta dei requisiti, rilevamento delle lacune e critica del piano avvengono tutti prima che qualsiasi agente di esecuzione veda il task.

Prometheus

Scopo: Pianificatore strategico con un flusso di lavoro stile intervista. Si attiva quando premi Tab o esegui /start-work.
Gruppo: Dual-prompt (Claude preferito, GPT supportato)
Ruolo: Ti intervista come un vero ingegnere — identifica la portata, evidenzia ambiguità e produce un piano verificato prima che una singola riga di codice venga toccata. La versione GPT raggiunge lo stesso risultato in ~121 righe; la versione Claude utilizza ~1.100 righe su 7 file.
Collabora con: Metis (rilevamento lacune) e Momus (validazione piano) prima di passare l’esecuzione.

Catena di fallback: anthropic/claude-opus-4-6 (max) → openai/gpt-5.4 (high) → opencode-go/glm-5google/gemini-3.1-pro
Auto-ospitato: Fattibile con un modello locale forte nel follow-up delle istruzioni a temperatura bassa. La qualità della pianificazione si degrada quando il modello non riesce a mantenere i vincoli e i criteri di accettazione in contesto durante un lungo intervista multi-turno. Finestra di contesto minima di 64k consigliata.


Metis

Scopo: Consulente pre-pianificazione e analista delle lacune. Esegue a una temperatura più alta rispetto alla maggior parte degli agenti per incoraggiare un rilevamento creativo delle lacune.
Gruppo: Comunicatore (Claude preferito)
Ruolo: Recensore “cosa ci siamo persi?” prima dell’esecuzione — non è un operatore di scrittura codice, ma fa parte della storia di controllo qualità del piano.
Collabora con: Invocato da Prometheus prima che il piano venga finalizzato.

Catena di fallback: anthropic/claude-opus-4-6 (max) → opencode-go/glm-5k2p5
Auto-ospitato: Un modello locale con capacità di ragionamento va bene. Mantieni la temperatura diversa da zero se vuoi che Metis evidenzi effettivamente i casi limite — impostala a 0 e diventa un mero timbro di approvazione.


Momus

Scopo: Recensore del piano spietato. Impone chiarezza e standard di verifica. Può operare come un gate rigoroso “OK o rigetta”.
Gruppo: GPT-nativo
Ruolo: Critico con mentalità QA per i piani. Le restrizioni degli strumenti lo mantengono in modalità revisione piuttosto che esecuzione.
Collabora con: Usato dopo la creazione del piano per mettere in discussione la fattibilità prima che inizi il lavoro.

Catena di fallback: openai/gpt-5.4 (medium) → anthropic/claude-opus-4-6 (max) → google/gemini-3.1-pro (high)
Auto-ospitato: Se lo auto-ospiti, mantieni il campionamento molto basso. Tutto il punto di Momus è una critica stabile e riproducibile — la creatività è l’ultima cosa che vuoi qui. Un modello locale di ragionamento forte a temperatura 0.1 o inferiore è la configurazione corretta.


Agenti operativi

Hephaestus

Scopo: Operatore autonomo profondo. Dagli un obiettivo, non una ricetta.
Gruppo: GPT-nativo — solo GPT-5.3 Codex
Ruolo: Lo specialista che rimane nella sua stanza a programmare tutto il giorno. Esplora il codice, ricerca pattern ed esegue end-to-end senza supervisione costante. Il mantenitore lo chiama “l’Artigiano Legittimo” (un riferimento deliberato alla decisione di Anthropic di bloccare OpenCode).

⚠️ Nessuna catena di fallback — richiede accesso a GPT. Non esiste un prompt per Claude per questo agente. Esecutarlo senza OpenAI o GitHub Copilot significa che non può eseguire. “GPT-5.3-codex-spark” esiste ma è esplicitamente non raccomandato — compatta il contesto in modo così aggressivo che la gestione del contesto di Oh My Opencode si rompe.

Catena di fallback: openai/gpt-5.3-codex (medium) — nessun fallback
Auto-ospitato: Non esiste una sostituzione locale valida per Hephaestus oggi. Il suo prompt è costruito attorno allo stile di esplorazione autonoma e guidata da principi di GPT-Codex. Se hai bisogno di un operatore profondo su uno stack completamente locale, usa Sisyphus-Junior con la categoria deep invece (che instrada a GPT-5.3 Codex, o fa fallback a Claude Opus se è quello che hai).


Sisyphus-Junior

Scopo: Esecutore generato per categoria usato dal sistema di delega.
Gruppo: Eredita da qualsiasi categoria lo abbia lanciato
Ruolo: Il “contratto specialista” che eredita il suo modello dalla configurazione della categoria. Creato dinamicamente tramite task(), spesso con competenze iniettate, e può essere eseguito in background per il parallelismo. Pensalo come un operatore in bianco la cui capacità è determinata interamente da quale categoria gli assegni.

Catena di fallback: anthropic/claude-sonnet-4-6 (default); eredita dalla categoria che lo lancia nella pratica
Auto-ospitato: Sisyphus-Junior è il punto più pratico per iniziare l’auto-ospitamento. Mappa ogni categoria a un modello locale in oh-my-opencode.jsonc e ogni task generato per categoria lo userà automaticamente. Inizia con quick (task semplici), verifica che funzioni, poi espandi a unspecified-low prima di toccare qualsiasi cosa che instrada a deep o ultrabrain.


Sotto-agenti specialisti

Oracle

Scopo: Consultazione in sola lettura per decisioni architetturali e debug complesso.
Gruppo: GPT-nativo
Ruolo: Architetto senior e debug “ultima risorsa”. Intenzionalmente limitato dalla scrittura e dagli strumenti di delega in modo che il suo output rimanga consultivo. Chiama Oracle dopo lavori importanti, dopo ripetuti fallimenti o prima di prendere una decisione architetturale ad alto rischio.

Catena di fallback: openai/gpt-5.4 (high) → google/gemini-3.1-pro (high) → anthropic/claude-opus-4-6 (max)
Auto-ospitato: Se auto-ospiti Oracle, scegli il tuo modello di ragionamento locale più forte e mantieni il campionamento molto basso. La differenza di qualità dell’output tra un ragionatore locale capace e GPT-5.4 è significativa per domande architetturali complesse. In una configurazione ibrida, Oracle è uno degli agenti che vale la pena mantenere su un modello cloud mentre si sposta il lavoro utility in locale.


Librarian

Scopo: Documenti esterni e ricerca open-source.
Gruppo: Utility runner
Ruolo: Collettore di documentazione ed evidenze. Le restrizioni degli strumenti impediscono la modifica, quindi rimane focalizzato sulla ricerca e sul riassunto. Progettato per eseguire in parallelo con Explore per una raccolta di evidenze combinata “dentro il repo + fuori dal repo”.

Catena di fallback: opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Auto-ospitato: Il miglior agente da spostare completamente in locale fin dal primo giorno. Il lavoro di Librarian è recupero e riassunto, non ragionamento profondo. Qualsiasi modello locale con chiamate a strumenti affidabili gestisce bene. Anche un modello 7B o 13B è sufficiente se può seguire il pattern “cerca, raccogli, riporta” senza deviare.


Explore

Scopo: Grep contestuale e ricerca rapida del codice.
Gruppo: Utility runner
Ruolo: L’agente “trovami i file e i pattern rilevanti”. Esegui 10 di questi in parallelo per domande non banali, ciascuno limitato a un’area diversa del codice, poi lascia che l’orchestratore sintetizzi i risultati.

Catena di fallback: grok-code-fast-1opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Auto-ospitato: Insieme a Librarian, Explore è il miglior punto di partenza per l’inferenza locale. Il suo lavoro è il matching di pattern e la reporting strutturata — il modello non ha bisogno di ragionamento profondo, solo chiamate a strumenti veloci e affidabili e un buon follow-up delle istruzioni. Un piccolo modello di coding locale (Qwen2.5-Coder-7B o simile) ad alto throughput funziona bene.


Multimodal Looker

Scopo: Analista visivo e “lettore di diagrammi”. Analizza immagini e PDF tramite un flusso di lavoro look_at.
Gruppo: Utility runner (visione richiesta)
Ruolo: Fortemente limitato dagli strumenti (sola lettura) per prevenire effetti collaterali e mantenerlo puramente interpretativo. Usato quando hai bisogno di alimentare screenshot UI, diagrammi architetturali o pagine PDF nel flusso di lavoro.

Kimi K2.5 è specificamente citato come eccellente nella comprensione multimodale — ecco perché si trova in alto in questa catena di fallback.

Catena di fallback: openai/gpt-5.4opencode-go/kimi-k2.5zai-coding-plan/glm-4.6vgpt-5-nano
Auto-ospitato: La visione locale richiede un modello multimodale con solide chiamate a strumenti e sufficiente contesto. Se il tuo stack locale non è ancora pronto, mantieni Multimodal Looker su un modello cloud — un pipeline di visione locale mal configurato produce spazzatura silenziosa, non errori utili.


Oh My Opencode Model Routing: Catene Fallback e Priorità del Provider

Predefiniti per agente e design “nessun singolo modello globale”

Oh My Opencode viene fornito con modelli predefiniti e catene di fallback per agente, non un singolo modello globale. Il design è deliberatamente opinato:

  • Explore e Librarian usano i modelli più economici e veloci perché non hanno bisogno di ragionamento profondo
  • Oracle e Momus usano i modelli a più alta capacità perché i loro output bloccano l’esecuzione
  • Sisyphus e Prometheus ottengono di default i migliori modelli di classe orchestrazione

Il livello OpenCode Go ($10/mese)

OpenCode Go è un livello di abbonamento che fornisce accesso affidabile ai modelli frontiera cinesi attraverso l’infrastruttura di OpenCode. Appare nel mezzo di molte catene di fallback come un ponte tra provider nativi premium e alternative free-tier.

Modello tramite OpenCode Go Usato da
opencode-go/kimi-k2.5 Sisyphus, Atlas, Sisyphus-Junior, Multimodal Looker
opencode-go/glm-5 Oracle, Prometheus, Metis, Momus
opencode-go/minimax-m2.5 Librarian, Explore

Se non hai abbonamenti Anthropic o OpenAI, OpenCode Go più GitHub Copilot copre la maggior parte della catena di fallback a basso costo.

Mappature del provider per GitHub Copilot

Quando GitHub Copilot è il provider migliore disponibile, le assegnazioni degli agenti sono:

Agente Modello
Sisyphus github-copilot/claude-opus-4-6
Oracle github-copilot/gpt-5.4
Explore github-copilot/grok-code-fast-1
Librarian github-copilot/gemini-3-flash

Le varianti di prompt seguono le famiglie di modelli

Se cambi un agente da Claude a GPT o Gemini, Oh My Opencode non usa lo stesso prompt. Gli agenti che supportano più famiglie (Prometheus, Atlas) rilevano automaticamente tramite isGptModel() e cambiano. Gli agenti che non supportano più famiglie (Sisyphus, Hephaestus) hanno un solo prompt — cambiali con la famiglia sbagliata e l’output si degrada.

Se l’output del tuo agente sembra strano dopo un cambio di modello, controlla se hai superato un confine di famiglia di modelli e reverti.


Esecuzione di Oh My Opencode con modelli auto-ospitati e locali

Ci sono due livelli da configurare:

  1. OpenCode deve conoscere il tuo provider locale e gli ID dei modelli
  2. Oh My Opencode deve essere detto quale agente usa quale modello (perché la maggior parte degli agenti ignora il modello selezionato nell’UI per design)

Cosa puoi realisticamente eseguire localmente oggi

Agente Fattibilità locale Approccio raccomandato
Explore ✅ Eccellente Qualsiasi modello di coding locale veloce (Qwen2.5-Coder-7B+)
Librarian ✅ Eccellente Qualsiasi modello locale veloce con chiamate a strumenti affidabili
Sisyphus-Junior (categoria quick) ✅ Buono Modello di coding piccolo per task rapidi
Atlas ⚠️ Fattibile Modello di dimensione media (13B+), contesto 32k+
Prometheus ⚠️ Fattibile Seguitore di istruzioni forte, contesto 64k+, temperatura bassa
Metis ⚠️ Fattibile Capacità di ragionamento, mantieni temperatura non-zero
Momus ⚠️ Fattibile Capacità di ragionamento, temperatura molto bassa
Sisyphus ⚠️ Parziale Solo per task single-agent semplici; l’orchestrazione multi-agente ha bisogno di modelli di classe Claude
Oracle ❌ Non raccomandato Mantieni sul cloud; il divario di qualità è significativo per query complesse
Hephaestus ❌ Nessun percorso locale Richiede GPT-5.3-codex; nessun equivalente locale o Claude

Passo 1 — Aggiungi un provider locale a OpenCode

OpenCode supporta modelli locali e valori personalizzati baseURL nella configurazione del provider — Ollama, vLLM e qualsiasi endpoint compatibile con OpenAI sono opzioni di prima classe. La OpenCode quickstart copre l’autenticazione del provider in dettaglio.

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "qwen2.5-coder:7b": { "name": "qwen2.5-coder:7b" },
        "qwen2.5-coder:32b": { "name": "qwen2.5-coder:32b" }
      }
    }
  }
}

Per vLLM o LM Studio, lo stesso pattern si applica — punta semplicemente baseURL all’endpoint /v1 del tuo server ed elenca i modelli che hai caricato.

OpenCode richiede almeno una finestra di contesto di 64k per gli agenti di orchestrazione. Qualsiasi cosa più piccola e vedrai errori di troncamento a metà del flusso di lavoro.

Passo 2 — Sovrascrivi i modelli degli agenti nella configurazione di Oh My Opencode

Posizioni della configurazione (il progetto ha la precedenza su quello dell’utente):

  • .opencode/oh-my-opencode.jsonc (livello progetto, priorità più alta)
  • ~/.config/opencode/oh-my-opencode.jsonc (livello utente)

Una configurazione ibrida pratica — inferenza locale per agenti utility, cloud per il ragionamento:

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",

  "agents": {
    // Agenti utility: un modello locale veloce è più che sufficiente
    "explore":    { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },
    "librarian":  { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },

    // Sisyphus-Junior in modalità quick: locale va bene
    // (controllato tramite categorie qui sotto)

    // Mantieni gli agenti di ragionamento sul cloud
    "oracle":  { "model": "openai/gpt-5.4",          "variant": "high" },
    "momus":   { "model": "openai/gpt-5.4",          "variant": "xhigh" },
    // Hephaestus: non toccare — ha bisogno di GPT-5.3-codex, nessun fallback
  },

  "categories": {
    // Instrada task generati semplici a modello locale
    "quick":   { "model": "ollama/qwen2.5-coder:7b" },
    "writing": { "model": "ollama/qwen2.5-coder:7b" },

    // Mantieni il ragionamento pesante sul cloud
    "deep":         { "model": "openai/gpt-5.3-codex", "variant": "medium" },
    "ultrabrain":   { "model": "openai/gpt-5.4",       "variant": "xhigh" }
  },

  "background_task": {
    "defaultConcurrency": 2,
    "providerConcurrency": {
      "ollama": 4,    // endpoint locale può gestire più parallelismo
      "openai": 2,    // rimani dentro i limiti del piano
      "anthropic": 2
    },
    "modelConcurrency": {
      "ollama/qwen2.5-coder:7b": 4
    }
  }
}

L’alternativa attenta ai costi rispetto al self-hosting completo

Prima di impegnarsi in un setup GPU locale, considera lo stack OpenCode Go + Kimi for Coding. Con circa $11/mese totali, copre:

  • Kimi K2.5 per Sisyphus e Atlas (qualità di orchestrazione di classe Claude a basso costo)
  • GLM-5 per Prometheus, Metis e Momus (ragionamento solido, tier gratuito disponibile)
  • MiniMax M2.5 per Librarian e Explore (recupero veloce)

Per la maggior parte dei carichi di lavoro, questo è più economico rispetto all’esecuzione di un server di inferenza locale e non richiede hardware GPU.


Strumenti Integrati di Oh My Opencode: Hashline, Init-Deep, Ralph Loop e MCP

Hashline — strumento di modifica ancorato a hash

Uno dei miglioramenti più pratici in Oh My Opencode è come gestisce le modifiche al codice. Ogni riga che l’agente legge torna contrassegnata con un hash del contenuto:

11#VK| function hello() {
22#XJ|   return "world";
33#MB| }

Quando l’agente modifica facendo riferimento a quei tag, se il file è cambiato dall’ultima lettura l’hash non corrisponderà e la modifica verrà rifiutata prima della corruzione. Questo elimina tutta la classe di errori “riga obsoleta” dove gli agenti modificano con sicurezza righe che non esistono più. Il tasso di successo di Grok Code Fast sui task di modifica è passato dal 6,7% al 68,3% solo grazie a questo cambiamento.

/init-deep — iniezione di contesto gerarchica

Esegui /init-deep e Oh My Opencode genera file AGENTS.md a ogni livello rilevante dell’albero del tuo progetto:

project/
├── AGENTS.md              ← contesto globale del progetto
├── src/
│   ├── AGENTS.md          ← contesto specifico di src
│   └── components/
│       └── AGENTS.md      ← contesto specifico del componente

Gli agenti leggono automaticamente il contesto rilevante al loro ambito. Invece di caricare l’intero repo nel contesto all’inizio di ogni esecuzione, ogni agente inserisce solo ciò che è rilevante per dove sta lavorando.

Modalità di pianificazione Prometheus — /start-work

Per task complessi, non limitarti a digitare un prompt e sperare. Premi Tab per entrare nella modalità Prometheus o usa /start-work. Prometheus ti intervista come un vero ingegnere: identifica la portata, evidenzia ambiguità e costruisce un piano verificato prima che qualsiasi agente di esecuzione venga lanciato. Lo standard “Decisione Completata” significa che il piano lascia zero decisioni all’implementatore.

Ralph Loop — /ulw-loop

Un ciclo di esecuzione auto-riferenziale che non si ferma finché il task non è completo al 100%. Usa questo per task grandi e multi-step dove vuoi che il sistema si verifichi e continui senza il tuo coinvolgimento. È aggressivo — assicurati che i limiti di concorrenza siano impostati prima di eseguirlo su un provider cloud costoso.

MCP Integrati

Tre server MCP sono preconfigurati e sempre attivi:

  • Exa — ricerca web
  • Context7 — ricerca documentazione ufficiale
  • Grep.app — ricerca codice GitHub attraverso repository pubblici

Non hai bisogno di configurarli. Sono disponibili per tutti gli agenti di default.


Per risultati pratici e benchmark della comunità su come questi agenti si comportano nella pratica, vedi l’articolo sull’esperienza Oh My Opencode. Per installare il plugin da zero, inizia con la OpenCode quickstart.