En djupdykning och modellguide för Oh My Opencode:s specialiserade agenter
Möt Sisyphus och dess specialiserade agenter.
Det största kapacitetsspranget i OpenCode kommer från specialiserade agenter: en medveten separering av orkestrering, planering, exekvering och forskning.
Oh My Opencode packar in denna idé i ett “batteries-included”-härn där Sisyphus samordnar en fullständig “virtuell team” av agenter med olika behörigheter, prompts och modellpreferenser.

Detta är en djupdykning i agenter och modellruttning. Om du är tidigare i resan:
- OpenCode snabbstart — installera och konfigurera basagenten
- Oh My Opencode snabbstart — installera pluginet, kör din första ultrawork-uppgift
- Oh My Opencode upplevelse — resultat från verkligheten och community-benchmarks
För den bredare kontexten kring AI-kodverktygskedjan, se Översikt över AI-utvecklarkläder.
Vad är Oh My Opencode och hur utökar det OpenCode
OpenCode är en öppen källkods-AI-agent byggd för terminalen. Den levereras med en TUI, och CLI:n startar denna TUI som standard när du kör opencode utan argument. Den är flexibel när det gäller leverantörer: den stöder en stor katalog av leverantörer inklusive lokala modeller, exponerar leverantörskonfiguration genom sin konfigurationsfil och /connect-flöde, och hanterar allt från moln-API:er till Ollama-endpunkter utan patchning.
Oh My Opencode (även känt som oh-my-openagent, eller bara “omo”) är ett community-plugin som transformerar OpenCode till ett fullvärdigt multi-agent-ingeniörssystem. Det lägger till:
- Sisyphus-orkestreringssystemet med parallell bakgrundsexekvering
- 11 specialiserade agenter med distinkta roller, prompts anpassade per modellfamilj och explicita verktygsbehörigheter
- LSP + AST-Grep för IDE-kvalitet i omstrukturering inom agenter
- Hashline — ett hash-ankrat redigeringsverktyg som eliminerar fel på föråldrade rader (se nedan)
- Inbyggda MCP:er: Exa (webbsökning), Context7 (officiell dokumentation), Grep.app (GitHub-sökning), alla på som standard
/init-deep— genererar automatiskt hierarkiskaAGENTS.md-filer genom hela ditt projekt för smidig kontextinjektion
En namngivningstroll: den upstream-repository är nu varumärkesför oh-my-openagent, men plugin-paketet och installationskommandon använder fortfarande `oh-my-opencode**. Underhållaren föreslår att kalla det “oh-mo” eller bara “Sisyphus”.
Varför Oh My Opencode tilldelar olika modeller till olika agenter
Oh My Opencode bygger på en grundläggande idé: olika modeller tänker olika, och varje agents prompt är skriven för en mental modell. Claude följer mekanikdrivna prompts — detaljerade kontrollistor, mallar, steg-för-steg-procedurer. Mer regler betyder mer efterlevnad. GPT (särskilt 5.2+) följer principdrivna prompts — koncisa principer, XML-struktur, explicita beslutskriterier. Ge GPT en Claude-prompt på 1 100 rader och den motstrider sig själv. Ge Claude en GPT-prompt på 121 rader och den drifter.
Detta är inte en konstighet du konfigurerar dig runt. Det är systemets design.
Den praktiska konsekvensen: när du byter en agents modell, byter du vilken prompt som triggar. Agenter som stöder flera modellfamiljer (Prometheus, Atlas) upptäcker automatiskt din modell vid körning via isGptModel() och byter prompts automatiskt. Agenter som inte gör det (Sisyphus, Hephaestus) har prompts skrivna för en enda familj — och att byta dem till fel familj försämrar outputen betydligt.
Hur Oh My Opencode:s specialiserade agenter samarbetar
De fyra agentpersonlighetsgrupperna
Agenter delas in i fyra grupper baserat på vilken modellfamilj de är optimerade för. Detta är viktigt för både förståelse av systemet och för beslut om självhävning.
Grupp 1 — Kommunikatörer (Claude / Kimi / GLM): Sisyphus och Metis. Långa, mekanikdrivna prompts (~1 100 rader för Sisyphus). Behöver modeller som tillförlitligt följer komplexa, flerlagiga instruktioner över dussintals verktygsanrop. Claude Opus är referensen. Kimi K2.5 och GLM-5 är starka, kostnadseffektiva alternativ som beter sig liknande. Överskrid inte dessa till äldre GPT-modeller.
Grupp 2 — Dubbel-prompt (Claude föredras, GPT stöds): Prometheus och Atlas. Uptäcker automatiskt din modellfamilj vid körning och byter till lämplig prompt. Claude får den fulla mekanikdrivna versionen. GPT får en kompakt, principdriven version som uppnår samma resultat på ~121 rader. Säkert att använda vilken som helst; systemet hanterar växlingen.
Grupp 3 — GPT-inneboende (GPT-5.3-codex / GPT-5.4): Hephaestus, Oracle, Momus. Principdriven, autonom exekveringsstil. Deras prompts förutsätter målinriktat, oberoende resonemang — vilket är vad GPT är byggt för. Hephaestus har ingen fallback och kräver GPT-tillgång. Överskrid inte dessa till Claude; beteendet försämras.
Grupp 4 — Utförare för verktyg (hastighet framför intelligens): Explore, Librarian, Multimodal Looker. Gör grep, sökning och hämtning. Använder medvetet de snabbaste, billigaste modellerna tillgängliga. Att “uppgradera” Explore till Opus är att anlita en senioringenjör för att filiera pappersarbete. Dessa är också de bästa kandidaterna för byte till lokala modeller.
Delegationsmekanismer
Oh My Opencode använder två komplementära verktyg för delegation:
task()— kategori-baserad delegation: välj en kategori somvisual-engineeringellerdeep, injicera valfritt färdigheter, och kör valfritt i bakgrundencall_omo_agent()— direkt anrop av en specifik agent efter namn, kringgå kategori-ruttning
Båda stöder parallell bakgrundsexekvering, med konkurrens som tvingas per leverantör och per modell.
Kategorier är modellruttning-preset
När Sisyphus delegerar till en underagent, väljer den en kategori, inte ett modellnamn. Kategorin mappar automatiskt till rätt modell.
| Kategori | Vad det är för | Standardmodell |
|---|---|---|
visual-engineering |
Frontend, UI/UX, CSS, design | Gemini 3.1 Pro (hög) |
artistry |
Kreativt, nya tillvägagångssätt | Gemini 3.1 Pro → Claude Opus → GPT-5.4 |
ultrabrain |
Svår logik, arkitektoniska beslut | GPT-5.4 (xhög) → Gemini 3.1 Pro → Claude Opus |
deep |
Djup kodning, komplex multi-fil-logik | GPT-5.3 Codex → Claude Opus → Gemini 3.1 Pro |
unspecified-high |
Allmän komplex arbets | Claude Opus → GPT-5.4 (hög) → GLM-5 |
unspecified-low |
Allmän standardarbete | Claude Sonnet → GPT-5.3 Codex → Gemini Flash |
quick |
Enfiländringar, enkla uppgifter | Claude Haiku → Gemini Flash → GPT-5-Nano |
writing |
Text, dokumentation, prosa | Gemini Flash → Claude Sonnet |
Kategorier är rätt abstraktion även för självhävning: mappa en kategori till en lokal modell och varje uppgift ruttad till den kategorin använder den automatiskt.
Modelllösningens ordning
Agentförfrågan → Användaröverstyrning (om konfigurerad) → Fallback-kedja → Systemstandard
Leverantörsprioritet när samma modell är tillgänglig via flera leverantörer:
Native (anthropic/, openai/, google/) > Kimi for Coding > GitHub Copilot > Venice > OpenCode Go > Z.ai Coding Plan
Oh My Opencode Agenter: Full katalog med roller och modellkrav
Orkestratorer
Sisyphus
Syfte: Huvudorkestrator. Planerar, delegerar och driver uppgifter till slutföring genom aggressiv parallell exekvering.
Grupp: Kommunikatör (Claude / Kimi / GLM)
Roll: Teamledaren som samordnar över hela kodbasen — dess ~1 100-raders mekanikdrivna prompt behöver en modell som kan följa varje steg över dussintals verktygsanrop utan att tappa spåret.
⚠️ Överskrid aldrig Sisyphus till äldre GPT-modeller. GPT-5.4 har en dedikerad prompt-väg men är inte den rekommenderade standarden. Claude Opus är referensen.
Fallback-kedja: anthropic/claude-opus-4-6 (max) → opencode-go/kimi-k2.5 → k2p5 → gpt-5.4 → glm-5 → big-pickle
Självhävad: Sisyphus är den svåraste agenten att köra lokalt. Dess prompt-komplexitet gör den beroende av modeller med stark instruktionföljning över långa sekvenser av verktygsanrop. En lokal Qwen3-coder eller DeepSeek-Coder-V3 kan fungera för enkla uppgifter, men förvänta försämring på arbetsflöden som kräver multi-agent-samordning. Om du självhäv, testa med en enda-agent-uppgift innan du aktiverar parallell exekvering.
Atlas
Syfte: “Todo-lista-orkestrator.” Håller en strukturerad plan igång genom att tvinga igenom slutföring och sekvensering.
Grupp: Dubbel-prompt (Claude föredras, GPT stöds)
Roll: Medan Sisyphus hanterar helhetsbilden, driver Atlas kontrollistan. Uptäcker automatiskt din modellfamilj vid körning och byter prompts därefter.
Fallback-kedja: anthropic/claude-sonnet-4-6 → opencode-go/kimi-k2.5
Självhävad: En snabb, pålitlig lokal kodar-modell hanterar Atlas-stil “driva kontrollistan”-arbete anständigt väl eftersom uppgifterna är mer strukturerade än Sisyphus orkestrering. Qwen3-coder med 32k+ kontext är ett fungerande startpunkt.
Planeringsagenter
Planeringsskiktet tvingar “tänk innan agera”: kravinsamling, luckdetektering och plankritik sker alla innan någon exekveringsagent ser uppgiften.
Prometheus
Syfte: Strategisk planerare med en intervju-baserad arbetsflöde. Aktiveras när du trycker Tab eller kör /start-work.
Grupp: Dubbel-prompt (Claude föredras, GPT stöds)
Roll: Intervjuar dig som en riktig ingenjör — identifierar omfattning, uppenbarar tvetydigheter och producerar en verifierad plan innan en enda rad kod tas i bruk. GPT-versionen uppnår samma på ~121 rader; Claude-versionen använder ~1 100 rader över 7 filer.
Samverkar med: Metis (luckdetektering) och Momus (planvalidering) innan överlämning till exekvering.
Fallback-kedja: anthropic/claude-opus-4-6 (max) → openai/gpt-5.4 (hög) → opencode-go/glm-5 → google/gemini-3.1-pro
Självhävad: Fungerande med en stark instruktionföljande lokal modell vid låg temperatur. Planeringskvalitet försämras när modellen inte kan hålla dina begränsningar och acceptanskriterier i kontext över en lång, flervändsintervju. Minst 64k kontextfönster rekommenderas.
Metis
Syfte: För-planeringskonsult och luckanalysör. Kör vid högre temperatur än de flesta agenter för att uppmuntra kreativ luckdetektering.
Grupp: Kommunikatör (Claude föredras)
Roll: “Vad missade vi?"-granskare innan exekvering — inte en kodskrivande arbetare, men en del av plankvalitetskontrollberättelsen.
Samverkar med: Anropas av Prometheus innan planen är finaliserad.
Fallback-kedja: anthropic/claude-opus-4-6 (max) → opencode-go/glm-5 → k2p5
Självhävad: En lokal resonemansekapabel modell är bra. Håll temperaturen icke-noll om du vill att Metis faktiskt ska uppenbara gränsfall — sätt den till 0 och den blir en gummistämpel.
Momus
Syfte: Hårdnackad plangranskare. Tvingar igenom tydlighet och verifieringsstandarder. Kan fungera som en strikt “OK eller avvisa”-grind.
Grupp: GPT-inneboende
Roll: QA-inriktad kritiker för planer. Verktygsbegränsningar håller den i granskningsläge snarare än exekveringsläge.
Samverkar med: Används efter planskapning för att utmana genomförbarhet innan arbetet börjar.
Fallback-kedja: openai/gpt-5.4 (medium) → anthropic/claude-opus-4-6 (max) → google/gemini-3.1-pro (hög)
Självhävad: Om du självhäv, håll sampling mycket låg. Hela poängen med Momus är stabil, reproducerbar kritik — kreativitet är det sista du vill ha här. En stark lokal resonemansemodell vid temperatur 0.1 eller lägre är rätt konfiguration.
Arbetaragenter
Hephaestus
Syfte: Autonom djuparbetare. Ge den ett mål, inte ett recept.
Grupp: GPT-inneboende — GPT-5.3 Codex endast
Roll: Specialisten som stannar i rummet och kodar hela dagen. Utforskar kodbasen, forskar på mönster och exekverar från start till slut utan konstant övervakning. Underhållaren kallar den “Den legitima hantverkaren” (en medveten referens till Anthropic:s beslut att blockera OpenCode).
⚠️ Ingen fallback-kedja — kräver GPT-tillgång. Det finns ingen Claude-prompt för denna agent. Att köra den utan OpenAI eller GitHub Copilot innebär att den inte kan exekvera. “GPT-5.3-codex-spark” finns men rekommenderas explicit inte — den komprimerar kontext så aggressivt att Oh My Opencode:s kontexthantering bryter.
Fallback-kedja: openai/gpt-5.3-codex (medium) — ingen fallback
Självhävad: Det finns ingen genomförbar lokal ersättning för Hephaestus idag. Dess prompt är byggd kring GPT-Codex principdrivna, autonoma utforskande stil. Om du behöver en djuparbetare på en helt lokal stack, använd Sisyphus-Junior med kategorin deep istället (vilket ruttar till GPT-5.3 Codex, eller faller tillbaka till Claude Opus om det är vad du har).
Sisyphus-Junior
Syfte: Kategori-spawnad exekverare använd av delegationssystemet.
Grupp: Ärver från vilken kategori som startade den
Roll: Den “specialiserade entreprenören” som ärver sin modell från kategori-konfiguration. Skapas dynamiskt via task(), ofta med injicerade färdigheter, och kan köras i bakgrunden för parallellitet. Tänk på den som en tom platta vars kapacitet bestäms helt av vilken kategori du tilldelar.
Fallback-kedja: anthropic/claude-sonnet-4-6 (standard); ärver från startkategorin i praktiken
Självhävad: Sisyphus-Junior är det mest praktiska stället att börja självhävning. Mappa varje kategori till en lokal modell i oh-my-opencode.jsonc och varje kategori-spawnd uppgift använder den automatiskt. Börja med quick (enkla uppgifter), verifiera att det fungerar, sedan utöka till unspecified-low innan du rör något som ruttar till deep eller ultrabrain.
Specialiserade underagenter
Oracle
Syfte: Skrivskyddad konsultation för arkitektoniska beslut och komplex felsökning.
Grupp: GPT-inneboende
Roll: Senior arkitekt och “sista utväg”-felsökare. Medvetet begränsad från skrivning och delegationsverktyg så att outputen förblir rådgivande. Anropa Oracle efter stort arbete, efter upprepade misslyckanden, eller innan du gör ett högrisk arkitektoniskt beslut.
Fallback-kedja: openai/gpt-5.4 (hög) → google/gemini-3.1-pro (hög) → anthropic/claude-opus-4-6 (max)
Självhävad: Om du självhäv Oracle, välj din starkaste lokala resonemansemodell och håll sampling mycket låg. Skillnaden i outputkvalitet mellan en kapabel lokal resonemanse och GPT-5.4 är betydande för komplexa arkitekturfrågor. I en hybriduppsättning är Oracle en av agenterna som är värt att behålla på en molnmodell medan man flyttar verktygsarbete lokalt.
Librarian
Syfte: Extern dokumentation och öppen källkods-forskning.
Grupp: Verktygsutförare
Roll: Dokumentations- och bevisinsamlare. Verktygsbegränsningar förhindrar redigering, så den förblir fokuserad på källning och sammanfattning. Designad att köra parallellt med Explore för kombinerad “inom repo + utanför repo”-bevisinsamling.
Fallback-kedja: opencode-go/minimax-m2.5 → minimax-m2.5-free → claude-haiku-4-5 → gpt-5-nano
Självhävad: Den bästa agenten att flytta helt lokalt från dag ett. Librarian:s uppgift är hämtning och sammanfattning, inte djupt resonemang. Vilken lokal modell som helst med pålitlig verktygsanrop hanterar det väl. Även en 7B- eller 13B-modell är tillräcklig om den kan följa “sök, samla, rapportera”-mönstret utan att driva.
Explore
Syfte: Kontextuell grep och snabb kodbas-sökning.
Grupp: Verktygsutförare
Roll: Den “hitta relevanta filer och mönster”-agenten. Spara 10 av dessa parallellt för icke-triviala frågor, var och en begränsad till ett annat område av kodbasen, och låt sedan orkestratorn syntetisera resultaten.
Fallback-kedja: grok-code-fast-1 → opencode-go/minimax-m2.5 → minimax-m2.5-free → claude-haiku-4-5 → gpt-5-nano
Självhävad: Tillsammans med Librarian är Explore den bästa startpunkten för lokal inferens. Dess uppgift är mönstermatchning och strukturerad rapportering — modellen behöver inte djupt resonemang, bara snabb, pålitlig verktygsanrop och anständig instruktionföljning. En liten lokal kodar-modell (Qwen2.5-Coder-7B eller liknande) vid hög genomströmning fungerar väl.
Multimodal Looker
Syfte: Visionanalytiker och “diagramläsare”. Analyserar bilder och PDF:er via ett look_at-arbetsflöde.
Grupp: Verktygsutförare (vision krävs)
Roll: Kraftigt verktygsbegränsad (läsbar) för att förhindra biverkningar och hålla den rent tolkande. Används när du behöver mata in UI-skärmdumpar, arkitektur-diagram eller PDF-sidor i arbetsflödet.
Kimi K2.5 utmärks specifikt för att excellerar inom multimodal förståelse — det är därför den sitter högt i denna fallback-kedja.
Fallback-kedja: openai/gpt-5.4 → opencode-go/kimi-k2.5 → zai-coding-plan/glm-4.6v → gpt-5-nano
Självhävad: Lokal vision kräver en multimodal modell med solid verktygsanrop och tillräcklig kontext. Om din lokala stack inte är där än, behåll Multimodal Looker på en molnmodell — en felkonfigurerad lokal visionspipeline producerar tyst skräp, inte användbara fel.
Oh My Opencode Modellruttning: Fallback-kedjor och leverantörsprioritet
Per-agent-standarder och designen “ingen enskild global modell”
Oh My Opencode levereras med per-agent modellstandarder och fallback-kedjor, inte en enskild global modell. Designen är medvetet uppfattad:
- Explore och Librarian använder de billigaste, snabbaste modellerna eftersom de inte behöver djupt resonemang
- Oracle och Momus använder modellerna med högsta kapacitet eftersom deras output grindar exekvering
- Sisyphus och Prometheus får de bästa orkestrationsklassmodellerna som standard
OpenCode Go-nivån ($10/månad)
OpenCode Go är en prenumerationsnivå som ger pålitlig tillgång till kinesiska framkantmodeller genom OpenCode:s infrastruktur. Den dyker upp i mitten av många fallback-kedjor som en bro mellan premium-nativa leverantörer och gratis-nivåalternativ.
| Modell via OpenCode Go | Används av |
|---|---|
opencode-go/kimi-k2.5 |
Sisyphus, Atlas, Sisyphus-Junior, Multimodal Looker |
opencode-go/glm-5 |
Oracle, Prometheus, Metis, Momus |
opencode-go/minimax-m2.5 |
Librarian, Explore |
Om du inte har Anthropic- eller OpenAI-prenumerationer täcker OpenCode Go plus GitHub Copilot mestadels av fallback-kedjan till låg kostnad.
Leverantörsmappningar för GitHub Copilot
När GitHub Copilot är den bästa tillgängliga leverantören är agenttilldelningarna:
| Agent | Modell |
|---|---|
| Sisyphus | github-copilot/claude-opus-4-6 |
| Oracle | github-copilot/gpt-5.4 |
| Explore | github-copilot/grok-code-fast-1 |
| Librarian | github-copilot/gemini-3-flash |
Prompt-varianter spår modellfamiljer
Om du byter en agent från Claude till GPT eller Gemini använder Oh My Opencode inte samma prompt. Agenter som stöder flera familjer (Prometheus, Atlas) upptäcker automatiskt via isGptModel() och byter. Agenter som inte stöder flera familjer (Sisyphus, Hephaestus) har en prompt — byt dem till fel familj och outputen försämras.
Om din agent-output känns fel efter en modellbyte, kolla om du korsade en modellfamiljsgräns och ångra.
Kör Oh My Opencode med självhävda och lokala modeller
Det finns två lager att konfigurera:
- OpenCode måste veta om din lokala leverantör och modell-ID:er
- Oh My Opencode måste få veta vilken agent som använder vilken modell (eftersom de flesta agenter ignorerar din UI-valda modell av design)
Vad du realistiskt kan köra lokalt idag
| Agent | Lokal genomförbarhet | Rekommenderad metod |
|---|---|---|
| Explore | ✅ Utmärkt | Vilken snabb lokal kodar-modell som helst (Qwen2.5-Coder-7B+) |
| Librarian | ✅ Utmärkt | Vilken snabb lokal modell som helst med pålitlig verktygsanrop |
Sisyphus-Junior (quick-kategori) |
✅ Bra | Liten kodar-modell för snabba uppgifter |
| Atlas | ⚠️ Genomförbar | Mellanstor modell (13B+), 32k+ kontext |
| Prometheus | ⚠️ Genomförbar | Stark instruktionföljare, 64k+ kontext, låg temperatur |
| Metis | ⚠️ Genomförbar | Resonemansekapabel, håll temperaturen icke-noll |
| Momus | ⚠️ Genomförbar | Resonemansekapabel, mycket låg temperatur |
| Sisyphus | ⚠️ Delvis | Endast för enkla, enskilda agentuppgifter; multi-agent-orkestrering kräver Claude-klassmodeller |
| Oracle | ❌ Inte rekommenderat | Behåll på moln; kvalitetsgapet är betydande för komplexa frågor |
| Hephaestus | ❌ Ingen lokal väg | Kräver GPT-5.3-codex; ingen Claude- eller lokal motsvarighet |
Steg 1 — Lägg till en lokal leverantör i OpenCode
OpenCode stöder lokala modeller och anpassade baseURL-värden i leverantörskonfiguration — Ollama, vLLM och alla OpenAI-kompatibla endpunkter är förstaklass-alternativ. OpenCode snabbstart täcker leverantörsautentisering i detalj.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"qwen2.5-coder:7b": { "name": "qwen2.5-coder:7b" },
"qwen2.5-coder:32b": { "name": "qwen2.5-coder:32b" }
}
}
}
}
För vLLM eller LM Studio gäller samma mönster — peka bara baseURL mot din servers /v1-endpunkt och lista modellerna du har laddat.
OpenCode kräver minst ett 64k kontextfönster för orkestrationsagenter. Allt mindre och du kommer att se avkortningsfel mitt i arbetsflödet.
Steg 2 — Överstyr agentmodeller i Oh My Opencode-konfiguration
Konfigurationsplatser (projekt har företräde framför användarnivå):
.opencode/oh-my-opencode.jsonc(projektnivå, högsta prioritet)~/.config/opencode/oh-my-opencode.jsonc(användarnivå)
En praktisk hybridkonfiguration — lokal inferens för verktygsagenter, moln för resonemang:
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",
"agents": {
// Verktygsagenter: snabb lokal modell är mer än tillräcklig
"explore": { "model": "ollama/qwen2.5-coder:7b", "temperature": 0.1 },
"librarian": { "model": "ollama/qwen2.5-coder:7b", "temperature": 0.1 },
// Sisyphus-Junior i snabbläge: lokalt är bra
// (kontrolleras via kategorier nedan)
// Behåll resonemangsagenter på moln
"oracle": { "model": "openai/gpt-5.4", "variant": "high" },
"momus": { "model": "openai/gpt-5.4", "variant": "xhigh" },
// Hephaestus: rör inte — det behöver GPT-5.3-codex, ingen fallback
},
"categories": {
// Rutt enklare spawnda uppgifter till lokal modell
"quick": { "model": "ollama/qwen2.5-coder:7b" },
"writing": { "model": "ollama/qwen2.5-coder:7b" },
// Behåll tungt resonemang på moln
"deep": { "model": "openai/gpt-5.3-codex", "variant": "medium" },
"ultrabrain": { "model": "openai/gpt-5.4", "variant": "xhigh" }
},
"background_task": {
"defaultConcurrency": 2,
"providerConcurrency": {
"ollama": 4, // lokal endpunkt kan hantera mer parallellitet
"openai": 2, // stanna inom planbegränsningar
"anthropic": 2
},
"modelConcurrency": {
"ollama/qwen2.5-coder:7b": 4
}
}
}
Det kostnadskänsliga alternativet till full självhävning
Innan du förpliktar dig till en lokal GPU-uppsättning, överväg OpenCode Go + Kimi for Coding-stacken. För runt $11/månad totalt täcker det:
- Kimi K2.5 för Sisyphus och Atlas (Claude-klass orkestrationskvalitet till låg kostnad)
- GLM-5 för Prometheus, Metis och Momus (solidt resonemang, gratisnivå tillgänglig)
- MiniMax M2.5 för Librarian och Explore (snabb hämtning)
För de flesta arbetsbelastningar är detta billigare än att köra en lokal inferensserver och kräver ingen GPU-hårdvara.
Oh My Opencode Inbyggda Verktyg: Hashline, Init-Deep, Ralph Loop och MCP:er
Hashline — hash-ankrat redigeringsverktyg
En av de mest praktiska förbättringarna i Oh My Opencode är hur det hanterar kodredigering. Varje rad agenten läser kommer tillbaka taggad med ett innehållshash:
11#VK| function hello() {
22#XJ| return "world";
33#MB| }
När agenten redigerar genom att referera till dessa taggar, om filen ändrats sedan sista läsningen kommer hashen inte att matcha och redigeringen avvisas innan korruption. Detta eliminerar hela klassen av “föråldrad rad”-fel där agenter självsäkert redigerar rader som inte längre finns. Grok Code Fast:s framgångsgrad på redigeringsuppgifter gick från 6,7 % till 68,3 % enbart från denna förändring.
/init-deep — hierarkisk kontextinjektion
Kör /init-deep och Oh My Opencode genererar AGENTS.md-filer på varje relevant nivå i din projektträd:
project/
├── AGENTS.md ← projektbred kontext
├── src/
│ ├── AGENTS.md ← src-specifik kontext
│ └── components/
│ └── AGENTS.md ← komponentspecifik kontext
Agenter läser automatiskt relevant kontext inom sin räckvidd. Istället för att ladda hela reposet in i kontexten i början av varje kör, hämtar varje agent bara det som är relevant för där den arbetar.
Prometheus-planeringsläge — /start-work
För komplexa uppgifter, skriv inte bara en prompt och hoppas. Tryck Tab för att gå in i Prometheus-läge eller använd /start-work. Prometheus intervjuar dig som en riktig ingenjör: identifierar omfattning, uppenbarar tvetydigheter, bygger en verifierad plan innan någon exekveringsagent kör. Standarden “Beslut komplett” innebär att planen lämnar noll beslut kvar för implementeraren.
Ralph Loop — /ulw-loop
En självreferererande exekveringsloop som inte stannar förrän uppgiften är 100 % komplett. Använd detta för stora, flera-stegs uppgifter där du vill att systemet ska självverifiera och fortsätta utan din inblandning. Det är aggressivt — se till att dina konkurrensbegränsningar är inställda innan du kör det på en dyr molnleverantör.
Inbyggda MCP:er
Tre MCP-servrar är förkonfigurerade och alltid på:
- Exa — webbsökning
- Context7 — officiell dokumentationssökning
- Grep.app — GitHub-kodsökning över publika repositories
Du behöver inte konfigurera dessa. De är tillgängliga för alla agenter som standard.
För hands-on resultat och community-benchmarks på hur dessa agenter presterar i praktiken, se Oh My Opencode-upplevelseartikeln. För att installera pluginet från grunden, börja med Oh My Opencode snabbstart.