Specialisierte Agents von Oh My Opencode: Tiefenanalyse und Modellübersicht
Lernen Sie Sisyphus und sein Team spezialisierten Agenten kennen.
Der größte Sprung in den Fähigkeiten von OpenCode stammt von spezialisierten Agenten: einer bewussten Trennung von Orchestrierung, Planung, Ausführung und Recherche.
Oh My Opencode verpackt diese Idee in einen „Alles-in-Einem"-Rahmen, in dem Sisyphus ein komplettes „virtuelles Team" aus Agenten mit unterschiedlichen Berechtigungen, Prompts und Modellpräferenzen koordiniert.

Dies ist die tiefgehende Untersuchung von Agenten und Modell-Routing. Wenn Sie sich noch zu Beginn der Reise befinden:
- OpenCode-Schnellstart — Installation und Konfiguration des Basisagenten
- Oh My Opencode-Schnellstart — Plugin installieren und Ihre erste Ultrawork-Aufgabe ausführen
- Oh My Opencode-Erfahrung — reale Ergebnisse und Community-Benchmarks
Für den breiteren Kontext der KI-Entwickler-Toolchain siehe den Überblick über KI-Entwickler-Tools.
Was ist Oh My Opencode und wie erweitert es OpenCode
OpenCode ist ein Open-Source-KI-Coding-Agent, der für die Terminalumgebung entwickelt wurde. Er wird mit einer TUI (Textbenutzeroberfläche) geliefert, und die CLI startet diese TUI standardmäßig, wenn Sie opencode ohne Argumente ausführen. Er ist anbieterflexibel: Er unterstützt ein großes Katalog von Anbietern, einschließlich lokaler Modelle, stellt die Anbieterkonfiguration über seine Konfigurationsdatei und den /connect-Workflow bereit und bewältigt alles von Cloud-APIs bis zu Ollama-Endpunkten ohne Patches.
Oh My Opencode (auch bekannt als oh-my-openagent oder einfach „omo") ist ein Community-Plugin, das OpenCode in ein vollständiges Multi-Agent-Ingenieur-System verwandelt. Es fügt hinzu:
- das Sisyphus-Orchestrierungssystem mit paralleler Hintergrundausführung
- 11 spezialisierte Agenten mit unterschiedlichen Rollen, pro Modellfamilie optimierten Prompts und expliziten Werkzeugberechtigungen
- LSP + AST-Grep für Refactoring in IDE-Qualität innerhalb der Agenten
- Hashline — ein hash-verankertes Bearbeitungswerkzeug, das Fehler durch veraltete Zeilen eliminiert (siehe unten)
- Eingebaute MCPs: Exa (Web-Suche), Context7 (offizielle Dokumentation), Grep.app (GitHub-Suche), alle standardmäßig aktiviert
/init-deep— generiert automatisch hierarchischeAGENTS.md-Dateien im gesamten Projekt für schlanke Kontextinjektion
Eine namentliche Kuriosität: Das Upstream-Repository wird jetzt als oh-my-openagent vermarktet, aber das Plugin-Paket und die Installationsbefehle verwenden weiterhin oh-my-opencode. Der Maintainer schlägt vor, es „oh-mo" oder einfach „Sisyphus" zu nennen.
Warum Oh My Opencode verschiedenen Agenten verschiedene Modelle zuweist
Oh My Opencode basiert auf einer grundlegenden Idee: verschiedene Modelle denken unterschiedlich, und jeder Agent-Prompt ist für ein mentales Modell geschrieben. Claude folgt mechanikgesteuerten Prompts — detaillierte Checklisten, Vorlagen, Schritt-für-Schritt-Verfahren. Mehr Regeln bedeuten mehr Compliance. GPT (insbesondere 5.2+) folgt prinzipienbasierten Prompts — prägnante Prinzipien, XML-Struktur, explizite Entscheidungskriterien. Geben Sie GPT einen 1.100 Zeilen langen Claude-Prompt, und es widerspricht sich selbst. Geben Sie Claude einen 121 Zeilen langen GPT-Prompt, und er driftet ab.
Dies ist keine Kuriosität, um die herum Sie konfigurieren können. Es ist das Design des Systems.
Die praktische Konsequenz: Wenn Sie das Modell eines Agenten ändern, ändern Sie auch den ausgelösten Prompt. Agenten, die mehrere Modellfamilien unterstützen (Prometheus, Atlas), erkennen das Modell zur Laufzeit über isGptModel() und wechseln die Prompts automatisch. Agenten, die das nicht tun (Sisyphus, Hephaestus), haben Prompts, die nur für eine Familie geschrieben sind — und der Wechsel zu der falschen Familie verschlechtert die Ausgabe erheblich.
Wie die spezialisierten Agenten von Oh My Opencode zusammenarbeiten
Die vier Agenten-Persönlichkeitsgruppen
Agenten fallen in vier Gruppen, basierend auf der Modellfamilie, für die sie optimiert sind. Das ist sowohl für das Verständnis des Systems als auch für Entscheidungen zur Self-Hosting wichtig.
Gruppe 1 — Kommunikatoren (Claude / Kimi / GLM): Sisyphus und Metis. Lange, mechanikgesteuerte Prompts (~1.100 Zeilen für Sisyphus). Benötigen Modelle, die komplexe, mehrschichtige Anweisungen über Dutzende von Werkzeugaufrufen zuverlässig befolgen. Claude Opus ist der Referenzstandard. Kimi K2.5 und GLM-5 sind starke, kosteneffiziente Alternativen, die ähnlich agieren. Wechseln Sie diese nicht auf ältere GPT-Modelle.
Gruppe 2 — Dual-Prompt (Claude bevorzugt, GPT unterstützt): Prometheus und Atlas. Erkennt die Modellfamilie zur Laufzeit automatisch und wechselt zum passenden Prompt. Claude erhält die vollständige, mechanikgesteuerte Version. GPT erhält eine kompakte, prinzipienbasierte Version, die das gleiche Ergebnis in ~121 Zeilen erzielt. Es ist sicher, entweder zu verwenden; das System übernimmt den Wechsel.
Gruppe 3 — GPT-Nativ (GPT-5.3-codex / GPT-5.4): Hephaestus, Oracle, Momus. Prinzipienbasierte, autonome Ausführungsart. Ihre Prompts setzen zielorientiertes, unabhängiges Denken voraus — wofür GPT gebaut ist. Hephaestus hat kein Fallback und erfordert GPT-Zugriff. Wechseln Sie diese nicht auf Claude; das Verhalten verschlechtert sich.
Gruppe 4 — Utility-Läufer (Geschwindigkeit vor Intelligenz): Explore, Librarian, Multimodal Looker. Führen Grep, Suche und Abruf durch. Nutzen absichtlich die schnellsten und günstigsten verfügbaren Modelle. „Upgrade" von Explore auf Opus ist wie die Einstellung eines Senior-Engineers für Papierkram. Dies sind auch die besten Kandidaten für den Ersatz durch lokale Modelle.
Delegierungsmechanismen
Oh My Opencode verwendet zwei komplementäre Werkzeuge für die Delegation:
task()— kategoriebasierte Delegation: Wählen Sie eine Kategorie wievisual-engineeringoderdeep, injizieren Sie optional Fähigkeiten und führen Sie optional im Hintergrund auscall_omo_agent()— direkte Aufruf eines spezifischen Agenten nach Name, unter Umgehung der Kategorien-Routing
Beide unterstützen parallele Hintergrundausführung, wobei die Parallelität pro Anbieter und pro Modell erzwungen wird.
Kategorien sind Modell-Routing-Voreinstellungen
Wenn Sisyphus an einen Subagenten delegiert, wählt er eine Kategorie, keinen Modellnamen. Die Kategorie wird automatisch dem richtigen Modell zugeordnet.
| Kategorie | Wofür | Standardmodell |
|---|---|---|
visual-engineering |
Frontend, UI/UX, CSS, Design | Gemini 3.1 Pro (hoch) |
artistry |
Kreative, neuartige Ansätze | Gemini 3.1 Pro → Claude Opus → GPT-5.4 |
ultrabrain |
Schwierige Logik, Architekturentscheidungen | GPT-5.4 (xhoch) → Gemini 3.1 Pro → Claude Opus |
deep |
Tiefes Coding, komplexe Logik über mehrere Dateien | GPT-5.3 Codex → Claude Opus → Gemini 3.1 Pro |
unspecified-high |
Allgemeine komplexe Arbeit | Claude Opus → GPT-5.4 (hoch) → GLM-5 |
unspecified-low |
Allgemeine Standardarbeit | Claude Sonnet → GPT-5.3 Codex → Gemini Flash |
quick |
Änderungen an einzelnen Dateien, einfache Aufgaben | Claude Haiku → Gemini Flash → GPT-5-Nano |
writing |
Text, Dokumentation, Prosa | Gemini Flash → Claude Sonnet |
Kategorien sind auch die richtige Abstraktion für Self-Hosting: Ordnen Sie einer Kategorie ein lokales Modell zu, und jede Aufgabe, die an diese Kategorie geroutet wird, verwendet es automatisch.
Modell-Auflösungsreihenfolge
Agentenanfrage → Benutzer-Override (wenn konfiguriert) → Fallback-Kette → System-Standard
Anbieterpriorität, wenn dasselbe Modell über mehrere Anbieter verfügbar ist:
Native (anthropic/, openai/, google/) > Kimi for Coding > GitHub Copilot > Venice > OpenCode Go > Z.ai Coding Plan
Oh My Opencode-Agenten: Vollständiger Katalog mit Rollen und Modellanforderungen
Orchestrierer
Sisyphus
Zweck: Hauptorchestrierer. Plant, delegiert und treibt Aufgaben durch aggressive parallele Ausführung zur Vollendung.
Gruppe: Kommunikator (Claude / Kimi / GLM)
Rolle: Der Teamleiter, der über den gesamten Code koordiniert — sein ~1.100 Zeilen langer, mechanikgestueter Prompt benötigt ein Modell, das jeden Schritt über Dutzende von Werkzeugaufrufen verfolgen kann, ohne den Faden zu verlieren.
⚠️ Wechseln Sie Sisyphus niemals auf ältere GPT-Modelle. GPT-5.4 hat einen eigenen Prompt-Pfad, ist aber nicht die empfohlene Standardwahl. Claude Opus ist der Referenzstandard.
Fallback-Kette: anthropic/claude-opus-4-6 (max) → opencode-go/kimi-k2.5 → k2p5 → gpt-5.4 → glm-5 → big-pickle
Self-Hosted: Sisyphus ist der schwierigste Agent, um lokal auszuführen. Seine Prompt-Komplexität macht ihn abhängig von Modellen mit starker Befolgung von Anweisungen über lange Werkzeugaufruf-Folgen. Ein lokales Qwen3-coder oder DeepSeek-Coder-V3 kann für einfache Aufgaben funktionieren, aber erwarten Sie Verschlechterungen bei Workflows, die Multi-Agenten-Koordination erfordern. Wenn Sie selbst hosten, testen Sie zuerst mit einer Ein-Agenten-Aufgabe, bevor Sie die parallele Ausführung aktivieren.
Atlas
Zweck: „Todo-Listen-Orchestrator." Behält einen strukturierten Plan am Leben, indem er Vollendung und Sequenzierung durchsetzt.
Gruppe: Dual-Prompt (Claude bevorzugt, GPT unterstützt)
Rolle: Während Sisyphus das große Ganze im Blick hat, treibt Atlas die Checkliste voran. Erkennt die Modellfamilie zur Laufzeit automatisch und wechselt die Prompts entsprechend.
Fallback-Kette: anthropic/claude-sonnet-4-6 → opencode-go/kimi-k2.5
Self-Hosted: Ein schnelles, zuverlässiges lokales Coder-Modell bewältigt Atlas-typische „Checkliste vorantreiben"-Arbeit recht gut, da die Aufgaben strukturierter sind als die Orchestrierung von Sisyphus. Qwen3-coder mit 32k+ Kontext ist ein machbarer Ausgangspunkt.
Planungsagenten
Die Planungsebene erzwingt „Denken vor Handeln": Erfassung der Anforderungen, Erkennung von Lücken und Kritik am Plan geschehen alles, bevor ein Ausführungsagent die Aufgabe sieht.
Prometheus
Zweck: Strategischer Planer mit einem interviewartigen Workflow. Aktiviert, wenn Sie Tab drücken oder /start-work ausführen.
Gruppe: Dual-Prompt (Claude bevorzugt, GPT unterstützt)
Rolle: Interviewt Sie wie ein echter Ingenieur — identifiziert den Umfang, macht Unklarheiten sichtbar und erstellt einen verifizierten Plan, bevor eine einzige Zeile Code berührt wird. Die GPT-Version erzielt das Gleiche in ~121 Zeilen; die Claude-Version verwendet ~1.100 Zeilen über 7 Dateien.
Zusammenarbeit mit: Metis (Lückenerkennung) und Momus (Planvalidierung), bevor die Übergabe an die Ausführung erfolgt.
Fallback-Kette: anthropic/claude-opus-4-6 (max) → openai/gpt-5.4 (hoch) → opencode-go/glm-5 → google/gemini-3.1-pro
Self-Hosted: Machbar mit einem lokalen Modell mit starker Befolgung von Anweisungen bei niedriger Temperatur. Die Planungsqualität verschlechtert sich, wenn das Modell Ihre Einschränkungen und Akzeptanzkriterien nicht im Kontext über ein langes, mehrstufiges Interview halten kann. Ein Kontextfenster von mindestens 64k wird empfohlen.
Metis
Zweck: Berater vor der Planung und Lückenanalyst. Läuft bei einer höheren Temperatur als die meisten Agenten, um kreative Lückenerkennung zu fördern.
Gruppe: Kommunikator (Claude bevorzugt)
Rolle: „Was haben wir übersehen?"-Rezensent vor der Ausführung — kein Code-Schreib-Arbeiter, aber Teil der Qualitätskontrolle für den Plan.
Zusammenarbeit mit: Wird von Prometheus aufgerufen, bevor der Plan finalisiert ist.
Fallback-Kette: anthropic/claude-opus-4-6 (max) → opencode-go/glm-5 → k2p5
Self-Hosted: Ein lokales Modell mit Reasoning-Fähigkeiten ist in Ordnung. Halten Sie die Temperatur nicht null, wenn Sie Metis tatsächlich dazu bringen wollen, Randfälle aufzudecken — setzen Sie sie auf 0, und es wird zum Stempel.
Momus
Zweck: Hartnäckiger Plan-Rezensent. Erzwingt Klarheit und Verifizierungsstandards. Kann als strenger „OK oder ablehnen"-Gatekeeper agieren.
Gruppe: GPT-Nativ
Rolle: QA-orientierter Kritiker für Pläne. Werkzeugbeschränkungen halten ihn im Revisionsmodus statt im Ausführungsmodus.
Zusammenarbeit mit: Wird nach der Planerstellung verwendet, um die Machbarkeit zu hinterfragen, bevor die Arbeit beginnt.
Fallback-Kette: openai/gpt-5.4 (mittel) → anthropic/claude-opus-4-6 (max) → google/gemini-3.1-pro (hoch)
Self-Hosted: Wenn Sie selbst hosten, halten Sie das Sampling sehr niedrig. Der gesamte Sinn von Momus ist eine stabile, reproduzierbare Kritik — Kreativität ist das Letzte, was Sie hier wollen. Ein starkes lokales Reasoning-Modell bei Temperatur 0.1 oder niedriger ist die richtige Konfiguration.
Arbeitsagenten
Hephaestus
Zweck: Autonomer Tiefenarbeiter. Geben Sie ihm ein Ziel, kein Rezept.
Gruppe: GPT-Nativ — Nur GPT-5.3 Codex
Rolle: Der Spezialist, der den ganzen Tag in seinem Raum codiert. Erforscht den Code, recherchiert Muster und führt End-to-End aus, ohne ständige Aufsicht. Der Maintainer nennt ihn „den legitimen Handwerker" (ein absichtlicher Verweis auf die Entscheidung von Anthropic, OpenCode zu blockieren).
⚠️ Keine Fallback-Kette — erfordert GPT-Zugriff. Es gibt keinen Claude-Prompt für diesen Agenten. Ohne OpenAI oder GitHub Copilot kann er nicht ausgeführt werden. „GPT-5.3-codex-spark" existiert, wird aber ausdrücklich nicht empfohlen — es komprimiert den Kontext so aggressiv, dass das Kontextmanagement von Oh My Opencode zusammenbricht.
Fallback-Kette: openai/gpt-5.3-codex (mittel) — kein Fallback
Self-Hosted: Es gibt derzeit keinen lebensfähigen lokalen Ersatz für Hephaestus. Sein Prompt ist um den prinzipienbasierten, autonomen Explorationsstil von GPT-Codex herum aufgebaut. Wenn Sie einen Tiefenarbeiter auf einem vollständig lokalen Stack benötigen, verwenden Sie stattdessen Sisyphus-Junior mit der Kategorie deep (was zu GPT-5.3 Codex führt oder bei Bedarf auf Claude Opus zurückfällt).
Sisyphus-Junior
Zweck: Kategorie-gespawnter Ausführender, der vom Delegierungssystem verwendet wird.
Gruppe: Erbt von der Kategorie, die ihn gestartet hat
Rolle: Der „spezialisierte Auftragnehmer", der sein Modell aus der Kategorienkonfiguration erbt. Dynamisch über task() erstellt, oft mit injizierten Fähigkeiten, und kann im Hintergrund für Parallelität ausgeführt werden. Denken Sie daran als eine leere Schreibtafel, deren Fähigkeit ausschließlich durch die Kategorie bestimmt wird, der Sie sie zuweisen.
Fallback-Kette: anthropic/claude-sonnet-4-6 (Standard); erbt in der Praxis von der startenden Kategorie
Self-Hosted: Sisyphus-Junior ist der praktikabelste Ort, um mit Self-Hosting zu beginnen. Ordnen Sie jede Kategorie in oh-my-opencode.jsonc einem lokalen Modell zu, und jede kategorie-gespawnte Aufgabe verwendet es automatisch. Beginnen Sie mit quick (einfache Aufgaben), überprüfen Sie, ob es funktioniert, und erweitern Sie dann auf unspecified-low, bevor Sie irgendetwas berühren, das zu deep oder ultrabrain geroutet wird.
Spezialisierte Subagenten
Oracle
Zweck: Read-only-Beratung für Architekturentscheidungen und komplexes Debugging.
Gruppe: GPT-Nativ
Rolle: Senior-Architekt und „letzte Instanz"-Debugger. Absichtlich von Schreib- und Delegierungswerkzeugen ausgeschlossen, damit seine Ausgabe beratend bleibt. Rufen Sie Oracle nach großen Arbeiten, nach wiederholten Fehlern oder vor einer hochriskanten Architekturentscheidung auf.
Fallback-Kette: openai/gpt-5.4 (hoch) → google/gemini-3.1-pro (hoch) → anthropic/claude-opus-4-6 (max)
Self-Hosted: Wenn Sie Oracle selbst hosten, wählen Sie Ihr stärkstes lokales Reasoning-Modell und halten Sie das Sampling sehr niedrig. Der Qualitätsunterschied zwischen einem fähigen lokalen Reasoner und GPT-5.4 ist bei komplexen Architekturfragen signifikant. In einer Hybrid-Umgebung ist Oracle einer der Agenten, die auf einem Cloud-Modell bleiben sollten, während Utility-Arbeit lokal verlagert wird.
Librarian
Zweck: Externe Dokumente und Open-Source-Recherche.
Gruppe: Utility-Läufer
Rolle: Dokumentations- und Beweissammler. Werkzeugbeschränkungen verhindern Bearbeiten, sodass es sich auf die Beschaffung und Zusammenfassung konzentriert. Entwickelt, um parallel mit Explore zu laufen, um kombinierte „im Repo + außerhalb des Repo"-Beweissammlung zu ermöglichen.
Fallback-Kette: opencode-go/minimax-m2.5 → minimax-m2.5-free → claude-haiku-4-5 → gpt-5-nano
Self-Hosted: Der beste Agent, um am ersten Tag vollständig lokal zu bewegen. Die Aufgabe von Librarian ist Abruf und Zusammenfassung, kein tiefes Reasoning. Jedes lokale Modell mit zuverlässigem Werkzeugaufruf bewältigt dies gut. Selbst ein 7B- oder 13B-Modell reicht aus, wenn es das Muster „suchen, sammeln, berichten" befolgen kann, ohne abzudriften.
Explore
Zweck: Kontextueller Grep und schnelle Code-Suche.
Gruppe: Utility-Läufer
Rolle: Der „finde mir die relevanten Dateien und Muster"-Agent. Führen Sie 10 davon parallel für nicht-triviale Fragen aus, jede auf einen anderen Bereich des Code-Repositories begrenzt, und lassen Sie den Orchestrierer die Ergebnisse synthetisieren.
Fallback-Kette: grok-code-fast-1 → opencode-go/minimax-m2.5 → minimax-m2.5-free → claude-haiku-4-5 → gpt-5-nano
Self-Hosted: Zusammen mit Librarian ist Explore der beste Ausgangspunkt für lokale Inferenz. Seine Aufgabe ist Mustervergleich und strukturierter Bericht — das Modell benötigt kein tiefes Reasoning, nur schnellen, zuverlässigen Werkzeugaufruf und ordentliche Befolgung von Anweisungen. Ein kleines lokales Coder-Modell (Qwen2.5-Coder-7B oder ähnlich) mit hoher Durchsatzrate funktioniert gut.
Multimodal Looker
Zweck: Visuelle Analystin und „Diagramm-Leser". Analysiert Bilder und PDFs über einen look_at-Workflow.
Gruppe: Utility-Läufer (Vision erforderlich)
Rolle: Stark werkzeugbeschränkt (read-only), um Seiteneffekte zu verhindern und ihn rein interpretativ zu halten. Wird verwendet, wenn Sie UI-Screenshots, Architekturdigramme oder PDF-Seiten in den Workflow einspeisen müssen.
Kimi K2.5 wird speziell als hervorragend im multimodalen Verständnis hervorgehoben — deshalb sitzt es hoch in dieser Fallback-Kette.
Fallback-Kette: openai/gpt-5.4 → opencode-go/kimi-k2.5 → zai-coding-plan/glm-4.6v → gpt-5-nano
Self-Hosted: Lokale Vision erfordert ein multimodales Modell mit solidem Werkzeugaufruf und genug Kontext. Wenn Ihr lokaler Stack noch nicht soweit ist, behalten Sie Multimodal Looker auf einem Cloud-Modell — eine falsch konfigurierte lokale Vision-Pipeline produziert stilles Müll, keine nützlichen Fehler.
Oh My Opencode Modell-Routing: Fallback-Ketten und Anbieterpriorität
Standardwerte pro Agent und das Design „kein einziges globales Modell"
Oh My Opencode wird mit Standardwerten pro Agent und Fallback-Ketten ausgeliefert, nicht mit einem einzigen globalen Modell. Das Design ist bewusst meinungsstark:
- Explore und Librarian verwenden die günstigsten, schnellsten Modelle, da sie kein tiefes Reasoning benötigen
- Oracle und Momus verwenden die leistungsstärksten Modelle, da ihre Ausgaben die Ausführung kontrollieren
- Sisyphus und Prometheus erhalten standardmäßig die besten Modelle der Orchestrierungsklasse
Die OpenCode Go-Stufe ($10/Monat)
OpenCode Go ist ein Abonnementstufen, die zuverlässigen Zugriff auf chinesische Frontier-Modelle über die OpenCode-Infrastruktur bietet. Es erscheint in der Mitte vieler Fallback-Ketten als Brücke zwischen Premium-Native-Anbietern und Free-Tier-Alternativen.
| Modell über OpenCode Go | Verwendet von |
|---|---|
opencode-go/kimi-k2.5 |
Sisyphus, Atlas, Sisyphus-Junior, Multimodal Looker |
opencode-go/glm-5 |
Oracle, Prometheus, Metis, Momus |
opencode-go/minimax-m2.5 |
Librarian, Explore |
Wenn Sie keine Anthropic- oder OpenAI-Abonnements haben, deckt OpenCode Go plus GitHub Copilot den größten Teil der Fallback-Kette zu niedrigen Kosten ab.
Anbieterzuordnungen für GitHub Copilot
Wenn GitHub Copilot der beste verfügbare Anbieter ist, lauten die Agentenzuordnungen:
| Agent | Modell |
|---|---|
| Sisyphus | github-copilot/claude-opus-4-6 |
| Oracle | github-copilot/gpt-5.4 |
| Explore | github-copilot/grok-code-fast-1 |
| Librarian | github-copilot/gemini-3-flash |
Prompt-Varianten verfolgen Modellfamilien
Wenn Sie einen Agenten von Claude auf GPT oder Gemini wechseln, verwendet Oh My Opencode nicht denselben Prompt. Agenten, die mehrere Familien unterstützen (Prometheus, Atlas), erkennen dies über isGptModel() automatisch und wechseln. Agenten, die mehrere Familien nicht unterstützen (Sisyphus, Hephaestus), haben einen einzigen Prompt — wechseln Sie sie auf die falsche Familie, und die Ausgabe verschlechtert sich.
Wenn sich Ihre Agentenausgaben nach einem Modellwechsel seltsam anfühlen, prüfen Sie, ob Sie eine Modellgrenze überschritten haben, und kehren Sie zurück.
Oh My Opencode mit Self-Hosted und lokalen Modellen ausführen
Es gibt zwei Ebenen zu konfigurieren:
- OpenCode muss über Ihren lokalen Anbieter und Modell-IDs Bescheid wissen
- Oh My Opencode muss mitgeteilt werden, welcher Agent welches Modell verwendet (da die meisten Agenten Ihr UI-ausgewähltes Modell aus Designgründen ignorieren)
Was Sie heute realistisch lokal ausführen können
| Agent | Lokale Machbarkeit | Empfohlener Ansatz |
|---|---|---|
| Explore | ✅ Ausgezeichnet | Jedes schnelle lokale Coder-Modell (Qwen2.5-Coder-7B+) |
| Librarian | ✅ Ausgezeichnet | Jedes schnelle lokale Modell mit zuverlässigem Werkzeugaufruf |
Sisyphus-Junior (quick-Kategorie) |
✅ Gut | Kleines Coder-Modell für schnelle Aufgaben |
| Atlas | ⚠️ Machbar | Modell mittlerer Größe (13B+), 32k+ Kontext |
| Prometheus | ⚠️ Machbar | Starker Befolgung von Anweisungen, 64k+ Kontext, niedrige Temperatur |
| Metis | ⚠️ Machbar | Reasoning-fähig, Temperatur nicht null halten |
| Momus | ⚠️ Machbar | Reasoning-fähig, sehr niedrige Temperatur |
| Sisyphus | ⚠️ Teilweise | Nur für einfache Ein-Agenten-Aufgaben; Multi-Agenten-Orchestrierung benötigt Claude-Klassen-Modelle |
| Oracle | ❌ Nicht empfohlen | In der Cloud behalten; Qualitätslücke ist bei komplexen Abfragen signifikant |
| Hephaestus | ❌ Kein lokaler Pfad | Erfordert GPT-5.3-codex; kein Claude- oder lokales Äquivalent |
Schritt 1 — Einen lokalen Anbieter zu OpenCode hinzufügen
OpenCode unterstützt lokale Modelle und benutzerdefinierte baseURL-Werte in der Anbieterkonfiguration — Ollama, vLLM und jedes OpenAI-kompatible Endpunkt sind First-Class-Optionen. Der OpenCode-Schnellstart behandelt die Anbieterauthentifizierung im Detail.
{
"$schema": "https://opencode.ai/config.json",
"provider": {
"ollama": {
"npm": "@ai-sdk/openai-compatible",
"name": "Ollama",
"options": {
"baseURL": "http://localhost:11434/v1"
},
"models": {
"qwen2.5-coder:7b": { "name": "qwen2.5-coder:7b" },
"qwen2.5-coder:32b": { "name": "qwen2.5-coder:32b" }
}
}
}
}
Für vLLM oder LM Studio gilt dasselbe Muster — zeigen Sie einfach baseURL auf das /v1-Endpunkt Ihres Servers und listen Sie die geladenen Modelle auf.
OpenCode erfordert mindestens ein 64k-Kontextfenster für Orchestrierungsagenten. Alles kleinere führt zu Truncations-Fehlern mitten im Workflow.
Schritt 2 — Agentenmodelle in der Oh My Opencode-Konfiguration überschreiben
Konfigurationsorte (Projekt hat Vorrang vor Benutzerebene):
.opencode/oh-my-opencode.jsonc(Projektebene, höchste Priorität)~/.config/opencode/oh-my-opencode.jsonc(Benutzerebene)
Eine praktische Hybrid-Konfiguration — lokale Inferenz für Utility-Agenten, Cloud für Reasoning:
{
"$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",
"agents": {
// Utility-Agenten: schnelles lokales Modell ist mehr als genug
"explore": { "model": "ollama/qwen2.5-coder:7b", "temperature": 0.1 },
"librarian": { "model": "ollama/qwen2.5-coder:7b", "temperature": 0.1 },
// Sisyphus-Junior im Quick-Modus: lokal ist in Ordnung
// (gesteuert über Kategorien unten)
// Reasoning-Agenten in der Cloud behalten
"oracle": { "model": "openai/gpt-5.4", "variant": "high" },
"momus": { "model": "openai/gpt-5.4", "variant": "xhigh" },
// Hephaestus: nicht anfassen — benötigt GPT-5.3-codex, kein Fallback
},
"categories": {
// Einfache gespawnte Aufgaben an lokales Modell routen
"quick": { "model": "ollama/qwen2.5-coder:7b" },
"writing": { "model": "ollama/qwen2.5-coder:7b" },
// Schwere Reasoning-Arbeit in der Cloud behalten
"deep": { "model": "openai/gpt-5.3-codex", "variant": "medium" },
"ultrabrain": { "model": "openai/gpt-5.4", "variant": "xhigh" }
},
"background_task": {
"defaultConcurrency": 2,
"providerConcurrency": {
"ollama": 4, // lokales Endpunkt kann mehr Parallelität bewältigen
"openai": 2, // innerhalb der Planlimits bleiben
"anthropic": 2
},
"modelConcurrency": {
"ollama/qwen2.5-coder:7b": 4
}
}
}
Die kostengünstige Alternative zum vollständigen Self-Hosting
Bevor Sie sich auf eine lokale GPU-Umgebung festlegen, erwägen Sie den OpenCode Go + Kimi for Coding-Stack. Bei rund 11 $ pro Monat deckt er ab:
- Kimi K2.5 für Sisyphus und Atlas (Orchestrierungsqualität auf Claude-Niveau zu niedrigen Kosten)
- GLM-5 für Prometheus, Metis und Momus (solides Reasoning, Free-Tier verfügbar)
- MiniMax M2.5 für Librarian und Explore (schneller Abruf)
Für die meisten Arbeitslasten ist dies günstiger als der Betrieb eines lokalen Inferenzservers und erfordert keine GPU-Hardware.
Oh My Opencode eingebaute Tools: Hashline, Init-Deep, Ralph Loop und MCPs
Hashline — hash-verankertes Bearbeitungswerkzeug
Eine der praktischsten Verbesserungen in Oh My Opencode ist die Handhabung von Code-Änderungen. Jede Zeile, die der Agent liest, wird mit einem Inhaltshash versehen:
11#VK| function hello() {
22#XJ| return "world";
33#MB| }
Wenn der Agent Änderungen vornimmt, indem er diese Tags referenziert, wird die Änderung abgelehnt, bevor eine Korruption eintritt, wenn sich die Datei seit dem letzten Lesen geändert hat und der Hash nicht übereinstimmt. Dies eliminiert die gesamte Klasse von „veraltete Zeilen"-Fehlern, bei denen Agenten selbstbewusst Zeilen bearbeiten, die nicht mehr existieren. Die Erfolgsrate von Grok Code Fast bei Bearbeitungsaufgaben stieg allein durch diese Änderung von 6,7 % auf 68,3 %.
/init-deep — hierarchische Kontextinjektion
Führen Sie /init-deep aus, und Oh My Opencode generiert AGENTS.md-Dateien auf jeder relevanten Ebene Ihres Projektbaums:
project/
├── AGENTS.md ← projektweiter Kontext
├── src/
│ ├── AGENTS.md ← src-spezifischer Kontext
│ └── components/
│ └── AGENTS.md ← komponentenspezifischer Kontext
Agenten lesen automatisch den relevanten Kontext in ihrem Scope. Anstatt das gesamte Repo zu Beginn jedes Laufs in den Kontext zu laden, zieht jeder Agent nur das ein, was für seinen Arbeitsbereich relevant ist.
Prometheus-Planungsmodus — /start-work
Bei komplexen Aufgaben einfach einen Prompt tippen und hoffen, ist nicht genug. Drücken Sie Tab, um in den Prometheus-Modus zu wechseln, oder verwenden Sie /start-work. Prometheus interviewt Sie wie ein echter Ingenieur: identifiziert den Umfang, macht Unklarheiten sichtbar und erstellt einen verifizierten Plan, bevor ein Ausführungsagent läuft. Der Standard „Entscheidung abgeschlossen" bedeutet, dass der Plan dem Umsetzer keine Entscheidungen mehr überlässt.
Ralph Loop — /ulw-loop
Eine selbstreferenzielle Ausführungsschleife, die nicht stoppt, bis die Aufgabe zu 100 % abgeschlossen ist. Verwenden Sie dies für große, mehrstufige Aufgaben, bei denen Sie möchten, dass sich das System selbst verifiziert und ohne Ihre Beteiligung fortfährt. Es ist aggressiv — stellen Sie sicher, dass Ihre Parallelitätsgrenzen eingestellt sind, bevor Sie es bei einem teuren Cloud-Anbieter ausführen.
Eingebaute MCPs
Drei MCP-Server sind vorkonfiguriert und immer aktiv:
- Exa — Web-Suche
- Context7 — Suche in der offiziellen Dokumentation
- Grep.app — GitHub-Code-Suche über öffentliche Repositories
Sie müssen diese nicht konfigurieren. Sie sind standardmäßig allen Agenten verfügbar.
Für praktische Ergebnisse und Community-Benchmarks, wie diese Agenten in der Praxis performen, siehe den Oh My Opencode-Erfahrungsartikel. Um das Plugin von Grund auf neu zu installieren, beginnen Sie mit dem Oh My Opencode-Schnellstart.