Specjalne Agenty Opencode: Dogłębna Analiza i Przewodnik po Modelach

Poznajcie Sisyphusa oraz jego zespół specjalistycznych agentów.

Page content

Największy skok możliwości w OpenCode wynika z specjalistycznych agentów: celowego rozdzielenia orkiestracji, planowania, wykonania i badań.

Oh My Opencode spakowało tę ideę w kompletne środowisko, w którym Sisyphus koordynuje pełny „wirtualny zespół" agentów o różnych uprawnieniach, promptach i preferencjach modeli.

oh my opencode agents

To jest pogłębione spojrzenie na agentów i routing modeli. Jeśli jesteś na wczesnym etapie tej podróży:

W szerszym kontekście narzędzi AI do programowania zobacz przegląd narzędzi dla deweloperów AI.

Czym jest Oh My Opencode i jak rozszerza OpenCode

OpenCode to open-source’owy agent AI do programowania zbudowany do terminala. Dostarcza interfejs TUI, a CLI uruchamia ten TUI domyślnie, gdy wykonasz opencode bez argumentów. Jest elastyczny pod względem dostawców: obsługuje duży katalog dostawców, w tym modele lokalne, udostępnia konfigurację dostawcy przez plik konfiguracyjny i przepływ /connect, a obsługuje wszystko od API chmurowych po endpointy Ollama bez konieczności patchowania.

Oh My Opencode (znany również jako oh-my-openagent, lub po prostu “omo”) to wtyczka społecznościowa, która przekształca OpenCode w pełny system inżynieryjny wieloagentowy. Dodaje:

  • system orkiestracji Sisyphus z równoległym wykonaniem w tle
  • 11 specjalistycznych agentów o odrębnych rolach, promptach dostosowanych do rodziny modeli oraz jawnym uprawnieniach narzędzi
  • LSP + AST-Grep dla refaktoryzacji jakości IDE wewnątrz agentów
  • Hashline — narzędzie edycji zakotwiczone haszem, które eliminuje błędy przestarzałych linii (patrz poniżej)
  • Wbudowane MCP: Exa (wyszukiwanie w sieci), Context7 (oficjalna dokumentacja), Grep.app (wyszukiwanie w GitHubie), wszystkie włączone domyślnie
  • /init-deep — automatycznie generuje hierarchiczne pliki AGENTS.md w całym projekcie dla smukłej injestacji kontekstu

Jedna dziwność w nazewnictwie: repozytorium upstream jest teraz oznaczone jako oh-my-openagent, ale pakiety wtyczki i komendy instalacyjne nadal używają oh-my-opencode. Pielęgnator sugeruje nazywanie go “oh-mo” lub po prostu “Sisyphus”.

Dlaczego Oh My Opencode przypisuje różne modele do różnych agentów

Oh My Opencode opiera się na jednej podstawowej idei: różne modele myślą inaczej, a prompt każdego agenta jest napisany dla jednego modelu myślowego. Claude stosuje prompty oparte na mechanikach — szczegółowe listy kontrolne, szablony, procedury krok po kroku. Więcej reguł oznacza większą zgodność. GPT (zwłaszcza 5.2+) stosuje prompty oparte na zasadach — zwięzłe zasady, struktura XML, jawnie określone kryteria decyzyjne. Jeśli dasz GPT prompt Claude’a o 1100 liniach, będzie się sam zaprzeczał. Jeśli dasz Claude’owi prompt GPT o 121 liniach, będzie się błąkał.

To nie jest dziwactwo, wokół którego możesz skonfigurować. To projekt systemu.

Praktyczna konsekwencja: gdy zmieniasz model agenta, zmieniasz, który prompt się uruchamia. Agenci obsługujący wiele rodzin modeli (Prometheus, Atlas) automatycznie wykrywają Twój model w czasie działania za pomocą isGptModel() i przełączają prompty automatycznie. Agenci, którzy tego nie robią (Sisyphus, Hephaestus), mają prompty napisane tylko dla jednej rodziny — a ich zamiana na niewłaściwą rodzinę znacząco pogarsza wynik.

Jak specjaliści agentów Oh My Opencode współpracują

Cztery grupy osobowości agentów

Agenci dzielą się na cztery grupy w zależności od rodziny modeli, dla których są zoptymalizowane. To ma znaczenie zarówno dla zrozumienia systemu, jak i decyzji o self-hostingu.

Grupa 1 — Komunikatorzy (Claude / Kimi / GLM): Sisyphus i Metis. Długie, oparte na mechanikach prompty (~1100 linii dla Sisyphusa). Potrzebują modeli, które niezawodnie przestrzegają złożonych, wielowarstwowych instrukcji podczas dziesiątek wywołań narzędzi. Claude Opus jest modelem referencyjnym. Kimi K2.5 i GLM-5 to silne, kosztowo skuteczne alternatywy, które zachowują się podobnie. Nie nadpisuj ich starszymi modelami GPT.

Grupa 2 — Dual-Prompt (Claude preferowany, GPT wspierany): Prometheus i Atlas. Automatycznie wykrywa rodzinę Twojego modelu w czasie działania i przełącza się na odpowiedni prompt. Claude otrzymuje pełną wersję opartą na mechanikach. GPT otrzymuje zwartą wersję opartą na zasadach, która osiąga ten sam wynik w ~121 liniach. Bezpieczne jest użycie dowolnego; system obsługuje przełączanie.

Grupa 3 — GPT-Native (GPT-5.3-codex / GPT-5.4): Hephaestus, Oracle, Momus. Styl wykonania oparty na zasadach, autonomiczny. Ich prompty zakładają nastawienie na cel, niezależne rozumowanie — to, do czego GPT został zbudowany. Hephaestus nie ma fallbacku i wymaga dostępu do GPT. Nie nadpisuj ich Claude’em; zachowanie się pogarsza.

Grupa 4 — Utility Runners (prędkość ponad inteligencję): Explore, Librarian, Multimodal Looker. Wykonują grep, wyszukiwanie i odzyskiwanie. Celowo używają najszybszych i najtańszych dostępnych modeli. “Ulepszanie” Explore do Opus to zatrudnienie starszego inżyniera do wypełniania papierów. To również najlepsi kandydaci do zastąpienia modelami lokalnymi.

Mechanizmy delegacji

Oh My Opencode używa dwóch uzupełniających się narzędzi do delegacji:

  • task()delegacja oparta na kategorii: wybierz kategorię, np. visual-engineering lub deep, opcjonalnie wstrzyknij umiejętności i opcjonalnie uruchom w tle
  • call_omo_agent()bezpośrednie wywołanie konkretnego agenta po nazwie, omijając routing kategorii

Oba wspierają równoległe wykonanie w tle, z wymuszonym współbieżnością na dostawcę i model.

Kategorie to predefiniowane routingi modeli

Gdy Sisyphus deleguje do podagenta, wybiera kategorię, a nie nazwę modelu. Kategoria automatycznie mapuje się na właściwy model.

Kategoria Do czego służy Model domyślny
visual-engineering Frontend, UI/UX, CSS, design Gemini 3.1 Pro (high)
artistry Kreatywność, nowe podejścia Gemini 3.1 Pro → Claude Opus → GPT-5.4
ultrabrain Trudna logika, decyzje architektoniczne GPT-5.4 (xhigh) → Gemini 3.1 Pro → Claude Opus
deep Głębokie kodowanie, złożona logika wieloplikowa GPT-5.3 Codex → Claude Opus → Gemini 3.1 Pro
unspecified-high Ogólna praca złożona Claude Opus → GPT-5.4 (high) → GLM-5
unspecified-low Ogólna praca standardowa Claude Sonnet → GPT-5.3 Codex → Gemini Flash
quick Zmiany w jednym pliku, proste zadania Claude Haiku → Gemini Flash → GPT-5-Nano
writing Tekst, dokumentacja, proza Gemini Flash → Claude Sonnet

Kategorie to właściwa abstrakcja również dla self-hostingu: zmapuj kategorię do modelu lokalnego i każde zadanie routowane do tej kategorii automatycznie go użyje.

Kolejność rozwiązywania modeli

Agent Request → User Override (jeśli skonfigurowane) → Fallback Chain → System Default

Priorytet dostawcy, gdy ten sam model jest dostępny przez wielu dostawców:

Native (anthropic/, openai/, google/) > Kimi for Coding > GitHub Copilot > Venice > OpenCode Go > Z.ai Coding Plan

Oh My Opencode Agenci: Pełny katalog z rolami i wymaganiami modeli

Orkestratorzy

Sisyphus

Cel: Główny orkestrator. Planuje, deleguje i prowadzi zadania do ukończenia poprzez agresywne wykonanie równoległe.
Grupa: Komunikator (Claude / Kimi / GLM)
Rola: Lider zespołu, który koordynuje przez całą bazę kodu — jego prompt oparty na mechanikach (~1100 linii) wymaga modelu, który może przestrzegać każdego kroku podczas dziesiątek wywołań narzędzi, nie tracąc śladu.

⚠️ Nigdy nie nadpisuj Sisyphusa starszymi modelami GPT. GPT-5.4 ma dedykowaną ścieżkę promptu, ale nie jest zalecany jako domyślny. Claude Opus jest modelem referencyjnym.

Łańcuch fallbacku: anthropic/claude-opus-4-6 (max) → opencode-go/kimi-k2.5k2p5gpt-5.4glm-5big-pickle
Self-hosted: Sisyphus jest najtrudniejszym agentem do uruchomienia lokalnie. Złożoność jego promptu sprawia, że jest zależny od modeli z silnym przestrzeganiem instrukcji podczas długich sekwencji wywołań narzędzi. Lokalny Qwen3-coder lub DeepSeek-Coder-V3 może działać dla prostych zadań, ale oczekuj pogorszenia w przepływach pracy wymagających koordynacji wieloagentowej. Jeśli self-hostujesz, przetestuj z zadaniem jednoagentowym przed włączeniem wykonania równoległego.


Atlas

Cel: “Orkestrator listy zadań.” Utrzymuje uporządkowany plan w ruchu, wymuszając ukończenie i sekwencjonowanie.
Grupa: Dual-prompt (Claude preferowany, GPT wspierany)
Rola: Podczas gdy Sisyphus zajmuje się ogólnym obrazem, Atlas prowadzi listę kontrolną. Automatycznie wykrywa rodzinę Twojego modelu w czasie działania i przełącza prompty odpowiednio.

Łańcuch fallbacku: anthropic/claude-sonnet-4-6opencode-go/kimi-k2.5
Self-hosted: Szybki, niezawodny lokalny model programisty obsługuje pracę Atlasu w stylu “prowadź listę kontrolną” w miarę dobrze, ponieważ zadania są bardziej strukturalne niż orkiestracja Sisyphusa. Qwen3-coder z kontekstem 32k+ to wykonalny punkt wyjścia.


Agenci planowania

Warstwa planowania wymusza “myśl przed działaniem”: zbieranie wymagań, wykrywanie luk i krytyka planu dzieją się zanim jakikolwiek agent wykonania zobaczy zadanie.

Prometheus

Cel: Strategiczny planista z przepływem pracy w stylu wywiadu. Aktywowany po naciśnięciu Tab lub wykonaniu /start-work.
Grupa: Dual-prompt (Claude preferowany, GPT wspierany)
Rola: Przeprowadza wywiad jak prawdziwy inżynier — identyfikuje zakres, ujawnia niejasności i produkuje zweryfikowany plan zanim zostanie napisana linijka kodu. Wersja GPT osiąga to samo w ~121 liniach; wersja Claude’a używa ~1100 linii w 7 plikach.
Współpracuje z: Metis (wykrywanie luk) i Momus (walidacja planu) przed przekazaniem wykonania.

Łańcuch fallbacku: anthropic/claude-opus-4-6 (max) → openai/gpt-5.4 (high) → opencode-go/glm-5google/gemini-3.1-pro
Self-hosted: Wykonalny z silnym modelem lokalnym przestrzegającym instrukcji przy niskiej temperaturze. Jakość planowania pogarsza się, gdy model nie może utrzymać Twoich ograniczeń i kryteriów akceptacji w kontekście podczas długiego, wieloturnowego wywiadu. Zalecane minimum 64k okna kontekstowego.


Metis

Cel: Doradca przedplanowy i analityk luk. Działa z wyższą temperaturą niż większość agentów, aby zachęcić do kreatywnego wykrywania luk.
Grupa: Komunikator (Claude preferowany)
Rola: Recenzent “Czego nam brakowało?” przed wykonaniem — nie jest pracownikiem piszącym kod, ale częścią historii kontroli jakości planu.
Współpracuje z: Wywoływany przez Prometeusza przed finalizacją planu.

Łańcuch fallbacku: anthropic/claude-opus-4-6 (max) → opencode-go/glm-5k2p5
Self-hosted: Lokalny model zdolny do rozumowania wystarczy. Utrzymaj temperaturę niezerową, jeśli chcesz, aby Metis faktycznie ujawniał przypadki graniczne — ustaw ją na 0 i stanie się pieczątką.


Momus

Cel: Surowy recenzent planu. Wymusza klarowność i standardy weryfikacji. Może działać jako rygorystyczna brama “OK lub odrzuć”.
Grupa: GPT-native
Rola: Krytyk zorientowany na QA dla planów. Ograniczenia narzędzi utrzymują go w trybie przeglądu, a nie wykonania.
Współpracuje z: Używany po stworzeniu planu, aby podważyć wykonalność przed rozpoczęciem pracy.

Łańcuch fallbacku: openai/gpt-5.4 (medium) → anthropic/claude-opus-4-6 (max) → google/gemini-3.1-pro (high)
Self-hosted: Jeśli self-hostujesz, utrzymuj próbkowanie bardzo nisko. Cały punkt Momusa to stabilna, powtarzalna krytyka — kreatywność jest ostatnim, czego tu chcesz. Silny lokalny model rozumowania z temperaturą 0.1 lub niższą to właściwa konfiguracja.


Agenci wykonawczy

Hephaestus

Cel: Autonomiczny pracownik głęboki. Daj mu cel, a nie przepis.
Grupa: GPT-native — tylko GPT-5.3 Codex
Rola: Specjalista, który spędza cały dzień w pokoju kodując. Przeszukuje bazę kodu, bada wzorce i wykonuje od początku do końca bez ciągłego nadzoru. Pielęgnator nazywa go “Legitimate Craftsman” (celowe nawiązanie do decyzji Anthropic o zablokowaniu OpenCode).

⚠️ Brak łańcucha fallbacku — wymaga dostępu do GPT. Nie ma promptu Claude’a dla tego agenta. Uruchomienie go bez OpenAI lub GitHub Copilot oznacza, że nie może wykonać zadania. “GPT-5.3-codex-spark” istnieje, ale jest wyraźnie niezalecany — kompresuje kontekst tak agresywnie, że zarządzanie kontekstem Oh My Opencode się psuje.

Łańcuch fallbacku: openai/gpt-5.3-codex (medium) — bez fallbacku
Self-hosted: Nie ma obecnie wykonalnej lokalnej zastępstwa dla Hephaestusa. Jego prompt jest zbudowany wokół stylu autonomicznego eksploracji opartego na zasadach GPT-Codex. Jeśli potrzebujesz pracownika głębokiego na w pełni lokalnym stosie, użyj Sisyphus-Junior z kategorią deep (co routuje do GPT-5.3 Codex lub w przypadku braku do Claude Opus).


Sisyphus-Junior

Cel: Wykonawca wywoływany przez kategorię używany przez system delegacji.
Grupa: Dziedziczy z kategorii, która go uruchomiła
Rola: “Specjalistyczny wykonawca”, który dziedziczy model z konfiguracji kategorii. Tworzony dynamicznie przez task(), często z wstrzykniętymi umiejętnościami i może być uruchamiany w tle dla równoległości. Traktuj go jako czystą kartę, której możliwości są całkowicie określone przez przypisaną kategorię.

Łańcuch fallbacku: anthropic/claude-sonnet-4-6 (domyślny); w praktyce dziedziczy z uruchamiającej kategorii
Self-hosted: Sisyphus-Junior to najbardziej praktyczne miejsce do rozpoczęcia self-hostingu. Zmapuj każdą kategorię do modelu lokalnego w oh-my-opencode.jsonc i każde zadanie wywoływane przez kategorię automatycznie go użyje. Zaczynaj od quick (proste zadania), zweryfikuj działanie, a następnie rozszerzaj do unspecified-low przed dotknięciem cokolwiek, co routuje do deep lub ultrabrain.


Podagenci specjalistyczne

Oracle

Cel: Konsultacja tylko do odczytu dla decyzji architektonicznych i złożonego debugowania.
Grupa: GPT-native
Rola: Starszy architekt i debugger “ostatniej szansy”. Celowo ograniczony od pisania i delegowania narzędzi, aby jego wynik pozostał doradczy. Wywołaj Oracle po dużej pracy, po powtarzających się niepowodzeniach lub przed podjęciem ryzykownej decyzji architektonicznej.

Łańcuch fallbacku: openai/gpt-5.4 (high) → google/gemini-3.1-pro (high) → anthropic/claude-opus-4-6 (max)
Self-hosted: Jeśli self-hostujesz Oracle, wybierz swój najsilniejszy lokalny model rozumowania i utrzymuj próbkowanie bardzo nisko. Różnica jakości wyjścia między zdolnym lokalnym rozumującym modelem a GPT-5.4 jest znacząca dla złożonych pytań architektonicznych. W konfiguracji hybrydowej Oracle jest jednym z agentów, których warto utrzymać na modelu chmurowym, przenosząc pracę użyteczności lokalnie.


Librarian

Cel: Dokumentacja zewnętrzna i badania open-source.
Grupa: Utility runner
Rola: Zbieracz dokumentacji i dowodów. Ograniczenia narzędzi uniemożliwiają edytowanie, więc skupia się na pozyskiwaniu i podsumowywaniu. Zaprojektowany do działania równolegle z Explore dla połączonego zbierania dowodów “wewnątrz repozytorium + poza repozytorium”.

Łańcuch fallbacku: opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Self-hosted: Najlepszy agent do przeniesienia w pełni lokalnie od pierwszego dnia. Zadaniem Librariana jest odzyskiwanie i podsumowanie, a nie głębokie rozumowanie. Każdy lokalny model z niezawodnym wywoływaniem narzędzi poradzi sobie z tym dobrze. Nawet model 7B lub 13B wystarczy, jeśli może przestrzegać wzoru “wyszukaj, zzbieraj, raportuj” bez błądzenia.


Explore

Cel: Kontekstowy grep i szybkie wyszukiwanie w bazie kodu.
Grupa: Utility runner
Rola: Agent “znajdź mi odpowiednie pliki i wzorce”. Wystrzel 10 z nich równolegle dla niebanalnych pytań, każdy zakrojony na inny obszar bazy kodu, a następnie pozwól orkestratorowi syntetyzować wyniki.

Łańcuch fallbacku: grok-code-fast-1opencode-go/minimax-m2.5minimax-m2.5-freeclaude-haiku-4-5gpt-5-nano
Self-hosted: Razem z Librarianem, Explore to najlepszy punkt startowy dla inferencji lokalnej. Jego zadaniem jest dopasowanie wzorców i strukturalne raportowanie — model nie potrzebuje głębokiego rozumowania, tylko szybkiego, niezawodnego wywoływania narzędzi i dobrego przestrzegania instrukcji. Mały lokalny model programisty (Qwen2.5-Coder-7B lub podobny) przy wysokim przepływie działa dobrze.


Multimodal Looker

Cel: Analista wizyjny i “czytacz diagramów”. Analizuje obrazy i PDFy przez przepływ look_at.
Grupa: Utility runner (wymagany wzrok)
Rola: Silnie ograniczony narzędziami (tylko do odczytu), aby zapobiec skutkom ubocznym i utrzymać go w czysto interpretacyjnym charakterze. Używany, gdy potrzebujesz wprowadzić zrzuty ekranu UI, diagramy architektoniczne lub strony PDF do przepływu pracy.

Kimi K2.5 jest wyraźnie wskazany jako mistrz w rozumieniu multimodalnym — dlatego znajduje się wysoko w tym łańcuchu fallbacku.

Łańcuch fallbacku: openai/gpt-5.4opencode-go/kimi-k2.5zai-coding-plan/glm-4.6vgpt-5-nano
Self-hosted: Wizja lokalna wymaga modelu multimodalnego z solidnym wywoływaniem narzędzi i wystarczającym kontekstem. Jeśli Twój lokalny stos jeszcze nie jest gotowy, utrzymaj Multimodal Looker na modelu chmurowym — niepoprawnie skonfigurowany lokalny pipeline wizyjny produkuje cześć śmieci, a nie użyteczne błędy.


Oh My Opencode Routing Modeli: Łańcuchy Fallbacku i Priorytety Dostawców

Domyślne wartości per-agent i projekt “brak jednego globalnego modelu”

Oh My Opencode dostarcza domyślne modele i łańcuchy fallbacku per-agent, a nie jeden model globalny. Projekt jest celowo zdawkowy:

  • Explore i Librarian używają najtańszych, najszybszych modeli, ponieważ nie potrzebują głębokiego rozumowania
  • Oracle i Momus używają modeli o najwyższej zdolności, ponieważ ich wyjścia blokują wykonanie
  • Sisyphus i Prometheus otrzymują najlepsze modele klasy orkiestracyjnej domyślnie

Tier OpenCode Go (10 USD/miesiąc)

OpenCode Go to warstwa subskrypcyjna zapewniająca niezawodny dostęp do chińskich modeli frontier przez infrastrukturę OpenCode. Pojawia się w środku wielu łańcuchów fallbacku jako most między dostawcami premium a alternatywami z tieru darmowego.

Model przez OpenCode Go Używany przez
opencode-go/kimi-k2.5 Sisyphus, Atlas, Sisyphus-Junior, Multimodal Looker
opencode-go/glm-5 Oracle, Prometheus, Metis, Momus
opencode-go/minimax-m2.5 Librarian, Explore

Jeśli nie masz subskrypcji Anthropic lub OpenAI, OpenCode Go plus GitHub Copilot pokrywa większość łańcucha fallbacku przy niskim koszcie.

Mapowania dostawców dla GitHub Copilot

Gdy GitHub Copilot jest najlepszym dostępnym dostawcą, przypisania agentów to:

Agent Model
Sisyphus github-copilot/claude-opus-4-6
Oracle github-copilot/gpt-5.4
Explore github-copilot/grok-code-fast-1
Librarian github-copilot/gemini-3-flash

Warianty promptów śledzą rodziny modeli

Jeśli przełączysz agenta z Claude’a na GPT lub Gemini, Oh My Opencode nie używa tego samego promptu. Agenci obsługujący wiele rodzin (Prometheus, Atlas) automatycznie wykrywają to przez isGptModel() i przełączają się. Agenci nie obsługujący wielu rodzin (Sisyphus, Hephaestus) mają jeden prompt — przełącz ich na niewłaściwą rodzinę i wynik się pogorszy.

Jeśli wyjścia Twojego agenta wydają się dziwne po zmianie modelu, sprawdź, czy przekroczyłeś granicę rodziny modeli i cofnij zmiany.


Uruchamianie Oh My Opencode z modelami self-hosted i lokalnymi

Są dwie warstwy do skonfigurowania:

  1. OpenCode musi znać Twój lokalny dostawca i ID modeli
  2. Oh My Opencode musi zostać poinformowane, który agent używa którego modelu (ponieważ większość agentów ignoruje model wybrany w UI z założenia)

Co możesz realistycznie uruchomić lokalnie dzisiaj

Agent Przydatność lokalna Zalecane podejście
Explore ✅ Doskonała Każdy szybki lokalny model programisty (Qwen2.5-Coder-7B+)
Librarian ✅ Doskonała Każdy szybki lokalny model z niezawodnym wywoływaniem narzędzi
Sisyphus-Junior (kategoria quick) ✅ Dobra Mały model programisty do szybkich zadań
Atlas ⚠️ Wykonalne Model średniej wielkości (13B+), kontekst 32k+
Prometheus ⚠️ Wykonalne Silny przestrzegacz instrukcji, kontekst 64k+, niska temperatura
Metis ⚠️ Wykonalne Zdolny do rozumowania, utrzymaj temperaturę niezerową
Momus ⚠️ Wykonalne Zdolny do rozumowania, bardzo niska temperatura
Sisyphus ⚠️ Częściowe Tylko dla prostych zadań jednoagentowych; orkiestracja wieloagentowa wymaga modeli klasy Claude
Oracle ❌ Nie zalecane Utrzymaj w chmurze; luka jakościowa jest znacząca dla złożonych zapytań
Hephaestus ❌ Brak ścieżki lokalnej Wymaga GPT-5.3-codex; brak odpowiednika Claude’a lub lokalnego

Krok 1 — Dodaj lokalnego dostawcę do OpenCode

OpenCode obsługuje modele lokalne i niestandardowe wartości baseURL w konfiguracji dostawcy — Ollama, vLLM i każdy endpoint kompatybilny z OpenAI są opcjami pierwszorzędowymi. Szybki start OpenCode opisuje uwierzytelnianie dostawcy szczegółowo.

{
  "$schema": "https://opencode.ai/config.json",
  "provider": {
    "ollama": {
      "npm": "@ai-sdk/openai-compatible",
      "name": "Ollama",
      "options": {
        "baseURL": "http://localhost:11434/v1"
      },
      "models": {
        "qwen2.5-coder:7b": { "name": "qwen2.5-coder:7b" },
        "qwen2.5-coder:32b": { "name": "qwen2.5-coder:32b" }
      }
    }
  }
}

Dla vLLM lub LM Studio ten sam wzorzec się stosuje — po prostu wskaż baseURL na endpoint /v1 swojego serwera i wymień załadowane modele.

OpenCode wymaga przynajmniej okna kontekstowego 64k dla agentów orkiestracyjnych. Wszystko mniejsze spowoduje błędy ucinania w środku przepływu pracy.

Krok 2 — Nadpisz modele agentów w konfiguracji Oh My Opencode

Lokalizacje konfiguracji (projekt ma pierwszeństwo nad poziomem użytkownika):

  • .opencode/oh-my-opencode.jsonc (poziom projektu, najwyższy priorytet)
  • ~/.config/opencode/oh-my-opencode.jsonc (poziom użytkownika)

Praktyczna konfiguracja hybrydowa — inferencja lokalna dla agentów użytecznościowych, chmura dla rozumowania:

{
  "$schema": "https://raw.githubusercontent.com/code-yeongyu/oh-my-openagent/dev/assets/oh-my-opencode.schema.json",

  "agents": {
    // Agenci użytecznościowi: szybki lokalny model jest wystarczający
    "explore":    { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },
    "librarian":  { "model": "ollama/qwen2.5-coder:7b",  "temperature": 0.1 },

    // Sisyphus-Junior w trybie quick: lokalnie jest OK
    // (kontrolowane przez kategorie poniżej)

    // Utrzymaj agentów rozumowania w chmurze
    "oracle":  { "model": "openai/gpt-5.4",          "variant": "high" },
    "momus":   { "model": "openai/gpt-5.4",          "variant": "xhigh" },
    // Hephaestus: nie dotykaj — potrzebuje GPT-5.3-codex, brak fallbacku
  },

  "categories": {
    // Routuj proste wywoływane zadania do modelu lokalnego
    "quick":   { "model": "ollama/qwen2.5-coder:7b" },
    "writing": { "model": "ollama/qwen2.5-coder:7b" },

    // Utrzymaj ciężkie rozumowanie w chmurze
    "deep":         { "model": "openai/gpt-5.3-codex", "variant": "medium" },
    "ultrabrain":   { "model": "openai/gpt-5.4",       "variant": "xhigh" }
  },

  "background_task": {
    "defaultConcurrency": 2,
    "providerConcurrency": {
      "ollama": 4,    // lokalny endpoint może obsłużyć większą równoległość
      "openai": 2,    // pozostań w limitach planu
      "anthropic": 2
    },
    "modelConcurrency": {
      "ollama/qwen2.5-coder:7b": 4
    }
  }
}

Alternatywa dla pełnego self-hostingu z myślą o kosztach

Zanim zobowiązesz się do konfiguracji lokalnego GPU, rozważ stos OpenCode Go + Kimi for Coding. Za około 11 USD miesięcznie w sumie, pokrywa to:

  • Kimi K2.5 dla Sisyphusa i Atlasu (jakość orkiestracji klasy Claude przy niskim koszcie)
  • GLM-5 dla Prometeusza, Metis i Momusa (solidne rozumowanie, dostępny tier darmowy)
  • MiniMax M2.5 dla Librariana i Explore (szybkie odzyskiwanie)

Dla większości obciążeń pracy jest to tańsze niż uruchamianie lokalnego serwera inferencji i nie wymaga sprzętu GPU.


Oh My Opencode Wbudowane Narzędzia: Hashline, Init-Deep, Ralph Loop i MCP

Hashline — narzędzie edycji zakotwiczone haszem

Jedną z najbardziej praktycznych ulepszeń w Oh My Opencode jest sposób obsługi edycji kodu. Każda linia, którą agent czyta, wraca oznaczona haszem treści:

11#VK| function hello() {
22#XJ|   return "world";
33#MB| }

Gdy agent edytuje, odwołując się do tych tagów, jeśli plik zmienił się od ostatniego odczytu, hash nie będzie pasował i edycja zostanie odrzucona przed zniszczeniem. To eliminuje całą klasę błędów “stale line”, gdzie agenci pewnie edytują linie, które już nie istnieją. Skuteczność Grok Code Fast w zadaniach edycyjnych wzrosła z 6,7% do 68,3% tylko dzięki tej zmianie.

/init-deep — hierarchiczna injestacja kontekstu

Wykonaj /init-deep i Oh My Opencode wygeneruje pliki AGENTS.md na każdym odpowiednim poziomie drzewa projektu:

project/
├── AGENTS.md              ← kontekst całego projektu
├── src/
│   ├── AGENTS.md          ← kontekst specyficzny dla src
│   └── components/
│       └── AGENTS.md      ← kontekst specyficzny dla komponentu

Agenci automatycznie odczytują odpowiedni kontekst w swoim zakresie. Zamiast ładować całe repozytorium do kontekstu na początku każdego uruchomienia, każdy agent pobiera tylko to, co jest istotne dla miejsca, w którym pracuje.

Tryb planowania Prometeusza — /start-work

Dla złożonych zadań nie wpisz tylko promptu i nie licz na to. Naciśnij Tab, aby wejść w tryb Prometeusza lub użyj /start-work. Prometheus przeprowadza wywiad jak prawdziwy inżynier: identyfikuje zakres, ujawnia niejasności, buduje zweryfikowany plan zanim jakikolwiek agent wykonania działa. Standard “Decyzja Ukończona” oznacza, że plan nie pozostawia żadnych decyzji wykonawcy.

Ralph Loop — /ulw-loop

Pętla wykonania odwołująca się do siebie, która nie zatrzymuje się, dopóki zadanie nie zostanie w 100% ukończone. Użyj tego do dużych, wieloetapowych zadań, gdzie chcesz, aby system sam weryfikował i kontynuował bez Twojego udziału. Jest agresywny — upewnij się, że limity współbieżności są ustawione przed uruchomieniem na drogim dostawcy chmurowym.

Wbudowane MCP

Trzy serwery MCP są prekonfigurowane i zawsze włączone:

  • Exa — wyszukiwanie w sieci
  • Context7 — wyszukiwanie oficjalnej dokumentacji
  • Grep.app — wyszukiwanie kodu w GitHubie w repozytoriach publicznych

Nie musisz ich konfigurować. Są dostępne dla wszystkich agentów domyślnie.


Dla rezultatów z ręki i benchmarków społecznościowych, jak te agenci działają w praktyce, zobacz artykuł o doświadczeniach z Oh My Opencode. Aby zainstalować wtyczkę od zera, zacznij od szybkiego startu Oh My Opencode.