Szybki start OpenCode: instalacja, konfiguracja i użycie terminalowego agenta AI do kodowania
Jak zainstalować, skonfigurować i użyć OpenCode
OpenCode to otwartoźródłowy agent AI do programowania, który możesz uruchamiać w terminalu (TUI + CLI) z opcjonalnymi interfejsami desktopowymi i dla IDE. To jest Szybki start OpenCode: instalacja, weryfikacja, podłączenie modelu/dostawcy i uruchomienie prawdziwych przepływów pracy (CLI + API).
Uwaga dotycząca wersji: OpenCode rozwija się szybko. Polecenia „najnowsze" przedstawione tutaj są stabilne, ale wyjście i wartości domyślne mogą ulegać zmianom – zawsze sprawdzaj oficjalną dokumentację CLI i listę zmian (linki poniżej).
Ten artykuł jest częścią Narzędzia dla programistów AI: Kompletny przewodnik po rozwoju wspieranym przez AI.
Czym jest OpenCode (i gdzie się mieści)
OpenCode został zaprojektowany do kodu opartego na terminalu i agentowego, zachowując jednocześnie elastyczność co do dostawcy/modelu. W praktyce jest to warstwa przepływu pracy, która może:
- uruchomić interfejs terminalowy (TUI) po wpisaniu
opencode - uruchomić niereaktywne polecenia „jednorazowe" poprzez
opencode run(skrypty/automatyzacja) - udostępnić serwer HTTP bez interfejsu użytkownika poprzez
opencode serve(oraz interfejs WWW poprzezopencode web) - być sterowana programowo poprzez oficjalny SDK JS/TS
@opencode-ai/sdk
Jeśli chcesz porównać go z innym otwartoźródłowym asystentem agentowym, który może wykonywać wieloetapowe plany w zdalnym środowisku, zobacz Szybki start OpenHands Coding Assistant.
Dla agenta Anthropic opartego na terminalu z tą samą historią „lokalny model przez HTTP" (Ollama lub llama.cpp, uprawnienia, cennik), zobacz Instalacja i konfiguracja Claude Code dla Ollama, llama.cpp, cennik.

Wymagania wstępne
Będziesz potrzebować:
- Nowoczesnego emulatora terminala (ważne dla doświadczenia TUI).
- Dostępu do co najmniej jednego modelu/dostawcy (klucze API lub uwierzytelnienie subskrypcyjne, w zależności od dostawcy). Opcje lokalne, takie jak Ollama lub llama.cpp, działają bez kluczy API, gdy uruchomisz kompatybilny serwer lokalnie.
Instalacja OpenCode (kopiuj-wklej)
Oficjalny skrypt instalacyjny (Linux/macOS/WSL):
curl -fsSL https://opencode.ai/install | bash
Opcje menedżera pakietów (oficjalne przykłady):
# Globalna instalacja Node.js
npm install -g opencode-ai
# Homebrew (zalecane przez OpenCode dla najnowszych wersji)
brew install anomalyco/tap/opencode
# Arch Linux (stabilny)
sudo pacman -S opencode
# Arch Linux (najnowszy z AUR)
paru -S opencode-bin
Uwagi dotyczące Windowsa (oficjalne wskazówki często zalecają WSL dla najlepszej kompatybilności). Alternatywami są Scoop/Chocolatey lub npm.
# chocoloatey (Windows)
choco install opencode
# scoop (Windows)
scoop install opencode
Docker (przydatny do szybkiego testu):
docker run -it --rm ghcr.io/anomalyco/opencode
Weryfikacja instalacji
opencode --version
opencode --help
Oczekiwany kształt wyjścia (będzie się różnić w zależności od wersji):
# Przykład:
# <wyświetla numer wersji, np. vX.Y.Z>
# <wyświetla pomoc z dostępnymi poleceniami/podpoleceniami>
Podłączanie dostawcy (dwa praktyczne ścieżki)
Ścieżka A: TUI /connect (interaktywna)
Uruchom OpenCode:
opencode
Następnie uruchom:
/connect
Postępuj zgodnie z krokami interfejsu, aby wybrać dostawcę i uwierzytelnić się (niektóre przepływy otwierają przeglądarkę lub logowanie urządzenia).
Ścieżka B: CLI opencode auth login (klucze dostawcy)
OpenCode obsługuje konfigurowanie dostawców poprzez:
opencode auth login
Uwagi:
- Poświadczenia są przechowywane w
~/.local/share/opencode/auth.json. - OpenCode może również ładować klucze z zmiennych środowiskowych lub pliku
.envw twoim projekcie.
Lokalne hostowanie LLM (Ollama, llama.cpp)
OpenCode działa z dowolnym API kompatybilnym z OpenAI. Do rozwoju lokalnego wielu użytkowników uruchamia Ollama i wskazuje na nią OpenCode. Niedawno miałem bardzo dobre doświadczenia z konfigurowaniem i uruchamianiem OpenCode z llama.cpp zamiast tego – llama-server udostępnia punkty końcowe kompatybilne z OpenAI, więc możesz używać modeli GGUF z tym samym przepływem pracy. Jeśli wolisz bardziej szczegółową kontrolę nad pamięcią i czasem wykonania lub chcesz lżejszej stosu bez Pythona (BTW, ollama jest napisane w Go), llama.cpp jest warte spróbowania. Bardzo podobała mi się możliwość konfigurowania warstw offload, łatwość obsługi modeli w formacie GGUF i znacznie lepsza/szybsza implementacja kompatybilności z nowymi modelami, takimi jak Qwen3.5. Jeśli chcesz wiedzieć, które modele faktycznie dobrze działają wewnątrz OpenCode – w zadaniach programistycznych i dokładności strukturalnego wyjścia – zobacz moje porównanie LLM dla OpenCode.
Rozpoczęcie projektu poprawnie (zalecane pierwsze uruchomienie)
Z twojego repozytorium:
cd /path/to/your/repo
opencode
Następnie zainicjuj:
/init
Analizuje to twój projekt i tworzy plik AGENTS.md w katalogu głównym projektu. Zazwyczaj warto zatwierdzić ten plik, aby OpenCode (i członkowie zespołu) mieli spójny kontekst projektu.
Podstawowe przepływy pracy CLI (przykłady do kopiowania)
OpenCode obsługuje uruchamiania niereaktywne:
opencode run "Wyjaśnij, jak działają zamykacze (closures) w JavaScript"
Przepływ pracy: generowanie kodu (CLI)
Cel: wygeneruj małą, testowalną funkcję z minimalnym kontekstem.
opencode run "Napisz funkcję Go ParsePort(envVar string, defaultPort int) (int, error). Powinna odczytać zmienną środowiskową, sparsować int, zwalidować 1-65535 i zwrócić defaultPort, jeśli jest pusta. Dołącz 3 testy sterowane tabelami."
Oczekiwane wyjście:
- Wyjaśnienie oraz bloki kodu (funkcja + testy). Dokładny kod zależy od modelu/dostawcy i promptu.
Przepływ pracy: bezpieczna refaktoryzacja pliku (CLI + agent plan)
Cel: refaktoryzacja bez przypadkowych edycji przy użyciu bardziej restrykcyjnego agenta.
opencode run --agent plan --file ./src/auth.ts \
"Refaktoryzuj ten plik, aby zmniejszyć złożoność. Wyjście: (1) krótki plan, (2) patch diff unified, (3) ryzyka/przypadki brzegowe do przetestowania. Nie uruchamiaj poleceń."
Oczekiwane wyjście:
- Sekcja z planem + blok patcha
diff --git ...+ lista kontrolna testów. - Treść jest zmienna. Jeśli nie wygeneruje diff, ponów prompt: „Zwróć tylko unified diff" lub „Użyj formatu
diff --git."
Przepływ pracy: zadawanie pytań o repozytorium (CLI)
Cel: szybkie lokalizowanie szczegółów implementacji.
opencode run --agent explore \
"W tym repozytorium, gdzie jest weryfikowane uwierzytelnienie dla żądań API? Wymień prawdopodobne pliki i wyjaśnij przepływ. Jeśli nie jesteś pewien, powiedz, co sprawdziłeś."
Oczekiwane wyjście:
- Krótka mapa ścieżek plików + opis przepływu.
- Wyjście zależy od rozmiaru repozytorium i narzędzi kontekstowych modelu/dostawcy.
Przepływ pracy: przyspieszenie powtarzanych uruchomień CLI z serwerem trwałym
Jeśli skryptujesz lub uruchamiasz wiele wywołań opencode run, możesz uruchomić serwer bez interfejsu użytkownika raz:
Terminal 1:
opencode serve --port 4096 --hostname 127.0.0.1
Terminal 2:
opencode run --attach http://localhost:4096 "Podsumuj strukturę repozytorium i główne punkty wejścia."
opencode run --attach http://localhost:4096 "Teraz zaproponuj 3 refaktoryzacje o dużym wpływie i dlaczego."
Oczekiwane wyjście:
- Takie samo jak
opencode run, ale zazwyczaj z mniejszym powtarzającym się nakładem uruchamiania.
Użycie programowe (oficjalny SDK JS/TS)
OpenCode udostępnia serwer HTTP (OpenAPI) i zapewnia typowo bezpieczny klient JS/TS.
Instalacja:
npm install @opencode-ai/sdk
Przykład: uruchomienie serwera + klienta, następnie prompt
Stwórz scripts/opencode-sdk-demo.mjs:
import { createOpencode } from "@opencode-ai/sdk";
const opencode = await createOpencode({
hostname: "127.0.0.1",
port: 4096,
config: {
// Format string modelu to provider/model (tylko przykład)
// model: "anthropic/claude-3-5-sonnet-20241022",
},
});
console.log(`Serwer działa pod adresem: ${opencode.server.url}`);
// Podstawowa kontrola zdrowia/wersji
const health = await opencode.client.global.health();
console.log("Zdrowy:", health.data.healthy, "Wersja:", health.data.version);
// Stwórz sesję i wyślij prompt
const session = await opencode.client.session.create({ body: { title: "SDK quickstart demo" } });
const result = await opencode.client.session.prompt({
path: { id: session.data.id },
body: {
parts: [{ type: "text", text: "Generuj małą sekcję README opisującą to repozytorium." }],
},
});
console.log(result.data);
// Zamknij serwer po zakończeniu
opencode.server.close();
Uruchom:
node scripts/opencode-sdk-demo.mjs
Oczekiwany kształt wyjścia:
- „Serwer działa pod adresem …"
- Odpowiedź o zdrowiu zawierająca ciąg wersji
- Obiekt odpowiedzi promptu sesji (dokładna struktura zależy od
responseStylei wersji SDK)
Minimalna konfiguracja OpenCode do skopiowania
OpenCode obsługuje konfigurację JSON i JSONC. To jest rozsądny punkt wyjścia dla konfiguracji lokalnej projektu.
Stwórz opencode.jsonc w katalogu głównym repozytorium:
{
"$schema": "https://opencode.ai/config.json",
// Wybierz domyślny model (dostawca/model). Zgodnie z tym, co pokazuje `opencode models`.
"model": "dostawca/model",
// Opcjonalnie: tańszy „mały model" dla lekkich zadań (tytuły itp.)
"small_model": "dostawca/small-model",
// Opcjonalnie: wartości domyślne serwera OpenCode (używane przez serve/web)
"server": {
"port": 4096,
"hostname": "127.0.0.1"
},
// Opcjonalnie bezpieczeństwo: wymagaj potwierdzenia przed edycjami/poleceniami
"permission": {
"edit": "ask",
"bash": "ask"
}
}
Krótka ściągawka (szybkie odniesienie)
Polecenia używane codziennie
opencode # uruchom TUI
opencode run "..." # uruchomienie niereaktywne (automatyzacja)
opencode run --file path "..." # dołącz pliki do promptu
opencode models --refresh # odśwież listę modeli
opencode auth login # skonfiguruj poświadczenia dostawcy
opencode serve # serwer HTTP bez interfejsu (OpenAPI)
opencode web # serwer bez interfejsu + interfejs WWW
opencode session list # lista sesji
opencode stats # statystyki tokenów/kosztów
Polecenia TUI do zapamiętania
/connect # podłącz dostawcę
/init # analizuj repo, generuj AGENTS.md
/share # udostępnij sesję (jeśli włączone)
/undo # cofnij zmianę
/redo # ponów zmianę
/help # pomoc/skróty
Domyślna koncepcja „klawisza przywódcy" (TUI)
OpenCode używa konfigurowalnego klawisza „lidera" (zazwyczaj ctrl+x), aby uniknąć konfliktów w terminalu. Wiele skrótów to „Lider + klawisz".
Jednostronicowa drukowalna tabela-ściągawka OpenCode
Ta wersja jest celowo gęsta i „przyjazna do druku". (Możesz wkleić ją później na dedykowaną stronę /ai-devtools/opencode/cheatsheet/.)
| Zadanie | Polecenie / skrót | Uwagi |
|---|---|---|
| Uruchom TUI | opencode |
Domyślne zachowanie to uruchomienie interfejsu terminalowego |
| Uruchom jednorazowy prompt | opencode run "..." |
Tryb niereaktywny do skryptów/automatyzacji |
| Dołącz plik(i) do promptu | opencode run --file path/to/file "..." |
Użyj wielu flag --file dla wielu plików |
| Wybierz model dla uruchomienia | opencode run --model dostawca/model "..." |
Ciągi modeli to dostawca/model |
| Wybierz agenta | opencode run --agent plan "..." |
Plan jest zaprojektowany dla bezpieczniejszej pracy „bez zmian" (ograniczone uprawnienia) |
| Wylistuj modele | opencode models [dostawca] |
Użyj --refresh, aby zaktualizować buforowaną listę |
| Skonfiguruj poświadczenia dostawcy | opencode auth login |
Przechowuje poświadczenia w ~/.local/share/opencode/auth.json |
| Wylistuj uwierzytelnionych dostawców | opencode auth list / opencode auth ls |
Potwierdza, co widzi OpenCode |
| Uruchom serwer bez interfejsu | opencode serve --port 4096 --hostname 127.0.0.1 |
Specyfikacja OpenAPI pod http://host:port/doc |
| Dołącz uruchomienia do serwera | opencode run --attach http://localhost:4096 "..." |
Przydatne do uniknięcia powtarzających się zimnych startów |
| Włącz podstawowe uwierzytelnianie | OPENCODE_SERVER_PASSWORD=... opencode serve |
Nazwa użytkownika domyślnie to opencode, chyba że nadpisana |
| Tryb interfejsu WWW | opencode web |
Uruchamia serwer i otwiera przeglądarkę |
| Eksportuj sesję | opencode export [sessionID] |
Przydatne do archiwizowania lub udostępniania kontekstu |
| Importuj sesję | opencode import session.json |
Można też importować z URL udostępnienia |
| Wyświetl globalne flagi CLI | opencode --help / opencode --version |
--print-logs + --log-level do debugowania |
| Koncepcja klawisza lidera TUI | domyślny klawisz lidera często ctrl+x |
Konfigurowalny w tui.json |
Oh My Opencode — zabierz OpenCode dalej z orkiestracją wieloagentową
Gdy OpenCode działa, naturalnym kolejnym krokiem jest Oh My Opencode – plugin społecznościowy, który owija OpenCode w osłonę wieloagentową. Główna idea: wpisz ultrawork (lub ulw) w sesji, a orchestrator (Sisyphus) przejmuje kontrolę, delegując podzadania specjalistycznym agentom, którzy działają równolegle, każdy na rodzinie modeli, dla których są dostrojone.
Trzy artykuły omawiają to szczegółowo:
-
Szybki start Oh My Opencode
Zainstaluj przezbunx oh-my-opencode install, skonfiguruj dostawców i uruchom pierwsze zadanie ultrawork w mniej niż dziesięć minut. -
Głęboka analiza specjalistycznych agentów
Wszystkich 11 agentów wyjaśnionych – Sisyphus, Hephaestus, Oracle, Prometheus, Librarian i więcej – z routingiem modeli, łańcuchami awaryjnymi i praktycznymi wskazówkami dla modeli hostowanych samodzielnie. -
Doświadczenia z Oh My Opencode: Szczere wyniki i ryzyka rozliczeń
Prawdziwe benchmarki, incydent nieskończonego pętli Gemini za $350 i jasny werdykt, kiedy OMO zwraca się z nakładami.
Źródła (najpierw oficjalne)
Oficjalne:
- Dokumentacja OpenCode (Wstęp, CLI, Konfiguracja, Serwer, SDK): https://opencode.ai/docs/
- Lista zmian OpenCode: https://opencode.ai/changelog
- Oficjalne repozytorium GitHub: https://github.com/anomalyco/opencode
- Wydania: https://github.com/anomalyco/opencode/releases
Autorytatywne odniesienie do integracji:
- GitHub Changelog (Copilot obsługuje OpenCode): https://github.blog/changelog/2026-01-16-github-copilot-now-supports-opencode/
Poważne porównania/tutorial:
- DataCamp: OpenCode vs Claude Code (2026): https://www.datacamp.com/blog/opencode-vs-claude-code
- Builder.io: OpenCode vs Claude Code (2026): https://www.builder.io/blog/opencode-vs-claude-code
- freeCodeCamp: Zintegruj AI ze swoim terminalem używając OpenCode: https://www.freecodecamp.org/news/integrate-ai-into-your-terminal-using-opencode/