OpenClaw クイックスタート:Docker でのインストール(Ollama GPU または Claude + CPU)
Ollama を使用して OpenClaw をローカルにインストールします
OpenClaw は、Ollama のようなローカル LLM ランタイム、または Claude Sonnet のようなクラウドベースのモデルと連携して動作するように設計された、セルフホステッドの AI アシスタントです。
このクイックスタートガイドでは、Docker を使用して OpenClaw をデプロイし、GPU 搭載のローカルモデル、あるいは CPU のみで動作するクラウドモデルのいずれかを設定する方法、そして AI アシスタントがエンドツーエンドで正常に動作していることを確認する手順を示します。
本ガイドでは、OpenClaw の最小限の設定手順を解説し、ご自身のマシン上で起動し、応答する様子を確認できるようにします。
目標はシンプルです。
- OpenClaw を起動する
- リクエストを送信する
- 正常に動作することを確認する
これは、本番環境での堅牢化ガイドではありません。 これは、パフォーマンスチューニングのガイドでもありません。 これは、実践的なスタートポイントです。
選択肢は 2 つあります。
- パス A — ローカル GPU(Ollama を使用。GPU をお持ちの方にお勧め)
- パス B — CPU のみ(Anthropic API を介した Claude Sonnet 4.6 を使用)
両方のパスとも、コアのインストールプロセスは共通です。

OpenClaw に初めて触れる方で、システムの構造についてより深く知りたい場合は、OpenClaw システム概要 をご覧ください。
システム要件と環境設定
OpenClaw は、外部サービスに接続できるアシスタント型のシステムです。このクイックスタートでは、以下の点を心がけてください。
- 可能な限りテストアカウントを使用する
- 機密性の高い本番環境のシステムとの接続を避ける
- Docker 内で実行する(お勧め)
エージェント型ソフトウェアの実験においては、分離状態を保つことが良いデフォルト設定となります。
OpenClaw の前提条件(Ollama による GPU 環境、または Claude による CPU 環境)
両方のパスに必要なもの
- Git
- Docker Desktop(または Docker + Docker Compose)
- ターミナル
パス A(ローカル GPU)の場合
- 互換性のある GPU(NVIDIA または AMD 推奨)を搭載したマシン
- Ollama のインストール
パス B(CPU + クラウドモデル)の場合
- Anthropic API キー
- Claude Sonnet 4.6 へのアクセス権限
ステップ 1 — Docker を使用して OpenClaw をインストール(クローンと起動)
OpenClaw は Docker Compose を使用して起動できます。これにより、設定が分離され、再現性が高まります。
リポジトリのクローン
git clone https://github.com/openclaw/openclaw.git
cd openclaw
環境設定ファイルのコピー
cp .env.example .env
エディタで .env ファイルを開きます。次に、選択したモデルのパスに応じて設定を行います。
コンテナの起動
docker compose up -d
すべて正常に起動した場合、コンテナが実行中であることを確認できます。
docker ps
この段階では OpenClaw は動作していますが、まだモデルには接続されていません。
ステップ 2 — LLM プロバイダーの設定(Ollama GPU または Claude CPU)
次に、推論をどのように行いたいかを決定します。
パス A — Ollama を使用したローカル GPU
GPU が利用可能な場合、これが最もシンプルで自己完結型のオプションです。
Ollama のインストールまたは確認
より詳細なインストールガイドが必要な場合、またはモデルの保存場所を設定したい場合は、以下を参照してください。
Ollama がインストールされていない場合は、以下のコマンドを実行します。
curl -fsSL https://ollama.com/install.sh | sh
動作を確認します。
ollama pull llama3
ollama run llama3
モデルが応答すれば、推論環境は正常に動作しています。
OpenClaw の Ollama 設定
.env ファイルで以下を設定します。
LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3
コンテナを再起動します。
docker compose restart
これで、OpenClaw はリクエストをローカルの Ollama インスタンスへルーティングします。
16GB の GPU でどのモデルを実行するか検討中、またはベンチマーク比較が必要な場合は、以下を参照してください。
負荷下での並行処理と CPU 動作を理解するには、以下の記事を参照してください。
パス B — Claude Sonnet 4.6 を使用した CPU のみ環境
GPU がない場合、ホストされたモデルを使用できます。
API キーの追加
.env ファイルで以下を設定します。
LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6
再起動します。
docker compose restart
これで、OpenClaw は推論に Claude Sonnet 4.6 を使用します。オーケストレーションはローカルで実行されます。
この設定は CPU のみのマシンでもよく動作します。なぜなら、重いモデル計算はクラウド側で行われるからです。
ここで Anthropic モデルを使用している場合、この Claude サブスクリプションポリシーの変更 について解説しています。これにより、OpenClaw が API ベースの課金が必要であり、Claude プランの再利用ができない理由がわかります。
ステップ 3 — 最初のプロンプトで OpenClaw をテストする
コンテナが実行され、モデルが設定されれば、アシスタントをテストできます。
設定状況によっては、以下のいずれかの方法でテストできます。
- ウェブインターフェース
- メッセージング統合
- ローカル API エンドポイント
基本的な API テストの場合は、以下のコマンドを実行します。
curl http://localhost:3000/health
正常なステータスレスポンスが表示されるはずです。
次に、シンプルなプロンプトを送信します。
curl -X POST http://localhost:3000/chat -H "Content-Type: application/json" -d '{"message": "Explain what OpenClaw does in simple terms."}'
構造化されたレスポンスが返ってきた場合、システムは正常に動作しています。
実行した内容の確認
この時点で、以下の環境が構築されています。
- 動作している OpenClaw インスタンス
- 設定済みの LLM プロバイダー(ローカルまたはクラウド)
- 正常に動作するリクエストとレスポンスのループ
GPU パスを選択した場合、推論は Ollama を介してローカルで行われます。
CPU パスを選択した場合、推論は Claude Sonnet 4.6 を介して行われ、オーケストレーション、ルーティング、メモリ処理はローカルの Docker コンテナ内で実行されます。
見た目上のインタラクションはシンプルに見えますが、その下では複数のコンポーネントが協調してリクエストを処理しています。
OpenClaw のインストールと実行時のトラブルシューティング
モデルが応答しない場合
.envの設定を確認してください。- コンテナのログを確認してください。
docker compose logs
Ollama にアクセスできない場合
- Ollama が実行中であることを確認してください。
ollama list
- ベース URL が環境設定と一致していることを確認してください。
API キーが無効な場合
ANTHROPIC_API_KEYを再確認してください。.envを更新した後、コンテナを再起動してください。
GPU が使用されていない場合
- GPU ドライバーがインストールされていることを確認してください。
- Docker が GPU へのアクセスを有効化していることを確認してください。
OpenClaw インストール後の次のステップ
これで、動作する OpenClaw インスタンスが完成しました。
ここから、以下のことが可能になります。
- メッセージングプラットフォームとの接続
- ドキュメント検索機能の有効化
- ルーティング戦略の実験
- 可観測性とメトリクスの追加
- パフォーマンスとコスト行動のチューニング
より深いアーキテクチャ的な議論は、システムが稼働してからの方が理解しやすくなります。
運用化させることが最初のステップです。
より多くの AI システムのケーススタディについては、AI システム セクションをご覧ください。