OpenClaw クイックスタート:Docker でのインストール(Ollama GPU または Claude + CPU)

Ollama を使用して OpenClaw をローカルにインストールします

目次

OpenClaw は、Ollama のようなローカル LLM ランタイム、または Claude Sonnet のようなクラウドベースのモデルと連携して動作するように設計された、セルフホステッドの AI アシスタントです。

このクイックスタートガイドでは、Docker を使用して OpenClaw をデプロイし、GPU 搭載のローカルモデル、あるいは CPU のみで動作するクラウドモデルのいずれかを設定する方法、そして AI アシスタントがエンドツーエンドで正常に動作していることを確認する手順を示します。

本ガイドでは、OpenClaw の最小限の設定手順を解説し、ご自身のマシン上で起動し、応答する様子を確認できるようにします。

目標はシンプルです。

  • OpenClaw を起動する
  • リクエストを送信する
  • 正常に動作することを確認する

これは、本番環境での堅牢化ガイドではありません。 これは、パフォーマンスチューニングのガイドでもありません。 これは、実践的なスタートポイントです。

選択肢は 2 つあります。

  • パス A — ローカル GPU(Ollama を使用。GPU をお持ちの方にお勧め)
  • パス B — CPU のみ(Anthropic API を介した Claude Sonnet 4.6 を使用)

両方のパスとも、コアのインストールプロセスは共通です。

install openclaw steps GPU vs CPU

OpenClaw に初めて触れる方で、システムの構造についてより深く知りたい場合は、OpenClaw システム概要 をご覧ください。

システム要件と環境設定

OpenClaw は、外部サービスに接続できるアシスタント型のシステムです。このクイックスタートでは、以下の点を心がけてください。

  • 可能な限りテストアカウントを使用する
  • 機密性の高い本番環境のシステムとの接続を避ける
  • Docker 内で実行する(お勧め)

エージェント型ソフトウェアの実験においては、分離状態を保つことが良いデフォルト設定となります。


OpenClaw の前提条件(Ollama による GPU 環境、または Claude による CPU 環境)

両方のパスに必要なもの

  • Git
  • Docker Desktop(または Docker + Docker Compose)
  • ターミナル

パス A(ローカル GPU)の場合

  • 互換性のある GPU(NVIDIA または AMD 推奨)を搭載したマシン
  • Ollama のインストール

パス B(CPU + クラウドモデル)の場合

  • Anthropic API キー
  • Claude Sonnet 4.6 へのアクセス権限

ステップ 1 — Docker を使用して OpenClaw をインストール(クローンと起動)

OpenClaw は Docker Compose を使用して起動できます。これにより、設定が分離され、再現性が高まります。

リポジトリのクローン

git clone https://github.com/openclaw/openclaw.git
cd openclaw

環境設定ファイルのコピー

cp .env.example .env

エディタで .env ファイルを開きます。次に、選択したモデルのパスに応じて設定を行います。

コンテナの起動

docker compose up -d

すべて正常に起動した場合、コンテナが実行中であることを確認できます。

docker ps

この段階では OpenClaw は動作していますが、まだモデルには接続されていません。


ステップ 2 — LLM プロバイダーの設定(Ollama GPU または Claude CPU)

次に、推論をどのように行いたいかを決定します。


パス A — Ollama を使用したローカル GPU

GPU が利用可能な場合、これが最もシンプルで自己完結型のオプションです。

Ollama のインストールまたは確認

より詳細なインストールガイドが必要な場合、またはモデルの保存場所を設定したい場合は、以下を参照してください。

Ollama がインストールされていない場合は、以下のコマンドを実行します。

curl -fsSL https://ollama.com/install.sh | sh

動作を確認します。

ollama pull llama3
ollama run llama3

モデルが応答すれば、推論環境は正常に動作しています。

OpenClaw の Ollama 設定

.env ファイルで以下を設定します。

LLM_PROVIDER=ollama
OLLAMA_BASE_URL=http://host.docker.internal:11434
OLLAMA_MODEL=llama3

コンテナを再起動します。

docker compose restart

これで、OpenClaw はリクエストをローカルの Ollama インスタンスへルーティングします。

16GB の GPU でどのモデルを実行するか検討中、またはベンチマーク比較が必要な場合は、以下を参照してください。

負荷下での並行処理と CPU 動作を理解するには、以下の記事を参照してください。


パス B — Claude Sonnet 4.6 を使用した CPU のみ環境

GPU がない場合、ホストされたモデルを使用できます。

API キーの追加

.env ファイルで以下を設定します。

LLM_PROVIDER=anthropic
ANTHROPIC_API_KEY=your_api_key_here
ANTHROPIC_MODEL=claude-sonnet-4-6

再起動します。

docker compose restart

これで、OpenClaw は推論に Claude Sonnet 4.6 を使用します。オーケストレーションはローカルで実行されます。

この設定は CPU のみのマシンでもよく動作します。なぜなら、重いモデル計算はクラウド側で行われるからです。

ここで Anthropic モデルを使用している場合、この Claude サブスクリプションポリシーの変更 について解説しています。これにより、OpenClaw が API ベースの課金が必要であり、Claude プランの再利用ができない理由がわかります。


ステップ 3 — 最初のプロンプトで OpenClaw をテストする

コンテナが実行され、モデルが設定されれば、アシスタントをテストできます。

設定状況によっては、以下のいずれかの方法でテストできます。

  • ウェブインターフェース
  • メッセージング統合
  • ローカル API エンドポイント

基本的な API テストの場合は、以下のコマンドを実行します。

curl http://localhost:3000/health

正常なステータスレスポンスが表示されるはずです。

次に、シンプルなプロンプトを送信します。

curl -X POST http://localhost:3000/chat   -H "Content-Type: application/json"   -d '{"message": "Explain what OpenClaw does in simple terms."}'

構造化されたレスポンスが返ってきた場合、システムは正常に動作しています。


実行した内容の確認

この時点で、以下の環境が構築されています。

  • 動作している OpenClaw インスタンス
  • 設定済みの LLM プロバイダー(ローカルまたはクラウド)
  • 正常に動作するリクエストとレスポンスのループ

GPU パスを選択した場合、推論は Ollama を介してローカルで行われます。

CPU パスを選択した場合、推論は Claude Sonnet 4.6 を介して行われ、オーケストレーション、ルーティング、メモリ処理はローカルの Docker コンテナ内で実行されます。

見た目上のインタラクションはシンプルに見えますが、その下では複数のコンポーネントが協調してリクエストを処理しています。


OpenClaw のインストールと実行時のトラブルシューティング

モデルが応答しない場合

  • .env の設定を確認してください。
  • コンテナのログを確認してください。
docker compose logs

Ollama にアクセスできない場合

  • Ollama が実行中であることを確認してください。
ollama list
  • ベース URL が環境設定と一致していることを確認してください。

API キーが無効な場合

  • ANTHROPIC_API_KEY を再確認してください。
  • .env を更新した後、コンテナを再起動してください。

GPU が使用されていない場合

  • GPU ドライバーがインストールされていることを確認してください。
  • Docker が GPU へのアクセスを有効化していることを確認してください。

OpenClaw インストール後の次のステップ

これで、動作する OpenClaw インスタンスが完成しました。

ここから、以下のことが可能になります。

  • メッセージングプラットフォームとの接続
  • ドキュメント検索機能の有効化
  • ルーティング戦略の実験
  • 可観測性とメトリクスの追加
  • パフォーマンスとコスト行動のチューニング

より深いアーキテクチャ的な議論は、システムが稼働してからの方が理解しやすくなります。

運用化させることが最初のステップです。

より多くの AI システムのケーススタディについては、AI システム セクションをご覧ください。