NVIDIA RTX GPU と DGX Spark で OpenClaw を無料で実行

執筆者: Abhishek Gore 投稿日: 2026年2月13日金曜日 | ガイド RTX AI PCs 特集記事

OpenClaw (旧 Clawdbot および Moltbot) は、コンピューター上で動作する「ローカルファースト」の AI エージェントです。 OpenClaw はさまざまな機能を組み合わせた実用的なアシスタントとして急速に注目を集めています。会話内容を記憶してそれに応じて振る舞いを調整し、ローカルマシン上で常時動作するとともに、ファイルやアプリのコンテキストを活用し、新しい「スキル」を追加することで機能を拡張することもできます。

人気のあるユースケースをご紹介します。

  1. パーソナル秘書: 受信トレイ、カレンダー、ファイルにアクセスできるため、OpenClaw はスケジュール管理を自律的にサポートします。ファイルや過去のメールのコンテキストを活用してメール返信の下書きを作成し、指定した時間より前にリマインダーを送信します。また、カレンダーの空き時間を見つけてミーティングを手配します。
  2. プロアクティブなプロジェクト管理: OpenClaw は、利用しているメールやメッセージ チャネルを通じてプロジェクトのステータスを定期的に確認し、ステータスチェックを送信します。必要に応じてフォローアップやリマインダーも行います。
  3. リサーチ エージェント: アプリから取得したパーソナライズされたコンテキストを活用し、OpenClaw はインターネット検索とローカル ファイル情報を組み合わせたレポートを作成できます。

OpenClaw は、ローカルまたはクラウドで実行できる大規模言語モデル (LLM) によって動作します。 ただし、OpenClaw には常時動作する性質があるため、クラウド LLM を利用するとコストが増加する可能性があります。 また、個人データをアップロードする必要もあります。

このガイドでは、NVIDIA RTX GPU と DGX Spark 上で、OpenClaw と LLM を完全にローカルで実行する方法をご紹介します。これにより、コストを抑えながらデータのプライバシーを確保できます。

NVIDIA RTX GPU は、GPU に搭載された Tensor コアによってAI オペレーションを高速化できるため、この種のワークフローにおいて優れたパフォーマンスを実現します。さらに、Ollama や Llama.cpp など、OpenClaw の実行に必要なツールはすべて CUDA による高速化に対応しています。 DGX Spark は、常時動作するよう設計されているため、特に優れたオプションです。さらに、128GB のメモリを搭載しており、より大規模なローカル モデルを実行できるため、最高の精度と結果を実現します。

開始前の重要なお知らせ

AI エージェントには一定のリスクが伴うため、それらを理解したうえで、リスクを最小限に抑えるよう注意してください。 詳細については、OpenClaw のウェブサイトをご確認ください

この種のエージェントには、主に以下の 2 つのリスクがあります。 

  1. 入力した個人情報やファイルが漏洩したり、不正に取得されたりする可能性があります。
  2. エージェント自体、またはボットに接続するツールにより、悪意のあるコードやサイバー攻撃にさらされる可能性があります。

すべてのリスクを完全に防ぐ方法はないため、自己責任で進めてください。 以下は、OpenClaw のテスト時に実施した対策の一部です。

  • 個人情報を含まない別のクリーンな PC 、または仮想マシン上で、OpenClaw を実行します。次に、エージェントにアクセスさせたいデータをコピーします。
  • アカウントへのアクセス権は付与しないでください。 代わりに、エージェント専用のアカウントを作成し、特定の情報やアクセス権のみを共有してください。 
  • 有効にするスキルにはその内容に注意してください。コミュニティによって検証されたスキルに限定してテストすることを推奨します。
  • Web UI やメッセージング チャネルなど、OpenClaw アシスタントにアクセスするために使用するチャネルは、ローカル ネットワークやインターネット経由で認証なしにアクセスできないようにしてください。
  • ユースケースによって可能であれば、インターネットへのアクセスを制限してください。 

 

導入ガイド

Windows に OpenClaw をインストールするには、Windows Subsystem for Linux (WSL) を使用します。 PowerShell でのネイティブ インストールも可能ですが、不安定なため開発者は推奨していません。 

DGX Spark を使用している場合は、「2. OpenClaw のインストール」に進んでください。

1. Windows Subsystem for Linux のインストール:

すでにWSL がインストールされている場合は、「2. OpenClaw のインストール」に進んでください。WSL をインストールするには (参照リンク):

1.1. Windows キーを押し、「PowerShell」 と入力します。表示された結果を右クリックし、[Run as Administrator (管理者として実行)]を選択します。

1.2. 次のコマンドを貼り付け、Enter キーを押します。
 

wsl --install

 

1.3. 次のコマンドを実行し、WSL が正しくインストールされているかを確認します。 以下のスクリーンショットのような出力が表示されれば、正しくインストールされています。
 

wsl --version

1.4. Windows 検索ボックスで PowerShell を検索し、[Run as Administrator (管理者として実行)] を選択します。次のコマンドを入力して WSL を起動します。

wsl


2. OpenClaw のインストール:

2.1. WSL ウィンドウで次のコマンドを実行します。
 

curl -fsSL https://openclaw.ai/install.sh | bash


これにより、OpenClaw と必要なすべての依存ライブラリがマシンにインストールされます。 必要なパッケージのダウンロードが完了すると、OpenClaw からセキュリティ警告が表示されます。

2.2. 表示されるセキュリティリスクの内容をご確認ください。 続行する場合は、矢印キーで [Yes] を選択し、Enter キーを押します。

2.3. 次に Quickstart モードまたは Manual オンボーディング モードを選択するよう求められます。 [Quickstart] を選択します。

2.4. モデル プロバイダーを設定するためのリストが表示されます。 ローカルモデルを使用する場合は、リストの一番下まで移動し、[Skip for now] を選択します。後で設定できます。クラウド モデルに接続する場合は、いずれかのモデルを選択し、画面の指示に従ってください。

2.5. モデルをプロバイダー別にフィルタリングするためのリストが表示されます。 [All Providers]を選択します。続いて表示されるデフォルトモデル選択のプロンプトで、[Keep Current (現在の設定を維持)]を選択します。

2.6. PC から離れている間にボットとやり取りするための通信チャネルを接続するかどうかが表示されます。ここでいずれかを選択し、ウィザードの手順に従って設定できます。または、「Skip for Now」を選択して後で設定することもできます。

たとえば、[Telegram] を選択した場合、Telegram ボットを作成し、OpenClaw にアクセス トークンを設定します。最後に Telegram チャットで取得したペアリング コードを OpenClaw に入力する必要があります。

2.7. 次に、スキル設定を確認するプロンプトが表示されます。スキルとは、ボットが持つ機能です。 セットアップを続行するには、ここでは [No] を選択することをお勧めします。 OpenClaw を試してみて、ユースケースに必要なスキルが分かってから、後でいつでもスキルを追加できます。

2.8. 次に、OpenClaw から Homebrew パッケージをインストールするかどうかのプロンプトが表示されます。[No] を選択します。これは Mac でのセットアップには必要ですが、Windows では必要ありません。

2.9. 次に、Hooks をインストールするかどうかのプロンプトが表示されます。より快適な操作感を得るため、3 つすべてを選択することを推奨します。 しかし、データがローカルにログとして記録される点について、問題ないかを確認してください。

2.10. ターミナル出力に、OpenClaw ダッシュボードにアクセスするための URL が表示されます。 UI を開くために必要になるため、この URL を保存しておいてください。

2.11. 最後のプロンプトで [Yes] を選択し、OpenClaw のインストールを完了します。

2.12. 提供されたダッシュボードリンクとアクセストークンで OpenClaw にアクセスできるようになります。

3. ローカル モデルの構成:

OpenClaw は、RTX GPU 上でローカルで実行する LLM またはクラウド LLM を使用して動作させることができます。 本セクションでは、LM Studio または Ollama を使用して OpenClaw をローカルで実行するための設定方法をご紹介します。

回答の精度は、LLM の規模と質によって異なります。 VRAM の空き容量を最大限確保してください (例: GPU 上で他のワークロードを実行しない、必要なスキルだけを読み込んでコンテキストを最小化する)。これにより、GPU のリソースの大部分を活用できる大規模な LLM を使用できます。

3.1. 使用するバックエンドを選択します。

3.1.1. LM Studio は、 LLM の実行にLlama.cpp を使用しているため、処理性能を重視する場合に推奨されるバックエンドです。

3.1.2. Ollama は、デプロイを容易にする追加の開発者ツールを提供しています。

3.2 Windows を使用している場合、Windows 検索ボックスから PowerShell を検索し、[Run as Administrator (管理者として実行)] を選択します。次のコマンドを入力することで、2 つ目の WSL ウィンドウを開きます。(DGX Spark ではこの手順をスキップしてください。)

wsl


3.3. LM Studio または Ollama をダウンロードしてインストールします。

3.3. LM Studio または Ollama をダウンロードしてインストールします。

LM Studio Ollama
curl -fsSL https://lmstudio.ai/install.sh | bash
curl -fsSL https://ollama.com/install.sh | sh


3.4. 使用する LLM を選択します。お使いの GPU に応じて、次のモデルを推奨します。

  • 8 ~ 12GB の GPU: qwen3-4B-Thinking-2507
  • 16GB の GPU: gpt-oss-20b
  • 24 ~48GB の GPU: Nemotron-3-Nano-30B-A3B
  • 96 ~128GB の GPU: gpt-oss-120b

3.5. モデルをダウンロードします。

LM Studio Ollama
lms get openai/gpt-oss-20b
ollama pull gpt-oss:20b


3.6. モデルを起動し、コンテキスト ウィンドウを 32K トークン以上に設定します。これにより、OpenClaw で安定して動作します。
 

LM Studio Ollama
lms load openai/gpt-oss-20b --context-length 32768
ollama run gpt-oss:20b /set parameter num_ctx 32768

 

3.7. OpenClaw を LM Studio または Ollama を使用するように設定し、ゲートウェイを起動します。

 

LM Studio Ollama

次のコマンドを実行して、OpenClaw 設定ファイルに移動します。

.explorer

次に、「.openclaw」フォルダーを開き、「openclaw.json」ファイルを開きます。 以下のスニペットを編集して貼り付けます。

"models": {
    "mode": "merge",
    "providers": {
      "lmstudio": {
        "baseUrl": "http://localhost:1234/v1",
        "apiKey": "lmstudio",
        "api": "openai-responses",
        "models": [
          {
            "id": "openai/gpt-oss-20b",
            "name": "openai/gpt-oss-20b",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32768,
            "maxTokens": 4096
          }
        ]
      }
    }
  },
ollama launch openclaw #ゲートウェイがすでに実行されている場合は、設定が自動的に再読み込みされます #openclaw ゲートウェイを起動しなくても、「--config」を追加することで 設定を行うことができます。

 

まとめ

これで準備完了です!すべてが正しく設定されているかどうかを確認するには、ブラウザ を開き、アクセストークン付きの OpenClaw URL を貼り付けてアクセスします。 [New] をクリックし、メッセージを入力してみてください。 レスポンスが返ってくれば、セットアップは完了です。 また、OpenClaw に使用しているモデルを尋ねることができます。さらに、ゲートウェイのチャット UI で /model MODEL_NAME と入力すると、使用するモデルを切り替えることができます。

OpenClaw の使用方法の詳細については、OpenClaw ウェブサイトをご覧ください。

また、新しいスキルの追加についても検討してみてください。 ただし、スキルを追加すると追加のリスクが生じる可能性があるため、導入するスキルは慎重に選択してください。 新しいスキルを追加するには:

  • OpenClaw にスキルの設定を依頼します。
  • webUI のサイドバーからスキルを有効にします。
  • Clawhub でコミュニティが育成したスキルを見つけることもできます。

OpenClawを楽しんでください!