在 NVIDIA RTX GPU 與 DGX Spark 免費執行 OpenClaw

Abhishek Gore 發表於 2026年2月13日 | 指南 RTX AI PCs 精選文章

OpenClaw (前身為 Clawdbot 和 Moltbot) 是在電腦執行的「本機優先」AI 代理人。它將不同功能融為一體因而爆紅,可記住對話內容並視情況自行調整、在本機電腦持續執行、從檔案與 App 取得上下文資訊,以及運用新「技能」擴充能力,堪稱實用的全能助理。

以下是幾種常見的使用案例:

  1. 個人秘書:OpenClaw 可存取收件匣、行事曆與檔案,協助您自主管理行程。它會從檔案與過往郵件取得內容,草擬電子郵件回信、提前傳送您要求的提醒、還能查看行事曆上的空檔來安排會議。
  2. 主動式專案管理:OpenClaw 可透過您使用的電子郵件或訊息管道定期追蹤專案狀況、向您發送進度報告,並且視需要追蹤 / 發送提醒
  3. 研究代理:OpenClaw 可透過 App 的個人化背景資訊,結合網際網路搜索的資訊與檔案資料,為您製作報告

OpenClaw 採用的大型語言模型 (LLM) 可在本機或雲端執行。由於 OpenClaw 的特性是持續運作,因此雲端 LLM 衍生的成本可能相當可觀。此外,它會要求您上傳個人資料。

在這份指南,我們會說明如何在 NVIDIA RTX GPU 與 DGX Spark 完全以本機方式執行 OpenClaw 與 LLM,既可省荷包,還能確保資料保持私密不外洩。

NVIDIA RTX GPU 的 GPU 有 Tensor 核心,可加速 AI 運算,而且還可為執行 OpenClaw 所需的所有工具提供 CUDA 加速,包括 Ollama 與 Llama.cpp,為這類工作流程締造最佳效能。DGX Spark 不僅是專為持續執行而設計,還配備 128GB 記憶體,讓您能夠執行更大的本機模型,提供最佳的準確度與成果,是格外出色的選項。

開始前的重要注意事項

請留意 AI 代理人的風險,謹慎操作,將風險降至最低。如需更多資訊,請造訪 OpenClaw 網站

這類代理有 2 大風險:

  1. 個人資訊或檔案可能外洩或遭竊。
  2. 代理本身或您連接至機器人的工具,可能使您暴露在惡意程式碼或網路攻擊的風險之中。

您無法徹底防範所有風險,因此操作時請自負風險。以下是我們測試 OpenClaw 時所採取的部分措施:

  • 在另一台全新安裝且沒有個人資料的 PC 或虛擬機器上執行 OpenClaw。然後複製您希望代理有存取權的資料。
  • 請勿授予代理帳戶的存取權。反之,請為代理建立專屬帳號,並與代理共享特定資訊或存取權。 
  • 啟用技能時請務必謹慎,最好僅限測試已通過社群審查的技能。
  • 請確保您用來存取 OpenClaw 助理的任何管道,例如 Web UI 或傳訊管道,未經授權無法透過區域網路或網際網路存取。
  • 使用案例如果允許,請限制網際網路存取。

 

入門指南

我們將使用 Windows Subsystem for Linux (簡稱 WSL),在 Windows 安裝 OpenClaw。雖然可在 Powershell 原生安裝,但由於不穩定,因此開發者不鼓勵採用這個方式。 

如果您使用的是 DGX Spark,可跳至第 2 部分。

1. Windows Subsystem for Linux 安裝:

如果已安裝 WSL,可跳至下一個 OpenClaw 安裝部分。若要安裝 WSL (參考連結):

1.1. 按下 Windows 鍵、輸入 PowerShell、在結果按右鍵,然後選取「以管理員身分執行」。

1.2. 貼上下列命令,然後按下 Enter:
 

wsl --install

 

1.3. 執行下列命令,檢查 WSL 安裝是否正確。您應該會看到類似下列螢幕截取畫面的輸出結果:
 

wsl --version

1.4. 從 Windows 搜尋列搜尋 Powershell、選取「以管理員身分執行」,然後輸入下列內容即可開啟 WSL:

wsl


2. OpenClaw 安裝:

2.1. 在 WSL 視窗執行下列命令:
 

curl -fsSL https://openclaw.ai/install.sh | bash


OpenClaw 與所有必需的相依性隨即會安裝至機器。下載部分必要的套件後,OpenClaw 會顯示安全警告提示:

2.2. 請閱讀安全風險。如果確定要繼續,請使用箭頭鍵移至「是」,然後按下 Enter。

2.3. 系統會提示您選擇 Quickstart 或 Manual 上線模式。選擇 Quickstart。

2.4. 隨即會出現用於設定模型提供者的清單。如果要執行本機模型,請移至清單最下方,然後選取「Skip for now」,因為我們稍後才會設定。如果要連線雲端模型,您可選取一個,然後依照指示進行。

2.5. 隨即會出現另一個清單提示,用於依照供應商篩選模型。選取「All Providers」。在下列用於選取預設模型的提示,請選擇「Keep Current」。

2.6. 您不在 PC 旁時,系統會提供您與通訊管道連線的選項,讓您與機器人互動。您可在這裡選取一個,然後依照精靈中的步驟設定,或是選取「Skip for Now」,稍後再設定。

舉例而言,如果您選取 Telegram,就必須建立 Telegram 機器人、為 OpenClaw 提供存取權杖,然後從 Telegram 聊天提供配對碼給 OpenClaw

2.7. 接著,系統會提示您設定技能,也就是機器人將具備的能力。建議您暫時選取「否」,繼續進行設定。試用並確認使用案例所需的技能後,隨時皆可新增技能。

2.8. 接著,OpenClaw 會提示您安裝 Homebrew 套件,請選取「No」,因為 Mac 設定時需要,但 Windows 則不需要。

2.9. 下一個提示是安裝 Hooks。若要獲得更優異的體驗,建議 3 項全部選取。但請斟酌您是否能接受將資料記錄在本機。

2.10. 隨後產生的終端機輸出,會顯示用於存取 OpenClaw 儀表板的 URL。儲存這個位址,因為需要用它載入 UI。

2.11. 最後,在最後一個提示選取「Yes」,完成 OpenClaw 安裝。

2.12. 現在您可透過存取權杖隨附的儀表板連結存取 OpenClaw。

3. 本機模型配置:

您可利用在 RTX GPU 本機執行的 LLM 或雲端 LLM 驅動 OpenClaw。這個部分會說明,如何將 OpenClaw 設定為透過 LM Studio 或 Ollama 在本機執行。

答案品質取決於 LLM 的規模與品質。您不妨確保盡可能釋出 VRAM (例如,不要在 GPU 執行其他工作負載,只載入需要的技能,儘量減少上下文佔用),以便我們使用一個能存取大部分 GPU 資源的大型 LLM。

3.1. 選取您偏好的後端:

3.1.1. 若追求原始效能,建議使用 LM Studio 作為後端,因為它使用 Llama.cpp 執行 LLM。

3.1.2. Ollama 提供額外的開發者工具,協助簡化部署。

3.2 如果您使用 Windows,請從 Windows 搜尋列搜尋 Powershell、選取「以管理員身分執行」,然後輸入,開啟另一個 WSL 視窗。(DGX Spark 則跳過這個步驟)

wsl


3.3. 下載並安裝 LM Studio 或 Ollama:

3.3. 下載並安裝 LM Studio 或 Ollama:

LM Studio Ollama
curl -fsSL https://lmstudio.ai/install.sh | bash
curl -fsSL https://ollama.com/install.sh | sh


3.4. 選取您偏好的 LLM:依據您的 GPU,我們建議您選用下列模型:

  • 8-12GB GPU:qwen3-4B-Thinking-2507
  • 16GB GPU:gpt-oss-20b
  • 24-48GB GPU:Nemotron-3-Nano-30B-A3B
  • 96-128GB GPU:gpt-oss-120b

3.5. 下載模型:

LM Studio Ollama
lms get openai/gpt-oss-20b
ollama pull gpt-oss:20b


3.6. 執行模型,並將上下文視窗設定為 32K token 以上,模型才能搭配 OpenClaw 順暢運作。

LM Studio Ollama
lms load openai/gpt-oss-20b --context-length 32768
ollama run gpt-oss:20b /set parameter num_ctx 32768

 

3.7. 將 OpenClaw 設定為使用 LM Studio 或 Ollama,然後啟動閘道:

 

LM Studio Ollama

執行下列命令,前往 OpenClaw 設定檔:

.explorer

接著開啟名為「.openclaw」的資料夾,然後開啟「openclaw.json」這個檔案。編輯並貼上下列程式碼片段

"models": {
    "mode": "merge",
    "providers": {
      "lmstudio": {
        "baseUrl": "http://localhost:1234/v1",
        "apiKey": "lmstudio",
        "api": "openai-responses",
        "models": [
          {
            "id": "openai/gpt-oss-20b",
            "name": "openai/gpt-oss-20b",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32768,
            "maxTokens": 4096
          }
        ]
      }
    }
  },
ollama launch openclaw #如果閘道已執行,將自動重新載入設定 #您可加上「--config」進行設定,但不啟動 openclaw 閘道

 

總結

大功告成!若要檢查設定是否正確,請開啟瀏覽器視窗,然後使用存取權杖貼上 OpenClaw URL。按一下 new,並嘗試輸入內容。如果收到回覆,就代表一切已準備就緒!您也可以詢問 OpenClaw 使用的是什麼模型,甚至也可在閘道聊天 UI 中輸入 /model MODEL_NAME 在模型之間切換。

若要進一步瞭解如何使用 OpenClaw,請造訪 OpenClaw 網站

您不妨研究一下如何新增新技能。請切記,新增技能會衍生額外的風險,因此請慎選。若要新增技能:

  • 要求 OpenClaw 透過技能自行設定
  • 使用網頁 UI 的側邊欄啟用技能
  • Clawhub 尋找社群建立的技能

盡情享受成果吧!