OpenClaw (前身為 Clawdbot 和 Moltbot) 是在電腦執行的「本機優先」AI 代理人。它將不同功能融為一體因而爆紅,可記住對話內容並視情況自行調整、在本機電腦持續執行、從檔案與 App 取得上下文資訊,以及運用新「技能」擴充能力,堪稱實用的全能助理。
以下是幾種常見的使用案例:
OpenClaw 採用的大型語言模型 (LLM) 可在本機或雲端執行。由於 OpenClaw 的特性是持續運作,因此雲端 LLM 衍生的成本可能相當可觀。此外,它會要求您上傳個人資料。
在這份指南,我們會說明如何在 NVIDIA RTX GPU 與 DGX Spark 完全以本機方式執行 OpenClaw 與 LLM,既可省荷包,還能確保資料保持私密不外洩。
NVIDIA RTX GPU 的 GPU 有 Tensor 核心,可加速 AI 運算,而且還可為執行 OpenClaw 所需的所有工具提供 CUDA 加速,包括 Ollama 與 Llama.cpp,為這類工作流程締造最佳效能。DGX Spark 不僅是專為持續執行而設計,還配備 128GB 記憶體,讓您能夠執行更大的本機模型,提供最佳的準確度與成果,是格外出色的選項。
請留意 AI 代理人的風險,謹慎操作,將風險降至最低。如需更多資訊,請造訪 OpenClaw 網站。
這類代理有 2 大風險:
您無法徹底防範所有風險,因此操作時請自負風險。以下是我們測試 OpenClaw 時所採取的部分措施:
我們將使用 Windows Subsystem for Linux (簡稱 WSL),在 Windows 安裝 OpenClaw。雖然可在 Powershell 原生安裝,但由於不穩定,因此開發者不鼓勵採用這個方式。
如果您使用的是 DGX Spark,可跳至第 2 部分。
如果已安裝 WSL,可跳至下一個 OpenClaw 安裝部分。若要安裝 WSL (參考連結):
1.1. 按下 Windows 鍵、輸入 PowerShell、在結果按右鍵,然後選取「以管理員身分執行」。
1.2. 貼上下列命令,然後按下 Enter:
wsl --install
1.3. 執行下列命令,檢查 WSL 安裝是否正確。您應該會看到類似下列螢幕截取畫面的輸出結果:
wsl --version
1.4. 從 Windows 搜尋列搜尋 Powershell、選取「以管理員身分執行」,然後輸入下列內容即可開啟 WSL:
wsl
2.1. 在 WSL 視窗執行下列命令:
curl -fsSL https://openclaw.ai/install.sh | bash
OpenClaw 與所有必需的相依性隨即會安裝至機器。下載部分必要的套件後,OpenClaw 會顯示安全警告提示:
2.2. 請閱讀安全風險。如果確定要繼續,請使用箭頭鍵移至「是」,然後按下 Enter。
2.3. 系統會提示您選擇 Quickstart 或 Manual 上線模式。選擇 Quickstart。
2.4. 隨即會出現用於設定模型提供者的清單。如果要執行本機模型,請移至清單最下方,然後選取「Skip for now」,因為我們稍後才會設定。如果要連線雲端模型,您可選取一個,然後依照指示進行。
2.5. 隨即會出現另一個清單提示,用於依照供應商篩選模型。選取「All Providers」。在下列用於選取預設模型的提示,請選擇「Keep Current」。
2.6. 您不在 PC 旁時,系統會提供您與通訊管道連線的選項,讓您與機器人互動。您可在這裡選取一個,然後依照精靈中的步驟設定,或是選取「Skip for Now」,稍後再設定。
舉例而言,如果您選取 Telegram,就必須建立 Telegram 機器人、為 OpenClaw 提供存取權杖,然後從 Telegram 聊天提供配對碼給 OpenClaw
2.7. 接著,系統會提示您設定技能,也就是機器人將具備的能力。建議您暫時選取「否」,繼續進行設定。試用並確認使用案例所需的技能後,隨時皆可新增技能。
2.8. 接著,OpenClaw 會提示您安裝 Homebrew 套件,請選取「No」,因為 Mac 設定時需要,但 Windows 則不需要。
2.9. 下一個提示是安裝 Hooks。若要獲得更優異的體驗,建議 3 項全部選取。但請斟酌您是否能接受將資料記錄在本機。
2.10. 隨後產生的終端機輸出,會顯示用於存取 OpenClaw 儀表板的 URL。儲存這個位址,因為需要用它載入 UI。
2.11. 最後,在最後一個提示選取「Yes」,完成 OpenClaw 安裝。
2.12. 現在您可透過存取權杖隨附的儀表板連結存取 OpenClaw。
您可利用在 RTX GPU 本機執行的 LLM 或雲端 LLM 驅動 OpenClaw。這個部分會說明,如何將 OpenClaw 設定為透過 LM Studio 或 Ollama 在本機執行。
答案品質取決於 LLM 的規模與品質。您不妨確保盡可能釋出 VRAM (例如,不要在 GPU 執行其他工作負載,只載入需要的技能,儘量減少上下文佔用),以便我們使用一個能存取大部分 GPU 資源的大型 LLM。
3.1. 選取您偏好的後端:
3.1.1. 若追求原始效能,建議使用 LM Studio 作為後端,因為它使用 Llama.cpp 執行 LLM。
3.1.2. Ollama 提供額外的開發者工具,協助簡化部署。
3.2 如果您使用 Windows,請從 Windows 搜尋列搜尋 Powershell、選取「以管理員身分執行」,然後輸入,開啟另一個 WSL 視窗。(DGX Spark 則跳過這個步驟)
wsl
3.3. 下載並安裝 LM Studio 或 Ollama:
3.3. 下載並安裝 LM Studio 或 Ollama:
| LM Studio | Ollama |
curl -fsSL https://lmstudio.ai/install.sh | bash
|
curl -fsSL https://ollama.com/install.sh | sh
|
3.4. 選取您偏好的 LLM:依據您的 GPU,我們建議您選用下列模型:
3.5. 下載模型:
| LM Studio | Ollama |
lms get openai/gpt-oss-20b
|
ollama pull gpt-oss:20b
|
3.6. 執行模型,並將上下文視窗設定為 32K token 以上,模型才能搭配 OpenClaw 順暢運作。
| LM Studio | Ollama |
lms load openai/gpt-oss-20b --context-length 32768
|
ollama run gpt-oss:20b /set parameter num_ctx 32768
|
3.7. 將 OpenClaw 設定為使用 LM Studio 或 Ollama,然後啟動閘道:
| LM Studio | Ollama |
執行下列命令,前往 OpenClaw 設定檔: .explorer
接著開啟名為「.openclaw」的資料夾,然後開啟「openclaw.json」這個檔案。編輯並貼上下列程式碼片段 "models": {
|
ollama launch openclaw #如果閘道已執行,將自動重新載入設定 #您可加上「--config」進行設定,但不啟動 openclaw 閘道
|
大功告成!若要檢查設定是否正確,請開啟瀏覽器視窗,然後使用存取權杖貼上 OpenClaw URL。按一下 new,並嘗試輸入內容。如果收到回覆,就代表一切已準備就緒!您也可以詢問 OpenClaw 使用的是什麼模型,甚至也可在閘道聊天 UI 中輸入 /model MODEL_NAME 在模型之間切換。
若要進一步瞭解如何使用 OpenClaw,請造訪 OpenClaw 網站。
您不妨研究一下如何新增新技能。請切記,新增技能會衍生額外的風險,因此請慎選。若要新增技能:
盡情享受成果吧!