NVIDIA RTX GPU와 DGX Spark에서 무료로 OpenClaw를 실행하세요.

작성자: Abhishek Gore , 2026년 2월 13일 금요일 | 가이드 RTX AI PCs 추천 스토리

OpenClaw(이전의 Clawdbot 및 Moltbot)는 컴퓨터에 상주하는 "로컬 우선" AI 에이전트입니다. 다양한 기능을 결합하여 유용한 비서 역할을 하며, 사용자의 대화를 기억하고 그에 따라 스스로 조정합니다. 로컬 컴퓨터에서 지속적으로 실행되며, 사용자의 파일과 앱에서 컨텍스트를 활용하고, 새로운 ‘스킬’을 활용하여 기능을 확장하는 방식으로 화제가 되고 있습니다.

다음은 몇 가지 인기 있는 용 사례입니다.

  1. 개인 비서: 인박스, 캘린더, 파일에 액세스할 수 있는 OpenClaw는 사용자가 일정을 자율적으로 관리할 수 있도록 도와줍니다. 귀하의 파일 및 이전 메일의 컨텍스트를 활용해 이메일 답글 초안을 작성하고, 요청한 리마인더를 예정된 시간보다 미리 전송하며, 캘린더에서 빈 시간을 찾아 회의를 조율합니다.
  2. 사전 예방적 프로젝트 관리: OpenClaw는 사용자가 사용하는 이메일이나 메시징 채널을 통해 프로젝트 상태를 정기적으로 확인하고, 상태 확인을 전송하며, 필요에 따라 후속 조치/리마인더를 전송할 수 있습니다.
  3. 연구 에이전트: 앱의 개인화된 컨텍스트를 활용해 OpenClaw는 인터넷 검색 결과와 사용자의 파일을 결합한 보고서를 생성할 수 있습니다.

OpenClaw는 로컬 또는 클라우드에서 실행할 수 있는 거대 언어 모델(LLM)을 기반으로 합니다. 클라우드 LLM은 OpenClaw의 상시 운영 특성으로 인해 상당한 비용을 발생시킬 수 있습니다. 그들은 개인 데이터를 업로드하도록 요구합니다.

이 가이드에서는 NVIDIA RTX GPU와 DGX Spark에서 OpenClaw와 LLM을 완전히 로컬로 실행하여 비용을 절약하고 데이터의 비공개를 유지하는 방법을 소개합니다.

NVIDIA RTX GPU는 AI 작업을 가속화하는 GPU의 Tensor 코어 덕분에 이러한 종류의 워크플로우에 최상의 성능을 제공합니다. 또한 Ollama, Llama.cpp를 포함한 OpenClaw를 실행하는 데 필요한 모든 도구에 CUDA 가속화를 제공합니다. DGX Spark는 항상 켜져 있기 때문에 특히 좋은 옵션입니다. 128GB의 메모리를 지원하며, 더 큰 로컬 모델을 실행하여 최상의 정확성과 결과를 제공합니다.

시작 전 중요 공지 사항

AI 에이전트의 위험을 인지하고 최소화하기 위해 주의를 기울여야 합니다. 자세한 내용은 OpenClaw의 웹사이트를 확인하세요.

이러한 종류의 에이전트의 두 가지 주요 위험 요소는 다음과 같습니다. 

  1. 개인 정보나 파일이 유출되거나 도난당할 수 있습니다.
  2. 에이전트 자체나 봇에 연결하는 도구는 악성 코드나 사이버 공격에 노출될 수 있습니다.

모든 위험을 완벽하게 방지할 수 있는 방법은 없으므로, 스스로의 책임 하에 진행하시기 바랍니다. 다음은 OpenClaw를 테스트할 때 취한 몇 가지 조치입니다.

  • 개인 데이터가 없는 별도의 깨끗한 PC 또는 가상 머신에서 OpenClaw를 실행하세요. 그런 다음 에이전트가 접근할 수 있도록 데이터를 복사하세요.
  • 계정에 대한 액세스를 허용하지 마세요. 대신 에이전트의 전용 계정을 생성하고 특정 정보나 액세스를 공유하세요. 
  • 활성화하는 스킬은 신중하게 고려하며, 커뮤니티의 심사에 따른 스킬로 테스트를 제한하는 것이 좋습니다.
  • 웹 UI 또는 메시징 채널과 같이 OpenClaw 어시스턴트에 액세스하는 데 사용하는 모든 채널은 로컬 네트워크나 인터넷을 통해 인증 없이 액세스할 수 없도록 해야 합니다.
  • 용 사례에 맞게 가능하다면 인터넷 액세스를 제한하세요. 

 

시작하기 가이드

Windows에서 OpenClaw를 설치하려면 Linux용 Windows Subsystem(또는 WSL)을 사용합니다. Powershell에서 네이티브 설치는 가능하지만, 불안정하므로 개발자가 권장하지 않습니다.

DGX Spark를 사용하는 경우, 섹션 2로 건너뛸 수 있습니다.

1. Windows 서브시스템 설치:

WSL을 설치한 경우, 다음 OpenClaw 설치 섹션으로 건너뜁니다. WSL 설치 방법(참조 링크):

1.1. Windows 키를 누르고 PowerShell을 유형한 다음 결과를 마우스 오른쪽 버튼으로 클릭하고 관리자로 실행을 선택합니다.

1.2.  다음 명령을 붙여넣고 Enter 키를 누릅니다.
 

wsl --install

 

1.3. 다음 명령을 실행하여 WSL이 올바르게 설치되어 있는지 확인하세요. 다음 스크린샷과 유사한 출력이 표시됩니다.
 

wsl --version

1.4.  Windows 검색 바에서 Powershell을 검색하고 "관리자로 실행"을 선택한 후 다음을 입력하여 WSL을 엽니다.
 

wsl


2. OpenClaw 설치:

2.1. WSL 창에서 다음 명령을 실행하세요.
 

curl -fsSL https://openclaw.ai/install.sh | bash


이렇게 하면 OpenClaw와 모든 필요한 종속성이 시스템에 설치됩니다. 일부 필수 패키지를 다운로드한 후 OpenClaw는 보안 경고를 표시합니다.

2.2. 보안 위험 요소를 읽어보세요. 계속하려면 화살표 키를 사용하여 ‘예’로 이동하고 Enter 키를 누르세요.

2.3. 빠른 시작 또는 수동 온보딩 모드를 선택하라는 메시지가 표시됩니다. 빠른 시작을 선택합니다.

2.4. 모델 공급자를 구성할 수 있는 목록이 나타납니다. 로컬 모델을 실행하려면 목록 맨 아래로 이동하여 "지금 건너뛰기"를 선택하세요. 나중에 설정할 예정이므로 지금은 건너뛰세요. 클라우드 모델을 연결하려면 하나를 선택하고 지침을 따르세요.

2.5.  공급업체별 모델 필터링을 요청하는 또 다른 목록 프롬프트가 나타납니다. ‘모든 공급자’를 선택합니다. 기본 모델을 선택하기 위한 다음 프롬프트에서 ‘현재 상태 유지’를 선택합니다.

2.6. PC에서 떨어져 있는 동안 봇과 상호작용할 수 있도록 커뮤니케이션 채널을 연결합니다. 여기에서 하나를 선택하고 마법사의 단계에 따라 구성하거나 "지금 건너뛰기"를 선택하고 나중에 설정할 수 있습니다.

예를 들어, Telegram을 선택하는 경우, Telegram 봇을 생성하고 OpenClaw에 액세스 토큰을 제공하며, 마지막으로 Telegram 채팅에서 OpenClaw에 페어링 코드를 제공해야 합니다.

2.7.  다음으로 기술 구성에 대한 메시지가 표시됩니다. 다음은 봇이 갖는 능력입니다. 설정을 계속하려면 현재 "아니요"를 선택하는 것이 좋습니다. 실험을 통해 그것을 사용해 보고 필요한 기술을 파악한 후, 언제든지 기술을 추가할 수 있습니다.

2.8.  다음으로, OpenClaw에서 홈브루 패키지를 설치하라는 메시지가 표시됩니다. "아니요"를 선택하세요. Mac 설정에는 필요하지만 Windows에는 필요하지 않습니다.

2.9.  다음 프롬프트는 Hooks를 설치하라는 메시지입니다. 더 나은 경험을 위해 3개 모두를 선택하는 것이 좋습니다. 그러나 데이터를 로컬로 기록하는 것에 익숙한지 고려해 보세요.

2.10.  결과적으로 터미널 출력에 OpenClaw 대시보드에 액세스하기 위한 URL이 표시됩니다. 이 주소는 UI를 로드하는 데 필요하므로 저장하세요.

2.11.  마지막으로 마지막 프롬프트에서 "예"를 선택하여 OpenClaw 설치를 완료하세요.

2.12.  이제 액세스 토큰과 함께 제공된 대시보드 링크를 통해 OpenClaw에 액세스할 수 있습니다.

3. 로컬 모델 구성:

RTX GPU에서 로컬로 실행되는 LLM 또는 클라우드 LLM을 통해 OpenClaw를 지원할 수 있습니다. 이 섹션에서는 LM Studio 또는 Ollama를 통해 로컬로 실행되도록 OpenClaw를 구성하는 방법을 소개합니다.

답변의 품질은 LLM의 규모와 품질에 따라 다릅니다. 대규모 LLM이 사용자의 GPU 리소스 대부분을 활용할 수 있도록 가능한 한 최대한 많은 VRAM을 확보하세요(예: GPU에서 다른 워크로드를 실행하지 않고, 컨텍스트를 최소화하는 데 필요한 기술만 로드하는 등).

3.1.  원하는 백엔드를 선택하세요.

3.1.1. LM Studio는 Llama.cpp를 사용하여 LLM을 실행하므로 원시 성능을 위해 권장되는 백엔드입니다.

3.1.2.  Ollama는 배포를 촉진하기 위한 추가 개발 도구를 제공합니다.

3.2 Windows의 경우, Windows 검색 바에서 Powershell을 검색하고 "관리자로 실행"을 선택한 후 입력하여 다른 WSL 창을 엽니다. (DGX Spark의 경우 이 단계 건너뛰세요)
 

wsl


3.3. LM Studio 또는 Ollama를 다운로드하여 설치하세요.

3.3. LM Studio 또는 Ollama를 다운로드하여 설치하세요.

LM Studio Ollama
curl -fsSL https://lmstudio.ai/install.sh | bash
curl -fsSL https://ollama.com/install.sh | sh


3.4. 원하는 LLM을 신중히 선택하세요: GPU에 따라 다음 모델을 추천합니다:

  • 8-12GB GPUs: qwen3-4B-Thinking-2507
  • 16GB GPUs: gpt-oss-20b
  • 24-48GB GPUs: Nemotron-3-Nano-30B-A3B
  • 96-128GB GPUs: gpt-oss-120b

3.5. 모델 다운로드:

LM Studio Ollama
lms get openai/gpt-oss-20b
ollama pull gpt-oss:20b


3.6. 모델을 실행하고 OpenClaw와 원활하게 실행할 수 있도록 컨텍스트 창을 32K 토큰 이상으로 설정하세요.
 

LM Studio Ollama
lms load openai/gpt-oss-20b --context-length 32768
ollama run gpt-oss:20b /set parameter num_ctx 32768

 

3.7. LM Studio 또는 Ollama를 사용하도록 OpenClaw를 구성하고 게이트웨이를 스타트합니다.

 

LM Studio Ollama

다음을 실행하여 OpenClaw 구성 파일로 이동합니다.

.explorer

그런 다음 ‘.openclaw’라는 폴더를 열고 ‘openclaw.json’ 파일을 엽니다. 다음 스니펫을 편집하고 붙여넣습니다.

"모델": {
    "mode": "merge",
    "providers": {
      "lmstudio": {
        "baseUrl": "http://localhost:1234/v1",
        "apiKey": "lmstudio",
        "api": "openai-responses",
        "models": [
          {
            "id": "openai/gpt-oss-20b",
            "name": "openai/gpt-oss-20b",            
"reasoning": false,            
"input": [              
"text"            
],            
"cost": {              
"input": 0,              
"output": 0,              
"cacheRead": 0,              
"cacheWrite": 0            
},            
"contextWindow": 32768,            
"maxTokens": 4096          
}        
]      
}    
}  
}
ollama 출시하다 openclaw #게이트웨이가 이미 실행 중인 경우, 구성 자동 재로드됩니다. #openclaw gateway를 아직 시작하지 않고도 구성에 "--config"를 추가할 수 있습니다.

 

결론

그리고 준비가 완료되었습니다! 모든 것이 올바르게 설정되었는지 확인하려면 브라우저 창을 열고 액세스 토큰과 함께 OpenClaw URL을 붙여넣으세요. 새로 만들기를 클릭하고 입력해 보세요. 응답이 있으면, 모든 준비가 완료되었습니다! 또한 OpenClaw에 어떤 모델을 사용하고 있는지 물어볼 수 있으며, 게이트웨이 채팅 UI에서 /model MODEL_NAME을 입력하여 모델 간에 전환할 수 있습니다.

OpenClaw 사용 방법에 대한 자세한 내용은 OpenClaw 웹 사이트를 방문하세요.

살펴보고 싶은 것 중 하나는 새로운 스킬을 추가하는 것입니다. 이러한 스킬은 추가적인 위험을 수반한다는 점을 명심하세요. 따라서 추가할 스킬은 신중하게 선택하세요. 새로운 스킬을 추가하는 방법은 다음과 같습니다.

  • OpenClaw에게 스킬로 스스로를 구성하도록 요청하세요.
  • webUI의 사이드바를 사용하여 기술을 활성화하세요.
  • Clawhub에서 커뮤니티 제작 기술을 검색하세요.

랍스터를 즐기세요!