Ejecuta OpenClaw de Forma Gratuita en GPUs GeForce RTX y NVIDIA RTX, y en DGX Spark

Por Abhishek Gore el 13 de febrero de 2026 | Guides RTX AI PCs Featured Stories

OpenClaw (antes conocido como Clawdbot y Moltbot) es un agente de IA “local” que reside en tu computadora. Se está volviendo viral por combinar diferentes funcionalidades para ser un asistente útil, memorizando tus conversaciones y adaptándose a ellas, funcionando continuamente en tu máquina local, utilizando el contexto de tus archivos y aplicaciones y aprovechando nuevas “habilidades” para ampliar sus capacidades.

Estos son algunos de sus usos más populares:

  1. Asistente personal: con acceso a tu bandeja de entrada, calendario y archivos, OpenClaw puede ayudarte a gestionar tu agenda de forma autónoma. Redacta respuestas a correos electrónicos utilizando el contexto de tus archivos y mensajes anteriores, envía recordatorios solicitados con anterioridad y programa reuniones, buscando horarios disponibles en tu agenda.
  2. Gestión proactiva de proyectos: OpenClaw puede verificar regularmente el estado de un proyecto por correo electrónico o a través de los canales de mensajería que utilizas, enviar actualizaciones de estado y realizar un seguimiento o enviar recordatorios según sea necesario.
  3. Agente de búsqueda: Con el contexto personalizado de tus aplicaciones, OpenClaw puede crear informes combinando búsquedas en Internet y tus archivos.

OpenClaw funciona con modelos de lenguaje de gran tamaño (LLM) que pueden ejecutarse localmente o en la nube. Los LLM en la nube pueden suponer un costo significativo debido a la naturaleza siempre activa de OpenClaw. Además, requieren que cargues tus datos personales.

En esta guía, le mostraremos cómo puedes ejecutar OpenClaw y los LLM completamente de forma local en GPUs NVIDIA RTX y DGX Spark para ahorrar dinero y garantizar la privacidad de tus datos.

Las GPUs NVIDIA RTX ofrecen el mejor rendimiento para este tipo de flujo de trabajo gracias a los núcleos Tensor de la GPU, que aceleran las operaciones de IA, y a las aceleraciones CUDA para todas las herramientas necesarias para ejecutar OpenClaw, incluidas Ollama y Llama.cpp. DGX Spark es una opción especialmente buena, ya que está diseñado para estar siempre activo y cuenta con 128 GB de memoria, lo que permite ejecutar modelos locales más grandes, lo que proporcionará la mejor precisión y los mejores resultados.

 

Aviso Importante Antes de Comenzar

Debe ser consciente de los riesgos de los agentes de IA y tomar precauciones para minimizarlos. Consulta el sitio web de OpenClaw para obtener más información.

Estos son los dos principales riesgos asociados a este tipo de agentes:

  1. Tu información o archivos personales pueden filtrarse o ser robados.
  2. El agente en sí, o las herramientas que conecta al bot, pueden exponerlo a códigos maliciosos o ataques cibernéticos.

No hay forma de protegerse completamente contra todos los riesgos, por lo que debe proceder bajo su propia responsabilidad. Estas son algunas de las medidas que tomamos al probar OpenClaw:

  • Ejecuta OpenClaw en una computadora separada y limpia, sin datos personales, o en una máquina virtual. A continuación, copia los datos a los que desea que el agente tenga acceso.
  • No le des acceso a tus cuentas. En su lugar, crea cuentas dedicadas para el agente y comparta información específica o acceso a él.
  • Ten cuidado con las habilidades que habilitas, idealmente limitando las pruebas a aquellas que han sido aprobadas por la comunidad.
  • Asegúrate de que los canales que utilices para acceder a tu asistente OpenClaw, como la interfaz web o los canales de mensajería, no sean accesibles sin autorización en redes locales o en Internet.
  • Si es posible, de acuerdo con tu caso de uso, limita el acceso a Internet. 

Guía de Introducción

Para instalar OpenClaw en Windows, utilizaremos el Subsistema Windows para Linux (o WSL, por sus siglas en inglés). La instalación nativa en PowerShell es posible, pero el desarrollador no lo aconseja por ser inestable.

Si utiliza un DGX Spark, puede pasar a la sección 2.

1. Instalación del Subsistema Windows para Linux:

Si ya tienes WSL instalado, puedes pasar a la siguiente sección, Instalación de OpenClaw. Para instalar WSL (enlace para referencia):

        1.1. Presiona la tecla Windows, escribe PowerShell, haz clic con el botón derecho del mouse en el resultado y selecciona Ejecutar como administrador.

        1.2. Pega el siguiente comando y presiona Intro:

wsl --install

 

1.3. Ejecuta el siguiente comando para verificar que WSL se ha instalado correctamente. Deberías ver un resultado similar al de la siguiente captura de pantallat:
 

wsl --version

1.4. Abre WSL buscando “PowerShell” en la barra de búsqueda de Windows, seleccionando “Ejecutar como administrador” y escribiendo:
 

wsl


2. Instalación de OpenClaw:

2.1. Ejecuta el siguiente comando en tu ventana WSL::
 

curl -fsSL https://openclaw.ai/install.sh | bash


Esto instalará OpenClaw y todas las dependencias necesarias en tu máquina. Después de descargar algunos paquetes necesarios, OpenClaw mostrará un aviso de seguridad:

2.2. Lee los riesgos de seguridad. Si estás de acuerdo en continuar, navega con las flechas hasta “Sí” y presiona Intro.

2.3. Se te pedirá que elijas el modo de integración Rápido o Manual. Elije Inicio rápido.

2.4. Se mostrará una lista para configurar el proveedor del modelo. Si deseas ejecutar un modelo local, navega hasta el final de la lista y selecciona “Ignorar por ahora”, ya que lo configuraremos más adelante. Si deseas conectar un modelo en la nube, selecciona uno y sigue las instrucciones.

2.5. Aparecerá otra lista para filtrar los modelos por proveedor. Selecciona “Todos los proveedores”. En la siguiente pantalla para elegir tu modelo predeterminado, selecciona “Mantener actual”.

2.6. Se ofrece la opción de conectar un canal de comunicación para interactuar con su bot mientras estás lejos de la computadora. Puedes seleccionar uno aquí o seleccionar “Omitir por ahora” y configurarlo más adelante.

2.7. A continuación, verás la pantalla de configuración de habilidades, que son las capacidades que tendrá el bot. Te recomendamos que selecciones “No” por ahora para continuar con la configuración. Siempre podrás agregar habilidades más adelante, después de probar e identificar las habilidades necesarias para tu caso de uso.

2.8. A continuación, OpenClaw te pedirá que instales el paquete Homebrew: selecciona “No”, ya que es necesario para las configuraciones en Mac, pero no para Windows.

2.9. La siguiente solicitud será para instalar los Hooks. Recomendamos seleccionar los 3 para una mejor experiencia. Pero considera si te siente cómodo registrando tus datos localmente.

2.10. La salida de la terminal mostrará una URL para acceder al panel de OpenClaw. Guarda esta dirección, ya que la necesitarás para cargar la interfaz de usuario.

2.11. Por último, selecciona “Sí” en el último mensaje para completar la instalación de OpenClaw.

2.12. Ahora puedes acceder a OpenClaw a través del enlace del panel proporcionado con el token de acceso.

3. Configuración del Modelo Local:

Puedes ejecutar OpenClaw con un LLM que se ejecute localmente en tu GPU RTX o con un LLM en la nube. En esta sección, te mostraremos cómo configurar OpenClaw para que se ejecute localmente con LM Studio u Ollama.

La calidad de las respuestas depende del tamaño y la calidad del LLM. Es importante liberar la mayor cantidad de VRAM posible (por ejemplo, no ejecutes otras cargas de trabajo en la GPU, carga solo las habilidades necesarias para minimizar el contexto, etc.) para que podamos utilizar un LLM grande que tenga acceso a la mayor parte de tu GPU.

             3.1. Selecciona el backend que prefieras:

                            3.1.1. LM Studio es el backend recomendado para un rendimiento bruto, ya que utiliza Llama.cpp para ejecutar el LLM.

                            3.1.2. Ollama ofrece herramientas adicionales para desarrolladores con el fin de facilitar la implementación.

             3.2 Si está en Windows, abre otra ventana de WSL buscando “PowerShell” en la barra de búsqueda de Windows, seleccionando “Ejecutar como administrador” y escribiendo el comando. (Omite este paso en DGX Spark)
 

wsl

 

3.3. Descarga e instala LM Studio u Ollama:

LM Studio Ollama
curl -fsSL https://lmstudio.ai/install.sh | bash
curl -fsSL https://ollama.com/install.sh | sh


3.4. Selecciona el LLM que prefieras: Recomendamos los siguientes modelos, dependiendo de tu GPU:

  • GPU de 8 a 12 GB: qwen3-4B-Thinking-2507
  • GPU de 16 GB: gpt-oss-20b
  • GPU de 24 a 48 GB: Nemotron-3-Nano-30B-A3B
  • GPU de 96 a 128 GB: gpt-oss-120b

3.5. Descarga el modelo:

LM Studio Ollama
lms get openai/gpt-oss-20b
ollama pull gpt-oss:20b


3.6. Ejecuta el modelo y establece la ventana de contexto en 32 000 tokens o más para que funcione correctamente con OpenClaw.
 

LM Studio Ollama
lms load openai/gpt-oss-20b --context-length 32768
ollama run gpt-oss:20b /set parameter num_ctx 32768

 

3.7. Configura OpenClaw para utilizar LM Studio u Ollama e inicia la puerta de enlace:

 

LM Studio Ollama

Navigate to the OpenClaw config file by running:

.explorer

Then open the folder titled ‘.openclaw’ and open the file ‘openclaw.json’. Edit and paste the following snippet

"models": {
    "mode": "merge",
    "providers": {
      "lmstudio": {
        "baseUrl": "http://localhost:1234/v1",
        "apiKey": "lmstudio",
        "api": "openai-responses",
        "models": [
          {
            "id": "openai/gpt-oss-20b",
            "name": "openai/gpt-oss-20b",
            "reasoning": false,
            "input": [
              "text"
            ],
            "cost": {
              "input": 0,
              "output": 0,
              "cacheRead": 0,
              "cacheWrite": 0
            },
            "contextWindow": 32768,
            "maxTokens": 4096
          }
        ]
      }
    }
  },
ollama launch openclaw #If the gateway is already running, it will auto-reload the configuration #You can add "--config" to configure without launching the openclaw gateway yet

 

Conclusión

¡Y ya está! Para comprobar que todo está configurado correctamente, abre una ventana del navegador y pega la URL de OpenClaw con el token de acceso. Haz clic en “Nuevo” e intenta escribir algo. Si recibes una respuesta, ¡todo está configurado! También puedes preguntarle a OpenClaw qué modelo está utilizando e incluso cambiar de modelo escribiendo /model NOMBRE_DEL_MODELO en la interfaz de chat de la puerta de enlace.

Para obtener más información sobre cómo utilizar OpenClaw, visita el sitio web de OpenClaw .

Una cosa que tal vez desees considerar es agregar nuevas habilidades. Recuerda que esto introduce riesgos adicionales, así que ten cuidado al elegir cuáles agregar. Para agregar una nueva habilidad:

  • Pide a OpenClaw que se configure con una habilidad.
  • Utiliza la barra lateral de la interfaz web para activar las habilidades.
  • Encuentra habilidades creadas por la comunidad en Clawhub.

¡Ahora solo queda disfrutar!