OpenClaw (antes conocido como Clawdbot y Moltbot) es un agente de IA “local” que reside en tu computadora. Se está volviendo viral por combinar diferentes funcionalidades para ser un asistente útil, memorizando tus conversaciones y adaptándose a ellas, funcionando continuamente en tu máquina local, utilizando el contexto de tus archivos y aplicaciones y aprovechando nuevas “habilidades” para ampliar sus capacidades.
Estos son algunos de sus usos más populares:
OpenClaw funciona con modelos de lenguaje de gran tamaño (LLM) que pueden ejecutarse localmente o en la nube. Los LLM en la nube pueden suponer un costo significativo debido a la naturaleza siempre activa de OpenClaw. Además, requieren que cargues tus datos personales.
En esta guía, le mostraremos cómo puedes ejecutar OpenClaw y los LLM completamente de forma local en GPUs NVIDIA RTX y DGX Spark para ahorrar dinero y garantizar la privacidad de tus datos.
Las GPUs NVIDIA RTX ofrecen el mejor rendimiento para este tipo de flujo de trabajo gracias a los núcleos Tensor de la GPU, que aceleran las operaciones de IA, y a las aceleraciones CUDA para todas las herramientas necesarias para ejecutar OpenClaw, incluidas Ollama y Llama.cpp. DGX Spark es una opción especialmente buena, ya que está diseñado para estar siempre activo y cuenta con 128 GB de memoria, lo que permite ejecutar modelos locales más grandes, lo que proporcionará la mejor precisión y los mejores resultados.
Debe ser consciente de los riesgos de los agentes de IA y tomar precauciones para minimizarlos. Consulta el sitio web de OpenClaw para obtener más información.
Estos son los dos principales riesgos asociados a este tipo de agentes:
No hay forma de protegerse completamente contra todos los riesgos, por lo que debe proceder bajo su propia responsabilidad. Estas son algunas de las medidas que tomamos al probar OpenClaw:
Para instalar OpenClaw en Windows, utilizaremos el Subsistema Windows para Linux (o WSL, por sus siglas en inglés). La instalación nativa en PowerShell es posible, pero el desarrollador no lo aconseja por ser inestable.
Si utiliza un DGX Spark, puede pasar a la sección 2.
1.1. Presiona la tecla Windows, escribe PowerShell, haz clic con el botón derecho del mouse en el resultado y selecciona Ejecutar como administrador.
1.2. Pega el siguiente comando y presiona Intro:
wsl --install
1.3. Ejecuta el siguiente comando para verificar que WSL se ha instalado correctamente. Deberías ver un resultado similar al de la siguiente captura de pantallat:
wsl --version
1.4. Abre WSL buscando “PowerShell” en la barra de búsqueda de Windows, seleccionando “Ejecutar como administrador” y escribiendo:
wsl
2.1. Ejecuta el siguiente comando en tu ventana WSL::
curl -fsSL https://openclaw.ai/install.sh | bash
Esto instalará OpenClaw y todas las dependencias necesarias en tu máquina. Después de descargar algunos paquetes necesarios, OpenClaw mostrará un aviso de seguridad:
2.2. Lee los riesgos de seguridad. Si estás de acuerdo en continuar, navega con las flechas hasta “Sí” y presiona Intro.
2.3. Se te pedirá que elijas el modo de integración Rápido o Manual. Elije Inicio rápido.
2.4. Se mostrará una lista para configurar el proveedor del modelo. Si deseas ejecutar un modelo local, navega hasta el final de la lista y selecciona “Ignorar por ahora”, ya que lo configuraremos más adelante. Si deseas conectar un modelo en la nube, selecciona uno y sigue las instrucciones.
2.5. Aparecerá otra lista para filtrar los modelos por proveedor. Selecciona “Todos los proveedores”. En la siguiente pantalla para elegir tu modelo predeterminado, selecciona “Mantener actual”.
2.6. Se ofrece la opción de conectar un canal de comunicación para interactuar con su bot mientras estás lejos de la computadora. Puedes seleccionar uno aquí o seleccionar “Omitir por ahora” y configurarlo más adelante.
2.7. A continuación, verás la pantalla de configuración de habilidades, que son las capacidades que tendrá el bot. Te recomendamos que selecciones “No” por ahora para continuar con la configuración. Siempre podrás agregar habilidades más adelante, después de probar e identificar las habilidades necesarias para tu caso de uso.
2.8. A continuación, OpenClaw te pedirá que instales el paquete Homebrew: selecciona “No”, ya que es necesario para las configuraciones en Mac, pero no para Windows.
2.9. La siguiente solicitud será para instalar los Hooks. Recomendamos seleccionar los 3 para una mejor experiencia. Pero considera si te siente cómodo registrando tus datos localmente.
2.10. La salida de la terminal mostrará una URL para acceder al panel de OpenClaw. Guarda esta dirección, ya que la necesitarás para cargar la interfaz de usuario.
2.11. Por último, selecciona “Sí” en el último mensaje para completar la instalación de OpenClaw.
2.12. Ahora puedes acceder a OpenClaw a través del enlace del panel proporcionado con el token de acceso.
Puedes ejecutar OpenClaw con un LLM que se ejecute localmente en tu GPU RTX o con un LLM en la nube. En esta sección, te mostraremos cómo configurar OpenClaw para que se ejecute localmente con LM Studio u Ollama.
La calidad de las respuestas depende del tamaño y la calidad del LLM. Es importante liberar la mayor cantidad de VRAM posible (por ejemplo, no ejecutes otras cargas de trabajo en la GPU, carga solo las habilidades necesarias para minimizar el contexto, etc.) para que podamos utilizar un LLM grande que tenga acceso a la mayor parte de tu GPU.
3.1. Selecciona el backend que prefieras:
3.1.1. LM Studio es el backend recomendado para un rendimiento bruto, ya que utiliza Llama.cpp para ejecutar el LLM.
3.1.2. Ollama ofrece herramientas adicionales para desarrolladores con el fin de facilitar la implementación.
3.2 Si está en Windows, abre otra ventana de WSL buscando “PowerShell” en la barra de búsqueda de Windows, seleccionando “Ejecutar como administrador” y escribiendo el comando. (Omite este paso en DGX Spark)
wsl
3.3. Descarga e instala LM Studio u Ollama:
| LM Studio | Ollama |
curl -fsSL https://lmstudio.ai/install.sh | bash
|
curl -fsSL https://ollama.com/install.sh | sh
|
3.4. Selecciona el LLM que prefieras: Recomendamos los siguientes modelos, dependiendo de tu GPU:
3.5. Descarga el modelo:
| LM Studio | Ollama |
lms get openai/gpt-oss-20b
|
ollama pull gpt-oss:20b
|
3.6. Ejecuta el modelo y establece la ventana de contexto en 32 000 tokens o más para que funcione correctamente con OpenClaw.
| LM Studio | Ollama |
lms load openai/gpt-oss-20b --context-length 32768
|
ollama run gpt-oss:20b /set parameter num_ctx 32768
|
3.7. Configura OpenClaw para utilizar LM Studio u Ollama e inicia la puerta de enlace:
| LM Studio | Ollama |
Navigate to the OpenClaw config file by running: .explorer
Then open the folder titled ‘.openclaw’ and open the file ‘openclaw.json’. Edit and paste the following snippet "models": {
|
ollama launch openclaw #If the gateway is already running, it will auto-reload the configuration #You can add "--config" to configure without launching the openclaw gateway yet
|
¡Y ya está! Para comprobar que todo está configurado correctamente, abre una ventana del navegador y pega la URL de OpenClaw con el token de acceso. Haz clic en “Nuevo” e intenta escribir algo. Si recibes una respuesta, ¡todo está configurado! También puedes preguntarle a OpenClaw qué modelo está utilizando e incluso cambiar de modelo escribiendo /model NOMBRE_DEL_MODELO en la interfaz de chat de la puerta de enlace.
Para obtener más información sobre cómo utilizar OpenClaw, visita el sitio web de OpenClaw .
Una cosa que tal vez desees considerar es agregar nuevas habilidades. Recuerda que esto introduce riesgos adicionales, así que ten cuidado al elegir cuáles agregar. Para agregar una nueva habilidad:
¡Ahora solo queda disfrutar!