Llevamos un par de años perdiendo el tiempo con chatbots que solo sirven para chatear o escribir código que luego tienes que refactorizar a mano. Sinceramente, yo me he cansado de ello.
La verdadera revolución no es que una IA me explique qué es un foreach; es que pueda entrar en mi CRM, identificar un impago y gestionar la reclamación sin que yo mueva un solo dedo. Eso es un Agente. Eso es ejecución pura, y por eso llevo unos días pegándome con OpenClaw.
No estamos ante otro “wrapper” de ChatGPT para hacer la interfaz más bonita. OpenClaw es un motor diseñado para hacer cosas de verdad: se conecta a herramientas, ejecuta scripts y navega. Pero claro, aquí es donde chocamos con el muro de siempre: ¿dónde reside el cerebro de este bicho?
Mi línea roja: Los datos no salen de mi red
Podría conectar OpenClaw a la API de OpenAI y que todo fuese como la seda. Sería rápido, eficiente y parecería muy inteligente. Pero ni de broma.
Como ingeniero, tengo una línea roja innegociable: si voy a darle a un agente acceso a mis archivos, a mi calendario o a mi terminal, ese agente no puede vivir en un servidor de California. No voy a entregar las llaves de mis sistemas ni la privacidad de mis clientes a una empresa que va a usar esos datos para alimentar a su próximo modelo.
Así que he optado por el camino difícil: Local-First por defecto.
Y llega la cruda realidad: RAM y ventiladores preparados para ignición
La teoría de la “Soberanía Digital” queda muy profesional de cara a la galería, pero la práctica es que mi Mac está a punto de entrar en órbita. Correr OpenClaw en un contenedor Docker orquestado con un LLM local (vía Ollama) es un bofetón de realidad con el hardware actual. Estamos intentando meter la capacidad de un datacenter en un portátil, y claro, la cosa se complica.
Si quieres razonamiento complejo, necesitas un modelo con parámetros suficientes. Y si lo quieres en local, vete preparando 40GB de RAM solo para que la IA empiece a funcionar. ¿El resultado? Los ventiladores a tope y una latencia que me devuelve a los tiempos del módem de 56k. Ahora mismo, la IA local o es “poco inteligente” o va a pedales. A veces, ambas cosas.
¿Por qué me complico la vida?
Entonces, ¿por qué insisto si el rendimiento es pobre y la máquina quema? Porque es soberanía.
Al ejecutar OpenClaw contra un modelo local, la privacidad deja de ser un término legal para ser una realidad técnica. Puedo pedirle que analice contratos confidenciales o bases de datos brutas, como una de 8GB que estoy procesando ahora mismo, con la tranquilidad de que podría cortar el cable de fibra y el sistema seguiría trabajando.
Además, se acabaron las sorpresas en la tarjeta de crédito por el consumo de tokens; aquí solo pago la electricidad y tengo el control total del stack. Si mañana a OpenAI le dejo de gustar o cambian sus políticas, mi agente sigue en su sitio, trabajando para mí.
Prefiero invertir en hardware y pelearme con configuraciones de redes, Docker, integraciones y demás, antes que alquilar inteligencia ajena para este tipo de datos. OpenClaw es una herramienta prometedora porque nos permite automatizar sin sacrificar la privacidad, pero el hardware es el gran cuello de botella.
La IA útil será privada, o simplemente no será útil para un profesional. Y mientras tanto, si escucháis un ruido parecido a un Boeing 747 despegando cerca de Sevilla, no os asustéis: es mi Mac intentando razonar sin tener que pedirle permiso a nadie.