El creador de OpenClaw fue suspendido por Anthropic durante 3 horas, generando una ola de indignación y revelando una intensa rivalidad entre gigantes de la IA por el control de la inteligencia artificial y sus 150,000 usuarios activos. Peter Steinberger, el cerebro detrás de la popular herramienta OpenClaw, fue vetado temporalmente de los servicios de Claude de Anthropic el pasado viernes 10 de abril, desencadenando una rápida polémica. La cuenta fue restablecida en unas 3 horas tras hacerse viral, evidenciando la tensión creciente en un mercado de IA valorado en más de 200 mil millones de dólares. Según la investigación publicada por TechCrunch , este incidente no es aislado, sino que se enmarca en una pugna más amplia por el ecosistema de la inteligencia artificial. La industria, que se proyecta a crecer un 25% anualmente, observa cómo las empresas buscan consolidar sus plataformas, generando fricciones con el desarrollo de herramientas de terceros y de código abierto. El futuro de la interoperabilidad en la IA se juega en estos conflictos. Anthropic Banea al Creador de OpenClaw por 180 Minutos La mañana del viernes 10 de abril, Peter Steinberger, el desarrollador detrás de OpenClaw, una de las interfaces más usadas para modelos de IA, se encontró con un mensaje inesperado: su cuenta de Anthropic había sido suspendida por "actividad sospechosa". Steinberger, quien ahora trabaja para OpenAI, publicó el incidente en X a las 7:00 AM, provocando que la noticia se volviera viral en apenas 90 minutos. Cientos de usuarios, más de 300, reaccionaron con comentarios que iban desde la indignación hasta teorías conspirativas, especialmente considerando la nueva afiliación de Steinberger. Sorprendentemente, un ingeniero de Anthropic intervino directamente en el hilo, asegurando que su empresa nunca veta a nadie por usar OpenClaw y ofreciendo ayuda. Aproximadamente 180 minutos después de la publicación inicial, la cuenta de Steinberger fue restablecida, dejando en el aire si la intervención del ingeniero fue la clave o si la presión pública jugó un rol crucial. ¿Un "Impuesto Garra" y la Estrategia Oculta de Anthropic? El incidente no es el primero en esta saga tecnológica. Una semana antes del bloqueo, el 3 de abril, Anthropic anunció un cambio significativo: las suscripciones a su modelo Claude ya no cubrirían el uso de "harnesses de terceros" como OpenClaw. Esto significa que, a partir de ahora, los usuarios de OpenClaw deben pagar por su consumo a través de la API de Claude, lo que Steinberger, con más de 150,000 usuarios en OpenClaw, ha llamado un "impuesto garra". Anthropic justificó esta medida alegando que sus suscripciones no estaban diseñadas para los "patrones de uso" de estos agentes. Explicaron que las "garras" o "claws" pueden ser mucho más intensivas en computación, ejecutando bucles de razonamiento continuo, repitiendo tareas automáticamente y conectándose a decenas de herramientas externas, lo que puede incrementar los costos de procesamiento en un 200% o 300% respecto a una simple consulta. La Sospecha de un "Copiar y Cerrar" en la Industria IA Steinberger no aceptó la excusa de Anthropic. Tras el cambio de precios, publicó una observación mordaz: "Qué gracioso cómo coinciden los tiempos, primero copian algunas características populares en su sistema cerrado, luego bloquean el código abierto". Aunque no especificó, el mensaje sugería que Anthropic podría haber integrado funciones similares a las de OpenClaw en su propio agente, Cowork. Un ejemplo podría ser Claude Dispatch, una característica implementada solo dos semanas antes del cambio de política de precios de OpenClaw, que permite a los usuarios controlar agentes remotamente y asignarles tareas. Esta táctica, si es cierta, resalta una preocupación creciente entre los desarrolladores de código abierto, quienes ven cómo las grandes corporaciones, con valoraciones de hasta 80 mil millones de dólares como OpenAI y 18 mil millones como Anthropic, absorben innovaciones para luego restringir el acceso. ¿Lealtades Divididas o el Foco en el Usuario Final? La fricción entre Steinberger y Anthropic se hizo aún más evidente. Cuando alguien en X le recriminó haber elegido OpenAI en lugar de Anthropic, la respuesta de Steinberger fue contundente: "Uno me dio la bienvenida, el otro me envió amenazas legales". Este comentario, un "¡Tremendo golpe!" en la jerga de Huánuco, revela una historia de conflictos legales que antecede a su actual empleo en la competencia directa. Otros usuarios, más de 40, cuestionaron por qué seguía utilizando Claude si trabajaba para OpenAI, cuyo modelo ChatGPT supera los 100 millones de usuarios semanales. Steinberger aclaró que su uso de Claude es puramente para pruebas, asegurando que las actualizaciones de OpenClaw funcionen correctamente para sus 150,000 usuarios, sin importar el proveedor de modelos. Separó claramente su trabajo en la OpenClaw Foundation, que busca la interoperabilidad con *cualquier* modelo, de su rol en OpenAI,