A varios suscriptores de pago de Gemini AI Ultra les ha aparecido en las últimas semanas un mensaje frío de error 403 que habla de «Violación de los Términos de Servicio». De un día para otro perdieron acceso a Antigravity, la herramienta de programación con IA de Google basada en sus modelos Gemini. Algunos aseguran que el bloqueo se extendió incluso a Gmail y Google Workspace, algo difícil de imaginar hasta que te pasa.
El elemento común era OpenClaw, un framework de agentes de código abierto que se conectaba a esos mismos modelos usando tokens OAuth de Antigravity. Cuando los sistemas automáticos de la compañía detectaron ese uso desde una herramienta externa, lo marcaron como acceso no autorizado y empezaron a cerrar la puerta en masa. La decisión ha provocado un choque público con el creador de OpenClaw y ha encendido una pregunta incómoda para cualquiera que use agentes autónomos en su día a día, una pregunta sencilla en apariencia ¿quién controla de verdad la llave de paso de la IA?
Qué ha pasado con Gemini Ultra y Antigravity
La ofensiva comenzó a mediados de febrero de 2026 y se hizo visible el 23 de febrero, cuando Varun Mohan, responsable de Google Antigravity y ex CEO de Windsurf, confirmó la decisión en X. Explicó que habían visto «un aumento masivo en el uso malicioso del backend de Antigravity» que estaba degradando de forma notable la calidad del servicio. En sus palabras necesitaban una forma rápida de cortar el acceso a quienes no estaban usando el producto como estaba previsto.
Los usuarios afectados, algunos pagando alrededor de 249 dólares al mes por planes de Gemini AI Ultra, informan de bloqueos repentinos sin aviso previo ni canales claros de recurso. Muchos solo ven el mensaje de error 403 acompañado de la referencia a una violación de los términos y se quedan fuera tanto de Antigravity como de otros servicios vinculados. Para quien depende de estas cuentas en su trabajo diario, el susto es inmediato.
En respuestas a clientes individuales, la empresa ha señalado que el uso de sus credenciales dentro de la herramienta de terceros «open claw» incluso con fines de prueba violaba sus Términos de Servicio. También ha invocado una política de tolerancia cero que, según explican a algunos usuarios, impediría revertir la suspensión una vez aplicada. Al mismo tiempo Mohan ha sugerido que intentarán encontrar un camino para que ciertas personas puedan volver, pero que en momentos de alta demanda priorizan la capacidad para lo que llaman usuarios reales.
Cómo funciona OpenClaw y por qué choca con Google
OpenClaw es un framework de agentes de código abierto pensado para que un asistente de IA autónomo lleve a cabo tareas encadenadas en tu nombre. Puede automatizar flujos de trabajo con servicios en línea, archivos locales y APIs usando modelos de lenguaje de distintos proveedores. En la práctica eso significa cuentas conectadas y permisos amplios para actuar sin supervisión constante.
En este caso, muchos usuarios se autenticaban en Antigravity con su cuenta habitual y dejaban que OpenClaw usara esos tokens OAuth para enviar peticiones a los modelos Gemini. OAuth es un sistema de autorización que funciona como una llave digital, de modo que una aplicación obtiene permiso para actuar en tu cuenta sin ver tu contraseña. Desde la perspectiva de la empresa, esa llave se estaba utilizando como un pequeño proxy para otros productos y para grupos de agentes que podían agotar la capacidad de cómputo muy por encima de lo previsto en una suscripción de tarifa plana.
El creador de OpenClaw, el ingeniero de software austriaco Peter Steinberger, reaccionó con dureza en X y calificó la medida de Google como «bastante draconiana». Escribió que eliminaría el soporte de Antigravity y recordó que otros proveedores como Anthropic le habían contactado de forma más dialogante cuando surgían problemas. Steinberger se ha incorporado este mes a OpenAI, después de que el CEO Sam Altman lo presentara en X como «un genio» que ayudará a impulsar la próxima generación de agentes personales.
Un cambio de clima en la industria de los agentes de IA
El movimiento de Google no es aislado. A finales de enero, Anthropic ya había bloqueado silenciosamente el uso de tokens OAuth de suscripción en herramientas de terceros y el 19 de febrero actualizó sus términos de consumo para prohibir de forma explícita este tipo de integraciones con agentes autónomos. Dos acciones de refuerzo en unas pocas semanas apuntan a un cambio de clima en la industria.
Durante los primeros meses, muchos proveedores de modelos cultivaron ecosistemas abiertos de plugins y herramientas externas para atraer a desarrolladores y entusiasmar al mercado. Ahora que los agentes autónomos pueden lanzar miles de peticiones encadenadas y operar sin supervisión, esos mismos proveedores temen que las suscripciones de tarifa plana se conviertan en un agujero de costes. Por eso refuerzan el control sobre quién puede usar los modelos y en qué condiciones, incluso cuando eso significa expulsar a clientes que creían estar cumpliendo las normas en gran medida.
Para los desarrolladores, el episodio es un aviso claro de que usar credenciales personales de servicios como Gmail con agentes autónomos comporta riesgos que no son solo técnicos. Expertos en seguridad y empresas como Microsoft ya recomiendan tratar runtimes de agentes como OpenClaw como código no confiable y ejecutarlos en entornos aislados con credenciales limitadas y rotadas con frecuencia. Al final del día esto significa que quien quiera experimentar con agentes tendrá que separar mejor sus cuentas, leer la letra pequeña y asumir que el proveedor puede cerrar el grifo si detecta un uso que considere abusivo, aunque no esté claramente descrito.
La información oficial se ha publicado en el Foro de Desarrolladores de Google AI y en mensajes del equipo de Google Antigravity en X.











