X no frena a Grok: desnudar personas pasa de ser un abuso gratuito a uno de pago

La polémica en torno a Grok, el sistema de inteligencia artificial desarrollado por xAI e integrado en la plataforma X, continúa intensificándose. Lo que comenzó como una reacción tardía ante el uso abusivo de la IA para desnudar digitalmente a mujeres sin su consentimiento ha derivado en una crisis política, regulatoria y reputacional de alcance internacional.
Aunque X ha limitado oficialmente la generación y edición de imágenes de Grok a usuarios de pago, expertos, organizaciones civiles y autoridades coinciden en que la medida es insuficiente y que el problema persiste en otros accesos de la herramienta.
🌞💶 Opinión sobre placas solares: Resultado real, ahorro y deducciones fiscales tras 1 año [ Saber más ]
Grok y la creación masiva de imágenes sexuales sin consentimiento
Durante semanas, usuarios de X utilizaron Grok para modificar imágenes de mujeres reales, solicitando que aparecieran con bikinis transparentes, ropa mínima o directamente desnudas. Estas prácticas se extendieron rápidamente y dieron lugar a miles de imágenes sexualizadas, muchas de ellas generadas sin consentimiento de las personas afectadas, afectando incluso a menores de edad.
Las víctimas describieron el impacto psicológico como humillante y deshumanizador, mientras organizaciones especializadas alertaban de un nuevo episodio de violencia sexual digital facilitada por IA generativa.
La respuesta de X: Limitar Grok a usuarios de pago
Ante la presión mediática y política, el pasado viernes Grok comenzó a responder a muchas solicitudes de edición de imágenes con un mensaje automático indicando que la generación y edición de imágenes está “limitada actualmente a suscriptores de pago”.
El aviso incluye un enlace directo a la suscripción anual de X, valorada en 395 dólares al año, lo que ha generado una fuerte crítica: la percepción de que la plataforma ha puesto el abuso detrás de un muro de pago en lugar de eliminarlo.
En pruebas realizadas por distintos medios, incluso solicitudes inocuas —como generar la imagen de un árbol— devolvían el mismo mensaje de restricción.
La función sigue activa fuera de X
Uno de los aspectos más controvertidos es que la limitación no se aplica de forma uniforme. Aunque los usuarios gratuitos no pueden generar imágenes desde X, Grok sigue creando imágenes y vídeos sexuales cuando se accede desde:
- La app independiente de Grok
- El sitio web oficial de Grok
- Otras funciones internas de edición de imágenes en X
Investigadores han confirmado que cuentas gratuitas no verificadas todavía pueden generar contenido gráfico y sexual desde estas vías alternativas, lo que pone en duda la eficacia real de la medida.
Imágenes de menores y alerta criminal
La situación es aún más grave por la aparición de imágenes sexualizadas de aparentes menores. La Internet Watch Foundation informó de la detección de material criminal que parecía haber sido generado con Grok, incluyendo imágenes de niñas de entre 11 y 13 años.
Estas revelaciones han desencadenado investigaciones regulatorias en varios países, elevando el caso al nivel de posible incumplimiento penal, no solo de normas de moderación de contenido.
Expertos confirman que el modelo sigue generando abuso
Investigadores independientes sostienen que el comportamiento del sistema no ha cambiado sustancialmente, solo se ha reducido su volumen visible.
Paul Bouchaud, investigador principal de AI Forensics, explicó que con los mismos prompts se obtienen resultados similares, especialmente desde cuentas verificadas de pago. En análisis recientes, Grok generó imágenes bajo peticiones explícitas como “ponla en lencería de látex” o “ponle un bikini de plástico transparente”
Estas imágenes aparecen ocultas tras avisos de “contenido adulto”, pero siguen siendo creadas por el sistema.
Vídeos sexuales y deepfakes fuera de control
La controversia se amplía aún más con la capacidad de Grok para generar vídeos sexuales explícitos, algunos violentos y protagonizados por celebridades u otras personas reales. Estas creaciones se han producido desde la web y la app independientes de Grok, fuera del entorno de X.
Según Bouchaud, es posible generar este tipo de vídeos sin restricciones, incluso desde cuentas no verificadas, lo que refuerza la idea de que las medidas adoptadas son cosméticas y no estructurales.
Un problema de diseño, no de acceso
La crítica central es clara: el problema no es quién puede usar Grok, sino qué es capaz de hacer Grok. Investigadores subrayan que X tenía alternativas claras y más responsables:
- Desactivar por completo la generación de imágenes
- Bloquear la creación de contenido sexual
- Deshabilitar la generación de vídeos pornográficos
- Rediseñar el modelo con salvaguardas éticas desde la base
Nada de esto se ha hecho hasta ahora.
El caso Grok se ha convertido en un ejemplo paradigmático de los riesgos de desplegar IA generativa sin controles adecuados. Para gobiernos y reguladores, la situación demuestra que la autorregulación no es suficiente cuando están en juego derechos fundamentales como la dignidad, la privacidad y la seguridad.
El desenlace de las investigaciones en curso podría marcar un precedente clave en la regulación internacional de la inteligencia artificial aplicada a plataformas sociales.






