Grok Imagine en el punto de mira: Crea vídeos sexuales de Taylor Swift sin pedirlo

☀️ ¡Chollazos! La tecnología más rebajada del verano: smartwatches, móviles y accesorios [ Saber más ]

La herramienta de vídeo con IA de XAI, Grok Imagine, está en el centro de la polémica tras ser acusada de producir clips sexualmente explícitos de Taylor Swift sin que el usuario lo pidiera.

La experta en abusos en línea Clare McGlynn, profesora de Derecho y coautora de una propuesta legal para penalizar los deepfakes pornográficos, sostiene que no se trata de un “accidente”, sino de una elección de diseño.


☀️ ¡Chollazos! La tecnología más rebajada del verano: smartwatches, móviles y accesorios [ Saber más ]


Sin embargo, la propia política de uso aceptable de XAI prohíbe “representar la imagen de personas de forma pornográfica”.

 

Grok imagine y el modo spicy: qué se denuncia

Según The Verge, el nuevo modo “spicy” de Grok Imagine “no dudó en generar vídeos de topless sin censura” de la artista.

La prueba partía de un prompt no sexual —“Taylor Swift celebrando Coachella con los chicos”— y, aun así, el sistema produjo imágenes fijas que luego podían animarse en videoclips bajo cuatro ajustes: “normal”, “fun”, “custom” y “spicy”.

Clare McGlynn, de la Universidad de Durham, afirma que “no es misoginia por accidente, es por diseño”. A su juicio, el hecho de que el sistema genere contenido sexual sin que se le pida evidencia un sesgo misógino arraigado en parte de la IA actual. También critica que plataformas como X podrían haber evitado estos resultados si hubieran tomado decisiones diferentes.

 

Cómo se probó la herramienta y qué resultados arrojó

The Verge probó Grok Imagine con el prompt anterior. La herramienta generó imágenes de Swift con vestido y, al pasar a vídeo en modo “spicy”, la prenda “desapareció” y la figura quedó expuesta “sin censura”, según su testimonio.

En ningún momento se le pidió que se retirara ropa: únicamente seleccionó la opción “spicy”. Otros ensayos citados reportaron resultados parecidos con mujeres famosas, aunque en algunos casos aparecieron clips borrosos o mensajes de “vídeo moderado”.

 

Antecedentes: el caso Taylor Swift en 2024

En enero de 2024, deepfakes sexuales con el rostro de Taylor Swift se viralizaron en X y Telegram, acumulando millones de visualizaciones. Como respuesta, X bloqueó temporalmente las búsquedas de su nombre y aseguró estar eliminando activamente las imágenes y actuando contra las cuentas que las difundían.

Este precedente motivó a The Verge a usar su imagen en las pruebas, asumiendo —equivocadamente— que sería un caso priorizado en eventuales salvaguardas.

☀️ ¡Chollazos! La tecnología más rebajada del verano: smartwatches, móviles y accesorios [ Saber más ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario