¿Infracción de copyright? Japón acusa a Sora 2 de replicar arte protegido

La Content Overseas Distribution Association (CODA), que representa a titulares de propiedad intelectual de Japón como Studio Ghibli y Bandai Namco, ha enviado una carta en la que pide a OpenAI que deje de utilizar contenidos de sus miembros para entrenar Sora 2.
La misiva, difundida la semana pasada, sostiene que “el acto de replicación durante el proceso de aprendizaje automático puede constituir infracción de copyright”, especialmente cuando el modelo genera resultados con personajes protegidos.
El origen del choque: la ‘replicación’ durante el entrenamiento
Según CODA, la reproducción de obras para entrenar modelos supone un uso amparado por el derecho de autor. La organización subraya que el problema no solo está en el resultado final, sino en la copia previa necesaria para que el sistema aprenda. Esta interpretación sitúa el foco legal en la fase de entrenamiento y no únicamente en las salidas del modelo.
Tras el lanzamiento de Sora 2 el 30 de septiembre, comenzaron a proliferar contenidos generados que incorporaban propiedad intelectual japonesa. Esta situación llevó al Gobierno de Japón a pedir formalmente a OpenAI que dejara de replicar obras artísticas japonesas. Para CODA, el volumen y la naturaleza de esas salidas son un indicio de que material protegido se ha utilizado durante el entrenamiento.
Antecedentes: el “estilo Ghibli” y la cultura pop en la IA
No es la primera vez que una herramienta de OpenAI muestra señales de haber absorbido referencias de medios japoneses. Durante la presentación de GPT-4o en marzo, se popularizaron imágenes con estética “Ghibli-style”.
Incluso la imagen de perfil de Sam Altman en X ha sido descrita como un retrato con un estilo que recuerda a Studio Ghibli, reforzando la percepción pública de que estas influencias están presentes en los modelos.
— Yuri Alekseev (@itsiurii) March 26, 2025
Sam Altman anunció el mes pasado cambios en la política de exclusión (opt-out) de Sora para titulares de IP. Sin embargo, CODA sostiene que partir de un sistema de opt-out podría vulnerar la legislación japonesa de copyright, que —según la carta— exige “permiso previo” para el uso de obras protegidas y no contempla evitar la responsabilidad por infracción mediante objeciones posteriores.
En nombre de sus miembros, CODA solicita a OpenAI que “responda de forma sincera” a las reclamaciones de derechos de autor y cese el uso de sus contenidos para aprendizaje automático sin autorización previa. La petición abarca tanto la salida de Sora como el empleo de IP japonesa como parte del conjunto de datos de entrenamiento.
Implicaciones para estudios como Studio Ghibli y Bandai Namco
Para los titulares japoneses, el meollo no es solo reputacional: se trata de controlar la explotación de sus catálogos y evitar que personajes, universos o estilos distintivos aparezcan en resultados generados sin licencia. En el caso de franquicias con gran peso cultural y comercial, cualquier uso no autorizado puede afectar a acuerdos, licencias y estrategias de explotación transmedia.
La posición de CODA reaviva una discusión mundial: ¿puede un modelo entrenarse con obras protegidas sin permiso expreso? Mientras algunas jurisdicciones valoran excepciones o usos legítimos, otras —como interpreta CODA para Japón— exigen autorizaciones previas. El desenlace podría impulsar modelos de entrenamiento con datos licenciados, repositorios curados o acuerdos sectoriales.
Si OpenAI modifica sus prácticas para el mercado japonés, podrían proliferar mecanismos de consentimiento explícito y sistemas de gestión de derechos más finos. De lo contrario, cabe esperar nuevas quejas formales, potenciales acciones legales y mayor presión regulatoria para las plataformas de IA generativa que operen con IP de alto valor.







