IA

La Unión Europea da pasos para regular la Inteligencia Artificial

La Unión Europea ha logrado un acuerdo preliminar que limitaría cómo los modelos de IA avanzados como ChatGPT podrán operar, marcando un hito en la primera regulación integral de inteligencia artificial a nivel mundial.

El acuerdo establece que todos los desarrolladores de sistemas de inteligencia artificial de propósito general deben cumplir con requisitos básicos de transparencia, a menos que sean de código abierto y gratuitos, según un documento de la UE visto por Bloomberg.

Estos requisitos incluyen:

  • Contar con una política de uso aceptable.
  • Mantener información actualizada sobre cómo entrenaron sus modelos.
  • Presentar un resumen detallado de los datos utilizados para entrenar dichos modelos.
  • Tener una política para respetar la ley de derechos de autor.

Los modelos considerados como un «riesgo sistémico» estarían sujetos a reglas adicionales, según el documento. La UE determinaría ese riesgo en función de la cantidad de potencia informática utilizada para entrenar el modelo, con un umbral establecido en modelos que usen más de 10 billones de billones (o septillones) de operaciones por segundo.

Actualmente, el único modelo que automáticamente cumpliría con este umbral es el GPT-4 de OpenAI, según expertos. El brazo ejecutivo de la UE puede designar otros modelos dependiendo del tamaño del conjunto de datos, si tienen al menos 10.000 usuarios comerciales registrados en la UE, o el número de usuarios finales registrados, entre otras métricas posibles.

Estos modelos altamente capaces deben adherirse a un código de conducta mientras la Comisión Europea trabaja en controles más armonizados y duraderos. Aquellos que no lo hagan deberán demostrar a la comisión que están cumpliendo con la Ley de IA. La exención para modelos de código abierto no se aplica a aquellos considerados como un riesgo sistémico.

Estos modelos también deberán:

  • Reportar su consumo de energía.
  • Realizar pruebas de adversarios, tanto internas como externas.
  • Evaluar y mitigar posibles riesgos sistémicos, reportando cualquier incidente.
  • Asegurarse de que están utilizando controles de ciberseguridad adecuados.
  • Reportar la información utilizada para ajustar el modelo y su arquitectura de sistema.
  • Conformarse a estándares más eficientes energéticamente si son desarrollados.

El acuerdo preliminar aún debe ser aprobado por el Parlamento Europeo y los 27 estados miembros de la UE. Francia y Alemania han expresado previamente preocupaciones sobre la aplicación de demasiada regulación a modelos de IA de propósito general y el riesgo de perjudicar a competidores europeos como Mistral AI de Francia o Aleph Alpha de Alemania.

Por ahora, es probable que Mistral no necesite cumplir con los controles de IA de propósito general porque la compañía aún se encuentra en la fase de investigación y desarrollo, según dijo la secretaria de Estado de España, Carme Artigas.

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario