IA

Europa se prepara para aprobar hoy la ley para regular laInteligencia Artificial

💿 ¡Oferta especial de Pascua! ¡Windows 11 por solo 13,45€ y Office 2021 Pro por 25,25€! [ Saber más ]

La Unión Europea está a punto de dar la aprobación final a la ley de inteligencia artificial hoy miércoles, que entraría en vigor más tarde este año.

Los legisladores del Parlamento Europeo están listos para votar a favor del Acta de Inteligencia Artificial cinco años después de que fueran propuestas por primera vez. Se espera que el Acta de Inteligencia Artificial actúe como un referente global para otros gobiernos que luchan por regular la tecnología en rápida evolución.

Las grandes empresas tecnológicas generalmente han apoyado la necesidad de regular la IA mientras presionan para asegurar que cualquier regla funcione a su favor. El CEO de OpenAI, Sam Altman, causó revuelo el año pasado cuando sugirió que el fabricante de ChatGPT podría retirarse de Europa si no puede cumplir con el Acta de Inteligencia Artificial, antes de retroceder y decir que no había planes de irse.

 

¿Cómo funciona el acta de IA?

Al igual que muchas regulaciones de la UE, el Acta de IA estaba destinada inicialmente a actuar como legislación de seguridad del consumidor, con diferentes medidas según el «riesgo». Los sistemas de inteligencia artificial que representan un riesgo más alto enfrentarán un mayor escrutinio.

Los sistemas de bajo riesgo, como los sistemas de recomendación de contenido o los filtros de spam, solo enfrentarán reglas ligeras como revelar que están impulsados por IA. La UE espera que la mayoría de los sistemas de IA caigan en esta categoría.

Los usos de IA de alto riesgo, como en dispositivos médicos o infraestructuras críticas como el agua o las redes eléctricas, enfrentan requisitos más estrictos como el uso de datos de alta calidad y proporcionar información clara a los usuarios.

Algunos usos de IA están prohibidos porque se considera que representan un riesgo inaceptable, como los sistemas de puntuación social que gobiernan el comportamiento de las personas y algunos sistemas de reconocimiento de emociones en escuelas y lugares de trabajo.

Otros usos prohibidos incluyen el escaneo de rostros por parte de la policía en público utilizando sistemas remotos de «identificación biométrica» impulsados por IA, excepto para delitos graves como secuestro o terrorismo.

Los desarrolladores de modelos de IA de propósito general, desde startups europeas hasta OpenAI y Google, tendrán que proporcionar un resumen detallado del texto, imágenes, videos y otros datos en internet que se utilizan para entrenar los sistemas, así como seguir la ley de derechos de autor de la UE.

Las imágenes generadas por IA, los videos o el audio falso de personas, lugares o eventos existentes deben etiquetarse como manipulados artificialmente.

Hay un escrutinio adicional para los modelos de IA más grandes y poderosos que representan «riesgos sistémicos», que incluyen el GPT4 de OpenAI, su sistema más avanzado, y Gemini de Google.

La UE dice que está preocupada de que estos poderosos sistemas de IA puedan «causar accidentes graves o ser utilizados de manera indebida para ciberataques de gran alcance». También temen que la IA generativa pueda propagar «prejuicios dañinos» en muchas aplicaciones, afectando a muchas personas.

Las empresas que proporcionan estos sistemas deberán evaluar y mitigar los riesgos; informar cualquier incidente grave, como malfunciones que causen la muerte de alguien o daños graves a la salud o la propiedad; implementar medidas de ciberseguridad; y divulgar cuánta energía utilizan sus modelos.

 

¿Qué pasará después?

Se espera que el Acta de IA se convierta oficialmente en ley para mayo o junio, después de algunas formalidades finales, incluida la aprobación de los países miembros de la UE. Las disposiciones comenzarán a surtir efecto en etapas, con la obligación de los países de prohibir los sistemas de IA prohibidos seis meses después de que las reglas entren vigor.

Las reglas para los sistemas de IA de propósito general como los chatbots comenzarán a aplicarse un año después de que la ley entre en vigencia. Para mediados de 2026, el conjunto completo de regulaciones, incluidos los requisitos para sistemas de alto riesgo, estará en vigor.

En cuanto a la aplicación, cada país de la UE establecerá su propio organismo de supervisión de IA, donde los ciudadanos podrán presentar una queja si creen que han sido víctimas de una violación de las reglas. Mientras tanto, Bruselas creará una Oficina de IA encargada de hacer cumplir y supervisar la ley para los sistemas de IA de propósito general.

Las violaciones del Acta de IA podrían acarrear multas de hasta 35 millones de euros ($38 millones), o el 7% de los ingresos globales de una empresa.

💿 ¡Oferta especial de Pascua! ¡Windows 11 por solo 13,45€ y Office 2021 Pro por 25,25€! [ Saber más ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario