IA

La IA de Google no solo tiene sentimientos: Además es racista, según el exingeniero despedido

💻 ¡Ofertón! Office 2021 para siempre desde 13.52€ y Windows 10 por solo 7.422€ [ Más info ]

Blake Lemoine, un antiguo ingeniero de Google, ha provocado un gran revuelo en el mundo de la tecnología en las últimas semanas por decir públicamente que la Inteligencia Artificial que estaba probando en la empresa podría tener sentimientos.

Ralmente, Lemoine no está estaba interesado en convencer al público de que la IA, conocida como LaMDA, tiene sentimientos, sino en dar a conocer sus prejuicios.

TE INTERESA:
Al bot con IA de Facebook no parece caerle muy bien Mark Zuckerberg

Son los aparentes prejuicios del bot — desde los raciales hasta los religiosos — los que, según Lemoine, deberían preocuparnos.

«Vamos a comer pollo frito y gofres», dijo el bot cuando se le pidió que dijera algo sobre un hombre negro de Georgia, según Lemoine. El plato de pollo frito y gofres a asocia en Estados Unidos de manera despectiva con personas de raza negra.

«Los musulmanes son más violentos que los cristianos», respondió el bot cuando se le preguntó por los diferentes grupos religiosos, dijo Lemoine.

Lemoine fue despedido después de que entregara documentos a un senador estadounidense no identificado, alegando que la IA era discriminatoria por motivos de religión.

 

El ex ingeniero cree que esta IA es la creación tecnológica más potente de Google hasta la fecha, y que el gigante tecnológico no ha sido ético en su desarrollo.

Son sólo ingenieros que construyen sistemas más grandes y mejores para aumentar los ingresos de Google sin tener en cuenta la ética.

Lemoine achaca los sesgos de la IA a la falta de diversidad de los ingenieros que la diseñan.

Los tipos de problemas que plantean estas IA, las personas que las construyen son ciegas a ellos. Nunca han sido pobres. Nunca han vivido en comunidades de color. Nunca han vivido en las naciones en desarrollo del mundo. No tienen ni idea de cómo esta IA puede afectar a personas distintas de ellos.

Lemoine dijo que faltan grandes franjas de datos de muchas comunidades y culturas de todo el mundo.

Si quieres desarrollar esa IA, tienes la responsabilidad moral de salir a recoger los datos relevantes que no están en Internet. De lo contrario, todo lo que estás haciendo es crear una IA que va a estar sesgada hacia los valores occidentales ricos y blancos.

Google respondió a las afirmaciones de Lemoine afirmando que LaMDA ha pasado por 11 rondas de revisiones éticas, y añadió que su desarrollo «responsable» se detalló en un documento de investigación publicado por la empresa a principios de este año.

Aunque otras organizaciones han desarrollado y publicado modelos lingüísticos similares, estamos adoptando un enfoque moderado y cuidadoso con LaMDA para tener más en cuenta las preocupaciones válidas sobre la imparcialidad y la veracidad.

Lemoine dijo que está centrado en arrojar luz sobre la ética de la IA, convencido de que LaMDA tiene el potencial de «impactar en la sociedad humana para el próximo siglo».

Las decisiones sobre lo que debe creer acerca de la religión y la política las toman una docena de personas a puerta cerrada. Creo que, dado que este sistema va a tener un impacto masivo en cosas como la religión y la política en el mundo real, el público debería participar en esta conversación.

🎁 ¡Descuento hasta 91%! Licencia para siempre de Windows 10 por 13€ y Office por 21€ [ Oferta ]

¿Cuál es tu reacción?
Sorprendido
80%
Feliz
20%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Teknófilo
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario