El problema de confiar en la IA en la selección de noticias: ¿qué está pasando?

🎁 ¡Ofertas locas de Black Friday! Office 2021 de por vida por 35,55€. ¡Windows 11 Pro a precio récord! [ Saber más ]

En tiempos de creciente dependencia de la tecnología y la inteligencia artificial, Microsoft se encuentra en el centro de una controversia sobre la selección de noticias en su popular portal web, MSN.com y Microsoft Start.

Recientemente, el sitio ha sido criticado por la amplificación de noticias falsas y extrañas, como que Joe Biden se quedó dormido en un momento de silencio en el homenaje a las víctimas del incendio de Maui. Esto ha generado preocupación sobre el uso de la IA en la selección de contenido informativo.

Antes de profundizar en este tema, es importante destacar que Microsoft es uno de los gigantes tecnológicos que lideran el impulso a la Inteligencia Artificial. Su asociación temprana con OpenAI, conocidos por su aplicación ChatGPT, los ha colocado a la vanguardia de la revolución de la IA, y esta misma semana ha lanzado su asistente de IA empresarial, Microsoft 365 Copilot.

Sin embargo, la aparente participación de la IA en la promoción de noticias falsas plantea cuestiones sobre la adopción pública de esta tecnología por parte de la empresa y sus implicaciones para la industria periodística en general.

 

Uno de los incidentes más notables involucró la publicación de un artículo del periódico británico The Guardian en el sitio de MSN. El artículo trataba sobre un trágico caso de violencia machista en Australia, pero sorprendentemente, MSN acompañó el artículo con una encuesta generada por IA que preguntaba a los lectores sobre la causa de la muerte:asesinato, accidente o suicidio.

La CEO del Grupo de Medios de The Guardian, Anna Bateson, expresó su preocupación en una carta a Brad Smith, el presidente de Microsoft, destacando el daño a la reputación del periódico y la falta de responsabilidad en el uso de la tecnología de IA. El incidente provocó que Microsoft desactivara todas las encuestas en artículos de noticias y se comprometiera a investigar el problema.

Sin embargo, este no fue el único error público. Otros informes falsos o controvertidos, como acusaciones al partido Demócrata de favorecer el incremento de los casos de COVID antes de las elecciones o una descripción despectiva de un jugador de la NBA fallecido, también han aparecido en MSN debido a la combinación de IA y algoritmos.

La preocupación se centra en la transición de Microsoft hacia un «feed personalizado» basado en algoritmos en lugar de editores humanos. Aunque la empresa colabora con importantes organizaciones de noticias de todo el mundo, como The Guardian y CNN, para republicar sus artículos, la IA a menudo selecciona contenido de fuentes más marginales que de otro modo no tendrían una amplia audiencia.

Antes, un equipo editorial humano curaba cuidadosamente el contenido, asegurando la calidad y la diversidad de las historias. Sin embargo, con la implementación de la IA, la visión editorial parece haberse vuelto menos precisa y objetiva.

Si bien Microsoft ha hablado sobre el uso responsable de la IA, las críticas recientes sugieren que la empresa debe abordar estas cuestiones más enérgicamente. Los incidentes de noticias falsas y controvertidas plantean preguntas sobre la ética y la responsabilidad en el uso de la IA en la selección de noticias, lo que podría tener un impacto significativo en la confianza del público en las fuentes de noticias en Internet.

🎁 ¡Ofertas locas de Black Friday! Office 2021 de por vida por 35,55€. ¡Windows 11 Pro a precio récord! [ Saber más ]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario