¿Acabará la IA con la humanidad? Esto es lo que opinan los expertos

👩 Oferta Día de la Madre: ¡Office 2021 Pro por solo 27,25€ en godeal24! [ Saber más ]

El uso de herramientas de inteligencia artificial se ha vuelto algo cotidiano. Sin embargo, detrás de esta innovación se esconde una preocupación latente: ¿podría la inteligencia artificial ser la causante de nuestra propia destrucción como especie?

Este dilema ha llevado a muchos expertos a evaluar las posibilidades de un escenario apocalíptico generado por la IA, en lo que se ha denominado como la «probabilidad de perdición» o p(doom).

Yann LeCun, uno de los tres padres de la inteligencia artificial, se muestra optimista al respecto, ubicando las probabilidades de una catástrofe provocada por la IA en menos del 0,01%.

Los otros dos padres de la IA, Geoff Hinton y Yoshua Bengio, expresan niveles de preocupación más elevados, con estimaciones que oscilan entre el 10% y el 20% de posibilidades de que la IA cause estragos en los próximos 20 años.

En el extremo opuesto se encuentra Roman Yampolskiy, experto en seguridad de la IA, quien sitúa la probabilidad de una catástrofe provocada por la IA en un asombroso 99.999999%. Yampolskiy insta a detener el desarrollo de la tecnología, argumentando que una vez que la IA alcance cierto nivel de avance, será casi imposible controlarla.

Elon Musk, conocido por sus opiniones controvertidas sobre el futuro de la IA, también ha compartido su perspectiva en este debate. Aunque reconoce la posibilidad de un desenlace catastrófico, sugiere que las consecuencias positivas potenciales superan a las negativas.

En medio de este debate, Musk propone una solución: evitar que la IA mienta, incluso si la verdad resulta desagradable. Esta medida, según él, sería fundamental para prevenir un escenario apocalíptico.

Ver comentarios (1)

  • Sorpresa: A la humanidad no le hace falta IA para acabar con la humanidad.

    Cancelar respuesta

    Dejar un comentario

    Tu dirección de e-mail nunca será publicada Los campos requeridos están marcados*

Dejar un comentario

Tu dirección de e-mail nunca será publicada Los campos requeridos están marcados*

Esta web usa cookies para elaborar información estadística y mostrar publicidad personalizada.

Saber más