Sam Altman cree que la dependencia de los jóvenes de ChatGPT para decisiones importantes es “guay»

📱 ¡20 Aniversario! ¡PcComponentes tira el precio de los productos de Apple! [ Saber más ]

Lo que alguna vez fue una inquietante película futurista, como Her, donde un hombre desarrolla una relación emocional con una inteligencia artificial, está comenzando a suceder en la vida real.

Así lo confirmó el propio Sam Altman, CEO de OpenAI, durante su intervención en la conferencia AI Ascent organizada por Sequoia Capital, donde afirmó que muchos jóvenes ya no toman decisiones importantes sin antes consultar con ChatGPT.

TE INTERESA:
Cómo crear una figura tuya dentro de una cápsula gashapon: Guía paso a paso con ChatGPT

Este fenómeno, que podría parecer curioso o incluso “interesante” para algunos tecnólogos, plantea serios interrogantes sobre la dependencia emocional y cognitiva hacia sistemas que, a pesar de su apariencia conversacional, no tienen conciencia, empatía ni comprensión real de las experiencias humanas.

Altman explicó que los usuarios más jóvenes utilizan ChatGPT como un asistente integral para su vida personal, llegando a confiar en él para resolver conflictos, gestionar emociones y decidir el rumbo de sus relaciones. Según sus palabras, “tiene el contexto completo de cada persona en su vida y de lo que han hablado”.

Mientras tanto, usuarios de más de 30 años tienden a utilizar la IA como un buscador alternativo a Google. Aunque esto también conlleva riesgos —debido a las alucinaciones y errores que todavía comete el modelo—, el nivel de dependencia emocional es claramente menor.

Aunque un chatbot pueda recordar lo que le has dicho o generar respuestas emocionalmente convincentes, en el fondo no deja de ser un modelo matemático. No tiene memoria experiencial ni emociones genuinas. No sabe lo que es una ruptura, un duelo o un conflicto laboral, y mucho menos cómo manejar esas situaciones de forma humana.

Esto representa un grave riesgo para las generaciones que están formando sus primeras relaciones personales a través de pantallas. A diferencia de Google o foros —donde sabes que lees a personas reales—, los chatbots ocultan esa frontera entre lo humano y lo artificial.

Las generaciones más jóvenes, que aún están formando su identidad emocional y social, son especialmente vulnerables a este tipo de tecnología. Si un chatbot empieza a parecerse más a un amigo real que los compañeros de clase, es fácil que un adolescente prefiera pasar horas conversando con una IA en lugar de construir relaciones humanas reales.

El problema no es que los niños hablen con una IA de vez en cuando, sino que esas conversaciones puedan reemplazar sus vínculos reales o distorsionar su comprensión de la empatía, los límites y la convivencia.

Que el CEO de una de las empresas más influyentes del mundo en inteligencia artificial considere este uso “guay” no hace más que aumentar la alarma. Lejos de ser una anécdota divertida, representa una visión de la tecnología donde los vínculos humanos son reemplazados por algoritmos, y donde se fomenta una desconexión emocional bajo la apariencia de asistencia inteligente.

🎧 20 Aniversario PcComponentes: ¡Cinco artículos en rebajas que lo están petando! [ver aquí]

¿Cuál es tu reacción?
Sorprendido
0%
Feliz
0%
Indiferente
0%
Triste
0%
Enfadado
0%
Aburrido
0%
Incrédulo
0%
¡Buen trabajo!
0%
Sobre el Autor
Luis A.
Luis es el creador y editor jefe de Teknófilo. Se aficionó a la tecnología con un Commodore 64 e hizo sus pinitos programando gracias a los míticos libros de 🛒 'BASIC para niños' con 11 años. Con el paso de los años, la afición a los ordenadores se ha extendido a cualquier cacharrito que tenga una pantalla y CPU.
Comentarios
Deja un comentario

Deja un comentario