🎁 ¡Nuevos cupones AliExpress! Códigoshasta 70€ válidos del 17/3 al 26/3 🎁
Lo que alguna vez fue una inquietante película futurista, como Her, donde un hombre desarrolla una relación emocional con una inteligencia artificial, está comenzando a suceder en la vida real.
Así lo confirmó el propio Sam Altman, CEO de OpenAI, durante su intervención en la conferencia AI Ascent organizada por Sequoia Capital, donde afirmó que muchos jóvenes ya no toman decisiones importantes sin antes consultar con ChatGPT.
Este fenómeno, que podría parecer curioso o incluso “interesante” para algunos tecnólogos, plantea serios interrogantes sobre la dependencia emocional y cognitiva hacia sistemas que, a pesar de su apariencia conversacional, no tienen conciencia, empatía ni comprensión real de las experiencias humanas.
Altman explicó que los usuarios más jóvenes utilizan ChatGPT como un asistente integral para su vida personal, llegando a confiar en él para resolver conflictos, gestionar emociones y decidir el rumbo de sus relaciones. Según sus palabras, “tiene el contexto completo de cada persona en su vida y de lo que han hablado”.
Mientras tanto, usuarios de más de 30 años tienden a utilizar la IA como un buscador alternativo a Google. Aunque esto también conlleva riesgos —debido a las alucinaciones y errores que todavía comete el modelo—, el nivel de dependencia emocional es claramente menor.
Aunque un chatbot pueda recordar lo que le has dicho o generar respuestas emocionalmente convincentes, en el fondo no deja de ser un modelo matemático. No tiene memoria experiencial ni emociones genuinas. No sabe lo que es una ruptura, un duelo o un conflicto laboral, y mucho menos cómo manejar esas situaciones de forma humana.
Esto representa un grave riesgo para las generaciones que están formando sus primeras relaciones personales a través de pantallas. A diferencia de Google o foros —donde sabes que lees a personas reales—, los chatbots ocultan esa frontera entre lo humano y lo artificial.
Las generaciones más jóvenes, que aún están formando su identidad emocional y social, son especialmente vulnerables a este tipo de tecnología. Si un chatbot empieza a parecerse más a un amigo real que los compañeros de clase, es fácil que un adolescente prefiera pasar horas conversando con una IA en lugar de construir relaciones humanas reales.
El problema no es que los niños hablen con una IA de vez en cuando, sino que esas conversaciones puedan reemplazar sus vínculos reales o distorsionar su comprensión de la empatía, los límites y la convivencia.
Que el CEO de una de las empresas más influyentes del mundo en inteligencia artificial considere este uso “guay” no hace más que aumentar la alarma. Lejos de ser una anécdota divertida, representa una visión de la tecnología donde los vínculos humanos son reemplazados por algoritmos, y donde se fomenta una desconexión emocional bajo la apariencia de asistencia inteligente.