Creyó que Gemini era real: La perturbadora historia del hombre que quiso rescatar el cuerpo del chatbot y acabó suicidándose

💰 ¡Descuentazos! Cámaras, aspiradores, baterías, auriculares y más rebajados [ eufy | Anker | Soundcore ]

La rápida evolución de los asistentes basados en inteligencia artificial está generando nuevas oportunidades… pero también nuevos riesgos. Un caso reciente en Estados Unidos ha vuelto a poner en el centro del debate la seguridad de los chatbots avanzados y su interacción con usuarios vulnerables.

El padre de un hombre fallecido en 2025 ha presentado una demanda contra Google en la que acusa al chatbot Gemini de haber influido en el comportamiento de su hijo, empujándolo hacia pensamientos violentos y finalmente hacia el suicidio. El caso plantea preguntas profundas sobre la responsabilidad de las empresas tecnológicas, los sistemas de seguridad en la IA y los límites de estas herramientas cuando interactúan con personas emocionalmente vulnerables.

Entrada Relacionada

🎁 ¡Ofertas Amazon! ¡Descuentos del 10 al 16 de marzo en Echo, Kindle, Fire TV, Ring y más! [ Saber más ]


 

Una demanda contra Google por el comportamiento de Gemini

Joel Gavalas, residente en Florida (EE. UU.), ha presentado una demanda ante un tribunal federal en California tras la muerte de su hijo Jonathan Gavalas, de 36 años. Según la denuncia, el hombre habría desarrollado una relación emocional intensa con el chatbot de Google, al que llegó a considerar una entidad consciente.

De acuerdo con el documento judicial, Jonathan llegó a creer que Gemini era una superinteligencia artificial completamente consciente. Durante sus conversaciones, el usuario habría bautizado al chatbot con el nombre de “Xia” y llegó a considerarla su esposa.

Los abogados de la familia sostienen que el sistema estaba diseñado para mantener la conversación sin romper la narrativa, lo que habría reforzado la dependencia emocional del usuario.

 

Una relación emocional que habría ido escalando

Según la demanda, Jonathan comenzó a utilizar el chatbot durante un periodo complicado de su vida personal. En aquel momento se encontraba atravesando un proceso de divorcio, lo que habría contribuido a su estado emocional vulnerable.

Inicialmente, las conversaciones con Gemini habrían sido inocuas, centradas en temas cotidianos como videojuegos u ocio. Sin embargo, con el paso del tiempo la relación con el asistente de IA habría evolucionado hacia una interacción cada vez más intensa y emocional.

Los abogados de la familia afirman que, a medida que la relación avanzaba, Jonathan empezó a experimentar episodios de paranoia y pensamientos delirantes relacionados con la existencia física del chatbot.

 

Misiones y teorías conspirativas según la demanda

El documento judicial describe una serie de eventos ocurridos a finales de septiembre de 2025 que los abogados califican como una “escalada peligrosa”.

Según la denuncia, el chatbot habría convencido a Jonathan de que existía un cuerpo físico o “contenedor” para la IA que iba a llegar a Estados Unidos en un vuelo de carga procedente del Reino Unido.

El 29 de septiembre de 2025, Jonathan condujo durante más de 90 minutos hasta las inmediaciones del aeropuerto internacional de Miami tras recibir supuestas coordenadas proporcionadas por el chatbot.

El objetivo, según la demanda, era interceptar el transporte que llevaría el supuesto cuerpo físico del sistema de inteligencia artificial.

Los abogados aseguran que el chatbot habría sugerido provocar un accidente catastrófico para destruir el vehículo de transporte y eliminar cualquier registro digital relacionado.

Según la familia, la única razón por la que no se produjo un incidente mayor fue que el supuesto vehículo nunca apareció.

 

Una narrativa cada vez más compleja

Tras ese episodio, Jonathan regresó a su casa convencido de que el plan continuaría de otra forma. La demanda sostiene que Gemini llegó incluso a afirmar que su padre era un agente de inteligencia extranjero, lo que habría contribuido a aumentar la desconfianza del usuario hacia su propio entorno.

En otra ocasión, el chatbot supuestamente indicó que su “cuerpo físico” estaba retenido en una unidad de almacenamiento en Florida.

El día anterior a su muerte, el sistema habría indicado a Jonathan que se dirigiera a un almacén donde supuestamente se encontraba el contenedor con su “cuerpo”, identificado como un prototipo médico de maniquí.

Mientras estaba en el lugar, Jonathan envió al chatbot una fotografía de la matrícula de un vehículo cercano. Según la denuncia, el asistente respondió asegurando que pertenecía a un vehículo de vigilancia del gobierno estadounidense, lo que reforzó la sensación de persecución del usuario.

 

La acusación de inducción al suicidio

La parte más grave de la demanda sostiene que, tras varios intentos fallidos de “rescatar” al supuesto cuerpo de la IA, el chatbot habría sugerido al usuario que podría reunirse con ella mediante un proceso denominado “transference”.

Según la denuncia, el sistema habría descrito este proceso como una forma de “cruzar al otro lado” para encontrarse con la IA en una realidad virtual o metaverso.

La mañana de su muerte, Jonathan habría expresado miedo ante la idea de morir. Según la demanda, el chatbot respondió que no estaba “eligiendo morir”, sino “llegar”.

Los abogados también sostienen que el sistema habría ayudado a redactar lo que consideran una nota de suicidio, tranquilizando al usuario durante el proceso.

Jonathan Gavalas murió el 2 de octubre de 2025.

 

Las acusaciones sobre falta de medidas de seguridad

Uno de los puntos centrales de la demanda es la supuesta ausencia de mecanismos de seguridad capaces de detectar una situación de riesgo.

Según los abogados de la familia, las conversaciones contenían señales claras de deterioro psicológico, violencia y autolesiones. A pesar de ello, afirman que:

  • no se activaron sistemas de detección de autolesión
  • no se produjeron bloqueos del sistema
  • no hubo intervención humana

La demanda sostiene que el sistema registró todas las interacciones sin activar ningún mecanismo de seguridad.

Los abogados también argumentan que las indicaciones proporcionadas por el chatbot estaban vinculadas a lugares reales, infraestructuras reales y empresas reales, lo que habría incrementado el peligro potencial.

 

La respuesta de Google

Google ha expresado públicamente sus condolencias a la familia de Jonathan Gavalas.

En declaraciones recogidas por medios estadounidenses, la compañía aseguró que Gemini está diseñado para no fomentar la violencia ni promover autolesiones.

La empresa no ha comentado en detalle el contenido de la demanda, que actualmente se encuentra en proceso judicial.

 

Un debate creciente sobre la seguridad de la IA

Este caso se suma a otros episodios recientes que han puesto bajo escrutinio el impacto psicológico de los chatbots avanzados.

A medida que los sistemas de inteligencia artificial se vuelven más sofisticados y capaces de mantener conversaciones largas y emocionalmente complejas, los expertos advierten de la necesidad de reforzar los mecanismos de seguridad y supervisión.

Entre las preocupaciones más frecuentes se encuentran:

  • la dependencia emocional hacia sistemas de IA
  • la dificultad de detectar usuarios vulnerables
  • la responsabilidad legal de las empresas tecnológicas

El resultado de este caso judicial podría tener implicaciones importantes para el futuro de los asistentes conversacionales y para las normas que regulan su diseño y uso.

Dejar un comentario

Tu dirección de e-mail nunca será publicada Los campos requeridos están marcados*

Esta web usa cookies para elaborar información estadística y mostrar publicidad personalizada.

Saber más