El FBI alerta sobre secuestros falsos creados con inteligencia artificial
El avance de la inteligencia artificial está dando lugar a nuevas formas de criminalidad digital cada vez más sofisticadas. El FBI ha emitido una advertencia oficial ante el preocupante aumento de estafas que simulan secuestros mediante el uso de vídeos falsos generados con IA.
Los delincuentes están utilizando tecnología deepfake para crear pruebas de vida completamente inventadas, con las que presionan a las víctimas para que paguen rescates en cuestión de minutos.
💻 ¡Ofertas del Black Friday! ¡Office 2021 Pro disponible a 29,28€! ¡Paga una vez y úsalo de por vida! [ Saber más ]
Este tipo de fraude no solo se apoya en la manipulación visual, sino que explota el impacto emocional extremo que genera recibir un supuesto vídeo de un familiar secuestrado, reduciendo drásticamente la capacidad de análisis de las víctimas y forzándolas a tomar decisiones impulsivas.
Así construyen los estafadores un secuestro falso con deepfakes
Según el nuevo informe difundido por el FBI, los atacantes siguen un patrón cada vez más definido. En primer lugar, seleccionan a la víctima y analizan su entorno familiar a través de redes sociales y plataformas digitales. Fotografías, vídeos, historias y publicaciones públicas se convierten en la materia prima perfecta para alimentar herramientas de inteligencia artificial generativa.
Una vez obtienen suficiente material visual, los criminales lo procesan con sistemas avanzados de generación de vídeo para simular situaciones de cautiverio. El resultado es un clip falso en el que parece que un familiar ha sido secuestrado. Ese contenido se envía después como supuesta prueba de vida, acompañado de una exigencia de pago urgente.
Pagos rápidos y ventanas de tiempo muy reducidas
Uno de los aspectos más peligrosos de este tipo de estafa es la presión temporal. Los delincuentes imponen plazos extremadamente cortos para el pago del rescate, utilizando mensajes con temporizador o sistemas de comunicación efímeros que limitan el tiempo de reacción de la víctima. De este modo, buscan impedir que los afectados puedan comprobar la veracidad del vídeo o contactar con la persona supuestamente secuestrada.
El FBI alerta de que los criminales confían en que el pánico bloquee la reflexión racional, aumentando drásticamente las probabilidades de que el dinero sea enviado sin verificación previa.
La dificultad creciente para detectar vídeos falsos
Las autoridades reconocen que diferenciar un vídeo real de uno generado por inteligencia artificial es cada vez más complicado. El ritmo de evolución de estas herramientas es tan rápido que los fallos visuales clásicos están desapareciendo progresivamente. Aun así, algunos detalles pueden seguir delatando la manipulación, como proporciones corporales extrañas, movimientos poco naturales o la ausencia de marcas identificativas reales en la persona que aparece en el vídeo.
A pesar de ello, el nivel de realismo alcanzado por los deepfakes actuales hace que incluso usuarios experimentados tengan dificultades para detectar el engaño en una primera visualización.
El nuevo papel de la inteligencia artificial en la extorsión digital
El FBI subraya que este tipo de estafas marca un punto de inflexión en el uso criminal de la inteligencia artificial. Ya no se trata solo de suplantación de identidad o generación de imágenes falsas, sino de la creación de escenarios completos de secuestro diseñados específicamente para extorsionar. Esta evolución convierte a la IA en una herramienta de amenaza directa para la seguridad emocional, económica y personal de las familias.
Los delincuentes aprovechan además la enorme cantidad de material personal que muchas personas comparten de forma pública, lo que facilita enormemente la creación de estos montajes sin necesidad de hackear cuentas privadas.
Las recomendaciones oficiales para evitar caer en la estafa
Ante este nuevo escenario, el FBI ha difundido una serie de medidas preventivas clave. La principal recomendación es reducir al máximo la cantidad de información personal compartida en internet, especialmente durante viajes o situaciones fácilmente localizables. También se aconseja revisar de forma estricta la configuración de privacidad de las redes sociales y limitar quién puede acceder a fotos y vídeos familiares.
Otro punto fundamental es no realizar ningún pago de forma inmediata. Las autoridades recalcan que siempre debe intentarse establecer contacto directo con la supuesta víctima antes de seguir cualquier instrucción. Una simple llamada puede desmontar el engaño en segundos y evitar una pérdida económica importante.





