El vídeo de Netanyahu con “seis dedos” desata el caos: ¿Ha sido sustituido por una IA?

Las redes sociales vuelven a convertirse en el mejor ejemplo de cómo la inteligencia artificial está erosionando la confianza pública en lo que vemos. En los últimos días, se han disparado las publicaciones que aseguran que Benjamin Netanyahu habría muerto o resultado herido y que Israel estaría utilizando vídeos generados por IA para sustituirlo digitalmente.
La teoría se apoya en supuestas anomalías visuales, como una mano con seis dedos o una taza de café cuyo contenido parece comportarse de forma extraña, pero los verificadores han desmontado al menos la pieza más viral: no hay pruebas creíbles de que Netanyahu haya sido reemplazado por un clon generado por IA.
🎁 ¡Ofertas Amazon! ¡Descuentos del 10 al 16 de marzo en Echo, Kindle, Fire TV, Ring y más! [ Saber más ]
El origen de la polémica estuvo en una rueda de prensa difundida por el Gobierno israelí. Un fragmento del vídeo se compartió masivamente porque algunos usuarios aseguraban que, durante unos instantes, el primer ministro mostraba seis dedos en la mano derecha.
Ese detalle disparó las sospechas, sobre todo porque las herramientas generativas han arrastrado durante años problemas con la representación de manos. Sin embargo, PolitiFact concluyó que la mano de Netanyahu se veía normal al revisar el vídeo con más detalle, y atribuyó la aparente anomalía a un efecto de iluminación y compresión visual. Además, señaló que durante el resto de la comparecencia no aparecen irregularidades similares.
La conclusión de los verificadores va en la misma línea que la de otros especialistas en desinformación: en un entorno saturado de imágenes manipuladas, la sospecha nace cada vez con menos pruebas. Ya no hace falta demostrar que un contenido es falso para sembrar dudas; basta con que exista un pequeño artefacto visual para activar la maquinaria conspirativa. Ese es, precisamente, uno de los rasgos más peligrosos de la era de los deepfakes: no solo facilitan el engaño, también convierten cualquier imagen real en material sospechoso.
🚨HOLY CRAP, IS THIS TRUE??
Rumors swirling that the Prime Minister of Israel – Netanyahu – is dead after this video has been released of him LIVE on TV.
Look at the 6 fingers.🧐 pic.twitter.com/NjRnov6OHm
— JackTheRippler ©️ (@RippleXrpie) March 13, 2026
El vídeo del café no apagó el incendio, lo avivó
Lejos de cerrar la polémica, la respuesta de Netanyahu en vídeo desde una cafetería echó más leña al fuego. En la grabación, el mandatario enseña las manos a cámara y pide a quien graba que cuente sus dedos, en un intento evidente de ridiculizar los rumores. Pero en redes muchos usuarios se lanzaron a diseccionar cada fotograma: desde el movimiento del líquido en la taza hasta un anillo que parecía fundirse con la piel o desaparecer a ratos.
Incluso se cuestionó el entorno, con comentarios sobre la fecha que aparecía en la caja registradora, y hubo quien interpretó como “prueba” el hecho de que sostuviera la bebida con la mano derecha.
El problema es que en muchos de estos casos no existe una forma sencilla y definitiva de zanjar la discusión para el usuario medio. Parte de esas inconsistencias pueden deberse a compresión, pérdida de calidad, iluminación o defectos habituales del vídeo digital. Pero, al mismo tiempo, el público ya ha aprendido que esos mismos errores también pueden aparecer en material sintético.
El resultado es una tormenta perfecta: la gente detecta “algo raro”, pero carece de herramientas claras para distinguir entre un fallo técnico banal y una manipulación real.
La gran crisis no es tecnológica, sino de confianza
Lo verdaderamente inquietante de este episodio no es la teoría concreta sobre Netanyahu, sino lo que revela sobre el estado de internet. Hemos entrado en una fase en la que la autenticidad de un vídeo ya no se da por sentada, incluso cuando no existen evidencias sólidas de manipulación.
La inteligencia artificial generativa ha reducido muchos de sus “fallos” más clásicos y, en paralelo, ha creado una cultura de sospecha permanente. Eso significa que una imagen falsa puede circular como si fuera real, pero también que una imagen auténtica puede ser descartada como falsa simplemente porque alguien lo afirma con suficiente convicción.
Qué lección deja este caso para el futuro de internet
El caso Netanyahu deja una idea incómoda pero crucial: hemos entrado en una fase en la que nuestros ojos ya no bastan. La confianza en imágenes y vídeos depende cada vez más de verificadores, de análisis forense, de contexto y de sistemas de procedencia digital que todavía no están desplegados a gran escala. Mientras esa infraestructura no se generalice, cada vídeo polémico se convertirá en un campo de batalla entre quienes lo dan por real y quienes lo descartan como una falsificación.
La consecuencia es enorme para medios, plataformas y usuarios. Ya no basta con consumir contenido: hay que aprender a desconfiar sin caer en el cinismo absoluto. Porque ese es el gran triunfo de la desinformación en la era de la IA: no solo consigue que algunas mentiras parezcan verdad, sino que logra que la verdad parezca una mentira más.





