La sombra de un dedo que desató teorías conspirativas sobre Netanyahu y la IA
Un video completamente auténtico del primer ministro israelí, Benjamín Netanyahu, durante declaraciones a periodistas en el sur de Israel, generó una tormenta de desinformación en redes sociales. La causa: una sombra fugaz en su mano que algunos usuarios interpretaron erróneamente como un sexto dedo, alimentando teorías conspirativas sobre su supuesta muerte y reemplazo por un doble creado con inteligencia artificial.
De la sombra a la teoría conspirativa viral
"¿Es Netanyahu real o generado por la IA?" se preguntaba un titular en línea que rápidamente se viralizó. Aunque expertos en investigación digital explicaron que el "dedo adicional" era simplemente una sombra en la palma de su mano, esta aclaración se perdió en el ruido digital. Mensajes sin fundamento afirmaban que Netanyahu había muerto en un ataque iraní y que Israel ocultaba la realidad utilizando un doble creado con inteligencia artificial.
"La última vez que comprobé, los humanos no tenían seis dedos, en principio... salvo para la IA", se leyó en un comentario visto por más de cinco millones de usuarios en X, la plataforma de Elon Musk. La pregunta "¿Ha muerto Netanyahu?" se propagó rápidamente, demostrando cómo un detalle visual insignificante puede desatar oleadas de desinformación en contextos de conflicto.
La respuesta oficial que alimentó más teorías
Unos días después, Netanyahu publicó otro video filmado en una cafetería, mostrando sus manos para acallar los rumores. Sin embargo, en lugar de frenar las especulaciones, estas imágenes alimentaron una nueva ola de teorías infundadas. Usuarios en Threads señalaron supuestas inconsistencias, como que la taza de café del dirigente israelí seguía llena después de que bebiera de ella.
Un tercer video de Netanyahu junto al embajador estadounidense en Israel, Mike Huckabee, tampoco puso fin a los rumores. Algunos detectives en línea hicieron zoom en las orejas del primer ministro, afirmando que su forma y tamaño no coincidían con imágenes anteriores, ignorando variaciones normales en ángulos y condiciones de iluminación.
El contexto de desinformación en la guerra
Desde el inicio del conflicto en Oriente Medio el 28 de febrero, la red mundial de la AFP ha producido más de 500 artículos de verificación de hechos sobre información falsa relacionada con este conflicto. Entre el 20% y el 25% de estos contenidos falsos fueron creados con ayuda de la inteligencia artificial, un nivel sin precedentes en una crisis de esta magnitud.
Lo que distingue a esta guerra es la magnitud y el realismo de los contenidos artificiales, producidos por herramientas avanzadas, de bajo costo y accesibles que han eliminado gran parte de los antiguos indicios de manipulación. "Las plataformas tecnológicas están saturadas de lo que muchos llaman el 'ruido digital'", explican investigadores especializados.
La crisis de confianza en la información real
"Creo que todos debemos empezar a tratar las fotos, los videos y el audio de la misma manera que tratamos las habladurías", dice Thomas Nowotny, director de un grupo de investigación sobre IA en la Universidad de Sussex, en Reino Unido. Estas imágenes generadas por IA han alcanzado tal nivel de parecido con la realidad que llegan a eclipsar las fotos y videos auténticos, generando una crisis de confianza generalizada.
"El problema de la desinformación, en general, no es tanto que la gente se lo crea", explica Constance de Saint Laurent, profesora en la Universidad de Maynooth, en Irlanda. "El problema es que ven información real y ya no confían en ella". Esta desconfianza sistemática representa un desafío fundamental para el periodismo y la información veraz en contextos de conflicto.
Los algoritmos que priorizan el sensacionalismo
El volumen de contenidos falsos generados por la IA supera con creces las capacidades de verificación de los profesionales del fact-checking. Los algoritmos priorizan los contenidos en función de las interacciones (compartidos, comentarios, "me gusta"), frecuentemente impulsadas por el sensacionalismo, la indignación y la desinformación.
Las plataformas de redes sociales "actúan como editores, a través de lo que deciden mostrar principalmente mediante su hilo de noticias. Y muy a menudo, esto incluye contenidos perjudiciales y desinformación", señala Constance de Saint Laurent. Los incentivos financieros aceleran el fenómeno, ya que muchas plataformas permiten a los creadores enriquecerse en función de las interacciones.
La "Legoificación" de la propaganda de guerra
Los memes generados por la IA, que trivializan los conflictos al tiempo que difunden desinformación, ocupan cada vez más espacio, un fenómeno bautizado por el Instituto para el Diálogo Estratégico (ISD) como "Legoificación" de la propaganda de guerra. Una falsa película iraní generada por IA con personajes de Lego se volvió viral desde la primera semana del conflicto.
Videos ultrarrealistas fueron utilizados para representar ficticias victorias militares iraníes, líderes mundiales en situaciones absurdas o el estratégico estrecho de Ormuz reimaginado como una caricaturesca barrera de peaje. Esta trivialización de conflictos reales a través de formatos humorísticos o absurdos dificulta aún más la distinción entre realidad y ficción.
Herramientas de detección que confunden más que aclaran
Se suponía que las herramientas de detección de IA iban a disipar el ruido de la guerra de la información, pero, a veces, lo hacen más confuso. En el caso de Netanyahu, partidarios de teorías conspirativas esgrimieron una herramienta de detección de IA que calificó erróneamente su video grabado en un café como "generado por IA en un 96,9%". Otras herramientas llegaron a la conclusión contraria.
El problema no se limita a los videos. Las redes sociales están repletas de imágenes satelitales fabricadas o mapas de calor manipulados, empleados para sembrar dudas sobre las pruebas del conflicto, según los investigadores. Los relatos falsos ya no se limitan a fabricar contenido, sino que también califican de invenciones reportajes completamente reales.
El "dividendo del mentiroso" y la resignación digital
Cuando informaciones verídicas pero comprometedoras son descartadas como generadas por IA, los investigadores lo denominan "el dividendo del mentiroso". En estas circunstancias, "resulta más fácil negar las atrocidades", advirtió un informe de Tech Policy Press. "Eso es lo que buscan los malintencionados: que la gente piense que todo puede estar manipulado para que no puedan confiar en nada", insiste Hannah Covington, directora sénior de contenidos educativos en el News Literacy Project.
Tras un ataque mortífero contra una escuela en la ciudad de Minab el 28 de febrero, una cuenta oficial iraní en X publicó una foto que mostraba la mochila de un niño manchada de sangre y polvo. La AFP determinó que era muy probable que la imagen hubiera sido generada por IA. Pero pocos internautas parecieron perturbados por el uso de una imagen manipulada para ilustrar la muerte de escolares reales.
"Probablemente modificada por IA, pero el significado es real", escribió un usuario de Reddit, mostrando una resignación creciente ante una era en la que la pregunta "¿Es real?" se ha vuelto cada vez más difícil de responder. Esta normalización de la desinformación representa uno de los mayores desafíos para la información veraz en el contexto de conflictos contemporáneos.



