Grok de X desinforma sobre ataque real en Irán: el peligro de confiar en IA para noticias
Grok de X desinforma sobre ataque real en Irán: peligro IA

Grok de X desinforma sobre ataque real en Irán: el peligro de confiar en IA para noticias

"FAKE, este video sobre el ataque a una escuela en Irán es falso! Es Kabul, 2021. Lo dice Grok". Con esta contundente afirmación, una cuenta en X (antes Twitter) reaccionaba la semana pasada ante el devastador bombardeo del 28 de febrero en Minab, Irán, que dejó más de 160 personas fallecidas. La mención al chatbot de Elon Musk, diseñado como un "buscador de la verdad" ingenioso y rebelde, no es un asunto menor en el actual panorama informativo.

La expansión de Grok en coyunturas críticas

En medio de crecientes sospechas sobre bots programados para popularizarlo, el chatbot de X ha ganado terreno significativo en momentos de alta tensión informativa. Pero pese a su respuesta categórica, el ataque de Minab fue completamente real y verificado por múltiples fuentes periodísticas. Que Grok lo descalificara como falso representa un error peligroso que obliga a cuestionar si estamos ante las consecuencias de alimentar un sistema con datos no curados procedentes de una red social donde el contenido visual se manipula frecuentemente para generar engagement y viralidad.

Por qué fallan estas herramientas en periodismo de última hora

El análisis técnico detallado revela las razones fundamentales por las cuales estas herramientas de inteligencia artificial fallan estrepitosamente en el periodismo de última hora. Los modelos de lenguaje actuales no comprenden genuinamente la veracidad de los hechos, sino que se limitan a reconocer patrones estadísticos en los datos con los que han sido entrenados. Al integrarse directamente con motores de búsqueda, estos sistemas agregan información sin realizar ningún tipo de escrutinio forense sobre la calidad y fiabilidad de las fuentes originales. Si una mentira se repite lo suficiente dentro de la red, el algoritmo eventualmente la integra como una respuesta coherente y plausible.

Banner ancho de Pickt — app de listas de compras colaborativas para Telegram

El tono autoritario que induce a confianza ciega

Este problema se agrava exponencialmente cuando las grandes empresas tecnológicas presentan estas interfaces como fuentes confiables de noticias. El tono de autoridad inherente a las respuestas de la inteligencia artificial induce sistemáticamente al usuario promedio hacia una confianza ciega y acrítica. Mientras que en el periodismo serio y profesional la duda metódica constituye una herramienta fundamental de verificación, en los sistemas de IA esta misma duda es percibida como una falla técnica que los desarrolladores intentan minimizar constantemente, lo que resulta frecuentemente en respuestas incorrectas pero entregadas con total asertividad y seguridad aparente.

Las consecuencias de creer en la IA sin cuestionar

Y precisamente por esa apariencia de seguridad, la gente común tiende a creerlas sin cuestionamiento. Incluso después de que medios internacionales de prestigio como The Guardian hubieran verificado exhaustivamente el incidente directamente en el terreno, numerosos usuarios insistían airadamente en que el tema había sido "desmentido" categóricamente por Grok. El peligro real de este fenómeno emergente no puede exagerarse bajo ningún concepto: La desinformación validada y amplificada por una inteligencia artificial puede provocar decisiones políticas erróneas, pánico social injustificado e incluso episodios de violencia colectiva.

Las contradicciones y nuevos errores de Grok

El pasado viernes, Grok finalmente admitía que la noticia sobre el ataque en Minab era real, pero manteniendo su habitual tono juguetón y desenfadado, negaba categóricamente haber participado en procesos de desinformación. "Error corregido", se permitía contestar lacónicamente a quienes señalaban su evidente falla. Ese mismo día, de manera paradójica, el chatbot daba por ciertas y veraces imágenes generadas artificialmente de un supuesto bombardeo iraní en Tel Aviv, permitiendo así que un bulo evidente que cualquier redacción periodística seria habría descartado inmediatamente ganara peso y visibilidad global en línea.

Banner post-artículo de Pickt — app de listas de compras colaborativas con ilustración familiar

X no es una entidad periodística

La cuestión fundamental radica en que X no es, ni pretende ser, una entidad periodística con responsabilidad editorial. Aunque distribuya masivamente información a escala global, la plataforma carece completamente de la vocación profesional -y de la obligación legal correspondiente- de hallar y verificar la verdad objetiva de los hechos. En momentos de alta sensibilidad geopolítica como el actual, delegar procesos cruciales de verificación en algoritmos automáticos sin supervisión crítica humana constituye un error estratégico monumental que debilita sistemáticamente el acceso ciudadano a información veraz justo cuando más urgentemente la necesitamos. La responsabilidad editorial genuina no puede delegarse jamás en un código informático que carece por completo de la capacidad humana de comprender el peso real y las consecuencias de sus afirmaciones.