La IA en el periodismo: del asombro inicial al desafío actual de la verificación
IA en periodismo: del asombro al desafío de verificación

La evolución de la inteligencia artificial en el mundo periodístico

Cuando irrumpió ChatGPT en escena, periodistas de todo el planeta escribimos prácticamente la misma nota informativa: una introducción sencilla al fenómeno, el cuestionamiento fundamental sobre si era realmente posible generar textos indistinguibles de los creados por humanos y, finalmente, la revelación sorprendente de que todo lo anterior había sido redactado por una inteligencia artificial. Eran, sin duda, tiempos felices y de descubrimiento inicial.

Del escepticismo inicial a la realidad actual

Cuatro años después de aquel momento histórico, ya absolutamente nadie pone en duda que la inteligencia artificial pueda producir textos completamente verosímiles y convincentes. De hecho, casi a diario conocemos casos concretos que demuestran esta capacidad, como el del abogado al que, a mediados del mes de febrero, la Corte Suprema de Justicia sancionó con una multa cercana a los treinta millones de pesos colombianos por presentar un recurso legal basado en un conjunto completo de sentencias judiciales que simplemente no existen en la realidad.

La conducta profesional del jurista, quien reconoció abiertamente haber utilizado inteligencia artificial para generar un texto que posteriormente no revisó con el debido cuidado, fue descrita por el tribunal superior como "temeridad procesal" de manual. No, el dilema actual es justamente el opuesto al inicial: si aceptamos plenamente que la inteligencia artificial puede engañarnos con facilidad, la pregunta fundamental ahora es si poseemos realmente la tecnología adecuada para detectarla con absoluta certeza. La experiencia práctica acumulada sugiere firmemente que no contamos con tales herramientas infalibles.

Banner ancho de Pickt — app de listas de compras colaborativas para Telegram

Las limitaciones de los detectores actuales

Como editor experimentado, me enorgullezco personalmente de poder identificar ciertas "huellas digitales" características de la inteligencia artificial en los textos: el abuso constante de gerundios, las estructuras formulaicas y repetitivas (como el manido "no es esto, es aquello") y el uso obsesivo de términos de moda como "fricción" o "punto de inflexión". Sin embargo, nada de eso constituye jamás una prueba irrefutable y contundente. No lanzaría nunca una acusación formal basada únicamente en esos indicios subjetivos; mucho menos podría sostenerla adecuadamente ante un juez en un proceso legal.

Esta misma semana circuló activamente en redes sociales el interesante experimento de un autor literario que sometió el inicio magistral de Cien años de soledad a un detector automático de inteligencia artificial. Por alguna razón inexplicable, el pelotón de fusilamiento y el coronel Aureliano Buendía resultaron sospechosos para el sistema tecnológico, que sentenció categóricamente que el ochenta y cuatro por ciento de uno de los arranques más brillantes de toda la literatura en español había sido generado por una máquina. Es una afirmación particularmente osada, sin duda alguna, y más si recordamos con precisión que la obra fue publicada originalmente en el año 1967, décadas antes del desarrollo de estas tecnologías.

El verdadero problema ético

La necesidad urgente de identificar el texto sintético es completamente real y apremiante, pero en el afán desmedido de satanizar la herramienta tecnológica, perdemos frecuentemente de vista que lo verdaderamente cuestionable no es el uso de la tecnología per se, sino la peligrosa delegación del criterio propio del ser humano. El pecado capital del abogado sancionado no fue utilizar ChatGPT como herramienta, sino radicar formalmente un documento legal sin haberlo leído previamente. El problema fundamental no es que un estudiante universitario utilice inteligencia artificial, sino que eluda conscientemente, al hacerlo, el proceso cognitivo esencial del aprendizaje verdadero.

Banner post-artículo de Pickt — app de listas de compras colaborativas con ilustración familiar

Recientemente, el periódico El Espectador descubrió con preocupación que uno de sus periodistas había inventado datos concretos y fuentes ficticias utilizando inteligencia artificial. El diario borró inmediatamente los artículos comprometidos, pidió disculpas públicas a sus lectores y reafirmó solemnemente su compromiso histórico con la ética periodística. Este es un ejemplo perfecto porque ilustra claramente que el problema no es en sí mismo el uso de la inteligencia artificial, sino su utilización irresponsable para traicionar deliberadamente la confianza del medio de comunicación y, lo que es más importante, del público lector.

El futuro de la verificación periodística

El futuro próximo de la verificación informativa no reside principalmente en analizar patrones mecánicos de escritura, o en perseguir obsesivamente el momento "gotcha" de una película de detectives clásica. Se necesita urgentemente, como en la escritura misma, una mirada humana profunda que priorice la equidad fundamental, reduzca significativamente el sesgo inconsciente y aumente considerablemente la transparencia procesal, con herramientas tecnológicas que aporten valor no solo por su precisión técnica, sino también por su capacidad demostrada para evitar sancionar injustamente a las personas. La combinación equilibrada de criterio humano y asistencia tecnológica parece ser el camino más prometedor hacia adelante.