El uso de IA en operaciones militares: un riesgo que va más allá de la ciencia ficción
Menos de una semana después de que se publicara una columna crítica sobre Anthropic, la compañía anunció que durante las próximas dos semanas duplicará los límites de uso para todos sus usuarios, tanto suscriptores como no suscriptores. Esta decisión pone de relieve cómo Anthropic busca capitalizar la visibilidad obtenida tras entrar en conflicto con las fuerzas militares más poderosas de la historia humana.
La conexión con operaciones militares estadounidenses
La compañía tuvo mucha suerte de haber marcado su distancia con el Departamento de Defensa cuando lo hizo. Un misil estadounidense destruyó una escuela primaria de niñas en Minab, Irán, causando aproximadamente 150 muertes y 100 heridos, justo un día después de que Dario Amodei, director ejecutivo de Anthropic, declarara que no haría excepciones para el Pentágono respecto a las limitaciones de uso de su tecnología.
Anthropic comenzó a investigar el uso de su modelo de lenguaje grande Claude en la operación para capturar a Nicolás Maduro. Según informaciones, los militares estadounidenses aparentemente utilizaron Claude durante el proceso para ubicar objetivos. Pero la evidencia sugiere que también emplearon inteligencia artificial, posiblemente incluso Claude, en el proceso de definir los objetivos para su bombardeo en Irán.
La tragedia de la escuela primaria
La información sobre el colegio de niñas estaba desactualizada y, según determinaron fuentes periodísticas como The New York Times, el sistema habría identificado erróneamente un objetivo sin que hubiera suficiente confirmación por parte de humanos. Este incidente revela uno de los grandes horrores desencadenados por el uso de la IA en el ámbito militar.
El verdadero peligro no es un escenario de ciencia ficción donde la IA tome control de los sistemas y aniquile a la especie humana, sino uno mucho más mundano: que nos haga cómodos y nos exponga a cometer errores criminales por confiar excesivamente en ella.
Los riesgos inmediatos de los modelos de lenguaje
Los modelos de lenguaje grande (LLM) representan una tecnología peligrosa y difícil de usar adecuadamente. No solo tientan a instituciones y empresas a reducir sus capacidades humanas, que son más costosas y consideradas "fastidiosas" (en el caso de Estados Unidos, querían eliminar filtros legales para sus operaciones), sino que facilitan la deshonestidad intelectual y potencialmente propagan desinformación, afectando incluso la salud mental de sus usuarios.
Un aparato físico con tantos peligros potenciales exigiría una licencia para emplearlo o al menos vendría con advertencias visibles. En este caso, no existe tal regulación.
La distracción de los peligros de ciencia ficción
A menudo, los grandes ejecutivos de compañías de IA hablan sobre los peligros potenciales de su tecnología en términos de ciencia ficción —como que se vuelvan conscientes y eliminen a la especie humana— para distraer la atención de los peligros más inmediatos que exigen una regulación urgente.
Karen Hao, autora de El imperio de la IA, advierte que los LLM son como los cohetes de la inteligencia artificial. No son la única IA disponible, sino la más exageradamente poderosa. ¿Cómo es posible que al usuario promedio se le sugiera "andar en cohete" en lugar de diseñar "bicicletas" tecnológicas más seguras para ellos?
Existen posibilidades de desarrollar inteligencias artificiales más específicas y enfocadas, pero la industria está obsesionada con escalar la tecnología hasta su máximo potencial. El verdadero temor no es que esto nos lleve a una realidad tipo Terminator, sino que deje a su paso una cadena de consecuencias derivadas de la irresponsabilidad, la negligencia y el deseo de buscar atajos donde antes la seguridad la proporcionaba la verificación humana.



