La inteligencia artificial en operaciones militares: ¿quién asume la responsabilidad moral?
La reciente revelación del The Wall Street Journal sobre el empleo de Claude, la inteligencia artificial desarrollada por Anthropic, durante la operación para capturar a Nicolás Maduro en Venezuela ha desencadenado un intenso debate ético a nivel internacional. Aunque la incursión militar, que incluyó bombardeos en Caracas, se presenta como un éxito táctico desde el punto de vista operativo, nos enfrenta a una pregunta fundamental: ¿dónde termina el cálculo estadístico de las máquinas y dónde comienza la responsabilidad moral de los seres humanos?
La ilusión del control humano en sistemas automatizados
En las instituciones de defensa y seguridad, la narrativa oficial frecuentemente se refugia en el concepto de "humano en el bucle" como garantía ética, asegurando que las personas mantienen el control final sobre las decisiones críticas. Sin embargo, la realidad operativa actual sugiere una transición acelerada hacia el modelo de "humano fuera del bucle", donde la velocidad de los sistemas algorítmicos tiende a separar progresivamente la agencia humana de la conducta en los conflictos bélicos.
Como advierte la investigadora Toni Erskine, el mundo se enfrenta al riesgo creciente de una "responsabilidad extraviada" en el contexto de la guerra moderna. Existe una tendencia peligrosa a atribuir a la inteligencia artificial capacidades de reflexión y comprensión que, en realidad, estas tecnologías no poseen. El peligro fundamental radica en que estos sistemas puedan convertirse en "chivos expiatorios sintéticos" que permitan a los líderes políticos y militares esquivar el peso moral de sus decisiones bélicas.
El resurgimiento del debate sobre armas autónomas letales
Este caso revive con intensidad el debate global sobre las armas autónomas letales, sistemas capaces de identificar, seleccionar y atacar objetivos sin intervención humana directa. La posibilidad de que algoritmos de procesamiento de datos controlen plataformas de ataque genera una profunda preocupación sobre la rendición de cuentas en escenarios de conflicto armado.
La situación se agrava considerablemente debido al fenómeno conocido como "sesgo de automatización". Investigaciones realizadas por Michael Horowitz y Lauren Kahn han demostrado consistentemente que los operadores humanos tienden a confiar excesivamente en las sugerencias proporcionadas por sistemas de inteligencia artificial, tratándolas como verdades empíricas en lugar de simples probabilidades estadísticas. En misiones de alto riesgo militar, esta confianza ciega puede disminuir significativamente la vigilancia humana, al percibir que la tarea se comparte con un "miembro del equipo" que teóricamente no comete errores.
La complejidad de integrar ética en algoritmos bélicos
La integración de principios éticos en los códigos de inteligencia artificial aplicados a contextos bélicos representa un terreno particularmente movedizo y complejo. El experimento "Moral Machine" desarrollado por el Instituto Tecnológico de Massachusetts evidenció claramente que las percepciones sobre lo que constituye una decisión justa en situaciones límite varían drásticamente según el contexto cultural y social.
Al aplicar sistemas de inteligencia artificial en escenarios de guerra, surge inevitablemente la incertidumbre fundamental sobre qué valores específicos se han programado en estos algoritmos. Como señala acertadamente Erskine, la tecnología carece por completo de "autonomía reflexiva", no puede experimentar empatía genuina ni evaluar las razones profundas y complejas detrás de un acto violento específico.
Estos sistemas carecen precisamente de lo que el teórico militar Carl von Clausewitz denominaba el "genio militar": esa combinación única de intuición, flexibilidad adaptativa y capacidad para evaluar el contexto político amplio junto con el sufrimiento humano dentro de la incertidumbre inherente a cualquier conflicto armado.
La guerra como fenómeno que trasciende la ejecución técnica
En definitiva, la guerra representa un fenómeno humano complejo que no puede reducirse jamás a una simple ejecución técnica o algorítmica. Si una decisión guiada principalmente por algoritmos deriva eventualmente en una tragedia humanitaria o en un crimen de guerra documentado, el banquillo de los acusados no puede ni debe estar ocupado por líneas de código informático.
La responsabilidad moral en contextos bélicos no constituye un recurso que pueda externalizarse hacia sistemas tecnológicos; representa más bien el último baluarte que separa la política responsable de la barbarie indiscriminada. La integración de inteligencia artificial en operaciones militares exige, por tanto, marcos regulatorios robustos, supervisión humana significativa y una reflexión ética constante sobre los límites de la automatización en asuntos que afectan directamente la vida humana y la estabilidad internacional.



