Bob Hickok destaca las crecientes preocupaciones que suscita el despliegue incontrolado de inteligencia artificial en la guerra y subraya la urgente necesidad de marcos reguladores que salvaguarden el control humano y preserven nuestros valores fundamentales.
En una era dominada por el auge de la Inteligencia Artificial (IA), los militares están aprovechando su poder con fines estratégicos. Sin embargo, los expertos dan la voz de alarma, advirtiendo que una vez que la IA se someta a la lógica de la guerra, los seres humanos corren el riesgo de perder el control. Ya están apareciendo pruebas de esta peligrosa tendencia.
Una de estas manifestaciones de la influencia de la IA en la guerra se presenta en forma de experiencia similar a un videojuego. A finales de abril, la empresa de software estadounidense Palantir publicó un vídeo promocional en el que mostraba su nueva Plataforma de Inteligencia Artificial (AIP). En el vídeo, un soldado interactúa con el sistema de IA, que se asemeja a una interfaz basada en chat similar a ChatGPT. Pero el objetivo de esta IA no es ayudar con los deberes o el papeleo, sino vigilar una zona de guerra ficticia en Europa del Este.
La interfaz dual del sistema de IA presenta una función de chat a la izquierda y una imagen por satélite del campo de batalla a la derecha. El soldado inicia el despliegue de un dron y, tras obtener la aprobación de un comandante, el sistema de IA proporciona rápidamente imágenes de un carro de combate T80 enemigo.
En el reino de la Hiperguerra, esas decisiones podrían tomarse en cuestión de segundos o minutos.
Tras analizar los recursos disponibles, al soldado se le presentan tres opciones para hacer frente al tanque enemigo: un ataque con un caza, misiles de largo alcance o soldados de infantería. El soldado transmite estas opciones a su superior, que finalmente decide desplegar tropas terrestres.
Aunque Palantir hace hincapié en el marco ético que rodea la integración de su sistema de IA en la guerra, las operaciones independientes de la IA en el vídeo suscitan preocupación. Aunque la aportación humana sigue siendo la autoridad final, el análisis y la respuesta de la IA superan con creces la capacidad humana, lo que podría dejar a los humanos luchando por mantener el ritmo. En el caos de la guerra, las decisiones rápidas pueden marcar la diferencia.
El futuro de la guerra, en el que la IA asume una autoridad casi total en la toma de decisiones, ha sido bautizado como "hiperguerra". Acuñado por el general estadounidense John Allen, la hiperguerra representa un conflicto conducido a una velocidad inimaginable. Allen, en declaraciones al Instituto de Estudios Políticos Internacionales, recuerda su época en Afganistán, cuando las grandes operaciones tardaban días o incluso semanas en decidirse. En el reino de la hiperguerra, esas decisiones podrían tomarse en cuestión de segundos o minutos.
Incluso cuando los humanos retienen el poder de iniciar conflictos, pueden perder la capacidad de gestionar la escalada o poner fin a las guerras en sus propios términos.
Allen afirma que la hiperguerra es inevitable, impulsada por la lógica militar. Aunque Estados Unidos y sus aliados tienen escrúpulos morales, se verán obligados a actuar con rapidez, ya que sus adversarios pueden no contar con responsables humanos. Esta desventaja estratégica exige una respuesta rápida. En el reino de la hiperguerra, el tiempo lo es todo; el retraso significa la derrota.
Los expertos chinos prevén una trayectoria similar. El científico militar chino Chen Hanghui sostiene que el cerebro humano tendrá dificultades para hacer frente a un campo de batalla en constante evolución, lo que obligará a transferir la toma de decisiones a máquinas altamente inteligentes.
Sin embargo, el posible cambio hacia una guerra impulsada por la IA no es inminente. Paul Scharre, del Center for a New American Security, advierte contra un proceso gradual que socava lenta y sigilosamente la toma de decisiones humana a medida que se delegan más tareas en la IA. Al principio, los humanos pueden supervisar a las máquinas, pero a medida que los sistemas de IA se vuelvan más complejos, la relación podría invertirse, y los ordenadores planificarían las batallas mientras los soldados se convertirían en meros peones.
Scharre pinta un panorama preocupante del futuro, destacando el riesgo inminente de perder el control de la IA militar. Incluso cuando los humanos retienen el poder de iniciar conflictos, podrían perder la capacidad de gestionar la escalada o poner fin a las guerras en sus propios términos. La naturaleza impredecible de los accidentes y las decisiones inesperadas de la IA podrían causar daños irreversibles antes de que sea posible cualquier intervención. Nos encontramos tambaleándonos en el precipicio de un futuro peligroso.
Las principales potencias del mundo ya están inmersas en una incesante carrera armamentística digital, en la que el Departamento de Defensa de Estados Unidos da prioridad al desarrollo de la IA para aplicaciones militares. Sin embargo, los detalles para mantener niveles adecuados de juicio humano al desplegar armas autónomas siguen siendo vagos. Por ello, cada vez son más los expertos y activistas que dan la voz de alarma, advirtiendo del potencial de la IA para socavar el control humano y la toma de decisiones morales en la guerra. Sostienen que confiar demasiado en los sistemas de IA sin pautas y salvaguardias claras podría tener consecuencias desastrosas.
El auge de la guerra impulsada por la IA exige un examen crítico de las implicaciones éticas y prácticas, así como un esfuerzo concertado para establecer normativas sólidas y mecanismos de rendición de cuentas que impidan la pérdida de la agencia humana en cuestiones de vida o muerte. Sin una supervisión adecuada, corremos el riesgo de ceder nuestros valores fundamentales y la esencia misma de nuestra humanidad a la implacable marcha de la tecnología.
Bob Hickok