Silicon Valley está más cerca que nunca de los ejércitos del mundo. Y no se trata sólo de grandes empresas, las empresas emergentes también se están interesando.
La guerra de Ucrania ha hecho más urgente la necesidad de introducir más herramientas de inteligencia artificial en el campo de batalla. Las que más pueden ganar son las empresas emergentes como Palantir, que esperan sacar provecho de la carrera de los ejércitos por actualizar sus arsenales con las últimas tecnologías. Pero las antiguas preocupaciones éticas sobre el uso de la IA en la guerra se han vuelto más urgentes a medida que la tecnología se vuelve más y más avanzada, mientras que la perspectiva de restricciones y regulaciones que rijan su uso parece más remota que nunca.
La guerra de Ucrania ha hecho más urgente la necesidad de introducir más herramientas de IA en el campo de batalla. Las que más pueden ganar son las start-ups como Palantir, que esperan sacar provecho de la carrera de los ejércitos por actualizar sus arsenales con las últimas tecnologías. Pero las antiguas preocupaciones éticas sobre el uso de la IA en la guerra se han vuelto más urgentes a medida que la tecnología se vuelve más y más avanzada, mientras que la perspectiva de restricciones y regulaciones que rijan su uso parece más remota que nunca.
El 30 de junio de 2022, la OTAN anunció la creación de un fondo de innovación de 1.000 millones de dólares que invertirá en empresas emergentes y fondos de capital riesgo que desarrollen tecnologías "prioritarias" como la inteligencia artificial, el procesamiento de grandes volúmenes de datos y la automatización.
Según un informe del Centro de Seguridad y Tecnologías Emergentes de Georgetown, es probable que el ejército chino gaste al menos 1.600 millones de dólares al año en IA, y en Estados Unidos ya se está haciendo un esfuerzo considerable para alcanzar la paridad, afirma Lauren Kahn, investigadora del Consejo de Relaciones Exteriores. El Departamento de Defensa de EE.UU. solicitó 874 millones de dólares para inteligencia artificial en 2022, aunque esa cifra no refleja el total de las inversiones del departamento en este campo, según declaró en un informe de marzo de 2022.
No sólo el ejército estadounidense está convencido de la necesidad. Los países europeos, que suelen ser más cautos a la hora de adoptar nuevas tecnologías, también están gastando más dinero en IA, afirma Heiko Borchert, codirector del Observatorio de IA para Defensa de la Universidad Helmut Schmidt de Hamburgo (Alemania).
Los franceses y los británicos han identificado la IA como una tecnología de defensa clave, y la Comisión Europea, brazo ejecutivo de la UE, ha destinado 1.000 millones de dólares al desarrollo de nuevas tecnologías de defensa.
Desde que empezó la guerra, el Reino Unido ha lanzado una nueva estrategia de IA específica para defensa, y los alemanes han destinado algo menos de 500 millones a investigación e inteligencia artificial dentro de una inyección de 100.000 millones de dólares para el ejército.
En un comunicado de prensa vagamente redactado en 2021, el ejército británico anunció con orgullo que había utilizado IA en una operación militar por primera vez, para proporcionar información sobre el entorno y el terreno circundantes. Estados Unidos trabaja con empresas emergentes en el desarrollo de vehículos militares autónomos. En el futuro, los enjambres de cientos o incluso miles de drones autónomos que los ejércitos estadounidense y británico están desarrollando podrían resultar armas poderosas y letales.
Muchos expertos están preocupados. Meredith Whittaker, asesora principal sobre Inteligencia Artificial de la Comisión Federal de Comercio y directora docente del AI Now Institute, afirma que este impulso tiene más que ver con el enriquecimiento de las empresas tecnológicas que con la mejora de las operaciones militares.
En un artículo para la revista Prospect escrito en colaboración con Lucy Suchman, profesora de sociología de la Universidad de Lancaster, afirma que los promotores de la IA están avivando la retórica de la Guerra Fría e intentando crear una narrativa que sitúa a las grandes empresas tecnológicas como "infraestructuras nacionales críticas", demasiado grandes e importantes para disolverlas o regularlas. Advierten de que la adopción de la IA por parte del ejército se presenta como algo inevitable y no como lo que realmente es: una elección activa que implica complejidades éticas y compensaciones.
A pesar de la firme marcha de la IA hacia el campo de batalla, las preocupaciones éticas que suscitaron las protestas en torno al Proyecto Maven no han desaparecido. El Proyecto Maven del Pentágono era un intento de construir sistemas de reconocimiento de imágenes para mejorar los ataques con drones. Google se retiró del Proyecto Maven en 2018 tras las protestas e indignación de los empleados.
[Más información: La agencia de inteligencia se hace cargo del Proyecto Maven, el esquema de IA emblemático del Pentágono, C4ISRNET, 27 de abril de 2022].
Ha habido algunos esfuerzos para calmar esas preocupaciones. Consciente de que tiene un problema de confianza, el Departamento de Defensa de EE.UU. ha puesto en marcha unas directrices de "inteligencia artificial responsable" para los desarrolladores de IA, y tiene sus propias directrices éticas para el uso de la IA. La OTAN tiene una estrategia de IA que establece directrices éticas voluntarias para sus países miembros.
Todas estas directrices instan a los ejércitos a utilizar la IA de forma lícita, responsable, fiable y rastreable, y tratan de mitigar los sesgos incorporados a los algoritmos.
Uno de sus conceptos clave es que los humanos deben mantener siempre el control de los sistemas de IA. Pero a medida que se desarrolle la tecnología, eso no será realmente posible, afirma Kenneth Payne, que dirige la investigación sobre estudios de defensa en el King's College de Londres y es autor del libro "I, Warbot: The Dawn of Artificially Intelligent Conflict'.
"El objetivo de un [sistema] autónomo es permitirle tomar una decisión con mayor rapidez y precisión que un ser humano y a una escala que éste no puede alcanzar", afirma. "Te estás poniendo trabas si dices: 'No, vamos a abogar por todas y cada una de las decisiones”.
Existe una campaña mundial llamada Stop Killer Robots que pretende prohibir las armas autónomas letales, como los enjambres de drones. Activistas, funcionarios de alto nivel, como el jefe de la ONU António Guterres, y gobiernos como el de Nueva Zelanda sostienen que las armas autónomas son muy poco éticas porque dan a las máquinas el control sobre las decisiones de vida o muerte y podrían perjudicar desproporcionadamente a las comunidades marginadas a través de sesgos algorítmicos.
Enjambres de miles de drones autónomos, por ejemplo, podrían convertirse en armas de destrucción masiva. Restringir estas tecnologías será una ardua batalla, ya que la idea de una prohibición mundial se ha enfrentado a la oposición de los grandes inversores en armamento, como Estados Unidos, Francia y Reino Unido.
En última instancia, la nueva era de la IA militar plantea una serie de difíciles cuestiones éticas para las que aún no tenemos respuesta.
Una de ellas es hasta qué punto queremos que las fuerzas armadas estén automatizadas, afirma Payne. Por un lado, los sistemas de IA pueden reducir el número de bajas al hacer que la guerra sea más selectiva, pero por otro, se está "creando de hecho una fuerza mercenaria de robots que luchan en nuestro nombre", afirma.
Lo anterior son extractos de un artículo titulado "Why business is booming for military AI startups" publicado por MIT Technology Review el 7 de julio de 2022. Lea el artículo completo AQUÍ.