Mientras los gobiernos de todo el mundo se preparan para desplegar la IA a gran escala, la segunda Cumbre sobre IA Responsable en el Ámbito Militar (REAIM) se reunió los días 9 y 10 de septiembre en Seúl para debatir el futuro de los esfuerzos de gobernanza. La Cumbre REAIM es un diálogo único entre múltiples partes interesadas que reúne a representantes de gobiernos, la industria, el mundo académico y organizaciones de la sociedad civil. También es uno de los pocos lugares en los que funcionarios de los gobiernos chino y estadounidense, junto con delegados de más de 90 países, se reúnen para debatir la gobernanza mundial de la IA militar. Pero la creciente competencia geopolítica, así como las controvertidas nociones de lo que constituye una "IA responsable", plantean retos inmediatos para el desarrollo y la adopción de marcos normativos, jurídicos y políticos compartidos.
¿Un plan de acción?
La Cumbre REAIM 2024 culminó con un "Plan de Acción", un documento no vinculante basado en el "Llamamiento a la Acción" de la cumbre celebrada el año pasado en La Haya. El Plan esboza una serie de principios sobre el impacto de la IA en la paz y la seguridad internacionales, la aplicación de una IA responsable en el ámbito militar y el futuro de la gobernanza de la IA. Reconociendo que el debate sobre la IA militar ha ido más allá de los sistemas de armas autónomas letales, el Plan afirma que los principios se aplican a todas las "aplicaciones de la IA en el ámbito militar", incluidas las utilizadas en logística, operaciones de inteligencia y toma de decisiones.
El Plan pide a los responsables políticos que presten especial atención a las armas con IA, los sistemas de apoyo a la toma de decisiones con IA y el uso de la IA en las operaciones cibernéticas, la guerra electrónica, las operaciones de información y el ámbito nuclear. Aunque todavía muy centrado en el nivel táctico, el Plan reconoce el potencial de la IA para socavar la paz y la seguridad internacionales al complicar la dinámica de la escalada y reducir el umbral para el uso de la fuerza. Por último, el Plan insta a las partes interesadas a comprometerse de nuevo con el intercambio de conocimientos, el desarrollo de capacidades y la creación de un entendimiento común de los riesgos y oportunidades asociados a la IA militar.
El Plan de Acción fue respaldado por 61 países, entre ellos Francia, Japón, Pakistán, Corea del Sur, Suecia, Suiza, Ucrania, Reino Unido y Estados Unidos. China no estaba entre ellos, a pesar de haber respaldado el Llamamiento a la Acción el año pasado. Pekín tampoco ha respaldado la "Declaración Política sobre el Uso Militar Responsable de la Inteligencia Artificial y la Autonomía", liderada por Estados Unidos, que ofrece parámetros para el desarrollo, despliegue y uso de la IA militar. Tampoco lo ha hecho Rusia. E Israel, un aliado clave de Estados Unidos que ya está desplegando tecnologías basadas en IA en el campo de batalla de Gaza, no ha respaldado ninguna de estas iniciativas.
La falta de consenso internacional sobre el Plan de Acción es decepcionante, aunque no sorprendente. Los principios contenidos en el documento reflejan el mínimo común denominador de acuerdo entre las partes interesadas sobre lo que constituye un uso "responsable" de la IA militar, como la afirmación de que "las aplicaciones de la IA deben ser éticas y centradas en el ser humano", donde los seres humanos siguen siendo responsables del desarrollo y uso de la IA. Del mismo modo, el documento afirma de forma incontrovertible que las tecnologías basadas en IA deben someterse a revisiones legales y utilizarse de acuerdo con todas las leyes internacionales aplicables, concretamente el Derecho Internacional Humanitario (DIH) y el Derecho Internacional de los Derechos Humanos (DIDH). Sin embargo, unos 30 representantes de gobiernos presentes en el REAIM no respaldaron estas declaraciones.
El hecho de que los Estados no se pongan de acuerdo sobre estos principios fundamentales sugiere que el marco de la "IA responsable" sigue siendo controvertido a escala mundial, y que los países democráticos adoptan un enfoque más basado en valores que los regímenes autoritarios para mitigar los posibles daños de la IA a las personas y a la sociedad. Sin embargo, esta falta de consenso no debe interpretarse como una falta de preocupación. En una de las sesiones de trabajo de la Cumbre REAIM 2024, los representantes chinos expresaron en privado su preocupación por el uso de la IA en Gaza por parte de Israel, lo que subraya la urgencia compartida de que la incapacidad de los marcos de gobernanza de la IA para seguir el ritmo de la tecnología ya está provocando daños en el mundo real.
REAIM, por supuesto, es sólo un foro en el que se están desarrollando debates sobre la gobernanza de la IA militar. La Cumbre del Futuro de las Naciones Unidas, que se celebra en Nueva York poco más de una semana después de la Cumbre REAIM, brindará otra oportunidad para abordar estos retos y fomentar el consenso mundial.
De los principios a la práctica
Aunque el Plan no sea innovador, hay indicios de que avanzamos en la dirección correcta. En el REAIM surgió el consenso de que los debates políticos han girado durante demasiado tiempo en torno a los sistemas de armas autónomas letales (LAWS, por sus siglas en inglés) en contraposición a las aplicaciones más amplias de la IA, centrándose en cuestiones tácticas en detrimento de las consideraciones estratégicas. Además, los participantes coincidieron en que estos debates se han celebrado a un nivel demasiado general y abstracto, lo que ha impedido una gobernanza eficaz.
Pero esto está cambiando gradualmente. En varias sesiones de REAIM se hizo hincapié en la necesidad de dejar atrás el debate sobre las LAWS, centrarse en la seguridad estratégica y adoptar pruebas y análisis rigurosos del uso de la IA en estudios de casos concretos. Hubo un amplio consenso sobre la necesidad de ser más forenses en las cuestiones de investigación y más precisos a la hora de identificar las lagunas de conocimiento. En palabras de James Black, de RAND Europe: "Todavía estamos en la fase de búsqueda de problemas, no en la de resolución".
¿Cómo podemos pasar a la fase de resolución de problemas? Este fue el tema central de la mesa redonda de REAIM "Uso militar responsable de la IA: salvar la brecha entre los principios y la práctica", organizada conjuntamente por Carnegie Council para la Ética en los Asuntos Internacionales y el Oxford Institute for Ethics, Law and Armed Conflict (ELAC). Reuniendo a destacados especialistas en ética, juristas internacionales y estrategas militares, pregunté a los panelistas cómo los responsables de la toma de decisiones pueden traducir más eficazmente los principios para la gobernanza de la IA en acciones globales concretas. El panel fue el comienzo de una serie de talleres previstos para abordar esta cuestión urgente.
El profesor Kenneth Payne, del King's College de Londres, captó el sentimiento de la sala: "Hablar de normas es fácil, pero es difícil ir más allá". En una era de creciente competencia geopolítica, la IA plantea riesgos significativos a nivel estratégico, entre otras cosas porque hace más opaca e impredecible la dinámica de escalada de los conflictos. "La 'gramática' de la guerra, por retomar a Clausewitz, es incierta", afirmó Payne.
En medio de esa incertidumbre, ser el primero en dar forma a las reglas del juego ofrece claras ventajas estratégicas y normativas. El Dr. Paul Lyons, director senior de defensa del Proyecto de Estudios Competitivos Especiales y antiguo capitán de la Marina estadounidense, subrayó que "aunque la gobernanza es importante, aunque la velocidad responsable es importante, no olvidemos que hay una carrera por la innovación, y el primero en mover ficha asignará esos valores". La IA responsable, según Lyons, requiere una experimentación rápida, en la que los operadores prueben distintos modelos de gobernanza en un entorno controlado.
A medida que los Estados se apresuran a desarrollar y desplegar nuevas tecnologías, la transparencia desempeñará un papel fundamental para garantizar un uso responsable de la IA. "La aplicación de los principios de la IA responsable puede generar eficiencia, eficacia y legitimidad", subrayó la Dra. Tess Bridgeman, coeditora jefe de Seguridad Justa y ex asesora jurídica adjunta del Consejo de Seguridad Nacional de Estados Unidos. "La transparencia es un factor de confianza en los sistemas de IA que estamos produciendo y operando, y la confianza, a su vez, puede fomentar una adopción más rápida de esas capacidades". Lyons se mostró de acuerdo, observando que "la confianza es inherente a lo que somos, a lo que hacemos, a las visiones que seguimos y a los valores que nos sirven, ya que prescribimos cómo debe utilizarse la IA."
Los Estados podrían adoptar hoy varias medidas para mejorar la transparencia de la IA militar. En primer lugar, los Estados podrían publicar sus estrategias nacionales, documentos políticos, marcos y legislación para el desarrollo y uso de la IA en el ámbito militar. Esto debería implicar la redacción y desclasificación de políticas y procedimientos para el uso de la IA en contextos de seguridad nacional, incluida la toma de decisiones relativas al uso de la fuerza y las operaciones de inteligencia que apoyan las funciones de combate. En segundo lugar, los Estados podrían crear compendios de los conocimientos existentes sobre IA militar. Estos compendios podrían incluir estudios de casos sobre el uso responsable de las tecnologías de IA en conflictos convencionales y no convencionales. Por último, los Estados deberían desarrollar interpretaciones colectivas de cómo se aplica el derecho internacional en casos específicos de uso de la IA de forma que sean accesibles al debate público, al tiempo que se comparten las mejores prácticas para las revisiones jurídicas.
Además de la transparencia, la transferencia de conocimientos y el desarrollo de capacidades serán esenciales para reforzar la gobernanza de la IA militar. Aunque los debates políticos se han centrado en gran medida en la regulación, las lecciones aprendidas de la guerra con drones sugieren que los instrumentos no vinculantes -incluidas las directrices políticas, las normas de intervención y los códigos de conducta- pueden ser más eficaces en la práctica para garantizar la existencia de barreras éticas. En resumen, la gobernanza militar de la IA puede situarse más en el nivel de la política que en el de la ley, siendo la formación un componente fundamental de su aplicación.
Por encima de todo, la gobernanza eficaz de la IA requiere voluntad política. El profesor Toni Erskine, de la Universidad Nacional de Australia, subrayó la necesidad de desarrollar "responsabilidades morales suplementarias de moderación", es decir, responsabilidades para crear las condiciones dentro de las cuales podamos cumplir los deberes de moderación que ya están ampliamente respaldados en las relaciones internacionales en la Carta de la ONU y el derecho humanitario internacional. "Nos enfrentamos a la doble tarea de establecer un consenso sobre nuevas aplicaciones de las normas internacionales existentes que tanto ha costado conseguir, y también de generar un acuerdo sobre nuevos principios que contribuyan a las normas emergentes". Dados los riesgos para la humanidad, Erskine concluye que ahora se necesita una "coalición de los obligados", más que de los dispuestos. Llevar a cabo esta tarea exigirá reforzar la transparencia y las medidas de fomento de la confianza, aprovechando las enseñanzas de los ámbitos cibernético y nuclear.
Todo a la vez
El REAIM subrayó dos imperativos para la gobernanza de la IA militar: forjar un mayor consenso internacional sobre cuáles deben ser los principios y tomar medidas concretas para aplicarlos. Pero, ¿qué debe primar? ¿Cómo deben priorizar los responsables políticos los riesgos de la IA? ¿Existe algún "triunfo rápido", dado que el ritmo de los avances tecnológicos ya ha superado a los incipientes marcos de gobernanza de la IA?
"El plan es un paso adelante gradual", observó el Dr. Giacomo Persi Paoli, responsable del Programa de Seguridad y Tecnología del Instituto de las Naciones Unidas de Investigación sobre el Desarme. "Al ir demasiado rápido, demasiado pronto, existe un riesgo muy alto de que muchos países no quieran comprometerse". Los expertos miden el progreso de la gobernanza en años, no en meses. Mientras tanto, las empresas tecnológicas avanzan rápidamente. "Justo al otro lado de las puertas [del REAIM], donde este calendario se propugna como inevitable... las empresas están vendiendo activamente los mismos sistemas" que requieren regulación, comentó el Dr. Alexi Drew, asesor de política tecnológica del Comité Internacional de la Cruz Roja.
Los responsables políticos pueden clasificar y priorizar los riesgos de la IA hasta cierto punto. Centrarse en los problemas de mayor impacto, como el potencial de la IA para desestabilizar la disuasión estratégica y desembocar en una guerra nuclear, es un buen punto de partida. Otro enfoque consiste en abordar los riesgos que ya se han manifestado, como el uso de sistemas de apoyo a las decisiones de IA en la selección de objetivos. Los marcos de gobernanza también podrían dar prioridad a la regulación de las herramientas de IA que son altamente desestabilizadoras y podrían caer fácilmente en manos de terroristas.
Esta lista de prioridades pone de manifiesto la necesidad de abordar simultáneamente las amenazas a corto plazo y las amenazas existenciales. En consecuencia, como sugirió Payne en el panel REAIM, los debates sobre la gobernanza militar de la IA y el riesgo existencial podrían converger pronto. En lo que respecta a la gobernanza de la IA, los responsables políticos tienen que hacerlo todo, todo a la vez.
No hay soluciones rápidas. Los frutos relativamente fáciles de conseguir incluyen el desarrollo y la promoción de políticas nacionales para la gobernanza de la IA, así como la obligatoriedad de revisiones legales periódicas de los sistemas basados en IA en contextos militares. Las medidas de transparencia planteadas en el panel Carnegie Council-ELAC en REAIM son otros pasos que los responsables políticos pueden dar de inmediato, a falta de legislación o consenso internacional. Y aunque no sea necesariamente una victoria rápida ni fácil, los diplomáticos estadounidenses están y deben seguir firmando la adhesión de más países a la Declaración Política, especialmente aliados que pueden encontrarse entre los que más abusan de esta tecnología. Al mismo tiempo, los gobiernos deben construir una "coalición de los obligados" para hacer frente a los enormes retos que aún quedan por delante.
Ninguna de estas medidas será posible sin una mayor colaboración entre los expertos técnicos y políticos de los gobiernos, la industria, el mundo académico y la sociedad civil. Es esencial establecer asociaciones más sólidas entre los sectores público y privado. REAIM ofrece un importante modelo de asociación que reúne a un grupo diverso e interdisciplinar de expertos para abordar este tipo de cuestiones complejas.
A medida que se desarrolla este diálogo, es esencial abordar cambios más profundos en el modo en que la IA está remodelando las dimensiones éticas y estratégicas de la guerra. A diferencia de las armas convencionales, la IA no sólo cambia la forma en que usamos la fuerza, sino también cómo concebimos el uso de la fuerza. El carácter de la guerra no es lo único que está cambiando; la percepción humana de la guerra también está cambiando. Para hacer frente a los retos del momento actual, la gobernanza de la IA debe basarse en los entornos sociales, institucionales y exclusivamente humanos más amplios en los que se despliegan las tecnologías.
Dra. Brianna Rosen (@rosen_br) es miembro sénior de Just Security y miembro de estrategia y política de la Blavatnik School of Government de la Universidad de Oxford. Anteriormente trabajó durante una década en el gobierno de Estados Unidos, en particular en el Consejo de Seguridad Nacional de la Casa Blanca y en la Oficina del Vicepresidente.
Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este artículo son las de sus autores y no reflejan necesariamente la posición de Carnegie Council.