Cuando la máquina de guerra decide: Algorithms, Secrets, and Accountability in Modern Conflict, con Brianna Rosen

26 de marzo de 2024 - 31 min escuchar

En este interesante debate con Arthur Holland Michel, investigador principal de Just Security y la Universidad de Oxford, Brianna Rosen analiza lo que sabemos (y lo que no) sobre el uso de la IA por parte de Israel en la guerra de Gaza y explica la tensa relación entre las decisiones algorítmicas, la transparencia y la rendición de cuentas. También echa la vista atrás a las dos últimas décadas del programa estadounidense de ataques con aviones no tripulados en busca de pistas sobre lo que el futuro de la guerra con IA podría significar para la justicia y los derechos humanos.

When the War Machine Decides Spotify podcast link When the War Machine Decides Apple podcast link

ARTHUR HOLLAND MICHEL: Hola. Me llamo Arthur Holland Michel y trabajo en Carnegie Council for Ethics in International Affairs. Este episodio del podcast Carnegie Council se presenta en colaboración con el Instituto de Investigación para la Paz de Oslo, en el marco de su proyecto RegulAIR. RegulAIR es una iniciativa de investigación plurianual sobre la integración de los drones y otras tecnologías emergentes en la vida cotidiana.

Me complace enormemente contar hoy con la presencia de Brianna Rosen. Brianna es miembro de estrategia y política en la Universidad de Oxford y miembro senior de Seguridad Justadonde escribe sobre inteligencia artificial (IA), drones y responsabilidad militar.

Hola, Brianna. Es genial tenerte aquí.

BRIANNA ROSEN: Hola, Arthur. Muchas gracias por recibirme en el podcast. Es un placer estar hoy aquí contigo, ya que hace tiempo que admiro tu trabajo sobre este tema. Estoy segura de que vamos a tener una conversación fascinante.

ARTHUR HOLLAND MICHEL: ¿Podría presentarse brevemente a nuestros oyentes? Háblenos un poco de su trayectoria profesional y de cómo empezó a interesarse por estos temas.

BRIANNA ROSEN: Por supuesto. He estado trabajando en tecnología y guerra durante los últimos 15 años, primero en el mundo de los think tanks, luego en el Consejo de Seguridad Nacional de la Casa Blanca durante la administración Obama, y ahora en la Universidad de Oxford y Just Security.

Una de mis principales áreas de interés ha sido el programa estadounidense de aviones no tripulados y las políticas, principios y leyes que deberían regirlo. Mi investigación sobre IA militar se ha desarrollado orgánicamente a partir de ahí, y debo decir que abordo esta cuestión desde una perspectiva normativa, pero como alguien que ha pasado muchos años en el mundo de la política y es plenamente consciente de las presiones y los compromisos a los que se enfrentan los responsables políticos.

ARTHUR HOLLAND MICHEL: Quiero llegar más tarde a su trabajo sobre los aviones no tripulados porque es muy rico y fascinante, pero en realidad quiero empezar un poco más cerca del presente y hablar de la IA. En concreto, en sus escritos de los últimos meses ha seguido un caso muy interesante de uso de la IA en la guerra de Gaza. Para los oyentes que quizá no sepan qué tecnología se está empleando en ese conflicto y para qué se está utilizando, ¿podría darnos una visión general de lo que podría estar ocurriendo tal y como nosotros lo entendemos?

Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este podcast son las de los ponentes y no reflejan necesariamente la posición de Carnegie Council.

También le puede interesar

12 SEP 2024 - Artículo

De los principios a la acción: Trazando un camino para la gobernanza de la IA militar

A medida que la inteligencia artificial modifica las dimensiones éticas de la guerra, las partes interesadas deben colaborar para aumentar la transparencia y la gobernanza de esta tecnología emergente, escribe la Dra. Brianna Rosen.

9 DE ABRIL DE 2024 - Vídeo

Algoritmos de guerra: el uso de la IA en los conflictos armados

De Gaza a Ucrania, las aplicaciones militares de la IA están transformando radicalmente la ética de la guerra. Cómo deben afrontar los responsables políticos los compromisos inherentes a la IA?

De izquierda a derecha: Eleonore Fournier-Tombs, Embajadora Chola Milambo, Embajadora Anna Karin Eneström, Doreen Bogdan-Martin, Vilas Dhar. CRÉDITO: Bryan Goldberg.

19 SEP 2024 - Vídeo

Desbloquear la cooperación: IA para todos

En vísperas de la Cumbre del Futuro, Carnegie Council y UNU-CPR organizaron un acto especial en el que se exploraron las implicaciones de la IA para la ...