El estado de la seguridad de la IA en China, con Kwan Yee Ng y Brian Tse

9 de mayo de 2024 - 59 minutos de escucha

La seguridad y la gobernanza de la IA están mucho más avanzadas en China de lo que se cree. El Gobierno chino y la comunidad de la IA son conscientes de los riesgos que plantea y trabajan para afrontarlos. Por tanto, la coordinación internacional es muy posible.

En este podcast de Inteligencia Artificial e Igualdad, Wendell Wallach, investigador de Carnegie-Uehiro, habla con Kwan Yee Ng y Brian Tse, de Concordia AI, sobre cómo aprovechar el impulso de acontecimientos recientes como la Cumbre de Bletchley y la resolución sobre IA de la Asamblea General de las Naciones Unidas para establecer normas y estándares globales para el desarrollo responsable de la IA.

State of AI Safety AIEI podcast link State of AI Safety AIEI podcast link

WENDELL WALLACH: Hola. Soy Wendell Wallach. Hoy vamos a hablar del estado de la seguridad de la inteligencia artificial (IA) en China, que es también el título de un informe de Concordia AI, una organización independiente con sede en Pekín centrada en la seguridad y la gobernanza de la IA.

Hablaremos del informe con dos de los líderes de Concordia. En primer lugar, Brian Tse, fundador y director general de Concordia AI. También es afiliado político del Centro para la Gobernanza de la IA y forma parte de la red consultiva del Órgano Asesor de Alto Nivel sobre IA de la ONU. Brian es licenciado por la Universidad de Hong Kong. De hecho, le conozco desde hace muchos años, ya que participa en distintos foros sobre ética y seguridad de la IA tanto en China como en todo el mundo.

Kwan Yee Ng es directora de programas de Concordia AI. También forma parte del equipo de redacción del Informe Científico Internacional sobre Seguridad de la IA Avanzada, presidido por Yoshua Bengio. Kwan Yee es licenciada en Relaciones Internacionales por la London School of Economics y la Universidad de Pekín.

Bienvenidos a los dos. Kwan Yee, al estudiar la seguridad de la IA en China, ¿qué crees que sorprenderá más a los oyentes de este podcast, en su mayoría occidentales?

KWAN YEE NG: Gracias, Wendell. En primer lugar, quiero daros las gracias a ti y a tu equipo por recibirnos en este podcast.

Permítanme que me detenga un momento para situar el escenario. En 2023, tras el lanzamiento de ChatGPT, creo que el debate sobre la seguridad y la gobernanza de la IA en las fronteras se disparó, pero hubo algunas voces influyentes que enmarcaron el desarrollo de la IA como una competición de suma cero entre China y algunos países occidentales, argumentando que a China no le importa o es poco probable que actúe para reducir los riesgos de la IA. Esto plantea una pregunta: ¿Hasta qué punto le importan realmente a China los riesgos que entraña el desarrollo de la IA en las fronteras del conocimiento, y adoptará medidas significativas para hacer frente a estas preocupaciones?

Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este podcast son las de los ponentes y no reflejan necesariamente la posición de Carnegie Council.

También le puede interesar

31 JULIO 2024 - Podcast

Responsible AI & the Ethical Trade-offs of Large Models, con Sara Hooker

En este episodio, Anja Kaspersen, Senior Fellow, habla con Sara Hooker, de Cohere for AI, sobre el diseño de modelos, el sesgo de los modelos y la representación de datos.

24 DE JULIO DE 2024 - Podcast

IA y guerra: A New Era for Arms Control & Deterrence, con Paul Scharre

La Senior Fellow Anja Kaspersen habla con Paul Scharre, del Center for a New American Security, sobre las cuestiones emergentes en la intersección entre tecnología y guerra.

2 DE JULIO DE 2024 Podcast

Cibernética, vigilancia digital y el papel de los sindicatos en la gobernanza tecnológica, con Elisabet Haugsbø

Anja Kaspersen, investigadora sénior, habla con Elisabet Haugsbø, presidenta del sindicato tecnológico Tekna, sobre su trayectoria en ingeniería, la resiliencia en la era de la IA y mucho más.