Dos cuestiones fundamentales en la gobernanza de la IA, con Elizabeth Seger

Mar 22, 2024 - 56 min escuchar

¿Qué es más peligroso, la IA de código abierto o los grandes modelos lingüísticos y otras formas de IA generativa totalmente controlados por un oligopolio de empresas? ¿Hará la IA más democrática el acceso abierto a la construcción de modelos de IA generativa? ¿Qué otros enfoques existen para garantizar que la IA generativa sea segura y democrática?

Wendell Wallach, becario de Carnegie-Uehiro, y Elizabeth Seger, directora del centro de investigación sobre política digital CASM de Demos, debaten estas y otras cuestiones en este podcast sobre Inteligencia Artificial e Igualdad.

Para saber más de Seger, lea su reciente artículo sobre la democratización de la IA.

Two Core Issues in AI Governance Spotify podcast link Two Core AI Governance Issues AIEI Apple podcast link

WENDELL WALLACH: Hola. Soy Wendell Wallach. Mi invitada para este podcast es Elizabeth Seger, directora del equipo de política digital de Demos, un grupo de reflexión política multipartidista de Londres. También es investigadora afiliada al proyecto AI: Futures and Responsibility de la Universidad de Cambridge. Lo que me fascina de Elizabeth es que se ha convertido en líder de opinión en dos de las cuestiones más críticas de la gobernanza de la inteligencia artificial (IA), cuestiones que ayudarán a determinar si la IA puede mejorar la igualdad o exacerbar las desigualdades estructurales. La primera de estas cuestiones es si los grandes modelos de IA, en particular la IA generativa, son potencialmente demasiado peligrosos para ser el equivalente en IA del software de código abierto.

Bienvenida, Elizabeth.

ELIZABETH SEGER: Gracias por recibirme.

WENDELL WALLACH:Es un placer tenerle aquí. Por favor, aclárenos por qué la cuestión de si la IA, los grandes modelos lingüísticos (LLM) y otros marcos deberían estar controlados por grandes corporaciones o ser de código abierto es un tema tan controvertido.

ELIZABETH SEGER : El debate de código abierto en torno a los grandes modelos lingüísticos y la IA de alta capacidad se ha convertido en un asunto tan importante y controvertido porque se trata de una enorme cuestión de control. Es una cuestión de control de alto riesgo.

Por un lado, no abrir un modelo o permitir que las grandes corporaciones tengan el control exclusivo pone el control de estos modelos en manos de muy pocas grandes empresas tecnológicas, y esto podría impedir que otros actores puedan participar en lo que promete ser una industria de IA muy lucrativa y beneficiosa desde el punto de vista financiero.

Por otro lado, el código abierto de los sistemas podría poner el control de los mismos en manos de las personas equivocadas, y existe una gran preocupación en torno al alcance del daño que podría causar poner sistemas de IA altamente capaces en manos de actores malintencionados.

Así que tenemos un enorme problema de control por ambas partes y mucho en juego si nos equivocamos en la pregunta.

WENDELL WALLACH: Le he oído decir que cree que esta distinción entre código abierto y control corporativo es realmente una falsa dicotomía. Por favor, aclárelo.

Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este podcast son las de los ponentes y no reflejan necesariamente la posición de Carnegie Council.

También le puede interesar

31 JULIO 2024 - Podcast

Responsible AI & the Ethical Trade-offs of Large Models, con Sara Hooker

En este episodio, Anja Kaspersen, Senior Fellow, habla con Sara Hooker, de Cohere for AI, sobre el diseño de modelos, el sesgo de los modelos y la representación de datos.

24 DE JULIO DE 2024 - Podcast

IA y guerra: A New Era for Arms Control & Deterrence, con Paul Scharre

La Senior Fellow Anja Kaspersen habla con Paul Scharre, del Center for a New American Security, sobre las cuestiones emergentes en la intersección entre tecnología y guerra.

2 DE JULIO DE 2024 Podcast

Cibernética, vigilancia digital y el papel de los sindicatos en la gobernanza tecnológica, con Elisabet Haugsbø

Anja Kaspersen, investigadora sénior, habla con Elisabet Haugsbø, presidenta del sindicato tecnológico Tekna, sobre su trayectoria en ingeniería, la resiliencia en la era de la IA y mucho más.