Responsible AI & the Ethical Trade-offs of Large Models, con Sara Hooker

31 de julio de 2024 - 64 minutos de escucha

En este episodio del podcast Inteligencia Artificial e Igualdad , la investigadora principal Anja Kaspersen habla con Sara Hooker, directora de Cohere for AI, sobre su trabajo pionero en el diseño de modelos, el sesgo de los modelos y la representación de datos. Destaca la importancia de comprender las compensaciones éticas que implica la creación y el uso de grandes modelos y aborda algunas de las complejidades y responsabilidades del desarrollo moderno de la IA.

Responsible AI & Ethical Trade-offs AIEI Spotify link Responsible AI & Ethical Trade-offs AIEI Apple Podcast link

ANJA KASPERSEN: Mientras la inteligencia artificial (IA) sigue remodelando narrativas y paradigmas, me complace dar la bienvenida a Sara Hooker. Sara es la fundadora, vicepresidenta de investigación y directora de Cohere for AI, un laboratorio de investigación dedicado a resolver problemas complejos de aprendizaje automático (ML) y a realizar investigaciones fundamentales que exploran lo desconocido. En la transcripción del podcast se puede encontrar un enlace a la impresionante biografía de Sara, su importante cuerpo de investigación y su podcast que explora lo conocido y lo desconocido del aprendizaje automático.

Bienvenida, Sara. Es un placer mantener esta conversación contigo.

Es encantador estar aquí.

ANJA KASPERSEN: Antes de que nos sumerjamos en las complejidades -como usted diría, "lo conocido y lo desconocido del aprendizaje automático y la IA"- y tal vez desmantelar algunos conceptos erróneos por el camino, ¿podría compartir qué le inspiró para entrar en este campo? ¿Qué momentos cruciales o influencias clave le trajeron aquí y también a adoptar esta perspectiva tan específica a la que acabo de referirme?

SARA HOOKER: Mi carrera siempre ha estado impulsada por responder a preguntas interesantes. Soy informática de formación, pero diría que gran parte de Cohere para la IA se basa en la idea de estar en la frontera de las ideas.

Normalmente, hay que tener diferentes formas de ver los componentes existentes, y Cohere for AI es un buen ejemplo de ello. Somos un laboratorio híbrido. Tenemos un gran laboratorio industrial que es muy típico de cómo se avanza hoy en día, especialmente en la construcción de grandes modelos lingüísticos (LLM), en el que tenemos muchos ordenadores y personal a tiempo completo, pero también tenemos un componente híbrido de centro abierto en el que colaboramos mucho con diferentes expertos de distintos campos. Siempre me ha interesado por igual lo que conduce a los avances y quizá qué combinaciones de personas y espacios dan lugar a ideas interesantes.

A principios de este año lanzamos un modelo multilingüe que sirve para 101 idiomas y que fue casi enteramente el producto del trabajo conjunto de casi 3.000 investigadores de todo el mundo. Es muy interesante, porque se trata de lo que yo llamaría un gran proyecto científico en el que los investigadores tienen que llegar a un consenso sobre la importancia de la cuestión.

También le puede interesar

24 DE JULIO DE 2024 - Podcast

IA y guerra: A New Era for Arms Control & Deterrence, con Paul Scharre

La Senior Fellow Anja Kaspersen habla con Paul Scharre, del Center for a New American Security, sobre las cuestiones emergentes en la intersección entre tecnología y guerra.

2 DE JULIO DE 2024 Podcast

Cibernética, vigilancia digital y el papel de los sindicatos en la gobernanza tecnológica, con Elisabet Haugsbø

Anja Kaspersen, investigadora sénior, habla con Elisabet Haugsbø, presidenta del sindicato tecnológico Tekna, sobre su trayectoria en ingeniería, la resiliencia en la era de la IA y mucho más.

27 DE JUNIO DE 2024 - Podcast

AI, Military Ethics, & Being Alchemists of Meaning, con Heather M. Roff

Anja Kaspersen, Senior Fellow, y Heather Roff, investigadora científica senior del Centro de Análisis Navales, debaten sobre sistemas de IA, asuntos militares y mucho más.