Iniciativa sobre Inteligencia Artificial e Igualdad

¿Puede desplegarse la IA de forma que mejore la igualdad, o exacerbarán los sistemas de IA las desigualdades estructurales y crearán nuevas desigualdades?

La Iniciativa Inteligencia Artificial e Igualdad (AIEI) es una innovadora comunidad de práctica orientada al impacto que busca comprender las innumerables formas en que la IA afecta a la igualdad para bien o para mal. Trabajamos para potenciar la ética en la IA para que se despliegue de una manera justa, responsable e inclusiva.

Ver el Consejo de Asesores de la AIEI.

Para consultas relacionadas con la AIEI, póngase en contacto con Carnegie Council La Jefa de Gabinete, Melissa Semeniuk: [email protected]

La Iniciativa sobre Inteligencia Artificial e Igualdad pretende:

Construya

Sentar las bases de un diálogo integrador -un Ágora- para sondear cuestiones relacionadas con los beneficios, los riesgos, las compensaciones y las tensiones que fomenta la IA.

Cultive

Fomentar una comunidad de práctica interdisciplinar e intergeneracional para abordar rápidamente los retos urgentes que plantean los usos de la IA y otras tecnologías novedosas.

Establecer

Crear un foro para quienes ocupan puestos en los que deben hacer elecciones y tomar decisiones meditadas sobre el desarrollo y la implantación de aplicaciones de IA.

Forja

Forjar conversaciones transparentes, interdisciplinares e integradoras e investigaciones guiadas.

Potencie

Potenciar la ética como herramienta para tomar decisiones meditadas sobre la integración de los sistemas y aplicaciones de IA en el tejido de la vida cotidiana.

Contenido destacado y análisis

23 DE FEBRERO DE 2024 - Artículo

¿Qué queremos decir cuando hablamos de "democratización de la IA"?

Elizabeth Seger, directora del centro de investigación sobre política digital CASM de Demos, analiza las cuatro acepciones del término.

21 DE FEBRERO DE 2024 - Podcast

Prepararse, no entrar en pánico: Navegar por el panorama de los derechos digitales, con Sam Gregory

La Senior Fellow Anja Kaspersen habla con Sam Gregory, director ejecutivo de WITNESS, sobre los retos y oportunidades que presentan los datos sintéticos, los medios generados por IA y los deepfakes.

Wendell Wallach

Carnegie-Uehiro Fellow, Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI); Centro Interdisciplinario de Bioética de Yale

Anja Kaspersen

Carnegie Council Senior Fellow, Iniciativa de Inteligencia Artificial e Igualdad (AIEI); IEEE

¿Cómo afecta la IA a la igualdad, para bien o para mal?

La desigualdad estructural es el resultado de un amplio conjunto de factores políticos, económicos, sociales y culturales. Los sistemas sociotécnicos resultantes de la introducción de innovaciones en esta mezcla son cada vez más desestabilizadores. La omnipresencia y la velocidad con la que los sistemas basados en la IA están impregnando nuestras vidas perturban innumerables industrias e instituciones. Los crecientes monopolios de datos patentados han dado y siguen dando poder rápidamente a las élites digitales y a las nuevas alianzas digitales. Y, sin embargo, la comprensión de cómo interactúan exactamente los sistemas sociales y técnicos y cómo gobernarlos a escala mundial, regional o local está muy rezagada. Para complicar las cosas, algunas aplicaciones de la IA pueden en realidad reducir la desigualdad o aumentar la igualdad de manera discreta. El AIEI está trabajando para desentrañar este terreno difícil y altamente transdisciplinario para garantizar que la IA se desarrolle y despliegue de una manera justa, responsable e inclusiva. Más información.

¿Por qué estamos fracasando en la ética de la IA?

En los últimos años han proliferado las iniciativas sobre ética e IA. Ya sean formales o informales, dirigidas por empresas, gobiernos y organizaciones internacionales y sin ánimo de lucro, estas iniciativas han desarrollado una plétora de principios y orientaciones para apoyar el uso responsable de los sistemas de IA y las tecnologías algorítmicas. A pesar de estos esfuerzos, pocas han conseguido tener un impacto real en la modulación de los efectos de la IA. Más información.

Últimos podcasts, eventos y artículos

6 SEP 2023 - Podcast

¿Podemos codificar la energía de forma responsable? con Carl Miller

En este episodio que invita a la reflexión, Carl Miller aborda las cuestiones más acuciantes: ¿Podemos codificar el poder de forma responsable? Y más aún, ¿cómo definimos "poder" en este contexto?

27 DE JULIO DE 2023 - Podcast

Formas de influir en la política y la gobernanza de la IA, con Merve Hickok y Marc Rotenberg

Merve Hickok y Marc Rotenberg, del Center for AI and Digital Policy, una iniciativa de enorme impacto para la gobernanza de la IA, se unen a este podcast de la AIEI.

JUL 7, 2023 - Artículo

Lograr un marco internacional para la gobernanza de la IA

Los Senior Fellows Wendell Wallach y Anja Kaspersen abogan por un marco sólido para la gobernanza internacional de la IA.

JUL 6, 2023 - Artículo

Argumentos a favor de un Observatorio Mundial de la Inteligencia Artificial (GAIO), 2023

Argumentar a favor de un "Observatorio Mundial de la IA" (GAIO) señalando seis áreas principales de actividad para una regulación más seria de la IA.