Iniciativa sobre Inteligencia Artificial e Igualdad

¿Puede desplegarse la IA de forma que mejore la igualdad, o exacerbarán los sistemas de IA las desigualdades estructurales y crearán nuevas desigualdades?

La Iniciativa Inteligencia Artificial e Igualdad (AIEI) es una innovadora comunidad de práctica orientada al impacto que busca comprender las innumerables formas en que la IA afecta a la igualdad para bien o para mal. Trabajamos para potenciar la ética en la IA para que se despliegue de una manera justa, responsable e inclusiva.

Ver el Consejo de Asesores de la AIEI.

Para consultas relacionadas con la AIEI, póngase en contacto con Carnegie Council La Jefa de Gabinete, Melissa Semeniuk: [email protected]

La Iniciativa sobre Inteligencia Artificial e Igualdad pretende:

Construya

Sentar las bases de un diálogo integrador -un Ágora- para sondear cuestiones relacionadas con los beneficios, los riesgos, las compensaciones y las tensiones que fomenta la IA.

Cultive

Fomentar una comunidad de práctica interdisciplinar e intergeneracional para abordar rápidamente los retos urgentes que plantean los usos de la IA y otras tecnologías novedosas.

Establecer

Crear un foro para quienes ocupan puestos en los que deben hacer elecciones y tomar decisiones meditadas sobre el desarrollo y la implantación de aplicaciones de IA.

Forja

Forjar conversaciones transparentes, interdisciplinares e integradoras e investigaciones guiadas.

Potencie

Potenciar la ética como herramienta para tomar decisiones meditadas sobre la integración de los sistemas y aplicaciones de IA en el tejido de la vida cotidiana.

Contenido destacado y análisis

23 DE FEBRERO DE 2024 - Artículo

¿Qué queremos decir cuando hablamos de "democratización de la IA"?

Elizabeth Seger, directora del centro de investigación sobre política digital CASM de Demos, analiza las cuatro acepciones del término.

21 DE FEBRERO DE 2024 - Podcast

Prepararse, no entrar en pánico: Navegar por el panorama de los derechos digitales, con Sam Gregory

La Senior Fellow Anja Kaspersen habla con Sam Gregory, director ejecutivo de WITNESS, sobre los retos y oportunidades que presentan los datos sintéticos, los medios generados por IA y los deepfakes.

Wendell Wallach

Carnegie-Uehiro Fellow, Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI); Centro Interdisciplinario de Bioética de Yale

Anja Kaspersen

Carnegie Council Senior Fellow, Iniciativa de Inteligencia Artificial e Igualdad (AIEI); IEEE

¿Cómo afecta la IA a la igualdad, para bien o para mal?

La desigualdad estructural es el resultado de un amplio conjunto de factores políticos, económicos, sociales y culturales. Los sistemas sociotécnicos resultantes de la introducción de innovaciones en esta mezcla son cada vez más desestabilizadores. La omnipresencia y la velocidad con la que los sistemas basados en la IA están impregnando nuestras vidas perturban innumerables industrias e instituciones. Los crecientes monopolios de datos patentados han dado y siguen dando poder rápidamente a las élites digitales y a las nuevas alianzas digitales. Y, sin embargo, la comprensión de cómo interactúan exactamente los sistemas sociales y técnicos y cómo gobernarlos a escala mundial, regional o local está muy rezagada. Para complicar las cosas, algunas aplicaciones de la IA pueden en realidad reducir la desigualdad o aumentar la igualdad de manera discreta. El AIEI está trabajando para desentrañar este terreno difícil y altamente transdisciplinario para garantizar que la IA se desarrolle y despliegue de una manera justa, responsable e inclusiva. Más información.

¿Por qué estamos fracasando en la ética de la IA?

En los últimos años han proliferado las iniciativas sobre ética e IA. Ya sean formales o informales, dirigidas por empresas, gobiernos y organizaciones internacionales y sin ánimo de lucro, estas iniciativas han desarrollado una plétora de principios y orientaciones para apoyar el uso responsable de los sistemas de IA y las tecnologías algorítmicas. A pesar de estos esfuerzos, pocas han conseguido tener un impacto real en la modulación de los efectos de la IA. Más información.

Últimos podcasts, eventos y artículos

JUL 6, 2023 - Artículo

Argumentos a favor de un Observatorio Mundial de la Inteligencia Artificial (GAIO), 2023

Argumentar a favor de un "Observatorio Mundial de la IA" (GAIO) señalando seis áreas principales de actividad para una regulación más seria de la IA.

5 DE JULIO DE 2023 - Artículo

Un marco para la gobernanza internacional de la IA

Carnegie Councilen colaboración con el IEEE, propone un marco de gobernanza de la IA en cinco partes para permitir el uso constructivo de la IA.

5 DE JUNIO DE 2023 - Artículo

¿Estamos automatizando la banalidad y radicalidad del mal?

Las iteraciones actuales de la IA son cada vez más capaces de fomentar el servilismo a un amo no humano, diciendo falsedades potencialmente sistemáticas con rotunda confianza.

Vector azul

24 DE MAYO DE 2023 - Artículo

Silicon Valley viola a sabiendas los principios éticos de la IA. La sociedad no puede responder si dejamos que los desacuerdos envenenen el debate.

Con las críticas al ChatGPT muy presentes en las noticias, también se oyen cada vez más desacuerdos entre los pensadores críticos con la IA, escribe el becario Carnegie-Uehiro ...