Iniciativa sobre Inteligencia Artificial e Igualdad

¿Puede desplegarse la IA de forma que mejore la igualdad, o exacerbarán los sistemas de IA las desigualdades estructurales y crearán nuevas desigualdades?

La Iniciativa Inteligencia Artificial e Igualdad (AIEI) es una innovadora comunidad de práctica orientada al impacto que busca comprender las innumerables formas en que la IA afecta a la igualdad para bien o para mal. Trabajamos para potenciar la ética en la IA para que se despliegue de una manera justa, responsable e inclusiva.

Ver el Consejo de Asesores de la AIEI.

Para consultas relacionadas con la AIEI, póngase en contacto con Carnegie Council La Jefa de Gabinete, Melissa Semeniuk: [email protected]

La Iniciativa sobre Inteligencia Artificial e Igualdad pretende:

Construya

Sentar las bases de un diálogo integrador -un Ágora- para sondear cuestiones relacionadas con los beneficios, los riesgos, las compensaciones y las tensiones que fomenta la IA.

Cultive

Fomentar una comunidad de práctica interdisciplinar e intergeneracional para abordar rápidamente los retos urgentes que plantean los usos de la IA y otras tecnologías novedosas.

Establecer

Crear un foro para quienes ocupan puestos en los que deben hacer elecciones y tomar decisiones meditadas sobre el desarrollo y la implantación de aplicaciones de IA.

Forja

Forjar conversaciones transparentes, interdisciplinares e integradoras e investigaciones guiadas.

Potencie

Potenciar la ética como herramienta para tomar decisiones meditadas sobre la integración de los sistemas y aplicaciones de IA en el tejido de la vida cotidiana.

Contenido destacado y análisis

5 DE JUNIO DE 2023 - Artículo

¿Estamos automatizando la banalidad y radicalidad del mal?

Las iteraciones actuales de la IA son cada vez más capaces de fomentar el servilismo a un amo no humano, diciendo falsedades potencialmente sistemáticas con rotunda confianza.

6 SEP 2023 - Podcast

¿Podemos codificar la energía de forma responsable? con Carl Miller

En este episodio que invita a la reflexión, Carl Miller aborda las cuestiones más acuciantes: ¿Podemos codificar el poder de forma responsable? Y más aún, ¿cómo definimos "poder" en este contexto?

Wendell Wallach

Carnegie-Uehiro Fellow, Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI); Centro Interdisciplinario de Bioética de Yale

Anja Kaspersen

Carnegie Council Senior Fellow, Iniciativa de Inteligencia Artificial e Igualdad (AIEI); IEEE

¿Cómo afecta la IA a la igualdad, para bien o para mal?

La desigualdad estructural es el resultado de un amplio conjunto de factores políticos, económicos, sociales y culturales. Los sistemas sociotécnicos resultantes de la introducción de innovaciones en esta mezcla son cada vez más desestabilizadores. La omnipresencia y la velocidad con la que los sistemas basados en la IA están impregnando nuestras vidas perturban innumerables industrias e instituciones. Los crecientes monopolios de datos patentados han dado y siguen dando poder rápidamente a las élites digitales y a las nuevas alianzas digitales. Y, sin embargo, la comprensión de cómo interactúan exactamente los sistemas sociales y técnicos y cómo gobernarlos a escala mundial, regional o local está muy rezagada. Para complicar las cosas, algunas aplicaciones de la IA pueden en realidad reducir la desigualdad o aumentar la igualdad de manera discreta. El AIEI está trabajando para desentrañar este terreno difícil y altamente transdisciplinario para garantizar que la IA se desarrolle y despliegue de una manera justa, responsable e inclusiva. Más información.

¿Por qué estamos fracasando en la ética de la IA?

En los últimos años han proliferado las iniciativas sobre ética e IA. Ya sean formales o informales, dirigidas por empresas, gobiernos y organizaciones internacionales y sin ánimo de lucro, estas iniciativas han desarrollado una plétora de principios y orientaciones para apoyar el uso responsable de los sistemas de IA y las tecnologías algorítmicas. A pesar de estos esfuerzos, pocas han conseguido tener un impacto real en la modulación de los efectos de la IA. Más información.

Últimos podcasts, eventos y artículos

26 DE ABRIL DE 2023 - Artículo

Los grandes modelos lingüísticos no necesitan una pausa en la investigación, sino una retirada inmediata del producto.

Hilary Sutcliffe, miembro del Consejo de Asesores de la AIEI, afirma que los grandes modelos lingüísticos como ChatGPT y Bard deberían retirarse inmediatamente, ya que ...

14 MAR 2023 - Podcast

La batalla por tu cerebro, con Nita A. Farahany

Ahora es el momento de ampliar los derechos humanos para abarcar los derechos cognitivos, propone la profesora de la Facultad de Derecho de Duke Nita A. Farahany en su libro recién publicado "The ...

23 DE FEBRERO DE 2023 - Artículo

¿Se arriesga la humanidad a una catástrofe? La necesidad de una gobernanza autónoma de los sistemas de armamento

Wendell Wallach, Senior Fellow de REAIM, profundiza en los temas tratados en la Cumbre REAIM celebrada en los Países Bajos y afirma que la humanidad corre el riesgo de ...

21 DE FEBRERO DE 2023 - Artículo

Los derechos humanos deben estar en el centro de la gobernanza de la IA y la tecnología

Sobre la base de un reciente artículo de Anja Kaspersen y Wendell Wallach, Kate Jones, de Chatham House, escribe que los derechos humanos deben ser ...