AI e Igualdad, Parte 4: Justicia, equidad e igualdad de oportunidades

10 de febrero de 2022

Al trazar el mapa de la IA y la igualdad, resulta útil desarrollar categorías generales que pongan de relieve distintas trayectorias que muestren cómo la IA afecta a las personas y a sus relaciones mutuas y con nuestro entorno común. El objetivo de esta serie de entradas de blog es dar pie a nuevas reflexiones.

Hasta la fecha, se ha prestado mucha atención a las formas en que la IA puede reforzar los prejuicios existentes, como los relacionados con la raza, el sexo y la discapacidad, que permiten un trato injusto y limitan las oportunidades. Por sesgo entendemos los prejuicios o distorsiones de los hechos que colocan a un individuo o grupo en una situación de desventaja o de impotencia. La justicia y la equidad (a menudo utilizadas indistintamente) pueden entenderse en sentido amplio como dar a cada persona lo que le corresponde sin ningún sesgo.

Por desgracia, las desigualdades existentes en materia de género, raza, etnia, educación y clase social suelen estar presentes en el diseño y despliegue de las aplicaciones de IA. Por ejemplo, los prejuicios inherentes a las sociedades y los procesos humanos se reproducen a menudo en los datos que se analizan y, por tanto, se reflejan en los resultados del algoritmo y en el funcionamiento del sistema. Se ha demostrado que el intento de utilizar algoritmos para sentenciar a personas condenadas por delitos reproduce y refuerza los sesgos existentes, como los que se identifican con la raza y la clase social(Inteligencia Artificial, Justicia y Estado de Derecho, AIEI Podcast con Renee Cummings).

Aunque los sesgos algorítmicos ya están bien reconocidos, la investigación de medios eficaces para abordar y paliar su impacto no ha hecho más que empezar. Los especialistas en ética de la IA están especialmente preocupados por el despliegue de herramientas de IA sesgadas e imprecisas en campos en los que podrían causarse daños con impacto social. El uso en las fuerzas de seguridad de programas de reconocimiento facial, que cotejan los datos de la imagen de un rostro con los de una base de datos de rostros, arroja un porcentaje significativo de falsos positivos, a menudo en detrimento de los más desfavorecidos.(Joy Buolamwini, Timnit Gebru, Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018. También Anita Chabria, "Facial recognition software mistook 1 in 5 California lawmakers for criminals, says ACLU", LA Times, 2019). Por ello, el Estado de California ha prohibido a las fuerzas y cuerpos de seguridad instalar activar y utilizar cualquier tipo de sistema de vigilancia biométrica. (https://californiaglobe.com/articles/governor-newsom-signs-bill-banning-facial-recognition-technology-in-police-body-cameras/) Por desgracia, el uso de algoritmos sesgados tanto en el sector público como en el privado continúa y a menudo pasa desapercibido.

Sin embargo, hay innumerables ejemplos de cómo las aplicaciones actuales y futuras impulsadas por la IA pueden reducir la desigualdad y la pobreza. PULA es una compañía de seguros africana que presta servicios a pequeños agricultores. El reto que PULA aborda es el hecho de que la sequía provoca la pérdida de cosechas en África una vez cada diez años aproximadamente, dejando a muchos agricultores no sólo en la miseria, sino también sin poder comprar semillas o fertilizantes para la siguiente temporada de siembra. PULA ha trabajado con empresas de semillas y fertilizantes para incluir una póliza de seguro en cada compra. Los agricultores registran su póliza por teléfono móvil.

A continuación, PULA analiza la cobertura nubosa mediante algoritmos de aprendizaje profundo para determinar qué regiones han recibido precipitaciones insuficientes para garantizar la salud de los cultivos. Los agricultores de esas regiones reciben automáticamente un certificado para canjear semillas y fertilizantes para la próxima temporada de siembra. Con la ubicuidad de los teléfonos móviles y la llegada de los algoritmos de aprendizaje profundo, PULA resolvió el problema de proporcionar seguros de bajo coste a los agricultores pobres que no podían asegurarse por medios tradicionales. En el momento de escribir estas líneas, PULA afirma haber asegurado a 5,1 millones de agricultores y tramitado unos 39 millones de solicitudes, cifras que siguen aumentando.

Historias como la de PULA son realmente alentadoras y se citan a menudo para apoyar el despliegue generalizado de aplicaciones de IA, incluso cuando pueden reproducir sesgos o socavar la privacidad. Hasta la fecha, sigue sin estar claro si las formas positivas en que las aplicaciones de IA, antiguas y previstas, pueden mejorar las desigualdades, justifican realmente las muchas formas en que la IA puede exacerbar las desigualdades.

Imagen de Gerd Altmann de Pixabay

Anja Kaspersen es Senior Fellow en Carnegie Council of Ethics in International Affairs. Fue Directora de la Oficina de Asuntos de Desarme de las Naciones Unidas en Ginebra y Vicesecretaria General de la Conferencia de Desarme. Anteriormente, ocupó el cargo de responsable de compromiso estratégico y nuevas tecnologías en el Comité Internacional de la Cruz Roja (CICR).

Wendell Wallach es consultor, especialista en ética y académico del Centro Interdisciplinario de Bioética de la Universidad de Yale. También es académico del Lincoln Center for Applied Ethics, miembro del Institute for Ethics & Emerging Technology y asesor principal del Hastings Center.

También le puede interesar

24 DE JULIO DE 2024 - Podcast

IA y guerra: A New Era for Arms Control & Deterrence, con Paul Scharre

La Senior Fellow Anja Kaspersen habla con Paul Scharre, del Center for a New American Security, sobre las cuestiones emergentes en la intersección entre tecnología y guerra.

2 DE JULIO DE 2024 Podcast

Cibernética, vigilancia digital y el papel de los sindicatos en la gobernanza tecnológica, con Elisabet Haugsbø

Anja Kaspersen, investigadora sénior, habla con Elisabet Haugsbø, presidenta del sindicato tecnológico Tekna, sobre su trayectoria en ingeniería, la resiliencia en la era de la IA y mucho más.

27 DE JUNIO DE 2024 - Podcast

AI, Military Ethics, & Being Alchemists of Meaning, con Heather M. Roff

Anja Kaspersen, Senior Fellow, y Heather Roff, investigadora científica senior del Centro de Análisis Navales, debaten sobre sistemas de IA, asuntos militares y mucho más.