AI e Igualdad, Parte 4: Justicia, equidad e igualdad de oportunidades

10 de febrero de 2022

Al trazar el mapa de la IA y la igualdad, resulta útil desarrollar categorías generales que pongan de relieve distintas trayectorias que muestren cómo la IA afecta a las personas y a sus relaciones mutuas y con nuestro entorno común. El objetivo de esta serie de entradas de blog es dar pie a nuevas reflexiones.

Hasta la fecha, se ha prestado mucha atención a las formas en que la IA puede reforzar los prejuicios existentes, como los relacionados con la raza, el sexo y la discapacidad, que permiten un trato injusto y limitan las oportunidades. Por sesgo entendemos los prejuicios o distorsiones de los hechos que colocan a un individuo o grupo en una situación de desventaja o de impotencia. La justicia y la equidad (a menudo utilizadas indistintamente) pueden entenderse en sentido amplio como dar a cada persona lo que le corresponde sin ningún sesgo.

Por desgracia, las desigualdades existentes en materia de género, raza, etnia, educación y clase social suelen estar presentes en el diseño y despliegue de las aplicaciones de IA. Por ejemplo, los prejuicios inherentes a las sociedades y los procesos humanos se reproducen a menudo en los datos que se analizan y, por tanto, se reflejan en los resultados del algoritmo y en el funcionamiento del sistema. Se ha demostrado que el intento de utilizar algoritmos para sentenciar a personas condenadas por delitos reproduce y refuerza los sesgos existentes, como los que se identifican con la raza y la clase social(Inteligencia Artificial, Justicia y Estado de Derecho, AIEI Podcast con Renee Cummings).

Aunque los sesgos algorítmicos ya están bien reconocidos, la investigación de medios eficaces para abordar y paliar su impacto no ha hecho más que empezar. Los especialistas en ética de la IA están especialmente preocupados por el despliegue de herramientas de IA sesgadas e imprecisas en campos en los que podrían causarse daños con impacto social. El uso en las fuerzas de seguridad de programas de reconocimiento facial, que cotejan los datos de la imagen de un rostro con los de una base de datos de rostros, arroja un porcentaje significativo de falsos positivos, a menudo en detrimento de los más desfavorecidos.(Joy Buolamwini, Timnit Gebru, Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018. También Anita Chabria, "Facial recognition software mistook 1 in 5 California lawmakers for criminals, says ACLU", LA Times, 2019). Por ello, el Estado de California ha prohibido a las fuerzas y cuerpos de seguridad instalar activar y utilizar cualquier tipo de sistema de vigilancia biométrica. (https://californiaglobe.com/articles/governor-newsom-signs-bill-banning-facial-recognition-technology-in-police-body-cameras/) Por desgracia, el uso de algoritmos sesgados tanto en el sector público como en el privado continúa y a menudo pasa desapercibido.

Sin embargo, hay innumerables ejemplos de cómo las aplicaciones actuales y futuras impulsadas por la IA pueden reducir la desigualdad y la pobreza. PULA es una compañía de seguros africana que presta servicios a pequeños agricultores. El reto que PULA aborda es el hecho de que la sequía provoca la pérdida de cosechas en África una vez cada diez años aproximadamente, dejando a muchos agricultores no sólo en la miseria, sino también sin poder comprar semillas o fertilizantes para la siguiente temporada de siembra. PULA ha trabajado con empresas de semillas y fertilizantes para incluir una póliza de seguro en cada compra. Los agricultores registran su póliza por teléfono móvil.

A continuación, PULA analiza la cobertura nubosa mediante algoritmos de aprendizaje profundo para determinar qué regiones han recibido precipitaciones insuficientes para garantizar la salud de los cultivos. Los agricultores de esas regiones reciben automáticamente un certificado para canjear semillas y fertilizantes para la próxima temporada de siembra. Con la ubicuidad de los teléfonos móviles y la llegada de los algoritmos de aprendizaje profundo, PULA resolvió el problema de proporcionar seguros de bajo coste a los agricultores pobres que no podían asegurarse por medios tradicionales. En el momento de escribir estas líneas, PULA afirma haber asegurado a 5,1 millones de agricultores y tramitado unos 39 millones de solicitudes, cifras que siguen aumentando.

Historias como la de PULA son realmente alentadoras y se citan a menudo para apoyar el despliegue generalizado de aplicaciones de IA, incluso cuando pueden reproducir sesgos o socavar la privacidad. Hasta la fecha, sigue sin estar claro si las formas positivas en que las aplicaciones de IA, antiguas y previstas, pueden mejorar las desigualdades, justifican realmente las muchas formas en que la IA puede exacerbar las desigualdades.

Imagen de Gerd Altmann de Pixabay

Anja Kaspersen es Senior Fellow en Carnegie Council of Ethics in International Affairs. Fue Directora de la Oficina de Asuntos de Desarme de las Naciones Unidas en Ginebra y Vicesecretaria General de la Conferencia de Desarme. Anteriormente, ocupó el cargo de responsable de compromiso estratégico y nuevas tecnologías en el Comité Internacional de la Cruz Roja (CICR).

Wendell Wallach es consultor, especialista en ética y académico del Centro Interdisciplinario de Bioética de la Universidad de Yale. También es académico del Lincoln Center for Applied Ethics, miembro del Institute for Ethics & Emerging Technology y asesor principal del Hastings Center.

También le puede interesar

APR 30, 2024 - Podcast

¿Es la IA sólo un artefacto? con Joanna Bryson

En este episodio, la presentadora Anja Kaspersen habla con Joanna Bryson, de la Hertie School, sobre la intersección entre las ciencias computacionales, cognitivas y del comportamiento y la IA.

Portada del libro A Dangerous Master. CRÉDITO: Sentient Publications.

18 DE ABRIL DE 2024 - Artículo

Un maestro peligroso: Bienvenido al mundo de las tecnologías emergentes

En este prólogo a la edición de bolsillo de su libro "Un maestro peligroso", Wendell Wallach analiza los avances y las cuestiones éticas de la IA y las tecnologías emergentes.

MAR 22, 2024 - Podcast

Dos cuestiones fundamentales en la gobernanza de la IA, con Elizabeth Seger

En este podcast "Inteligencia Artificial e Igualdad", Wendell Wallach, becario de Carnegie-Uehiro, y Elizabeth Seger, de Demos, debaten sobre cómo hacer que la IA generativa sea segura y democrática.