¿Quién decide qué conversaciones están permitidas sobre inteligencia artificial?

18 de agosto de 2022

David Post escribió un libro titulado En busca del alce de Jefferson: Notas sobre el estado del ciberespacioen el que plantea la pregunta ¿Quién decide quién decide? Se hace esta pregunta sobre Internet, utilizando la lente histórica de Thomas Jefferson y cómo utilizaba los datos. Las personas clave, argumenta Post, no son quienes toman las decisiones en sí, sino quienes deciden quién tiene el poder definitivo. Shoshana Zuboff, autora de La era del capitalismo de la vigilanciatambién utiliza esta óptica para explorar el poder en la Era de la Información, preguntando (y respondiendo) ¿Quién lo sabe? (las empresas capitalistas de vigilancia); ¿Quién decide? (el mercado); y ¿Quién decide quién decide? (los capitalistas de la vigilancia).

En el desarrollo, el uso y la compra de sistemas de IA, es importante preguntarse quién tiene el poder, qué conversaciones mantenemos y cuáles no, y quién dirige estas conversaciones. ¿Quién decide quién toma las decisiones? ¿Dónde está el poder real en estas conversaciones? ¿Quién dirige y financia los eventos de alto nivel que marcan la pauta?

Como sostiene Meredith Whittaker en su ensayo "El elevado coste de la capturalas grandes empresas tecnológicas determinan en gran medida lo que se hace y lo que no se hace en el campo de la IA, dominando tanto el mundo académico como los diversos grupos creados por organizaciones internacionales o gobiernos para asesorar sobre las prioridades de investigación en IA. Se ha desarrollado una cultura en la que aquellos que hablan en contra de las narrativas predominantes corren el riesgo de ser desfinanciados o cerrados. En 2019 Whittaker fue coautor de un contundente artículo sobre la crisis de diversidad que enfrenta todo el ecosistema de IA que describe el estado actual del campo como "alarmante". Whittaker y sus coautores del Instituto AI Now de la Universidad de Nueva York postularon que "la industria de la IA necesita reconocer la gravedad de su problema de diversidad, y admitir que los métodos existentes no han logrado lidiar con la distribución desigual del poder, y los medios por los cuales la IA puede reforzar tal desigualdad."

En 2021, Timnit Gebru, Margaret Mitchell, Emily M. Bender y Angelina McMillan-Major, todas ellas respetadas académicas en sus ámbitos, presentaron un artículo académico que cuestiona el uso de grandes conjuntos de datos por una serie de razones, entre ellas su impacto medioambiental y los sesgos ocultos y costes de oportunidad de crear modelos para manipular el lenguaje. Las ideas expuestas en el artículo se han convertido desde entonces en la piedra angular del trabajo en el campo de la IA.

Pero justo antes de la publicación de este artículo, Gebru, una de las coautoras, fue abruptamente despedida de su cargo como codirectora del Equipo de IA Ética de Google por su participación en este trabajo y por plantear la preocupación de que Google no estaba haciendo lo suficiente para eliminar el lenguaje tendencioso y odioso de sus datos de entrenamiento de IA. En palabras de Gebru: "Tu vida empieza a empeorar cuando empiezas a defender a las personas infrarrepresentadas. Empiezas a enfadar a los otros líderes".

"Hace falta valor para dar un paso al frente y decir la verdad", afirma Mary "Missy" Cummings, antigua profesora de IA y robótica en la Universidad de Duke y una voz autorizada que reclama una regulación más estricta de las tecnologías y los vehículos autónomos. Cummings es también una firme crítica de las limitaciones del aprendizaje profundo y la madurez de los actuales sistemas de IA, y ha hablado sobre los riesgos de ser troleada en línea como consecuencia de ello. "Para mí es un lujo poder decir la verdad al poder. No todo el mundo tiene ese lujo".

Quienes expresan sus preocupaciones corren el riesgo de ser marginados como contrarios a la innovación, el crecimiento y el futuro. Bender, otra de las coautoras del documento mencionado y una de las voces más firmes en la advertencia contra "el bombo publicitario de la IA y la excesiva atención a los problemas de paja", ha compartido públicamente cómo a menudo se le mal citada o que sus opiniones descontadas. La investigadora y crítica de la IA Abeba Birhane también ha advertido a contra la creencia en una narrativa singular susceptible a la exageración mediática que "carece de la capacidad de evaluar críticamente la tecnología"antes de ser importada o incorporada a nuestra vida cotidiana.

Cuando las ideas, las consideraciones éticas y las implicaciones que alteran la vida no se debaten abiertamente o se desalientan los debates críticos, las tecnologías no pueden cuestionarse o modificarse antes, o incluso después, de su despliegue. Algunos sugieren que quienes tienen más intereses en los acuerdos sociales actuales están diseñando cuidadosamente y asegurando un silencio social en torno a las falibilidades de las complejas tecnologías algorítmicas -ahora integradas y arraigadas en nuestra vida cotidiana- y su potencial para causar graves daños. Estas mismas tecnologías exacerban las desigualdades, afianzan las estructuras de poder, pueden dañar el medio ambiente, erosionar la capacidad de acción humana, socavar la estabilidad política y cambiar radicalmente el orden mundial.

El resultado es lo que Gillian Tett denomina "silencio social", una idea tomada del sociólogo Pierre Bourdieu. Tett pone el ejemplo de la crisis financiera de 2007-2008: como periodista del Financial Times, fue una de las pocas en advertir sobre los riesgos relacionados con los instrumentos financieros que acabaron provocando el desplome. Los expertos no hablaban abiertamente de estos riesgos, escribe Tett. escribemientras que a los de fuera, como ella, les resultaba difícil reunir suficiente información para "unir los puntos".

Tett añade: "Para estar seguros, en 2006 algunos banqueros individuales se sentían muy incómodos con lo que estaba pasando (y a menudo escribían correos electrónicos anónimos sobre esto a mi equipo)." Vemos claros paralelismos con el estado actual del discurso sobre la IA. Muchos de los que nos expresan su malestar en privado, no lo hacen públicamente por miedo a ser silenciados, marginados o despedidos.

A menudo se comparan los datos con el petróleo. Quizá lo más acertado de esa comparación sean los paralelismos entre los métodos de comunicación de los intereses corporativos asociados. Durante décadas, las empresas petroleras no hablaron con franqueza de las repercusiones negativas para el ser humano y el medio ambiente de la extracción de petróleo.

En lugar de comparar la IA con el petróleo, el paralelismo más probable quizá sea con los plásticos. Venerados en los años 50, ahora tenemos daños generalizados e irreversibles causados por los microplásticos en el océano y en nuestras cadenas alimentarias. No tenemos décadas para hacer bien la IA, como han demostrado los efectos a largo plazo de los microplásticos y los daños irreversibles para el planeta. Los daños continuos y a largo plazo pueden producirse en el mundo real mucho después de que los algoritmos se hayan vuelto redundantes, retirado o eliminado.

La ética de la IA es un campo en crecimiento, con un corpus de literatura y experiencia. Pero la proliferación de políticas ha tenido hasta ahora escasa repercusión, al carecer a menudo de análisis sustantivos y estrategias de aplicación. Las voces más destacadas del campo de la ética son ignoradas con demasiada frecuencia o no se las escucha en los acontecimientos que marcan la pauta. Wendell Wallach, coautor de Máquinas morales y codirector de la Iniciativa Inteligencia Artificial e Igualdad de Carnegie Council, observaba recientemente: "Me di cuenta de que se me excluía intencionadamente de actos clave por aportar perspectivas sobre lo que supone tomar decisiones éticas implica."

Además, al igual que los médicos y los abogados deben estar colegiados y cumplir un código de conducta, necesitamos exigir normas a los informáticos e ingenieros que trabajan en este ámbito como cuestión de buenas prácticas. La informática y el desarrollo de la inteligencia artificial han dejado de ser una mera abstracción matemática teórica con poca o ninguna relación con la vida cotidiana. Se ha convertido en un rasgo definitorio de la vida, con profundas repercusiones en lo que significa en lo que significa ser humano y en cómo salvaguardar su entorno.

En física fundamental, CERN crea un entorno seguro para llevar a cabo investigación y ciencia nucleares reproducibles cultivando una cultura de transparencia y fomentando la diversidad de puntos de vista. Un planteamiento similar en IA trataría de reforzar la inteligencia antropológica y científica en torno a qué tipo de metodología computacional se necesita para abordar problemas concretos. Fomentaría el debate abierto sobre las consideraciones éticas en torno al despliegue de diferentes modelos en distintos entornos en los que tendrán consecuencias muy diferentes en materia de seguridad, datos y procesos posteriores, y alentaría las voces discrepantes, incluso cuando ello pueda repercutir en las valoraciones de las empresas, las ambiciones políticas y las decisiones sobre cuándo no integrar o desplegar dichos sistemas.

Gary Marcus ha pedido un "CERN para la IA" que aborde los problemas relacionados con la escalabilidad de las iteraciones actuales de los modelos fundacionales de la IA y garantice que ésta se convierta en un bien público y no sólo en propiedad de unos pocos privilegiados. Coautor de Rebooting AI: Building Machines We Can TrustMarcus también ha hostilidad por advertir públicamente contra la trampa de las promesas excesivas de los sistemas de IA. Describe la falta de voluntad para entablar un discurso científico honesto e integrador sobre las limitaciones actuales como perjudicial para el desarrollo responsable a largo plazo de aplicaciones de IA seguras.

Las consecuencias a largo plazo para la sociedad ya son profundas y ampliamente sentidas, con consecuencias a más largo plazo para la democracia y la igualdad que las de la crisis mundial derivada del silencio social en las finanzas. Las tres preguntas de Zuboff: quién sabe, quién decide y quién decide quién decide, ponen al descubierto las estructuras de poder en juego.

Para garantizar las salvaguardias adecuadas, la igualdad o cualquier tipo de equidad en el uso de la IA y las tecnologías algorítmicas necesitamos crear una cultura que responsabilice a los líderes y a quienes tienen poder. No pueden ser solo las élites las que decidan quién decide. Es necesario permitir que diversas voces participen en un discurso crítico sobre lo que funciona y con qué fin, por quién y para quién.

Los silencios -y el miedo a los silencios- pueden evidenciar estructuras de poder o puntos ciegos. E independientemente de quién decida, los silencios, ya sean intencionados o no, son algo que siempre tenemos que cuestionar.

Anja Kaspersen es investigadora principal en Carnegie Council for Ethics in International Affairs, donde codirige la Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI).

La Dra. Kobi Leins es investigadora visitante en el King's College de Londres y experta de Standards Australia en asesoramiento técnico a la Organización Internacional de Normalización sobre las próximas normas de IA. También es miembro del Consejo Asesor de la AIEI y autora de New War Technologies and International Law (Cambridge University Press, 2022).

También le puede interesar

3 DE JUNIO DE 2024 - Podcast

La intersección de la IA, la ética y la humanidad, con Wendell Wallach

En este amplio debate, los becarios de Carnegie Council Samantha Hubner y Wendell Wallach discuten cómo la reflexión sobre la historia de la ética de las máquinas puede informar sobre el desarrollo responsable de la IA.

15 DE MAYO DE 2024 - Podcast

IA beneficiosa: más allá de los riesgos, con Raja Chatila

En este episodio del podcast "AIEI", la investigadora principal Anja Kaspersen conversa con Raja Chatila, de la Universidad de la Sorbona, sobre la integración de la robótica, la IA y la ética.

9 DE MAYO DE 2024 - Podcast

El estado de la seguridad de la IA en China, con Kwan Yee Ng y Brian Tse

En este podcast de "AIEI", Wendell Wallach, becario de Carnegie-Uehiro, habla con Kwan Yee Ng y Brian Tse, de Concordia AI, sobre la coordinación de la gobernanza de las tecnologías emergentes en todo el mundo.