Ética e imparcialidad en la IA: ¿quién dicta las normas?

23 de diciembre de 2021

¡En una charla de septiembre de 2021 en Sparks! The Serendipity Forum en el CERN, Anja Kaspersen, investigadora principal de la Iniciativa Inteligencia Artificial e Igualdad (AIEI) de Carnegie Council, aborda cuestiones relacionadas con la inteligencia artificial y el poder. A medida que los humanos siguen proliferando y evolucionando los sistemas de IA, se pregunta quién tiene agencia e influencia en este nuevo mundo. Kaspersen afirma que es necesario comprender que los humanos tienen el control, evitar las narrativas tecnológicamente deterministas que sirven esencialmente a los intereses de cooptación y a la desvinculación, y en su lugar reflexionar más profundamente sobre por qué y cómo los sistemas de IA podrían estar perpetuando las desigualdades o creando otras nuevas.

Aunque está claro que los sistemas de inteligencia artificial (IA) ofrecen oportunidades en diversos ámbitos y contextos, aún no se ha llegado a lo que equivale a una perspectiva responsable sobre su ética y gobernanza, y hasta la fecha pocas iniciativas han logrado un impacto real en la modulación de sus efectos.

Los sistemas de IA y las tecnologías algorítmicas se están integrando y ampliando mucho más rápidamente que la madurez de la tecnología que los soporta actualmente, y los marcos de gobernanza existentes siguen evolucionando.

¿Por qué no lo hacemos bien?

Permítanme compartir algunas reflexiones selectas y desmentir algunos mitos, y dejarles con algunas preguntas que plantearse a medida que el impacto de los sistemas basados en la IA va calando en nuestras vidas:

Primero: Con demasiada frecuencia el debate sobre la IA se presenta como que la tecnología evolucionará por su propia trayectoria.

Este no es el caso

Todo es humano. Cada novedad, cada reto, cada sesgo, cada valor, cada oportunidad. Estamos en un punto de inflexión, pero es humano y hasta cierto punto político o incluso teleológico, no tecnológico.

Segundo: muchos de los diálogos existentes son demasiado estrechos y no logran comprender las sutilezas y el ciclo de vida de los sistemas de IA ni su (a veces limitada) funcionalidad e impacto. Además, los responsables de la toma de decisiones no comprenden bien los métodos científicos y la complejidad que sustentan el qué, el cómo y el porqué de la construcción de un sistema de IA. Necesitamos una mejor inteligencia científica y antropológica, tanto a la hora de construir modelos fundacionales como de pensar en las futuras aplicaciones de la inteligencia artificial.

Tercero: El debate se centra en algunos aspectos de la ética, mientras que ignora otros aspectos que son más fundamentales y desafiantes. Por ejemplo: ¿Qué potencial pueden tener los sistemas de IA para perpetuar las desigualdades existentes y crear otras nuevas?

Este es el problema conocido como "lavado de ética": crear una sensación superficialmente tranquilizadora pero ilusoria de que las cuestiones éticas se están abordando adecuadamente, para justificar que se siga adelante con sistemas que acaban profundizando los patrones actuales.

Cuarto: La trampa del ajuste excesivo, las promesas excesivas, las promesas excesivas y los resultados insuficientes. En una serie de sistemas sensibles, desde la sanidad al empleo, pasando por la justicia o la defensa, estamos desplegando sistemas de IA que pueden ser brillantes a la hora de identificar correlaciones, pero que no comprenden la causalidad o las consecuencias. Esto conlleva riesgos significativos, especialmente cuando se despliega en contextos políticamente frágiles o en el sector público.

Quinto: Los debates sobre la IA y la ética siguen confinados en gran medida a la torre de marfil. Es necesario un discurso público más informado y una inversión seria en educación cívica, alfabetización digital, participación diversa y actividades transdisciplinarias en torno al impacto social de la revolución biodigital.

Sexto: Gran parte de lo que el público en general percibe actualmente sobre la IA procede de tropos de ciencia ficción y películas taquilleras. Necesitamos mejores formas de comunicar al público que, más allá de los riesgos hipotéticos de la IA futura, existen limitaciones reales e inminentes planteadas por la forma en que integramos los sistemas de IA que actualmente conforman la vida cotidiana de todos, y quién decide.

Séptimo: El discurso público sobre la IA no aborda suficientemente las consecuencias derivadas y se centra con demasiada frecuencia en un enfoque miope de optimización tecnosolucionista, en lugar de en lo que requiere el problema. Yo lo llamo el problema del polvo de hadas de la IA. Esto incluye cómo reducir el posible impacto medioambiental de los cálculos que consumen muchos recursos, las cuestiones relativas a la propiedad de los datos y cómo cultivar el talento, desarrollar la alfabetización digital y la fluidez de la IA, y crear espacios compartidos y una lengua vernácula para compartir ideas.

A pesar de la importancia de integrar de forma segura los sistemas de IA en el ámbito público, rara vez se plantean en el discurso público cuestiones concretas de difícil solución. Por ejemplo, la capacidad de interrupción de los sistemas de IA: ¿Cómo y cuándo podemos diseñar y construir realmente mecanismos a prueba de fallos y a prueba de fallos en los sistemas de IA, para que se interrumpan o se protejan de forma segura si un cambio inesperado en las circunstancias les lleva a causar daños? Parece que el jurado aún no se ha pronunciado al respecto, y la normativa sigue siendo, en el mejor de los casos, embrionaria.

La interoperabilidad es otro problema infravalorado: desde los vehículos autónomos a las tecnologías financieras y las aplicaciones de defensa, por muy bien diseñado que esté un sistema individual, puede tener consecuencias imprevistas si no es capaz de funcionar sin problemas con otros sistemas.

Además, el alcance de los sistemas de IA en todos los aspectos de la vida cotidiana se aceleró drásticamente por los bloqueos pandémicos que trasladaron más actividades sociales y económicas al mundo digital. Las principales empresas tecnológicas tienen ahora el control efectivo de muchos servicios públicos e infraestructuras digitales a través de planes de contratación o externalización. Los gobiernos y los proveedores de atención sanitaria desplegaron sistemas de IA para aplicaciones de seguimiento y localización de proximidad y respuestas bioinformáticas a una escala sin precedentes. Esto ha desencadenado un nuevo sector económico organizado en torno al flujo de biodatos.

Otro motivo de preocupación es que las personas más vulnerables a los efectos negativos de la IA son también las que tienen menos probabilidades de participar en las conversaciones, bien porque no tienen acceso digital, bien porque su falta de conocimientos digitales las hace propicias a la explotación. A menudo, estos grupos vulnerables son incluidos en teoría en los debates, pero no se les capacita para participar de forma significativa en la toma de decisiones. Esta desigualdad artificial, junto con los prejuicios humanos, corre el riesgo de amplificar la alteridad y la otredad a través de la negligencia, la exclusión y la desinformación, con consecuencias significativas.

Más insidioso quizá sea el debate más amplio sobre la intencionalidad frente a la no intencionalidad de los efectos de la tecnología (que va más allá de las discusiones tradicionales sobre el doble uso). A menudo, en este debate se afirma que la tecnología y la IA son apolíticas por naturaleza o que no hay forma de predecir completamente su impacto una vez que se utilizan. Curiosamente, este punto de vista es especialmente frecuente entre personas no técnicas, que no comprenden que toda creación tecnológica incorpora valores, y que los valores reflejan la cultura, la política y las pautas históricas de comportamiento y las realidades económicas.

En mi opinión, ha llegado el momento de volver a la mesa de dibujo y abordar cómo trasladar los principios a la práctica. Para ello, necesitamos

  1. Afrontar nuestros puntos ciegos.
  2. Preguntémonos: ¿Tenemos las plataformas adecuadas y las personas adecuadas para dirigirlas? ¿Hemos capacitado a las personas para que participen de forma significativa en estas plataformas?
  3. Aprender de la experiencia del CERN que la colaboración puede proporcionar controles y equilibrios muy eficaces para una ciencia y una tecnología receptivas y responsables.
  4. Tener claro qué aspectos de la ética estamos considerando y cuáles se están pasando por alto.
  5. Ser conscientes de qué normas, valores e intereses estamos incorporando a nuestras tecnologías.


Anja Kaspersen es Senior Fellow en Carnegie Council of Ethics in International Affairs. Fue Directora de la Oficina de Asuntos de Desarme de las Naciones Unidas en Ginebra y Vicesecretaria General de la Conferencia de Desarme. Anteriormente, ocupó el cargo de responsable de compromiso estratégico y nuevas tecnologías en el Comité Internacional de la Cruz Roja (CICR).

También le puede interesar

31 JULIO 2024 - Podcast

Responsible AI & the Ethical Trade-offs of Large Models, con Sara Hooker

En este episodio, Anja Kaspersen, Senior Fellow, habla con Sara Hooker, de Cohere for AI, sobre el diseño de modelos, el sesgo de los modelos y la representación de datos.

24 DE JULIO DE 2024 - Podcast

IA y guerra: A New Era for Arms Control & Deterrence, con Paul Scharre

La Senior Fellow Anja Kaspersen habla con Paul Scharre, del Center for a New American Security, sobre las cuestiones emergentes en la intersección entre tecnología y guerra.

2 DE JULIO DE 2024 Podcast

Cibernética, vigilancia digital y el papel de los sindicatos en la gobernanza tecnológica, con Elisabet Haugsbø

Anja Kaspersen, investigadora sénior, habla con Elisabet Haugsbø, presidenta del sindicato tecnológico Tekna, sobre su trayectoria en ingeniería, la resiliencia en la era de la IA y mucho más.