13 de noviembre de 2024 - Artículo

Una zona gris ética: Agentes de IA en las deliberaciones políticas

La IA agenética -un tipo de sistema de IA que puede planificar y ejecutar de forma independiente procesos de varios pasos- ha adquirido mucha más importancia en los últimos años debido al auge de la IA generativa. Los modelos de IA generativa, en particular los grandes modelos lingüísticos, que permiten interpretar texto y crear respuestas, permiten a los agentes de IA, como los chatbots, imitar los atributos y el diálogo humanos de forma mucho más convincente de lo que era posible incluso hace unos años.

Estas nuevas capacidades han dado lugar a multitud de aplicaciones novedosas -sobre todo en el ámbito de la deliberación política- que permiten a representantes y no representantes políticos plantearse tres tipos de funciones para los agentes de la IA:

  1. IA para apoyar las deliberaciones entre seres humanos;
  2. la IA como participante en deliberaciones híbridas (en las que también están presentes seres humanos); y
  3. La IA como sustituto de las deliberaciones humanas (cuando no hay seres humanos).

En la actualidad, se están desplegando nuevas herramientas e iniciativas que permiten desempeñar estas funciones, como la plataforma en línea gratuita pol.is y los diálogos digitales por la paz del Departamento de Asuntos Políticos y de Consolidación de la Paz de las Naciones Unidas (UN-DPPA), que asignan una función de moderación a los agentes de IA.

La evolución de la deliberación: De lo analógico a Internet y la IA

Incluso antes del auge de la IA generativa, los procesos deliberativos, que permiten a una multitud de participantes debatir y dar forma a sus ideas mediante el diálogo convergiendo idealmente hacia una decisión común, se han visto muy afectados por las nuevas tecnologías en las últimas décadas.

En 1967, cuando el filósofo político alemán Jürgen Habermas publicó La transformación estructural de la esfera públicacriticó las tecnologías de la información de la época -televisión y radio- por haber destruido el diálogo público al crear herramientas unidireccionales de difusión de la información en las que la gente sólo podía recibir ideas, no contribuir a ellas. Sin embargo, con la aparición de Internet y los medios sociales, esta tendencia se invirtió, permitiendo a las personas con conectividad digital compartir sus ideas de forma mucho más independiente.

Así comenzó una era, para bien o para mal, en la que Internet ofrecía un espacio dinámico para el debate y el diálogo en torno a cuestiones políticas. Surgieron nuevas barreras a la participación, desde la alfabetización digital a la conectividad, así como nuevos retos deliberativos, desde el aumento de la polarización al desarrollo de cámaras de eco en línea.

Ahora nos enfrentamos a una nueva cuestión, que tiene que ver con la participación de los modelos de IA en los procesos deliberativos, tanto formales como informales, y lo que eso podría significar para la toma de decisiones de la sociedad, especialmente cuando se trata de establecer normas y objetivos globales.

Deliberación formal e informal en política

Es importante señalar aquí dos tipos de procesos de toma de decisiones políticas.

En primer lugar tenemos los procesos deliberativos formales, que suelen tener lugar en relación con la elaboración de políticas gubernamentales. En el caso de los no responsables políticos, pueden adoptar la forma de un ayuntamiento con representantes del Gobierno o de una asamblea ciudadana, ambos con el objetivo de recabar información sobre las necesidades e ideas de los votantes para adaptar mejor las decisiones de sus cargos electos. Las asambleas ciudadanas, como la Convención Ciudadana Francesa sobre el Clima 2020, ofrecen estructuras en las que, según los teóricos deliberativos, pueden surgir resultados óptimos. Estos diálogos estructurados utilizan herramientas como sesiones informativas de expertos, grupos de trabajo, moderadores y votaciones. Los ayuntamientos suelen tener una arquitectura más sencilla, con un discurso de un representante electo o candidato, y un periodo de preguntas y respuestas con los miembros del electorado.

Las deliberaciones informales, sin embargo, son debates que configuran la opinión política de forma más amplia, sin estar específicamente diseñados o dirigidos. Pueden ser debates sobre temas políticos en las redes sociales, hilos de comentarios en blogs o artículos de noticias, o comentarios en vídeo sobre acontecimientos de actualidad. Los debates en línea se extienden a menudo como redes, en las que la gente reenvía, comenta, le gusta y aporta contenido original sobre un tema político concreto.

Por supuesto, las deliberaciones informales son mucho más eficaces que las formales para formar la opinión pública, pero a menudo no tienen vías claras hacia la acción política. La politóloga Jane Mansbridge llama a esto "conversación cotidiana", explicando que la gente puede estar más abierta a cambiar de opinión a través del diálogo de ida y vuelta, donde las defensas están bajas y las emociones y experiencias pueden integrarse de forma más natural. Sin embargo, las deliberaciones informales pueden crear circuitos cerrados en los que las buenas ideas no llegan a los responsables políticos.

Nuevas funciones de los agentes de IA y sus implicaciones

Los agentes de IA están empezando a utilizarse intencionadamente en contextos formales para abordar algunos de los retos actuales de la deliberación, permitiendo la deliberación a escala, superando las barreras lingüísticas, controlando los comportamientos nocivos en los diálogos y guiando a los participantes hacia resultados claros. Sin embargo, los agentes de IA también están presentes, a sabiendas o no, en las deliberaciones informales. De hecho, los chatbots de IA no son nada nuevo en las redes sociales, y se han desplegado por razones tanto benignas como perjudiciales durante casi una década. La diferencia hoy es que los agentes de IA son mucho más convincentes, versátiles y fáciles de crear.

Estos diversos usos de los agentes de IA conducen a diferentes capas de zonas grises éticas, que habrá que abordar cada vez más.

La IA como herramienta para la deliberación corre el riesgo de manipular los procedimientos, por ejemplo tergiversando las perspectivas en el resumen, supervisando de forma inadecuada los comentarios u omitiendo puntos de acción para el seguimiento. Como participantes, los agentes de la IA pueden "contaminar" el proceso deliberativo con ideas inapropiadas o perjudiciales, lo que podría tener consecuencias negativas para la sociedad. Y, por supuesto, las deliberaciones llevadas a cabo únicamente por agentes de IA, es decir, deliberaciones sin humanos y entre "gemelos digitales ", plantean cuestiones significativas sobre la pérdida de la agencia humana en la configuración de la sociedad en la que vivimos, así como la pérdida de los beneficios del diálogo en el desarrollo y fortalecimiento de nuestro tejido social.

En la siguiente tabla se describen algunos de los principales usos y problemas éticos de cada tipo de agente de IA.

Ser consciente de estos desafíos éticos puede restaurar parte de esta agencia humana perdida, especialmente si viene acompañada de elecciones de diseño intencionadas para las deliberaciones formales e informales.

Los procesos deliberativos son medios naturales para que los seres humanos intercambien sus ideas y den forma a las sociedades en las que viven. La inserción de "pensadores" artificiales, por así decirlo, no es sencilla, pero su uso responsable puede ser posible en algunos casos si se comprenden y abordan los riesgos. Será especialmente importante considerar esta cuestión en los próximos años, a medida que los responsables políticos y el público en general avancen hacia nuevas rondas de Objetivos de Desarrollo Sostenible (ODS) y utilicen los foros multilaterales para abordar multitud de retos mundiales.

A medida que aumenta la adopción de la IA agéntica, es fundamental que los investigadores y los responsables políticos exploren las formas en que estos sistemas autónomos de IA pueden influir en nuestras ideas y decisiones políticas, para después acordar principios éticos que informen la gobernanza de la IA.

Eleonore Fournier-Tombs es responsable de acción anticipatoria e innovación en el Centro de Investigación Política de la Universidad de las Naciones Unidas (UNU-CPR).

Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este artículo son las de sus autores y no reflejan necesariamente la posición de Carnegie Council.

También le puede interesar

APR 30, 2024 - Podcast

¿Es la IA sólo un artefacto? con Joanna Bryson

En este episodio, la presentadora Anja Kaspersen habla con Joanna Bryson, de la Hertie School, sobre la intersección entre las ciencias computacionales, cognitivas y del comportamiento y la IA.

13 DE MAYO DE 2022 - Artículo

La ética tal y como la conocemos ha desaparecido. Es hora de replantearse la ética.

Dada la preocupante situación de los asuntos internacionales, hay motivos para estar muy preocupados por cómo se enmarca o se coopta la ética. Para hacer frente a este momento, ...

MAR 23, 2022 - Podcast

Tecnología, inteligencia artificial y normas mundiales

¿Cómo se entrecruzan la tecnología, la IA y las normas globales para generar dilemas políticos, legales y éticos? En este evento, la nueva líder de Carnegie, Josephine Jackson, ...