Por qué la democracia frente a la autocracia no tiene sentido

3 de mayo de 2022

No se pierda la conferencia del profesor Guéhenno Inteligencia Artificial e Igualdad sobre este tema con Anja Kaspersen.

Siempre he sido un opositor. Lo fui en 1989, cuando escribí mi primer libro, criticando la idea -entonces muy extendida- de que la democracia había triunfado de una vez por todas. Y hoy vuelvo a serlo con mi nuevo libro, porque todo el mundo habla del enfrentamiento entre democracias y autocracias, y creo que eso es perder el norte.

Está ocurriendo algo mucho más importante: la revolución de los datos, Internet y la inteligencia artificial. Creo que estamos en la cúspide de un terremoto en la historia de la humanidad de un tipo que sólo ocurre una vez cada cientos de años. La comparación más reciente es el Renacimiento, y el ritmo del cambio hoy es mucho más rápido que entonces.

Las instituciones que construimos en la era anterior a los datos pronto se verán completamente desbordadas, y pensar en términos de las viejas categorías de democracias frente a autocracias pasa por alto todos los nuevos retos a los que tendrán que enfrentarse. Ésta es una época de grandes peligros y grandes promesas, como lo fue el Renacimiento, no sólo la era de Leonardo da Vinci, sino también un siglo de guerras religiosas.

La revolución actual de los datos y los algoritmos está redistribuyendo el poder de una forma que no puede compararse con ningún cambio histórico. Tradicionalmente pensamos que el poder se concentra en manos de los dirigentes de los Estados o de las grandes empresas industriales. Pero el poder, cada vez más, está en manos de algoritmos a los que se les encarga (inicialmente por humanos) que aprendan y cambien por sí mismos, y evolucionen de formas que no podemos predecir.

Eso significa que los propietarios de Google o Facebook o Amazon no son los dueños de nuestro destino en el mismo sentido que los anteriores titanes corporativos. Del mismo modo, si bien es cierto hasta cierto punto que los datos darán a los dictadores un poder sin precedentes para manipular la sociedad, también pueden llegar a estar dominados por la evolución de los algoritmos de los que dependen.

Ya vemos cómo los algoritmos están remodelando la política. Las redes sociales han creado tribus autónomas que no se hablan entre sí. Lo más importante en democracia no es el voto en sí, sino el proceso de deliberación previo a la votación, y las redes sociales están fragmentando rápidamente el terreno común sobre el que se han construido esas deliberaciones.

¿Cómo pueden las sociedades ejercer un control sobre la forma en que los algoritmos gestionan los datos, y si fomentan el odio o la armonía? Todavía no existen instituciones capaces de controlar este nuevo poder. Cómo deberían ser será uno de los grandes debates del futuro.

No tengo las respuestas: Creo que ninguna mente humana puede prever el alcance de las transformaciones que se van a producir. De hecho, creo que la mera noción de que se puede saber hoy cuáles serán las instituciones adecuadas para el futuro es arrogante. Las mejores instituciones (y personas) serán las más adaptables.

Sin embargo, creo que un enfoque prometedor es pensar en términos de la relación entre la lógica del conocimiento y la lógica de la democracia. Tomemos como ejemplo los bancos centrales. El ciudadano medio no tiene ni idea de cómo funciona la política monetaria. En lugar de ello, confiamos en que los políticos encarguen a los expertos de los bancos centrales que intenten alcanzar un determinado objetivo, ya sea el pleno empleo o una moneda estable.

La pandemia ofrece otro ejemplo. Los políticos suelen decir que siguen el consejo experto de grupos de científicos. Pero el papel de los científicos debería ser limitado. Son expertos en los riesgos y daños del virus, pero las decisiones políticas para responder al virus conllevan otros tipos de riesgos y daños, y sopesarlos es esencialmente una decisión política, no científica.

Estos ejemplos ilustran cómo debemos pensar el control del poder de los datos. El ciudadano medio no tiene ni idea de cómo funcionan los algoritmos, así que necesitamos la experiencia de los especialistas. Pero cómo equilibrar los valores contrapuestos que definen una sociedad es una decisión política. Necesitamos políticos que no pretendan saber más que los científicos, y científicos que no intenten dictar la política.

También debemos aceptar que las distintas sociedades tendrán un equilibrio diferente entre valores opuestos, como el colectivismo y el individualismo. Hoy vemos cómo Rusia impulsa su agenda etnonacionalista y nos felicitamos por ser los buenos. Pero, ¿somos capaces de definir lo que, fundamentalmente, mantiene unidas a nuestras propias sociedades? "No al etnonacionalismo" es un buen comienzo, pero sólo el primer paso.

No habrá una única respuesta global, y no debemos aspirar a encontrarla. En su lugar, necesitamos una pluralidad de respuestas, para tener más posibilidades de ver lo que funciona y lo que no. Autocracia frente a democracia puede parecer la pregunta del día, pero la revolución que se avecina nos obligará rápidamente a pensar de formas más novedosas y matizadas.

Jean-Marie Guéhenno es catedrático Arnold A. Saltzman de Práctica Política en la Universidad de Columbia y miembro del consejo asesor de Carnegie Council. Iniciativa Inteligencia Artificial e Igualdad (AIEI), y ex Secretario General Adjunto de las Naciones Unidas para Operaciones de Mantenimiento de la Paz.

También le puede interesar

NOV 10, 2021 - Artículo

¿Por qué estamos fracasando en la ética de la IA?

Mientras lee esto, los sistemas de IA y las tecnologías algorítmicas se están integrando y ampliando mucho más rápidamente que los marcos de gobernanza existentes (es decir, las normas ...

JUN 15, 2022 - Artículo

¿Deus ex machina o Diabolus ex machina?

"Cada vez que vemos u oímos algo que se parece al "deus ex machina", o un uso inexplicable de la tecnología que se resuelve de forma demasiado simple o fácil, ...

10 DE MAYO DE 2022 - Podcast

Tomar decisiones cuando los valores entran en conflicto o tienen distinta prioridad, con Paul Root Wolpe

En este podcast de Inteligencia Artificial e Igualdad, Wendell Wallach, becario de Carnegie-Uehiro, se sienta con Paul Root Wolpe, catedrático de la Universidad de Emory, para mantener una conversación ...