La IA y la igualdad, Parte 3: El papel de la IA en la alteración de la condición humana y lo que significa ser humano

3 de febrero de 2022

Al trazar el mapa de la IA y la igualdad, resulta útil desarrollar categorías generales que pongan de relieve distintas trayectorias que muestren cómo la IA afecta a las personas y a sus relaciones mutuas y con nuestro entorno común. El objetivo de esta serie de entradas de blog es dar pie a nuevas reflexiones.

El discurso actual sobre la IA gira en torno a una pregunta central: ¿Mejorará la condición humana gracias a la IA o la transformará de tal forma que socavará los principios básicos que permiten una cierta cooperación humana? Si ambas cosas son ciertas en cierta medida, ¿cómo podemos gestionar las compensaciones, aumentar los beneficios y limitar los daños potenciales para los seres humanos, la sociedad y el medio ambiente? Además, ¿qué significará ser humano en una era en constante transformación por las posibilidades tecnológicas? Hay muchas razones por las que estas cuestiones han adquirido tanta importancia.

La pérdida de un puesto de trabajo socava la sensación de valía y significado para muchos y es sólo un ejemplo de cómo la automatización y los sistemas de IA alteran la condición humana y a veces degradan el valor intrínseco de las personas. Esto crea una tensión entre las crecientes capacidades de los sistemas de IA y la pérdida de agencia humana. En otras palabras, las personas en general pueden ser tratadas como desiguales o inferiores a las máquinas.

La publicidad agresiva y microdirigida y la propaganda digital, diseñadas para captar la atención y manipular el pensamiento y el comportamiento, ya han alterado las actitudes, el comportamiento y el sentido de uno mismo. La propaganda y la publicidad no son nuevas, pero los avances en las ciencias cognitivas han proporcionado pistas sobre cómo la manipulación del comportamiento puede convertirse en una forma de arte. El historiador y autor de best-sellers Yuval Harari señala a menudo que , con decenas de miles y millones de puntos de datos, el algoritmo nos conoce mejor que nosotros mismos. Estas nuevas tecnologías permiten a las empresas y otras entidades manipular a los individuos, y los individuos manipulados pierden su capacidad de acción. En nombre de la libertad, una fracción relativamente pequeña de ciudadanos, profesionales del marketing e ideólogos políticos tienen el poder y la licencia de manipular al resto de la población sin apenas restricciones. La IA y las tecnologías algorítmicas determinan cada vez más cómo, qué, por qué y dónde consumimos, qué leemos, qué escuchamos, a quién y qué votamos. La transformación digital de individuos y comunidades en meras estadísticas, clasificaciones y puntos de datos podría permitir un nuevo tipo de totalitarismo digital accidental.

La manipulación digital del comportamiento es sólo una de las dimensiones de la alteración de la condición humana. Nuestra cultura y nuestros patrones de comprensión se están recableando, al igual que los cerebros y los hábitos cotidianos. ¿Comprendemos siquiera lo que está ocurriendo y cómo se alteran continuamente nuestras facultades cognitivas?

La condición humana, que no debe confundirse con la naturaleza humana, es un término amplio utilizado para describir todos los elementos de la existencia humana y lo que significa ser humano. La condición humana incluye las características naturales de todos los humanos, pero también contempla las externalidades y los acontecimientos a los que se enfrentan los individuos, así como los enigmas morales o éticos a los que pueden enfrentarse. Se refiere a lo que los humanos hacemos con nuestras características innatas, cómo las utilizamos para dar forma al mundo que nos rodea y cómo, a su vez, ese mundo nos da forma a nosotros.

La contemplación de la condición humana dio origen a la filosofía natural (ciencia natural) en los albores de la Ilustración hace cientos de años y ha guiado los estudios de filosofía, arte, política, religión y, más recientemente, de ciencia cognitiva e informática. Sostenemos que sin un debate informado y abierto sobre el impacto de la IA en la condición humana, todos corremos peligro.

La narrativa tecnopolítica presupone y refuerza la creencia en el determinismo a expensas de un libre albedrío significativo, en el que puedan prevalecer la agencia y las intenciones humanas. Esta narrativa errónea se basa en una especie de reduccionismo científico que socava perspectivas más holísticas. El riesgo es que la ética se reduzca a un utilitarismo mecanicista, en el que lo único que tiene que hacer el ordenador es resolver difíciles problemas de carritos. Este último punto es importante porque sugiere que la toma de decisiones éticas puede instanciarse algorítmicamente(Wallach, Wendell y Allen, Colin, 2009. Moral Machines: Teaching Robots Right From Wrong, Oxford University Press, NY).

Por defecto (y a veces por diseño), los sistemas de IA no son transparentes; es decir, ni siquiera los diseñadores del sistema pueden comprender plenamente los pasos que conducen a un resultado concreto. El sistema tampoco puede explicar a sus diseñadores y usuarios humanos el razonamiento en el que se basa su resultado. Si las empresas y los ingenieros no comprenden las actividades de un sistema autónomo o no pueden controlarlo, debería declararse inaceptable o estar muy regulado para situaciones en las que pueda causar daños.

Y, sin embargo, cada vez se afirma más que los sistemas autónomos actuarán o juzgarán mejor que las personas y que, por tanto, su uso compensará cualquier impacto negativo. Por ejemplo, se afirma, pero desde luego no se demuestra, que los vehículos autónomos tendrán muchos menos accidentes que los conductores humanos. Incluso si los coches autónomos son más seguros, ocasionalmente alguno podría dañar y matar a personas en circunstancias en las que un conductor atento no lo haría. ¿Deberíamos nosotros, la sociedad, aceptar tales riesgos si los beneficios netos de los coches autónomos son positivos? ¿Podría la aceptación de los coches autónomos traducirse en una aceptación automática de otros sistemas autónomos, por ejemplo, en la guerra, cuyos beneficios y riesgos siguen estando menos claros? Son cuestiones que deberían debatirse ampliamente, pero que no están recibiendo la atención adecuada.

Las afirmaciones de que los sistemas de inteligencia artificial tomarán mejores decisiones que los humanos suelen apoyarse en ejemplos de cómo las personas están sujetas tanto a sesgos prejuiciosos como a sesgos cognitivos. Un sesgo cognitivo es un error sistemático de juicio. Desde que se demostró empíricamente el primer sesgo cognitivo de este tipo en las investigaciones de Amos Tversky y Daniel Kahneman(Kahneman, D. y Tversky, A. 1979. Prospect Theory: An analysis of decision under risk, Econometrica, Vol 47, No. 2, pp.. 263-293. También: Kahneman, Daniel, 2011. Thinking Fast and Slow , Farrar, Straus, and Giroux), se han puesto de manifiesto muchos errores cognitivos similares. Estos van desde una incomprensión intuitiva pero sistemática de las estadísticas hasta una tendencia a ignorar la información que no confirma lo que uno ya cree. Algunos futuristas sostienen que los defectos de la naturaleza humana legados por la evolución, como los sesgos cognitivos, justifican la ingeniería genética, la investigación sobre IA y la vinculación de cerebros a sistemas de IA, así como otras formas de mejora para trascender las limitaciones humanas y continuar la evolución por medios tecnológicos.

La afirmación de que los sistemas autónomos serán más seguros y precisos es cada vez más utilizada por los fabricantes como argumento para quedar exentos de ciertas formas de responsabilidad, en particular por sucesos de baja probabilidad que no podían prever. Determinar lo que podría o debería haberse previsto es otra cuestión. Ciertamente, los sistemas de inteligencia artificial pueden diseñarse de forma que estén libres de los errores lógicos que suelen cometer las personas, pero los sistemas de inteligencia artificial pueden presentar otros sesgos, o no ser sensibles a la información destacada de la que sería consciente un ser humano ni tenerla en cuenta. Actualmente, el razonamiento basado en el sentido común, la comprensión semántica, la autoconciencia, la inteligencia moral, la inteligencia emocional y la empatía son algunas de las capacidades que los ingenieros no saben cómo integrar en un sistema de IA. Hay muchas teorías sobre cómo se pueden instanciar esas formas de inteligencia, pero pocas pruebas de concepto.

Los debates actuales sobre los sesgos algorítmicos indican claramente que no se puede confiar plenamente en los ordenadores para tomar buenas decisiones. Reconocemos que, en algunas situaciones, los sistemas de IA actuales y futuros pueden hacer mejores recomendaciones que las personas con profundos prejuicios, las que no son conscientes de sus sesgos cognitivos o los jugadores cuyo afán de ambición personal anula el buen juicio. Los desarrolladores encontrarán cada vez más formas de minimizar las entradas y salidas sesgadas de los ordenadores. No obstante, creemos que la mejor toma de decisiones evaluará los resultados de los ordenadores y los combinará con la supervisión y las opiniones de operadores y expertos.

Desgraciadamente, las afirmaciones de que los sistemas de IA tomarán mejores decisiones que las personas ya socavan la capacidad de acción y la confianza en sí mismo del ser humano, al tiempo que justifican el traspaso de decisiones críticas a las máquinas. Independientemente de si los sistemas de IA sustituyen a la inteligencia humana en el futuro, existe una dilución continua de la agencia humana y una abrogación de la responsabilidad y la autoridad a las máquinas. A corto plazo, esto sirve a los intereses de las empresas, que no quieren ser consideradas responsables de esta extralimitación de la ciencia y de las acciones de los sistemas que despliegan.


Anja Kaspersen es Senior Fellow en Carnegie Council of Ethics in International Affairs. Fue Directora de la Oficina de Asuntos de Desarme de las Naciones Unidas en Ginebra y Vicesecretaria General de la Conferencia de Desarme. Anteriormente, ocupó el cargo de responsable de compromiso estratégico y nuevas tecnologías en el Comité Internacional de la Cruz Roja (CICR).

Wendell Wallach es consultor, especialista en ética y académico del Centro Interdisciplinario de Bioética de la Universidad de Yale. También es académico del Lincoln Center for Applied Ethics, miembro del Institute for Ethics & Emerging Technology y asesor principal del Hastings Center.

También le puede interesar

31 JULIO 2024 - Podcast

Responsible AI & the Ethical Trade-offs of Large Models, con Sara Hooker

En este episodio, Anja Kaspersen, Senior Fellow, habla con Sara Hooker, de Cohere for AI, sobre el diseño de modelos, el sesgo de los modelos y la representación de datos.

24 DE JULIO DE 2024 - Podcast

IA y guerra: A New Era for Arms Control & Deterrence, con Paul Scharre

La Senior Fellow Anja Kaspersen habla con Paul Scharre, del Center for a New American Security, sobre las cuestiones emergentes en la intersección entre tecnología y guerra.

2 DE JULIO DE 2024 Podcast

Cibernética, vigilancia digital y el papel de los sindicatos en la gobernanza tecnológica, con Elisabet Haugsbø

Anja Kaspersen, investigadora sénior, habla con Elisabet Haugsbø, presidenta del sindicato tecnológico Tekna, sobre su trayectoria en ingeniería, la resiliencia en la era de la IA y mucho más.