La IA y la igualdad, Parte 3: El papel de la IA en la alteración de la condición humana y lo que significa ser humano

3 de febrero de 2022

Al trazar el mapa de la IA y la igualdad, resulta útil desarrollar categorías generales que pongan de relieve distintas trayectorias que muestren cómo la IA afecta a las personas y a sus relaciones mutuas y con nuestro entorno común. El objetivo de esta serie de entradas de blog es dar pie a nuevas reflexiones.

El discurso actual sobre la IA gira en torno a una pregunta central: ¿Mejorará la condición humana gracias a la IA o la transformará de tal forma que socavará los principios básicos que permiten una cierta cooperación humana? Si ambas cosas son ciertas en cierta medida, ¿cómo podemos gestionar las compensaciones, aumentar los beneficios y limitar los daños potenciales para los seres humanos, la sociedad y el medio ambiente? Además, ¿qué significará ser humano en una era en constante transformación por las posibilidades tecnológicas? Hay muchas razones por las que estas cuestiones han adquirido tanta importancia.

La pérdida de un puesto de trabajo socava la sensación de valía y significado para muchos y es sólo un ejemplo de cómo la automatización y los sistemas de IA alteran la condición humana y a veces degradan el valor intrínseco de las personas. Esto crea una tensión entre las crecientes capacidades de los sistemas de IA y la pérdida de agencia humana. En otras palabras, las personas en general pueden ser tratadas como desiguales o inferiores a las máquinas.

La publicidad agresiva y microdirigida y la propaganda digital, diseñadas para captar la atención y manipular el pensamiento y el comportamiento, ya han alterado las actitudes, el comportamiento y el sentido de uno mismo. La propaganda y la publicidad no son nuevas, pero los avances en las ciencias cognitivas han proporcionado pistas sobre cómo la manipulación del comportamiento puede convertirse en una forma de arte. El historiador y autor de best-sellers Yuval Harari señala a menudo que , con decenas de miles y millones de puntos de datos, el algoritmo nos conoce mejor que nosotros mismos. Estas nuevas tecnologías permiten a las empresas y otras entidades manipular a los individuos, y los individuos manipulados pierden su capacidad de acción. En nombre de la libertad, una fracción relativamente pequeña de ciudadanos, profesionales del marketing e ideólogos políticos tienen el poder y la licencia de manipular al resto de la población sin apenas restricciones. La IA y las tecnologías algorítmicas determinan cada vez más cómo, qué, por qué y dónde consumimos, qué leemos, qué escuchamos, a quién y qué votamos. La transformación digital de individuos y comunidades en meras estadísticas, clasificaciones y puntos de datos podría permitir un nuevo tipo de totalitarismo digital accidental.

La manipulación digital del comportamiento es sólo una de las dimensiones de la alteración de la condición humana. Nuestra cultura y nuestros patrones de comprensión se están recableando, al igual que los cerebros y los hábitos cotidianos. ¿Comprendemos siquiera lo que está ocurriendo y cómo se alteran continuamente nuestras facultades cognitivas?

La condición humana, que no debe confundirse con la naturaleza humana, es un término amplio utilizado para describir todos los elementos de la existencia humana y lo que significa ser humano. La condición humana incluye las características naturales de todos los humanos, pero también contempla las externalidades y los acontecimientos a los que se enfrentan los individuos, así como los enigmas morales o éticos a los que pueden enfrentarse. Se refiere a lo que los humanos hacemos con nuestras características innatas, cómo las utilizamos para dar forma al mundo que nos rodea y cómo, a su vez, ese mundo nos da forma a nosotros.

La contemplación de la condición humana dio origen a la filosofía natural (ciencia natural) en los albores de la Ilustración hace cientos de años y ha guiado los estudios de filosofía, arte, política, religión y, más recientemente, de ciencia cognitiva e informática. Sostenemos que sin un debate informado y abierto sobre el impacto de la IA en la condición humana, todos corremos peligro.

La narrativa tecnopolítica presupone y refuerza la creencia en el determinismo a expensas de un libre albedrío significativo, en el que puedan prevalecer la agencia y las intenciones humanas. Esta narrativa errónea se basa en una especie de reduccionismo científico que socava perspectivas más holísticas. El riesgo es que la ética se reduzca a un utilitarismo mecanicista, en el que lo único que tiene que hacer el ordenador es resolver difíciles problemas de carritos. Este último punto es importante porque sugiere que la toma de decisiones éticas puede instanciarse algorítmicamente(Wallach, Wendell y Allen, Colin, 2009. Moral Machines: Teaching Robots Right From Wrong, Oxford University Press, NY).

Por defecto (y a veces por diseño), los sistemas de IA no son transparentes; es decir, ni siquiera los diseñadores del sistema pueden comprender plenamente los pasos que conducen a un resultado concreto. El sistema tampoco puede explicar a sus diseñadores y usuarios humanos el razonamiento en el que se basa su resultado. Si las empresas y los ingenieros no comprenden las actividades de un sistema autónomo o no pueden controlarlo, debería declararse inaceptable o estar muy regulado para situaciones en las que pueda causar daños.

Y, sin embargo, cada vez se afirma más que los sistemas autónomos actuarán o juzgarán mejor que las personas y que, por tanto, su uso compensará cualquier impacto negativo. Por ejemplo, se afirma, pero desde luego no se demuestra, que los vehículos autónomos tendrán muchos menos accidentes que los conductores humanos. Incluso si los coches autónomos son más seguros, ocasionalmente alguno podría dañar y matar a personas en circunstancias en las que un conductor atento no lo haría. ¿Deberíamos nosotros, la sociedad, aceptar tales riesgos si los beneficios netos de los coches autónomos son positivos? ¿Podría la aceptación de los coches autónomos traducirse en una aceptación automática de otros sistemas autónomos, por ejemplo, en la guerra, cuyos beneficios y riesgos siguen estando menos claros? Son cuestiones que deberían debatirse ampliamente, pero que no están recibiendo la atención adecuada.

Las afirmaciones de que los sistemas de inteligencia artificial tomarán mejores decisiones que los humanos suelen apoyarse en ejemplos de cómo las personas están sujetas tanto a sesgos prejuiciosos como a sesgos cognitivos. Un sesgo cognitivo es un error sistemático de juicio. Desde que se demostró empíricamente el primer sesgo cognitivo de este tipo en las investigaciones de Amos Tversky y Daniel Kahneman(Kahneman, D. y Tversky, A. 1979. Prospect Theory: An analysis of decision under risk, Econometrica, Vol 47, No. 2, pp.. 263-293. También: Kahneman, Daniel, 2011. Thinking Fast and Slow , Farrar, Straus, and Giroux), se han puesto de manifiesto muchos errores cognitivos similares. Estos van desde una incomprensión intuitiva pero sistemática de las estadísticas hasta una tendencia a ignorar la información que no confirma lo que uno ya cree. Algunos futuristas sostienen que los defectos de la naturaleza humana legados por la evolución, como los sesgos cognitivos, justifican la ingeniería genética, la investigación sobre IA y la vinculación de cerebros a sistemas de IA, así como otras formas de mejora para trascender las limitaciones humanas y continuar la evolución por medios tecnológicos.

La afirmación de que los sistemas autónomos serán más seguros y precisos es cada vez más utilizada por los fabricantes como argumento para quedar exentos de ciertas formas de responsabilidad, en particular por sucesos de baja probabilidad que no podían prever. Determinar lo que podría o debería haberse previsto es otra cuestión. Ciertamente, los sistemas de inteligencia artificial pueden diseñarse de forma que estén libres de los errores lógicos que suelen cometer las personas, pero los sistemas de inteligencia artificial pueden presentar otros sesgos, o no ser sensibles a la información destacada de la que sería consciente un ser humano ni tenerla en cuenta. Actualmente, el razonamiento basado en el sentido común, la comprensión semántica, la autoconciencia, la inteligencia moral, la inteligencia emocional y la empatía son algunas de las capacidades que los ingenieros no saben cómo integrar en un sistema de IA. Hay muchas teorías sobre cómo se pueden instanciar esas formas de inteligencia, pero pocas pruebas de concepto.

Los debates actuales sobre los sesgos algorítmicos indican claramente que no se puede confiar plenamente en los ordenadores para tomar buenas decisiones. Reconocemos que, en algunas situaciones, los sistemas de IA actuales y futuros pueden hacer mejores recomendaciones que las personas con profundos prejuicios, las que no son conscientes de sus sesgos cognitivos o los jugadores cuyo afán de ambición personal anula el buen juicio. Los desarrolladores encontrarán cada vez más formas de minimizar las entradas y salidas sesgadas de los ordenadores. No obstante, creemos que la mejor toma de decisiones evaluará los resultados de los ordenadores y los combinará con la supervisión y las opiniones de operadores y expertos.

Desgraciadamente, las afirmaciones de que los sistemas de IA tomarán mejores decisiones que las personas ya socavan la capacidad de acción y la confianza en sí mismo del ser humano, al tiempo que justifican el traspaso de decisiones críticas a las máquinas. Independientemente de si los sistemas de IA sustituyen a la inteligencia humana en el futuro, existe una dilución continua de la agencia humana y una abrogación de la responsabilidad y la autoridad a las máquinas. A corto plazo, esto sirve a los intereses de las empresas, que no quieren ser consideradas responsables de esta extralimitación de la ciencia y de las acciones de los sistemas que despliegan.


Anja Kaspersen es Senior Fellow en Carnegie Council of Ethics in International Affairs. Fue Directora de la Oficina de Asuntos de Desarme de las Naciones Unidas en Ginebra y Vicesecretaria General de la Conferencia de Desarme. Anteriormente, ocupó el cargo de responsable de compromiso estratégico y nuevas tecnologías en el Comité Internacional de la Cruz Roja (CICR).

Wendell Wallach es consultor, especialista en ética y académico del Centro Interdisciplinario de Bioética de la Universidad de Yale. También es académico del Lincoln Center for Applied Ethics, miembro del Institute for Ethics & Emerging Technology y asesor principal del Hastings Center.

También le puede interesar

APR 30, 2024 - Podcast

¿Es la IA sólo un artefacto? con Joanna Bryson

En este episodio, la presentadora Anja Kaspersen habla con Joanna Bryson, de la Hertie School, sobre la intersección entre las ciencias computacionales, cognitivas y del comportamiento y la IA.

Portada del libro A Dangerous Master. CRÉDITO: Sentient Publications.

18 DE ABRIL DE 2024 - Artículo

Un maestro peligroso: Bienvenido al mundo de las tecnologías emergentes

En este prólogo a la edición de bolsillo de su libro "Un maestro peligroso", Wendell Wallach analiza los avances y las cuestiones éticas de la IA y las tecnologías emergentes.

MAR 22, 2024 - Podcast

Dos cuestiones fundamentales en la gobernanza de la IA, con Elizabeth Seger

En este podcast "Inteligencia Artificial e Igualdad", Wendell Wallach, becario de Carnegie-Uehiro, y Elizabeth Seger, de Demos, debaten sobre cómo hacer que la IA generativa sea segura y democrática.