¿Cómo podemos garantizar que las tecnologías que se están desarrollando actualmente se utilicen para el bien común, en lugar de para el beneficio de unos pocos elegidos?
Cuando se preguntó a ChatGPT qué significan los avances en inteligencia artificial para la condición humana, respondió a nuestra pregunta que la IA "cambiará la forma en que las personas ven sus propias capacidades y habilidades y alterará su sentido de sí mismas". Podría "afectar al sentido de identidad y propósito de las personas". Podría "cambiar la forma en que las personas forman y mantienen relaciones e impactar en su sentido de comunidad y pertenencia". Los avances realizados en 2022 por la IA generativa, que incluye grandes modelos lingüísticos como ChatGPT y generadores de imágenes como Dall-E, son asombrosos. Cuando nos advierte elocuentemente sobre su propio impacto potencial en el sentido humano del yo, el propósito y la pertenencia, nos sentimos naturalmente impresionados. Pero los grandes modelos lingüísticos sólo pueden devolvernos lo que nosotros les hemos dado. Mediante técnicas de asociación estadística y aprendizaje por refuerzo, el algoritmo que hay detrás de ChatGPT puede encontrar y regurgitar palabras y conceptos perspicaces, pero en ningún sentido comprende la profundidad del significado que encierran esas palabras y conceptos.
Joseph Weizenbaum, considerado un pionero de las ciencias computacionales y creador en 1965 del programa informático de conversación ELIZA, que confundió a algunos usuarios haciéndoles creer que era humano, advirtió contra el "pensamiento mágico" sobre el potencial de la tecnología para mejorar la condición humana. Cuando tenemos expectativas poco realistas de que una tecnología resuelva problemas, podemos olvidarnos de pensar a fondo en sus limitaciones y posibles repercusiones negativas. Weizenbaum dijo más tarde que le preocupaba mucho que los usuarios de ELIZA no comprendieran del todo que estaban interactuando con un ordenador, o la tendencia inherente de los seres humanos a depender acríticamente de la tecnología. En su opinión, se trata de un fallo moral en una sociedad que se deja llevar por narrativas reduccionistas.
Hannah Arendt, la teórica política pionera, argumentó en su libro de 1958 La condición humana que ciertas experiencias -que ella denomina trabajo, labor y acción- dan a los seres humanos su sentido de identidad y dignidad. Socavar esa dignidad es un grave error. En el discurso actual sobre la IA percibimos una incapacidad generalizada para apreciar por qué es tan importante defender la dignidad humana. Se corre el riesgo de crear un mundo en el que el sentido y el valor se despojen de la vida humana.
En 2023, tendremos que celebrar un debate intelectualmente honesto sobre el valor y los límites de los sistemas de IA que se están incorporando rápidamente a nuestra vida cotidiana, y sobre cómo nos entendemos a nosotros mismos en interacción con ellos.
Las plataformas de las redes sociales son un ejemplo admonitorio. Aunque en un principio se alabaron por su potencial para unirnos, sus numerosos y perjudiciales inconvenientes se han arraigado tan profundamente en nuestra forma de actuar y en la de la sociedad en su conjunto, que resulta difícil pensar en formas de desarraigar el armamentismo de la verdad y la "otredad" que separa a las sociedades y a las personas. ¿Podrán las plataformas de las redes sociales cumplir alguna vez la promesa que un día hicieron o se tratará también de una ilusión?
Puede que dentro de unos años miremos atrás y nos lamentemos de que la IA generativa haya tenido en la educación el mismo impacto destructivo que las redes sociales han tenido en la verdad. Los estudiantes envían los resultados de ChatGPT sin editarlos, y los profesores se apresuran a idear tareas que ChatGPT no pueda eludir. Aunque estos modelos lingüísticos están muy lejos de cualquier forma de inteligencia general artificial con razonamiento de sentido común y capacidad para entender lo que hace, su importancia es innegable.
Pero los resultados de los modelos generativos de IA siguen estando muy lejos de representar la inteligencia colectiva, por no hablar de la sabiduría. Por lo tanto, en 2023 debemos tratar de desarrollar un nuevo paradigma que facilite la resolución colaborativa de problemas, integrando lo mejor de la inteligencia de las máquinas con la sabiduría humana. La estructura de incentivos para la investigación en IA y el despliegue de aplicaciones debe reorientarse desde una tecnología que sustituya el trabajo humano hacia aplicaciones que aumenten y amplíen la inteligencia colectiva y colaborativa. Para que esto se materialice tenemos que preguntarnos: ¿Qué aspecto tiene un restablecimiento completo y exhaustivo y cómo puede hacerse posible?
En los últimos años, el discurso ético sobre la IA ha girado en torno a dos cuestiones que ya hemos abordado. ¿Cómo cambiará la IA lo que significa ser humano? ¿Y cómo podemos gestionar las compensaciones entre las formas en que la IA mejora y empeora la condición humana?
Estas cuestiones se enredan con una tercera que no recibe la atención adecuada: ¿Quién gana y quién pierde cuando los sistemas construidos en torno a la IA se despliegan en todos los sectores de la economía? La revolución actual de los datos y los algoritmos está redistribuyendo el poder de una forma que no puede compararse con ningún cambio histórico anterior. Las estructuras de incentivos dirigen el despliegue de la IA hacia aplicaciones que exacerban las desigualdades estructurales: El objetivo suele ser sustituir el trabajo humano, en lugar de mejorar su bienestar.
En las revoluciones industriales anteriores, la maquinaria también sustituyó a la mano de obra humana, pero no todos los aumentos de productividad fueron a parar a manos de los propietarios del capital, sino que se compartieron con la mano de obra a través de mejores empleos y salarios. Hoy en día, por cada trabajo que se automatiza, todas las ganancias de productividad van a parar a los propietarios del capital. En otras palabras, a medida que los sistemas de inteligencia artificial reducen la gama de trabajos que sólo los humanos pueden hacer, las ganancias de productividad se acumulan sólo para los propietarios de los sistemas, los que tenemos acciones y otros instrumentos financieros. Y como todos sabemos bien, el desarrollo de la IA está controlado en gran medida por un oligopolio de líderes tecnológicos con un poder desmesurado a la hora de dictar su impacto social y nuestro futuro colectivo.
Además, cada vez se desarrollan más aplicaciones de IA para rastrear y manipular a los seres humanos, ya sea con fines comerciales, políticos o militares, por todos los medios disponibles, incluido el engaño. ¿Corremos el riesgo de convertirnos en los robots que la IA está diseñada para manipular?
Tenemos que empezar a pensar en la IA de forma global, no fragmentada. ¿Cómo podemos garantizar que las tecnologías que se están desarrollando actualmente se utilicen para el bien común, en lugar de para el beneficio de unos pocos elegidos? ¿Cómo podemos incentivar a las empresas para que desplieguen modelos generativos de IA de forma que doten a los empleados de habilidades más profundas y valiosas, en lugar de hacerlas superfluas? ¿Qué tipo de estructura fiscal desincentivará la sustitución de trabajadores humanos? ¿Qué políticas públicas e índices son necesarios para calcular y redistribuir los bienes y servicios entre los perjudicados por el desempleo tecnológico y el impacto medioambiental? ¿Qué límites habría que poner a la utilización de la IA para manipular el comportamiento humano?
Abordar cuestiones como éstas exige romper lo que el sociólogo Pierre Bourdieu y la antropóloga, periodista y escritora Gillian Tett denominan "silencios sociales", es decir, cuando un concepto se considera tabú o no se discute abiertamente. En la IA, los silencios sociales rodean los riesgos potenciales y los impactos negativos, desde el desplazamiento de puestos de trabajo hasta la erosión de la privacidad y la exclusión de diversas voces de los debates sobre el desarrollo y despliegue de los sistemas de IA. Prestar atención a la ética de la IA es un comienzo, pero hasta la fecha ha tenido un impacto limitado en el diseño de las nuevas herramientas que se están desarrollando y desplegando.
Cuando no se habla ampliamente de los riesgos, no se pueden tomar medidas para mitigarlos. Los silencios sociales pueden perpetuar las desigualdades, socavar la empatía entre distintos grupos y contribuir al conflicto social. Cuando los diversos puntos de vista no están representados en los debates sobre las tecnologías, éstas no pueden cuestionarse eficazmente antes -o incluso después- de que se integren en la sociedad.
La cuestión de los silencios sociales se refiere a una cuestión más profunda: ¿Quién decide de qué hablamos en relación con la IA y de qué no? El desarrollo de la inteligencia artificial no sólo tiene que ver con la tecnología en sí, sino también con las narrativas que utilizamos para hablar de ella. Las narrativas dominantes tienen sus raíces en el "cientificismo", una creencia según la cual los sistemas que presuponen la inteligencia humana pueden reducirse a la física y recrearse de abajo arriba. El cientificismo funciona como una teología que sesga la forma en que entendemos lo que las tecnologías pueden y no pueden hacer. O bien ignora el papel que el ser humano puede y debe desempeñar en la dirección de la evolución de la tecnología, o bien cede ese papel a quienes más pueden beneficiarse de una cultura dominada por las posibilidades que ofrece la IA.
La ya mencionada Hannah Arendt se refirió a la "banalidad del mal", es decir, al modo en que las personas normales pueden ser cómplices de actos ilícitos sin ser plenamente conscientes de las consecuencias de sus acciones.
Teniendo esto en cuenta, quienes trabajan en la investigación, el desarrollo y la implantación de sistemas de IA son ahora la primera línea de defensa contra aplicaciones de IA potencialmente perniciosas y peligrosas. Es posible que la mayoría de los legisladores ni siquiera entiendan sistemas como ChatGPT. Incluso si lo hicieran, su enfoque se vería comprometido por el imperativo político de defender innovaciones que prometen aumentar la productividad económica y la competitividad nacional.
Como resultado, los modelos generativos de IA, como el ChatGPT y muchos otros, carecen en la práctica de gobernanza, salvo por unas directrices, normas y códigos de prácticas de la industria seleccionados, aunque algo endebles. Y nos preocupan las "capas de invisibilidad de la gobernanza", por las que las directrices se redactan y aplican de forma que aparentemente abordan problemas éticos, pero en realidad los ofuscan y permiten que se ignoren o se pasen por alto.
Sin embargo, en 2022 nos ha complacido observar un creciente interés por la ética como forma de abordar los dilemas inherentes a la IA. Vemos, por ejemplo, el compromiso en conferencias de científicos e ingenieros que hace diez años se habrían mostrado desdeñosos. Se aprecia cada vez más lo que significa integrar de forma práctica la ética en las aplicaciones de la IA. Cada vez somos más conscientes de que todo el modelo vigente está torcido y nos conduce a un futuro que distorsiona los valores fundamentales y socava la dignidad humana.
¡Es necesario un reset!
La ética es un lenguaje que puede facilitar este reajuste. La ética nos ayuda a hacer frente a la incertidumbre cuando, por ejemplo, no disponemos de toda la información necesaria para orientar nuestras decisiones o no podemos predecir las consecuencias de los distintos cursos de acción. Nos ayuda a identificar las buenas preguntas que debemos hacernos para seguir siendo humildes y superar las lagunas en nuestra comprensión, los puntos de tensión existentes y emergentes y las compensaciones inherentes a las distintas opciones y elecciones.
Tal vez se nos pueda criticar por hacer hincapié en las repercusiones sociales no deseadas de la IA. Sin duda, los múltiples beneficios de la IA son evidentes. Pero, ¿justifican las ventajas de los sistemas de IA la enorme y creciente variedad de desventajas?
Robert Oppenheimer, el jefe del Proyecto Manhattan que desarrolló las bombas atómicas que pusieron fin a la campaña de la Segunda Guerra Mundial contra los japoneses, dijo una vez: "No es posible ser científico a menos que creas que el conocimiento del mundo, y el poder que éste da, es algo que tiene un valor intrínseco para la humanidad, y que lo utilices para ayudar a la difusión del conocimiento, y estés dispuesto a asumir las consecuencias".
Por supuesto, las repercusiones negativas pueden desactivarse, pero sólo si se les presta la atención adecuada y se tiene la voluntad de hacerlo. Decidamos lo que decidamos hacer a continuación, es imperativo que tanto los promotores como los responsables públicos estén "dispuestos a asumir las consecuencias". En palabras del neurocientífico y escritor Anil Seth: "Debería preocuparnos no sólo el poder que las nuevas formas de inteligencia artificial están adquiriendo sobre nosotros, sino también si debemos adoptar una postura ética ante ellas y cuándo".
La IA tiene el potencial de unirnos, abordar los retos medioambientales, mejorar la salud pública y aumentar la eficiencia y la productividad industrial. Sin embargo, también se utiliza cada vez más para cimentar y mantener divisiones, y para exacerbar las formas existentes de desigualdad. Dar prioridad a la transparencia y la rendición de cuentas es insuficiente. Es necesario adoptar una postura ética.
Aunque estemos maravillados con los avances que aporta la IA, para que se materialice realmente una gobernanza tecnológica eficaz es necesario un reajuste sistémico dirigido a mejorar la condición humana. La IA y el sistema tecnosocial que la sustenta no deben oprimirnos, explotarnos, degradarnos ni manipularnos a nosotros ni al medio ambiente. No se trata simplemente de un reto para la gobernanza, sino del reconocimiento de los derechos sociales y políticos, así como de la dignidad de toda vida humana.
Anja Kaspersen es Senior Fellow y Wendell Wallach es Carnegie-Uehiro Fellow en Carnegie Council for Ethics in International Affairs, donde codirigen la Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI).
Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este artículo son las de los ponentes y no reflejan necesariamente la posición de Carnegie Council.