El largoplacismo: Un caballo de Troya ético

29 de septiembre de 2022

Recientemente el filósofo William MacAskill, con su libro Lo que debemos al futuroha popularizado la idea de que el destino de la humanidad debe ser nuestra principal prioridad moral. Su propuesta principal es que los 8.000 millones de seres humanos actuales son mucho más importantes que los cientos de miles de millones de seres humanos que podrían vivir en las generaciones futuras si evitamos la extinción de la humanidad a corto plazo.

El argumento de MacAskill se conoce por el eslogan "longtermism" (a menudo escrito como largoplacismo) y ya ha sido duramente criticado. Por ejemplo, la columnista Christine Emba ha escrito en The Washington Post: "Es convincente a primera vista, pero como sistema de valores, sus implicaciones prácticas son preocupantes". En la práctica, explica, implica ver "la prevención de amenazas existenciales a la humanidad como la causa filantrópica más valiosa", lo que significa que deberíamos invertir mucho más en abordar los riesgos que amenazan la propia existencia de la humanidad a largo plazo.

Como dice Emba, puede parecer imposible estar en desacuerdo con esto. Pensemos en el cambio climático: La mayoría de nosotros estaría de acuerdo en que durante décadas hemos subestimado la amenaza de un colapso medioambiental y que, en retrospectiva, deberíamos haber estado más dispuestos a sacrificar parte de nuestro nivel de vida para acelerar la transición hacia el abandono de la quema de combustibles fósiles.

La dificultad surge cuando se plantean compensaciones. ¿Exactamente cuánto debe sacrificarse hoy para aumentar las posibilidades de que las generaciones futuras sobrevivan a diversas amenazas percibidas? ¿Hasta qué punto una amenaza futura puede justificar los sacrificios actuales? ¿Quién debe sacrificarse y cuándo? ¿Y quién decide cuándo y quién se sacrifica, y qué tendrá que sacrificar?

Por poner un ejemplo extremo, consideremos una hipotética propuesta de dedicar una cuarta parte de todos los recursos humanos a minimizar el riesgo de que un gran asteroide o cometa impacte contra la Tierra. Imaginemos que los gobiernos obligaran a las universidades a centrarse principalmente en la tecnología de seguimiento de asteroides y requisaran fábricas para fabricar piezas de misiles que desvíen la trayectoria de los asteroides que se aproximan.

Una propuesta así sería absurda, porque es improbable que un asteroide amenace a la humanidad en un futuro próximo, quizá hasta dentro de millones de años. Pero la amenaza de que pueda ocurrir a corto plazo es suficientemente realista como para que dediquemos una parte de los recursos humanos a afrontarla. La taquillera película de Hollywood No mires hacia arriba pretendía ser una alegoría del cambio climático, pero también explora de forma divertida lo mal preparada que podría estar la humanidad si la amenaza de los asteroides se materializara de repente.

¿Cuánto tiempo y capital deben dedicarse exactamente a la defensa contra asteroides o cometas? Esa pregunta no tiene una respuesta obvia, y los impactos de asteroides son sólo una de las muchas amenazas especulativas a largo plazo, un porcentaje significativo de las cuales están relacionadas con las tecnologías humanas. Ya hemos desarrollado una tecnología que puede hacer inhabitable el planeta, las armas nucleares, e invertimos mucho tiempo y capital político en asegurarnos de que nunca se utilice.

Ahora estamos trabajando en otras tecnologías con un potencial destructivo comparable. Por ejemplo, ¿cuánto deberíamos invertir para hacer frente a los riesgos de pandemias causadas por patógenos creados por el hombre? ¿O sistemas impulsados por la inteligencia artificial que llegan a ser más inteligentes que los humanos en la realización de tareas similares a las humanas, pero insuficientemente alineados con los valores humanos fundamentales?

La ciencia ficción es útil para identificar las amenazas potenciales, pero sólo puede llevarnos hasta cierto punto a la hora de considerar las compensaciones en tiempo real. Tradicionalmente, los escritores de ciencia ficción han querido advertirnos contra la arrogancia de optar por tecnologías sin comprender sus efectos indeseables o sus usos nefastos. Seguimos este consejo cuando, por ejemplo, regulamos qué tipo de investigación en edición genética puede llevarse a cabo para evitar la creación de nuevos y letales patógenos o armas biológicas.

Pero éste es sólo un enfoque. Otro es la investigación deliberada de patógenos letales en biolaboratorios, en un intento de preparar y desarrollar mejor tratamientos para futuras pandemias imaginables. Qué enfoque parece mejor dependerá, en parte, de si pensamos que el tipo de investigación que podría crear patógenos mortales también ofrece posibilidades de conocimientos que podrían conducir a otros avances.

El avance de la tecnología de edición genética podría permitir la ingeniería de futuras generaciones de seres humanos cuyas capacidades superen a las de esta generación. Si concedemos una gran importancia moral a estas generaciones futuras, podríamos sentirnos obligados a desarrollar la tecnología haciendo todo lo posible por mitigar los riesgos. Por el contrario, si damos prioridad a minimizar los riesgos para el bienestar de las personas que viven hoy en día, es posible que prefiramos limitar más estrictamente lo que se puede investigar.

Crear nuevos patógenos para estudiar cómo tratarlos plantea el riesgo de que el patógeno pueda "escapar" de las instalaciones del laboratorio biológico antes de que se desarrolle un tratamiento. La experta en bioseguridad Filippa Lentzos señala que desconocemos la magnitud del riesgo que corremos: "En la actualidad, no existe ningún requisito que obligue a informar sobre estas instalaciones a nivel internacional, y ninguna entidad internacional tiene el mandato de recabar información sobre las medidas de seguridad y protección que aplican, ni de supervisarlas a nivel mundial."

Pero hay otro problema más fundamental: Los recursos que dedicamos a la preparación para futuras pandemias no pueden gastarse también en el tratamiento de las enfermedades prevenibles y crónicas de hoy. Siempre existirá una tensión inherente entre las ganancias seguras de mejorar la vida de las personas que viven ahora y las ganancias inciertas de maximizar los beneficios especulativos y minimizar los riesgos conjeturales a los que se enfrentan las posibles generaciones futuras.

No nos cabe duda de que filósofos como William MacAskill tienen buenas intenciones. Muchos de nuestros colegas y amigos comparten sus preocupaciones, y algunos son voces destacadas sobre la necesidad de dar prioridad a los riesgos existenciales a largo plazo. Sin embargo, nos preocupa que estas preocupaciones legítimas puedan distorsionarse y confundirse fácilmente con deseos personales, objetivos, convicciones mesiánicas y la promoción de agendas políticas e intereses corporativos profundamente arraigados.

Para saber por qué, imagine que es usted un multimillonario que ha invertido en el desarrollo de una tecnología que podría causar diversos daños a corto plazo, e incluso acabar con la humanidad a largo plazo. Le preocupa que el público y los gobiernos se centren en los daños a corto plazo y perjudiquen sus beneficios regulando la forma en que puede desarrollarse y utilizarse la tecnología.

Para que esto sea menos probable, podría decidir invertir en potenciar el perfil de los pensadores que se centran, en cambio, en los riesgos existenciales a largo plazo, al tiempo que hacen afirmaciones hiperbólicas sobre los beneficios a largo plazo. Esta estrategia es especialmente evidente en los debates sobre los riesgos y beneficios de las inteligencias artificiales. Los desarrolladores y los inversores esperan que, al persuadir al público de que se está abordando la amenaza realmente "grande", se muestren optimistas ante los problemas y deficiencias más inmediatos. Esperan crear la impresión de que merece la pena soportar los daños que se están produciendo hoy porque se verán superados con creces por los beneficios prometidos para mañana, cuando la tecnología madure. Esta estrategia oculta la posibilidad de que los riesgos a largo plazo superen con creces los beneficios a corto plazo de aplicaciones concretas.

No es casualidad que los institutos que trabajan, por ejemplo, para anticipar los riesgos existenciales de la inteligencia artificial general obtengan gran parte de su financiación de los mismos multimillonarios que persiguen con entusiasmo el desarrollo de sistemas y aplicaciones de IA de vanguardia. Mientras tanto, es mucho más difícil -si no imposible- conseguir financiación para la investigación de esas aplicaciones punteras que se están aplicando hoy en día de forma que aumentan los beneficios pero perjudican a la sociedad.

Así pues, la bienintencionada filosofía del largo plazo corre el riesgo de convertirse en un caballo de Troya para los intereses creados de unos pocos elegidos. Por eso nos sorprendió ver que esta postura filosófica recorre como un hilo rojo"Nuestra Agenda Común", el nuevo y trascendental manifiesto del Secretario General de las Naciones Unidas, António Guterres.

Guterres escribe: "[A]hora es el momento de pensar a largo plazo [...] nuestra política dominante y nuestros incentivos económicos siguen pesando mucho a favor del corto plazo y del statu quo, priorizando las ganancias inmediatas a expensas del bienestar humano y planetario a más largo plazo". Señala que las generaciones actuales y futuras tendrán que vivir con las consecuencias de nuestra acción o inacción y postula que "la humanidad se enfrenta a una serie de retos a largo plazo que evolucionan a lo largo de múltiples periodos de vida humana".

A primera vista, como hemos visto, sentimientos como estos suenan como el tipo de cosa con la que nadie podría estar en desacuerdo. Sin embargo, creemos que esta retórica es perjudicial. Corre el riesgo de dar crédito a agendas que sirven a los intereses a corto plazo de las élites políticas, económicas y tecnológicas al impulsar el desarrollo de tecnologías que han demostrado claramente el potencial de exacerbar las desigualdades y perjudicar el interés público en general.

No estamos diciendo que esta sea la intención. Pero nos preocupa lo que las palabras, que suenan inofensivas, podrían justificar, especialmente cuando Guterres propone establecer un "Laboratorio de Futuros" para "apoyar a los Estados, las autoridades subnacionales y otros a crear capacidad e intercambiar buenas prácticas para mejorar la visión a largo plazo, la acción prospectiva y la adaptabilidad". (énfasis añadido)

Si la idea básica del largoplacismo -dar a las generaciones futuras el mismo peso moral que a la nuestra- parece superficialmente incontrovertible, hay que verla en un contexto filosófico a más largo plazo. El largoplacismo es una forma de utilitarismo o consecuencialismo, la escuela de pensamiento desarrollada originalmente por Jeremy Bentham y John Stuart Mill.

La premisa utilitarista de que debemos hacer lo que sea más bueno para el mayor número de personas también parece de sentido común a primera vista, pero tiene muchos problemas bien entendidos. Los filósofos de las escuelas opuestas de ética deontológica, que creen que las normas y los deberes morales pueden primar sobre las consideraciones consecuencialistas, y los teóricos de la virtud, que afirman que la ética trata principalmente de desarrollar el carácter, han señalado estos problemas durante cientos de años. En otras palabras, el largoplacismo puede considerarse como una posición particular en el antiguo debate sobre la ética intergeneracional.

El impulso para popularizar el largoplacismo no es un intento de resolver estos antiguos debates intelectuales, sino de darles la vuelta. A través de eslóganes atractivos, intenta establecer una toma de decisiones moral consecuencialista que priorice el bienestar de las generaciones futuras como la teoría ética dominante de nuestro tiempo.

El largoplacismo surgió del movimiento del altruismo efectivo, inspirado por el filósofo utilitarista Peter Singer. Sin embargo, representa un cambio fundamental respecto al enfoque original de Singer, centrado en las causas humanitarias. Singer sostenía que es inmoral que gastemos en lujos cuando ese dinero podría invertirse en causas humanitarias para aliviar el sufrimiento de los desfavorecidos.

Por analogía, la lógica a largo plazo sugiere que es inmoral que gastemos en aliviar el sufrimiento aquí y ahora cuando ese dinero podría invertirse en moldear el futuro. Disputar esta lógica suele denominarse "sesgo del presente".

Pero ¿cuánto debemos sacrificar hoy por la vida de hipotéticos seres futuros que quizá ni siquiera vivan físicamente, sino en el metaverso? Como dice el erudito Emile Torres dice"Los críticos podrían alegar que centrarse en las personas digitales en un futuro lejano sólo puede desviar la atención de los problemas del mundo real que afectan a los seres humanos de verdad". La principal dificultad del largoplacismo es que estas implicaciones éticamente dudosas son fáciles de ocultar tras el escudo de sentimientos admirables.

Cuando se le preguntó por su participación en la redacción de "Nuestro Programa Común", por ejemplo, William MacAskill respondió con puntos con los que nadie podría estar en desacuerdo, como que "muchos de los retos que parecen más importantes desde la perspectiva de dirigir positivamente el futuro implican bienes públicos mundiales. "

MacAskill también sugiere: "Quizá incluso haya ciertas áreas de la IA que queramos regular a escala global o ralentizar, al menos a escala global, porque pensamos que plantean más riesgos y peligros y son diferentes de la mayoría de los usos de la IA que serán extremadamente beneficiosos. Y la ONU tiene ese poder de convocatoria, tiene ese poder blando, por lo que potencialmente podría ayudar".

La gobernanza internacional de la IA es un objetivo compartido por muchos, entre ellos Carnegie Council for Ethics in International Affairs. Pero, como suele decirse, el diablo está en los detalles. ¿Cómo distinguir entre las áreas de la IA que plantean riesgos y peligros de "la mayoría de los usos de la IA" que, según MacAskill, serían extremadamente beneficiosos? Los sentimientos a largo plazo podrían desviar la atención de los argumentos a favor de una gobernanza a corto plazo de las nuevas aplicaciones.

"Nuestra Agenda Común" está a debate, y culminará con una "Cumbre del Futuro" en 2023. Evidentemente, el objetivo de evitar que las tecnologías destruyan la humanidad es bueno. Puede que necesite más financiación y atención. Pero, ¿de qué otros bienes sociales y derechos humanos fundamentales deberíamos desviar la financiación y la atención?

Más que eslóganes, necesitamos una reflexión profunda sobre la tensión y las compensaciones entre los objetivos a largo plazo y los más inmediatos. Pero si hace falta un eslogan para resumir nuestro malestar con "Nuestro Programa Común" y su implícita aceptación del largo plazo, no hay más que buscar en el título de otro informe de la ONU informe de la ONU de 2019: "El futuro es ahora".

De hecho, desde nuestra perspectiva, los actos de bondad y el cuidado de los que viven hoy son requisitos previos para cualquier futuro viable.

Anja Kaspersen es investigadora principal y Wendell Wallach es investigador Carnegie-Uehiro en Carnegie Council for Ethics in International Affairs, donde codirigen la Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI). Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI).

También le puede interesar

Portada del libro A Dangerous Master. CRÉDITO: Sentient Publications.

18 DE ABRIL DE 2024 - Artículo

Un maestro peligroso: Bienvenido al mundo de las tecnologías emergentes

En este prólogo a la edición de bolsillo de su libro "Un maestro peligroso", Wendell Wallach analiza los avances y las cuestiones éticas de la IA y las tecnologías emergentes.

MAR 22, 2024 - Podcast

Dos cuestiones fundamentales en la gobernanza de la IA, con Elizabeth Seger

En este podcast "Inteligencia Artificial e Igualdad", Wendell Wallach, becario de Carnegie-Uehiro, y Elizabeth Seger, de Demos, debaten sobre cómo hacer que la IA generativa sea segura y democrática.

23 DE FEBRERO DE 2024 - Artículo

¿Qué queremos decir cuando hablamos de "democratización de la IA"?

Elizabeth Seger, directora del centro de investigación sobre política digital CASM de Demos, analiza las cuatro acepciones del término.