¿Le interesa realmente la ética de la IA?

19 de octubre de 2021

Los principios éticos son amplios y generales, mientras que cada aplicación individual de la inteligencia artificial (IA) es concreta y específica. Cómo hacer operativos los principios éticos en la práctica es un reto para cualquiera que participe en el desarrollo de la IA.

Antes de esbozar mi planteamiento, permítame hacerle una pregunta sincera: ¿Por qué le interesa? ¿Está decidido a mejorar el mundo? ¿O simplemente quiere mejorar en el uso del lenguaje ético para justificar las cosas que hace de todos modos?

En Carnegie Council's Artificial Intelligence & Equality Initiative (AIEI), queremos reinventar la forma en que la gente de la IA piensa sobre la ética. El problema no es que no se hable de ética: se habla. El problema es que mucha gente de la tecnología se siente demasiado cómoda hablando de ética. Piensan que se trata simplemente de hacer política por otros medios.

A primera vista, hay similitudes. Las críticas éticas a la industria pueden parecerse mucho a las críticas políticas. Ambas pueden dar lugar a restricciones y controles. Pero ser bueno en política significa algo muy distinto de ser bueno en ética.

Hay un cuento con moraleja para la IA en el campo de la ética empresarial. Hace varias décadas, cuando las escuelas de negocios empezaron a enseñar ética empresarial, esperaban preparar a los estudiantes para hacer negocios de forma más ética. En la práctica, ahora los estudiantes salen de estos cursos con las herramientas necesarias para defenderse de los críticos argumentando de forma convincente que su empresa es ética, aunque no lo sea. En otras palabras, son expertos en política, no en ética.

¿Qué significa ser un experto en ética? Pienso en la ética como una forma de abordar el reto de navegar por la incertidumbre. Cuando no se tiene una visión completa, los valores éticos pueden guiar la forma de actuar. Los valores son la forma de calibrar nuestras ambiciones y nuestras incertidumbres. El campo de la IA está lleno de incertidumbres, desde la falta de transparencia en la forma en que un sistema inteligente procesa los datos hasta la incapacidad de predecir cómo evolucionará una aplicación, por ejemplo una plataforma de medios sociales, y cómo repercutirá en la sociedad en la que se ha implantado.

Todas las opciones tienen ventajas y desventajas. Las personas que operacionalizan bien la ética son sensibles a cuáles son esas compensaciones. Perciben las tensiones que existen bajo la superficie. Anticipan los efectos potencialmente perjudiciales de las decisiones que pueden tomar y buscan formas de mitigarlos.

Al principio de este artículo, le hice una pregunta sincera sobre sus motivaciones para leerlo. Ahora déjeme hacerle otra: ¿Cómo le hizo sentir esa pregunta? Tal vez se mostró desdeñoso: "Bueno, claro, quiero mejorar el mundo". Tal vez te detuviste un momento a mirar dentro de ti: "Espero no racionalizar lo que implica mi trabajo. ¿Es posible que lo haga?".

Si sintió curiosidad instintiva por sus propias motivaciones, diría que va por buen camino para hacer operativa la ética en su trabajo. Si te pusiste irritablemente a la defensiva, quizá no lo estés.

Seamos o no conscientes de ello, siempre existe una tensión entre dónde estamos y dónde queremos estar. Para dedicarse plenamente a cualquier trabajo, se necesita o bien fuerza de voluntad para suprimir la tensión, o bien sentirse realmente a gusto con lo que se está haciendo. Intento abordar cada dilema ético detectando qué opción conduce a un aquietamiento natural de la mente. ¿Cómo podemos responder al reto que se nos plantea de modo que no necesitemos pensar en él ni prestarle más atención que la de resolver los detalles?

Eso requiere práctica y disciplina, pero como primer paso, podemos intentar ser humildes. Debemos comprender hasta qué punto estamos tan convencidos de lo que hacemos que bloqueamos otros puntos de vista que podrían enriquecer nuestra visión del mundo. Es la diferencia entre una empresa que invita y escucha de verdad a las voces críticas y otra que nombra un consejo asesor de ética que marca las casillas -género y geografía- pero nunca plantea preguntas difíciles.

Los académicos le dirán que, en términos generales, hay tres escuelas de ética. La deontología dice que hacer lo correcto consiste en seguir unas normas. El utilitarismo considera que lo correcto es hacer el mayor bien posible. Y está la ética de la virtud, que sostiene que si te centras en cultivar el carácter, entonces harás lo correcto.

La ética de la virtud se ha vuelto a poner de moda en la tecnología. Como una visión liberal internacionalista del mundo suele considerarse virtuosa, la tecnología desarrollada por empresas con valores liberales internacionalistas seguramente mejorará el mundo.

Por desgracia, no es cierto. Estamos desarrollando la IA de formas que a menudo empeoran el mundo: desestabilizando las democracias, aumentando la desigualdad o degradando el medio ambiente. Muchos en la industria se han quedado atrapados en el espíritu imperante, racionalizando sus dudas.

Para integrar eficazmente la ética, las virtudes que debemos cultivar son otras: la conciencia de nuestra resistencia personal a abrirnos a los demás, y el valor de invitar perspectivas diversas a los procesos de toma de decisiones colectivas.


Para más información sobre IA e igualdad y la historia personal de Wendell Wallach, consulte su podcast de mayo de 2021 con Anja Kaspersen, "Creative Reflections on the History & Role of AI Ethics".

Wendell Wallach es becario Carnegie-Uehiro en Carnegie Council para la Ética en los Asuntos Internacionales. Junto con Anja Kaspersen, codirige la Iniciativa Carnegie sobre Inteligencia Artificial e Igualdad (AIEI), que trata de entender las innumerables formas en que la IA afecta a la igualdad y, en respuesta, proponer posibles mecanismos para garantizar los beneficios de la IA para todas las personas.

También le puede interesar

31 JULIO 2024 - Podcast

Responsible AI & the Ethical Trade-offs of Large Models, con Sara Hooker

En este episodio, Anja Kaspersen, Senior Fellow, habla con Sara Hooker, de Cohere for AI, sobre el diseño de modelos, el sesgo de los modelos y la representación de datos.

24 DE JULIO DE 2024 - Podcast

IA y guerra: A New Era for Arms Control & Deterrence, con Paul Scharre

La Senior Fellow Anja Kaspersen habla con Paul Scharre, del Center for a New American Security, sobre las cuestiones emergentes en la intersección entre tecnología y guerra.

2 DE JULIO DE 2024 Podcast

Cibernética, vigilancia digital y el papel de los sindicatos en la gobernanza tecnológica, con Elisabet Haugsbø

Anja Kaspersen, investigadora sénior, habla con Elisabet Haugsbø, presidenta del sindicato tecnológico Tekna, sobre su trayectoria en ingeniería, la resiliencia en la era de la IA y mucho más.