Los últimos acontecimientos han puesto aún más en juego la ética de los sistemas y aplicaciones de IA. El alcance de los sistemas de IA en todos los aspectos de la vida cotidiana se aceleró drásticamente debido a COVID-19, que trasladó más actividades sociales y económicas al mundo digital. Las principales empresas tecnológicas tienen ahora el control efectivo de muchos servicios públicos e infraestructuras digitales a través de sistemas de contratación o externalización. Por ejemplo, los gobiernos y los proveedores de atención sanitaria han desplegado sistemas de IA y tecnologías algorítmicas a una escala sin precedentes en aplicaciones como el seguimiento de proximidad, el rastreo y las respuestas bioinformáticas, desencadenando un nuevo sector económico en el flujo de biodatos.
Resulta extremadamente preocupante el hecho de que las personas más vulnerables a las repercusiones negativas de esta rápida expansión de los sistemas de IA sean a menudo las que menos posibilidades tienen de participar en el debate sobre estos sistemas, ya sea porque no tienen acceso digital o lo tienen restringido, o porque su falta de alfabetización digital las convierte en presa fácil para la explotación.
Estos grupos vulnerables a menudo están incluidos teóricamente en los debates, pero no están capacitados para participar de forma significativa en la toma de decisiones. Esta falta de equidad, junto con los prejuicios humanos, corre el riesgo de amplificar la alteridad a través de la negligencia, la exclusión, la desinformación y la desinformación.
La sociedad debería estar profundamente preocupada por el hecho de que no se están haciendo suficientes progresos sustantivos para desarrollar y ampliar la supervisión legal y ética, al tiempo que se abordan las desigualdades existentes.
Entonces, ¿por qué no se ha hecho más? Hay tres cuestiones principales en juego:
En primer lugar, muchos de los diálogos existentes en torno a la ética de la IA y la gobernanza son demasiado estrechos y no logran comprender las sutilezas y los ciclos de vida de los sistemas de IA y sus impactos.
A menudo, estos esfuerzos se centran únicamente en las etapas de desarrollo y despliegue del ciclo de vida de la tecnología, cuando muchos de los problemas se producen durante las primeras etapas de conceptualización, investigación y diseño. O no logran comprender cuándo y si un sistema de IA funciona al nivel de madurez necesario para evitar fallos en sistemas adaptativos complejos.
O se centran en algunos aspectos de la ética, mientras ignoran otros aspectos que son más fundamentales y desafiantes. Este es el problema conocido como "lavado de ética": crear una sensación superficialmente tranquilizadora pero ilusoria de que las cuestiones éticas se están abordando adecuadamente, para justificar que se siga adelante con sistemas que acaban profundizando los patrones actuales.
Seamos claros: toda elección conlleva compromisos. "Hablar de ética suele consistir en subrayar las ventajas y desventajas que conllevan las distintas formas de actuar. Una vez que se ha elegido un camino, la supervisión ética exhaustiva también consiste en abordar las consideraciones que no tienen cabida en las opciones seleccionadas, lo cual es esencial para cualquier esfuerzo de verificación futuro. Esta parte vital del proceso es a menudo un escollo para los que tratan de abordar la ética de la IA.
El segundo gran problema es que hasta la fecha todo lo que se habla de ética es simplemente eso: palabrería.
Aún no hemos visto que estos debates se traduzcan en cambios significativos en la gestión de las formas en que los sistemas de IA se están incrustando en diversos aspectos de nuestras vidas.
A pesar de todos los intentos de involucrar a una amplia gama de partes interesadas, las normas siguen siendo poco claras o inexistentes, los intereses comerciales y geopolíticos son divergentes, la innovación sigue ocurriendo en espacios pequeños, secretos y privados, y las decisiones se concentran en unas pocas manos, mientras que las desigualdades crecen a un ritmo alarmante.
Las principales áreas de preocupación incluyen el poder de los sistemas de IA para permitir la vigilancia, la contaminación del discurso público por los bots de las redes sociales y el sesgo algorítmico : en una variedad de áreas sensibles, desde la atención sanitaria hasta el empleo y la justicia, varios actores están desplegando sistemas de IA que pueden ser brillantes en la identificación de correlaciones, pero no entienden la causalidad o las consecuencias.
Exagerar las capacidades de los sistemas de IA es un problema bien conocido en la investigación de la IA y el aprendizaje automático. Extrapolar y memorizar patrones en los datos para abordar tareas muy específicas dista mucho de comprender el problema real que se pretende resolver. Con demasiada frecuencia, los encargados de integrar y desplegar los sistemas de IA no entienden cómo funcionan, ni qué potencial pueden tener para perpetuar las desigualdades existentes y crear otras nuevas.
Los responsables de la toma de decisiones también suelen comprender mal los métodos científicos y la complejidad que subyace en el qué, el cómo y el por qué de la creación de un sistema de IA. A menudo, adoptan un enfoque miope, de optimización de soluciones tecnológicas para aplicar los sistemas de IA a los retos globales, industriales y sociales, cegados por lo que se ofrece en lugar de por lo que requiere el problema. También hay cuestiones sin abordar en torno a las posibles consecuencias derivadas, como el impacto medioambiental de los recursos necesarios para construir, entrenar y hacer funcionar un sistema de IA, la interoperabilidad y la viabilidad de interrumpir de forma segura un sistema de IA.
Un tercer problema en juego es que los debates sobre IA y ética siguen confinados en gran medida a la torre de marfil.
Existe una necesidad urgente de un discurso público más informado y de una inversión seria en educación cívica en torno al impacto social de la revolución biodigital. Esto podría ayudar a abordar los dos primeros problemas, pero la mayor parte de lo que el público en general percibe actualmente sobre la IA proviene de tropos de ciencia ficción y películas taquilleras.
Algunos ejemplos de sesgo algorítmico han penetrado en el discurso público. Pero las investigaciones más llamativas sobre la IA y la ética tienden a centrarse en los riesgos existenciales a largo plazo. Es necesario dedicar más esfuerzos a comunicar al público que, más allá de los riesgos hipotéticos de la IA futura, existen riesgos reales e inminentes derivados de por qué y cómo integramos los sistemas de IA que actualmente conforman la vida cotidiana de todos.
Las personas no técnicas asumen erróneamente que los sistemas de IA son apolíticos por naturaleza, sin comprender que se producirán desigualdades estructurales, en particular cuando dichos sistemas se enfrenten a situaciones fuera del contexto en el que fueron creados y entrenados. Conceptos como ética, igualdad y gobernanza pueden considerarse elevados y abstractos. Existe una necesidad crítica de traducir estos conceptos en explicaciones concretas y relacionables de cómo los sistemas de IA afectan a las personas hoy en día.
Parte del reto de ampliar el discurso público es que todavía no existe una metodología acordada o una lengua vernácula compartida para debatir cómo se integran o aplican los sistemas de IA o métodos acordados para evaluar, estimar y verificar los efectos de los sistemas de IA en las personas, la sociedad o la estabilidad internacional. El lenguaje está arraigado en la cultura -lo nuevo sólo se entiende por analogía con lo familiar- y encontrar las metáforas o herramientas adecuadas es especialmente difícil cuando la IA es tan diferente de todo lo anterior.
Entonces, ¿qué es lo que no estamos haciendo bien, colectivamente, en nuestro afán por promover usos responsables de los sistemas de IA y las tecnologías algorítmicas? ¿Cómo y qué se necesita para ampliar los debates en torno a la ética y la IA, y acelerar la traducción de los principios a la práctica hacia una mayor precisión, fiabilidad y validez?
Se ha convertido en un tópico decir que el mundo se encuentra en un punto de inflexión en la historia. Pero como personas estrechamente implicadas en el discurso sobre la IA y la ética, sabemos que es cierto y que tenemos muy poca comprensión de en qué nos estamos metiendo, o sabiduría para navegar por las incertidumbres que se avecinan.
Las transformaciones tecnológicas a gran escala siempre han dado lugar a profundos cambios sociales, económicos y políticos, y siempre ha llevado tiempo averiguar la mejor manera de responder para proteger el bienestar de las personas. Tal es el potencial transformador de la IA; sin embargo, no tenemos mucho tiempo para hacerlo bien. Además, creer que los sistemas de IA incompetentes e inmaduros una vez desplegados pueden remediarse o suponer que existe un antídoto, especialmente uno compatible con la ciberseguridad, es una ilusión errónea y potencialmente peligrosa.
Debemos trabajar para aprovechar los conocimientos y las redes existentes a fin de acelerar y ampliar las iniciativas de IA centradas en la ética para fortalecer la inteligencia antropológica y científica, establecer un nuevo diálogo, empoderar a todas las partes interesadas pertinentes para que se comprometan de manera significativa, desentrañar formas prácticas y participativas para garantizar la transparencia, atribuir responsabilidades y evitar que la IA impulse la desigualdad de manera que pueda crear graves daños sociales.
Suscríbase al boletín Carnegie Ethics
Recibir futuros artículos y podcasts de la AIEI
Anja Kaspersen y Wendell Wallach son altos cargos de Carnegie Council for Ethics in International Affairs. Junto con un consejo asesor internacional, dirigen la Iniciativa Carnegie sobre Inteligencia Artificial e Igualdad (AIEI), que trata de comprender las innumerables formas en que la IA repercute en la igualdad y, en respuesta, proponer posibles mecanismos para garantizar los beneficios de la IA para todas las personas.