La posición emergente es que los gobiernos se sitúen en la cúspide del régimen de gobernanza en lo que respecta a la IA. Así lo indican iniciativas como la recientemente anunciada Ley de Inteligencia Artificial propuesta por la Comisión Europea (CE). Sin embargo, un marco verdaderamente sostenible en la era digital requiere un enfoque que incluya a todas las partes interesadas en las cuestiones de gobernanza y política de la IA. Es de vital importancia dar voz a los más vulnerables en este proceso. También es fundamental que se alineen los intereses de las "grandes tecnológicas" con los intereses humanos, sobre todo para garantizar que la IA no socave los derechos humanos. De este modo se conseguiría una sociedad mejor, basada en la confianza y receptiva a la innovación, que favorezca el bienestar tanto de las empresas tecnológicas como de la sociedad a la que sirven. A continuación se ofrecen tres recomendaciones para avanzar en este sentido.
En primer lugar, para alinear los intereses de las empresas tecnológicas y los deseos de una sociedad justa y equitativa, debemos utilizar el principio fundacional de la oferta y la demanda. Habríamos visto un ejemplo tras el asesinato de George Floyd, cuando la "cultura de la cancelación" del siglo XXI arrasó con las demandas de que se valoraran los derechos humanos de las personas negras y morenas y con la amenaza de severos castigos económicos si no se atendían tales demandas. Las grandes empresas se dieron cuenta de lo arriesgado que era no responder a las cuestiones de justicia social y a la ineficacia de las políticas públicas. Esa alineación del despertar de la gente a la privación de sus libertades y el coste económico de la injusticia dio lugar a un rápido suministro de atención corporativa a la gobernanza a través de las lentes de la rendición de cuentas, la autoridad receptiva y la inclusividad. Aún es pronto, pero existe la sensación de que estos cambios serán una pieza central permanente de la estrategia corporativa, así como del futuro activismo social. Por lo tanto, es imperativo que la gente sea capaz de reconocer cómo sus derechos humanos, como el de la privacidad, por ejemplo, están siendo amenazados más que nunca en el espacio digital y que respondan con un nivel de indignación similar al que lo harían ante violaciones de la privacidad como los "mirones" y el acoso en el mundo físico.
En segundo lugar, los usuarios de la tecnología digital deben responsabilizarse de cómo sus propios prejuicios alimentan las desigualdades de las que se quejan. Nuestros prejuicios se reflejan en nuestras búsquedas, en los términos que utilizamos y en los clics que hacemos. Estas elecciones entrenan a los algoritmos a percibir lo que valoramos y perpetúan nuestros prejuicios de forma que van en contra de nuestros propios intereses en el uso cotidiano de la tecnología.
En tercer lugar, y en apoyo de los otros dos puntos, es imperativo que la alfabetización digital sea una prioridad en el sistema educativo formal y forme parte del aprendizaje permanente. Las personas deben ser capaces de disfrutar de los beneficios de las tecnologías impulsadas por la IA y, al mismo tiempo, de detectar y combatir daños como el sesgo algorítmico y la manipulación. La alfabetización digital también debe considerarse un pilar de la gobernanza inclusiva de la IA. De lo contrario, la participación de personas desinformadas y vulnerables en la mesa de gobernanza sería meramente simbólica y no tendría mayor valor que si no participaran en absoluto en la gobernanza.
Pia-Milan Green es investigadora de la Iniciativa Inteligencia Artificial e Igualdad de Carnegie Council.