Previsión de modalidades para la gobernanza de la IA: Respuesta de la AIEI al Enviado Técnico de la ONU

29 de septiembre de 2023

Esta presentación ha sido organizada por Anja Kaspersen, Senior Fellow de Carnegie Council, y Wendell Wallach, Fellow de Carnegie-Uehiro, codirectores de la Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI). El documento se ha elaborado a partir de las aportaciones de personas e instituciones de los ámbitos académico, tecnológico y de gobernanza.

Un marco para la gobernanza internacional de la IA

Visión general

Promover los beneficios de las tecnologías innovadoras exige abordar las posibles perturbaciones sociales y garantizar la seguridad pública. El rápido despliegue de las aplicaciones de inteligencia artificial (IA) generativa pone de relieve la urgencia de establecer mecanismos de gobernanza sólidos para una supervisión ética y jurídica eficaz. Esta nota conceptual propone la creación inmediata de un observatorio mundial de la IA apoyado por mecanismos consultivos de cooperación para identificar y difundir las mejores prácticas, normas y herramientas para la gobernanza internacional integral de los sistemas de IA.

Propósito

Esta iniciativa dirige la atención hacia formas prácticas de establecer un marco de gobernanza que se base en los recursos existentes y pueda tener un efecto inmediato. Dicho marco permitiría el uso constructivo de la IA y las tecnologías relacionadas, al tiempo que ayudaría a prevenir usos inmaduros o usos indebidos que causen trastornos sociales o supongan amenazas para la seguridad pública y la estabilidad internacional.

De los principios a la práctica

Ya existen numerosos códigos de conducta o listas de principios para el uso responsable de la IA. Los publicados por la UNESCO y la OCDE/G20 son los dos más ampliamente respaldados. En los últimos años, diversas instituciones se han esforzado por llevar estos principios a la práctica mediante normas específicas para cada ámbito. Algunos Estados y regiones han hecho propuestas e incluso han promulgado restricciones sobre usos específicos de la IA. Por ejemplo, la Comisión Europea publicó un amplio marco jurídico (Ley de IA de la UE) destinado a garantizar sistemas de IA seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente, supervisados por seres humanos. Los principios de Inteligencia Artificial de Pekín fueron seguidos de nuevas normativas impuestas a empresas y aplicaciones por la Administración del Ciberespacio de China. Diversas iniciativas a nivel federal y estatal en Estados Unidos subrayan aún más la necesidad de un marco legislativo. El Secretario General de la ONU también propuso recientemente un Grupo de Alto Nivel para estudiar una supervisión de la IA similar a la del OIEA.

Marco propuesto

La gobernanza de la IA es difícil porque afecta a casi todas las facetas de la vida moderna. Los retos van desde la interoperabilidad hasta garantizar que las aplicaciones contribuyan a la consecución de los ODS, sin socavarlos. Estos retos cambian a lo largo del ciclo de vida de un sistema y a medida que evolucionan las tecnologías. Un marco de gobernanza global debe basarse en el trabajo de instituciones existentes respetadas y en nuevas iniciativas que cumplan tareas clave, como la supervisión, la verificación y la aplicación del cumplimiento. Sólo un enfoque verdaderamente ágil y flexible de la gobernanza puede proporcionar una supervisión continua de las tecnologías en evolución que tienen amplias aplicaciones, con diferentes plazos de realización y despliegue, y una plétora de normas y prácticas con diferentes propósitos.

Conscientes de las divergencias políticas en torno a las cuestiones de política y gobernanza tecnológicas, llevará tiempo crear un nuevo organismo mundial. No obstante, algunas funciones específicas pueden y deben atenderse de inmediato. Por ejemplo, un observatorio mundial de la IA puede gestionarse dentro de un intermediario neutral ya existente, capaz de trabajar de forma distribuida con otros organismos técnicos sin ánimo de lucro y agencias cualificadas en asuntos relacionados con la investigación de la IA y su impacto en la sociedad.

Para establecer una estructura internacional eficaz de gobernanza de la IA, son necesarios cinco componentes simbióticos:

1. 1. Una organización técnica neutral que clasifique los marcos jurídicos, las mejores prácticas y las normas que han alcanzado el máximo nivel de aceptación mundial. Serán necesarias reevaluaciones continuas a medida que evolucionen las tecnologías y los paradigmas normativos.

2. Un Observatorio Mundial de la IA (GAIO) encargado de elaborar informes normalizados, tanto a nivel general como de ámbitos específicos, sobre las características, funciones y prestaciones de la IA y los sistemas relacionados que se lancen y desplieguen. Estos esfuerzos permitirán evaluar la conformidad de los sistemas de IA con las normas existentes que se hayan acordado. Los informes deben actualizarse lo más cerca posible al tiempo real para facilitar la coordinación de respuestas tempranas antes de que se haya producido un daño significativo. Los observatorios que ya existen, como el de la OCDE, no representan a todos los países y partes interesadas, ni proporcionan supervisión, ni permiten una profundidad de análisis suficiente, ni cumplen todas las tareas que se proponen a continuación.

  • La GAIO orquestaría el debate y la cooperación mundiales convocando a expertos y a otras partes interesadas pertinentes e integradoras, según fuera necesario.
  • GAIO publicaría un informe anual sobre el estado de la IA en el que se analizarían las cuestiones clave, los patrones, los esfuerzos de normalización y las inversiones que han surgido durante el año anterior, así como las opciones que los gobiernos, los líderes electos y las organizaciones internacionales deben tener en cuenta. Se trataría de una prospectiva estratégica y de escenarios centrados principalmente en las tecnologías que probablemente entren en funcionamiento en los dos o tres años siguientes. Estos informes fomentarán un acuerdo lo más amplio posible sobre los fines y las normas aplicables a las plataformas y sistemas específicos de IA.
  • GAIO desarrollaría y actualizaría continuamente cuatro registros. Juntos, un registro de incidentes adversos y un registro de aplicaciones nuevas, emergentes y (cuando sea posible) anticipadas ayudarán a los reguladores gubernamentales e internacionales a atender los posibles daños antes del despliegue de nuevos sistemas.
  • El tercer registro hará un seguimiento de la historia de los sistemas de IA, incluyendo información sobre pruebas, verificación, actualizaciones y la experiencia de los Estados que los han desplegado. Esto ayudará a los numerosos países que carecen de recursos para evaluar dichos sistemas. Un cuarto registro mantendrá un repositorio mundial de datos, código y procedencia de modelos.

3. Una capacidad de gobernanza normativa con poderes coercitivos limitados para promover el cumplimiento de las normas mundiales para el uso ético y responsable de la IA y las tecnologías relacionadas. Esto podría implicar la creación de un sistema de "pasaporte tecnológico" para facilitar las evaluaciones entre jurisdicciones y panoramas normativos. El apoyo de los actores internacionales existentes, como la ONU, proporcionaría legitimidad y un mandato para esta capacidad. Podría desarrollarse dentro del ecosistema de las Naciones Unidas mediante la colaboración entre la UIT, la UNESCO y la OACDH, con el apoyo de organizaciones técnicas mundiales como el IEEE.

4. Un conjunto de herramientas de evaluación de la conformidad y certificación de procesos para promover un comportamiento responsable y contribuir a las medidas de creación de confianza y a los esfuerzos de transparencia. Dichas evaluaciones no deben ser realizadas por las empresas que desarrollan sistemas de IA o las herramientas utilizadas para evaluar dichos sistemas.

5. El desarrollo continuo de herramientas tecnológicas ("regulación en una caja"), ya sea integradas en software o hardware o en ambos, es necesario para la transparencia, la responsabilidad, la validación y los protocolos de seguridad de auditoría, y para abordar cuestiones relacionadas con la preservación de los derechos humanos, sociales y políticos en todos los bienes digitales, cada uno de los cuales es un elemento crítico de las medidas de fomento de la confianza. Desarrolladas con otros actores del espacio digital, estas herramientas deben ser auditadas continuamente para detectar actividades erróneas y adaptadas por la comunidad científica y técnica. Deben ser accesibles a todas las partes sin coste alguno. La ayuda de la comunidad empresarial para proporcionar y desarrollar herramientas e información sobre la viabilidad técnica es esencial, al igual que sus sugerencias sobre las normas. Sin embargo, es inaceptable que los que más tienen que ganar financieramente se apoderen de la regulación. Las empresas no deben desempeñar ningún papel en el establecimiento de las normas, en su aplicación o en quién debe disponer de las herramientas.

Somos plenamente conscientes de que este esqueleto de marco plantea innumerables preguntas sobre cómo se aplican y gestionan estos mecanismos de gobernanza, cómo se puede establecer y mantener su neutralidad y fiabilidad, o cómo se decidirán los desacuerdos políticos y técnicos y se remediarán las posibles consecuencias perjudiciales. Sin embargo, se ofrece para estimular una reflexión más profunda sobre lo que hemos aprendido de la promoción y el gobierno de las tecnologías existentes, lo que se necesita y los próximos pasos a dar.

Tecnologías emergentes y convergentes

Este marco tiene importantes aplicaciones potenciales más allá del espacio de la IA. Si son eficaces, muchos de los componentes propuestos podrían servir de modelo para la gobernanza de campos aún no previstos del descubrimiento científico y la innovación tecnológica. Si bien la IA generativa hace urgente la instauración de una gobernanza internacional, muchos otros campos existentes, emergentes y previstos de descubrimiento científico e innovación tecnológica requerirán supervisión. Estos campos amplifican el desarrollo de los demás y convergen de formas difíciles de predecir.

Esta propuesta, desarrollada por Carnegie Council for Ethics in International Affairs (CCEIA) en colaboración con el IEEE, se basa en ideas y conceptos debatidos en dos talleres multidisciplinares de expertos organizados en junio de 2023 por Carnegie Council's AI & Equality Initiative e IEEE SA y acogidos por la UNESCO en París y la UIT en Ginebra. No obstante, la participación en dichos talleres no implica la aprobación de este marco ni de ninguna idea específica dentro del mismo.

Participantes en los talleres (por orden alfabético):


Doaa Abu Elyounes, Phillippa Biggs, Karine Caunes, Raja Chatila, Sean Cleary, Nicolas Davis, Cristian de Francia, Meeri Haataja, Peggy Hicks, Konstantinos Karachalios, Anja Kaspersen, Gary Marcus, Doreen Bogdan-Martin, Preetam Maloor, Michael Møller, Corinne Momal-Vanian, Geoff Mulgan, Gabriela Ramos, Nanjira Sambuli, Reinhard Scholl, Clare Stark, Sofia Vallecorsa, Wendell Wallach, Frederic Werner.


Ante la ausencia de Derecho vinculante, las funciones del Derecho indicativo en la gobernanza internacional de la IA

por Wendell Wallach, Anka Reuel y Anja Kaspersen

Resumen:

El advenimiento de los modelos fundacionales ha alertado a diplomáticos, legisladores y ciudadanos de todo el mundo sobre la necesidad de una gobernanza de la IA que amplifique los beneficios, minimizando al mismo tiempo los riesgos y los impactos sociales no deseados. Las perspectivas de que los sistemas de IA puedan ser objeto de abuso, mal uso o socavar involuntariamente la estabilidad internacional, la equidad y los derechos humanos exigen un alto grado de cooperación, supervisión y regulación. Sin embargo, los gobiernos no están actuando con la rapidez suficiente para establecer un régimen internacional de hard law con autoridad para hacer cumplir la ley. En ausencia de un régimen de este tipo, las leyes blandas se convierten en una palanca para ayudar a dar forma a la trayectoria del desarrollo de la IA y fomentar la cooperación internacional en torno a su gobernanza normativa y técnica. En este documento, ofrecemos una visión general de las funciones clave del Derecho indicativo en el contexto de la gobernanza internacional de la IA y de los mecanismos para cumplirlas. Proponemos además la creación de un Observatorio Mundial de la IA en línea con Mulgan et al. (2023) para desempeñar funciones que no han sido (suficientemente) asumidas por las instituciones existentes o que van más allá de su mandato.


Argumentos a favor de un Observatorio Mundial de la Inteligencia Artificial (GAIO), 2023

Los autores de la siguiente propuesta de GAIO son el profesor Sir Geoff Mulgan, de la UCL; el profesor Thomas Malone, del MIT; Divya Siddharth y Saffron Huang, del Proyecto de Inteligencia Colectiva de la Universidad de Oxford; Joshua Tan, Director Ejecutivo del Proyecto Metagovernance; Lewis Hammond, de Cooperative AI

Aquí sugerimos un paso plausible, y complementario, que el mundo podría acordar ahora como condición necesaria para una regulación más seria de la IA en el futuro (la propuesta se basa en el trabajo con colegas de la UCL, el MIT, Oxford, el Collective Intelligence Project, Metagov y la Cooperative AI Foundation, así como en propuestas anteriores).

Un Observatorio Mundial de la IA (GAIO) proporcionaría los datos y análisis necesarios para respaldar la toma de decisiones. Sintetizaría la ciencia y las pruebas necesarias para apoyar una diversidad de respuestas de gobernanza y respondería a la gran paradoja de un campo fundado en datos en el que se sabe tan poco sobre lo que está ocurriendo en la IA, y lo que podría estar por venir. Actualmente no existen instituciones que asesoren al mundo, evaluando y analizando tanto los riesgos como las oportunidades, y gran parte del trabajo más importante se mantiene deliberadamente en secreto. GAIO llenaría este vacío.

El mundo ya tiene un modelo en el Grupo Intergubernamental de Expertos sobre el Cambio Clim ático (IPCC). Creado en 1988 por las Naciones Unidas con países miembros de todo el mundo, el IPCC proporciona a los gobiernos información científica que pueden utilizar para elaborar políticas climáticas.

Un organismo comparable para la IA proporcionaría una base fiable de datos, modelos e interpretación para orientar la política y la toma de decisiones más amplias sobre la IA. Un GAIO tendría que ser muy diferente del IPCC en algunos aspectos, ya que tendría que trabajar mucho más rápido y de forma más iterativa. Pero lo ideal sería que, al igual que el IPCC, colaborara estrechamente con los gobiernos proporcionándoles la orientación que necesitan para diseñar leyes y reglamentos.

En la actualidad, numerosos organismos recopilan valiosas métricas relacionadas con la IA. Los Estados siguen la evolución dentro de sus fronteras; las empresas privadas recopilan datos relevantes de la industria; y organizaciones como el Observatorio de Políticas de Inteligencia Artificial de la OCDE se centran en las políticas y tendencias nacionales en materia de IA. También ha habido intentos de trazar opciones para la gobernanza de la IA más avanzada, como este de governance.ai. Aunque estas iniciativas son un comienzo crucial, sigue habiendo un abismo entre lo que piensan los científicos sobre estos temas y lo que piensan el público, los gobiernos y los políticos. Además, gran parte de la IA sigue siendo opaca, a menudo deliberadamente. Sin embargo, es imposible regular con sensatez lo que los gobiernos no entienden.

GAIO podría ayudar a llenar este vacío a través de seis áreas principales de actividad:

  • El primero es la creación de una base de datos global y estandarizada de notificación de incidentes que se concentre en las interacciones críticas entre los sistemas de IA y el mundo real. Por ejemplo, en el ámbito de los riesgos biológicos, donde la IA podría ayudar a crear patógenos peligrosos, un marco estructurado para documentar los incidentes relacionados con tales riesgos podría ayudar a mitigar las amenazas. Una base de datos centralizada registraría detalles esenciales sobre incidentes concretos relacionados con aplicaciones de IA y sus consecuencias en diversos entornos, examinando factores como la finalidad del sistema, los casos de uso y los metadatos sobre los procesos de formación y evaluación. Los informes estandarizados sobre incidentes podrían permitir la coordinación transfronteriza, disminuyendo las probabilidades y mitigando los efectos potenciales de la falta de comunicación en una probable carrera armamentística por la IA, con consecuencias tan nefastas como la carrera armamentística por las armas nucleares.
  • En segundo lugar, GAIO reuniría un registro de sistemas de IA cruciales centrado en las aplicaciones de IA con mayor impacto social y económico, medido por el número de personas afectadas, las horas-persona de interacción y lo que está en juego en sus efectos para rastrear sus posibles consecuencias. Lo ideal sería que también estableciera normas para facilitar el acceso a los modelos, con el fin de permitir su escrutinio. Singapur ya cuenta con un registro y el Gobierno británico está estudiando la posibilidad de crear uno similar en su propio país, pero en algún momento será necesario que este tipo de planteamientos se generalicen.
  • En tercer lugar, GAIO reuniría un corpus compartido de datos y análisis de los hechos clave de la IA: gasto, geografía, campos clave, usos, aplicaciones (hay muchas fuentes para esto, pero aún no están reunidas en formas fácilmente accesibles, y gran parte de la inversión sigue siendo muy opaca).
  • En cuarto lugar, GAIO reuniría los conocimientos mundiales sobre el impacto de la IA en áreas críticas a través de grupos de trabajo que abarcarían temas como los mercados laborales, la educación, los medios de comunicación y la sanidad. Estos grupos organizarían la recopilación de datos, la interpretación y la previsión, por ejemplo, de los posibles efectos de los LLM en el empleo y las competencias. GAIO también incluiría indicadores de los efectos positivos y negativos de la IA, como el valor económico creado por los productos de IA y el impacto de los medios sociales basados en IA en la salud mental y la polarización política.
  • En quinto lugar, el GAIO podría ofrecer opciones de regulación y política a los gobiernos nacionales, así como, potencialmente, asistencia legislativa (basándose en las lecciones aprendidas del codesarrollo que promueve el DIP y el OIEA), proporcionando modelos de leyes y normas que podrían adaptarse a diferentes contextos.
  • Por último, el GAIO orquestaría el debate mundial mediante un informe anual sobre el estado de la IA que analizara las cuestiones clave, las pautas que surgen y las opciones que los gobiernos y las organizaciones internacionales deben tener en cuenta. Se trataría de un programa continuo de predicciones y escenarios centrados sobre todo en las tecnologías que probablemente salgan al mercado en los próximos dos o tres años, y podría basarse en iniciativas ya existentes como el Índice de IA elaborado por la Universidad de Stanford.

El GAIO también tendría que innovar. Como se ha indicado, tendría que actuar mucho más deprisa que el IPCC, intentando realizar evaluaciones rápidas de los nuevos avances. Además, podría utilizar métodos de inteligencia colectiva para reunir las aportaciones de miles de científicos y ciudadanos, lo que resulta esencial para seguir las capacidades emergentes en un campo tan complejo y cambiante. Además, podría introducir métodos de denuncia de irregularidades similares a los generosos incentivos del gobierno estadounidense para que los empleados informen sobre acciones perjudiciales o ilegales.

Para tener éxito, el GAIO necesitaría una legitimidad comparable a la del IPCC. Esto puede lograrse a través de sus miembros, entre los que se incluyen gobiernos, organismos científicos y universidades, entre otros, y garantizando un enfoque nítido en los hechos y el análisis más que en la prescripción, que se dejaría en manos de los gobiernos. Lo ideal sería que tuviera vínculos formales con otros organismos con un papel claro en este espacio: la UIT, el IEEE, la UNESCO y el Consejo Científico Internacional. Debería intentar colaborar lo más estrechamente posible con otros organismos que ya realizan un excelente trabajo en este ámbito, desde la OCDE hasta los centros académicos.

Al igual que en el IPCC, los colaboradores del GAIO se seleccionarían a partir de las candidaturas presentadas por las organizaciones miembros, con el fin de garantizar la profundidad de los conocimientos, la diversidad disciplinaria y la representatividad mundial, así como la máxima transparencia para minimizar los conflictos de intereses, tanto reales como percibidos.

La comunidad de la IA y las empresas que la utilizan tienden a desconfiar de la implicación de los gobiernos, que a menudo ven únicamente como una fuente de restricciones. Pero la era del autogobierno ha terminado. Lo que se propone aquí es una organización que exista en parte para los gobiernos, pero cuyo trabajo principal lo realicen los científicos, inspirándose en los intentos exitosos de gobernar muchas otras tecnologías, desde la fertilización humana y la clonación hasta las armas biológicas y nucleares.

En los últimos años, el sistema de la ONU se ha esforzado por hacer frente a la creciente influencia de las tecnologías digitales. Ha creado muchos comités y paneles, a menudo con grandes títulos, pero en general con poco efecto. El mayor riesgo ahora es que haya múltiples esfuerzos inconexos, ninguno de los cuales consiga la tracción suficiente. Los medios de comunicación y los políticos se han dejado distraer fácilmente por afirmaciones descabelladas de riesgo existencial, y pocos se sienten seguros para desafiar a las grandes corporaciones, especialmente cuando se ven amenazados con la perspectiva de que sus ciudadanos se vean privados de los beneficios de la IA abierta o de Google.

Así pues, legitimar un nuevo organismo no será fácil. GAIO tendrá que convencer a los principales actores de EE.UU., China, Reino Unido, la UE y la India, entre otros, de que llenará un vacío vital, y tendrá que persuadir a las grandes empresas de que sus intentos de controlar la agenda, sin ninguna puesta en común de conocimientos y evaluaciones globales, probablemente no sobrevivan mucho tiempo. El argumento fundamental para su creación es que ningún país se beneficiará de una IA fuera de control, al igual que ningún país se beneficia de unos patógenos fuera de control.

La respuesta de cada país puede variar. China, por ejemplo, propuso recientemente prohibir los LLM con "cualquier contenido que subvierta el poder del Estado, abogue por el derrocamiento del sistema socialista, incite a la división del país o socave la unidad nacional". Estados Unidos, por el contrario, es probable que quiera la máxima libertad.

Pero el conocimiento y el análisis compartidos son la condición necesaria para que las naciones puedan decidir sus propias prioridades. La inteligencia artificial no gestionada amenaza las infraestructuras y los espacios de información que todos necesitamos para pensar, actuar y prosperar. Poner en común los conocimientos de forma inteligente es el inicio vital en el camino para aprovechar mejor los beneficios de la inteligencia artificial y evitar los peligros.


"Middleware" y modalidades para la gobernanza internacional de la IA

por Anja Kaspersen

El rápido auge y la amplia adopción de las tecnologías de IA generativa subrayan la urgente necesidad de una gobernanza integral que abarque cada paso de un sistema de IA a lo largo de las complejas etapas de su historia. Cuando las tecnologías de IA se utilizan en las estructuras e instituciones de la sociedad con cuidado, precaución y coherencia, tienen el potencial de fomentar el progreso colectivo y elevar las capacidades. Sin embargo, si se despliegan precipitadamente o sin salvaguardias, plantean riesgos sustanciales. Tienen el potencial de desestabilizar las sociedades, poner en peligro la seguridad pública e individual, amplificar las desigualdades existentes y socavar las relaciones internacionales. El amplio alcance y la influencia de estas tecnologías de IA ponen de manifiesto la urgencia de concebir nuevas modalidades de gobernanza internacional y salvaguardias.

Históricamente, el sector de la investigación y el desarrollo de la IA se ha resistido a la supervisión gubernamental en favor de la autorregulación, mientras que los gobiernos se han quedado rezagados incluso a la hora de abordar la necesidad de supervisión. Este enfoque es inadecuado. Como un puñado de empresas controlan de forma dominante las tecnologías de IA, que impregnan todas las facetas de nuestras vidas, y los retos en diversas áreas siguen aumentando, surge un desequilibrio de poder. La necesidad de una rigurosa supervisión global y ética y de una acción reguladora decisiva se hace innegable.

Muchos Estados y grupos regionales están aplicando restricciones o contemplándolas, especialmente a medida que aumentan las inversiones en tecnologías de modelos lingüísticos nacionales basados en IA y en aplicaciones derivadas. Sin embargo, algunos no han iniciado deliberaciones formales, mientras que otros expresan su preocupación por quedarse rezagados en este campo en rápida evolución debido a su inexperiencia tecnológica y a su limitada capacidad de compromiso. Esto ha dado lugar a un panorama de gobernanza fragmentado marcado por una proliferación dispar de modelos y un mosaico de normas que reflejan diferentes normas culturales y objetivos estratégicos. En particular, sólo se han promulgado unas pocas leyes que aborden específicamente la IA.

Hasta cierto punto, la competencia en el panorama normativo puede ser beneficiosa: una gobernanza tecnológica centralizada puede ahogar la innovación y la agilidad. Sin embargo, una fragmentación excesiva puede permitir que se establezcan prácticas poco éticas a través del "forum shopping", en el que las empresas pivotan hacia jurisdicciones con normativas más permisivas. Para hacer frente a este riesgo es necesaria la colaboración mundial.

Está claro que la IA necesita un marco de gobernanza internacional personalizado que se inspire en los modelos desarrollados en organizaciones como el IPCC para evaluar la magnitud y las repercusiones del cambio climático; el OIEA para potenciar la contribución de la energía atómica a la paz, la salud y la prosperidad, garantizando al mismo tiempo que no se utilice para ningún fin militar; y el CERN para hacer avanzar la investigación en física fundamental. Este planteamiento, que aúna funciones políticas y técnicas, serviría de puente entre tecnólogos y responsables políticos al equilibrar promoción y control para colmar las lagunas que dejan los mecanismos y planteamientos actuales. Además, un marco de este tipo debería promover la cooperación y el diálogo entre las partes interesadas e implicar al público en debates significativos e informados.

El objetivo final debería ser una normativa mundial vinculante, basada en instrumentos de control, información, verificación y, en caso necesario, aplicación, idealmente respaldada por un tratado. Sin embargo, deben iniciarse ya los pasos inmediatos hacia este marco. Estas acciones intermedias pueden compararse al "middleware" de la informática, que mejora la interoperabilidad entre diversos dispositivos y sistemas. Este "middleware" de gobernanza no sólo puede conectar y alinear los esfuerzos existentes, sino también allanar el camino hacia medidas más ejecutables en el futuro.

Tanto las entidades como los proveedores de "middleware" podrían establecerse bajo los auspicios de organizaciones existentes, crearse de nuevo, o una combinación que incorpore otras iniciativas con legitimidad global y competencia técnica demostradas. No es necesario que todas las actividades propuestas a continuación sean realizadas por una sola entidad, y las funciones pueden distribuirse.

Al tratar de lograr una gobernanza mundial de la IA, nos enfrentamos a dos riesgos acuciantes: el fracaso potencial de esfuerzos bienintencionados pero demasiado ambiciosos y propuestas que limitan su empuje a objetivos admirables. Las áreas y modalidades que se proponen a continuación pretenden superar las divergencias políticas, la burocracia organizativa, las narrativas tecnológicas deterministas y los esfuerzos por mantener la autorregulación de la industria. Pretenden ser propuestas tangibles diseñadas para ayudar a navegar por las complejidades de la gobernanza tecnológica mundial y superar la fragmentación. Aunque este documento no profundiza en los detalles, es evidente que algunas de las áreas propuestas para una mayor consideración podrían requerir concesiones en relación con la propiedad intelectual tanto emergente como existente. Se reconoce que los imperativos de seguridad nacional desempeñarán un papel importante en la forma de abordar estas cuestiones. Por lo tanto, destacar las ventajas y beneficios colectivos de demostrar una gobernanza tecnológica sólida para la estabilidad internacional será crucial para la aceptación de cualquier propuesta.

Es importante señalar que la lista no está ordenada por importancia. En lugar de ello, cada punto se presenta como un posible enfoque y un área para seguir explorando. Algunos de ellos podrían ser inmediatamente relevantes, mientras que otros podrían no serlo. Las actividades sugeridas para las entidades de gobernanza del middleware se basan en el Marco para la Gobernanza Internacional de la IA. Este marco representa un esfuerzo de colaboración entre la Artificial Intelligence & Equality Initiative (AIEI) de Carnegie Council for Ethics in International Affairs (CCEIA) y la Institute of Electrical and Electronics Engineers Standards Association (IEEE SA). Las modalidades que se proponen a continuación están estructuradas para reflejar los elementos adecuados para un enfoque de software intermedio más funcional que facilite y agilice la transición a un acuerdo internacional formal, siempre que los Estados coincidan y acuerden una vía viable para avanzar.

AI Impact Hub: Un centro mundial, desarrollado en estrecha colaboración con las comunidades técnicas pertinentes en función de los objetivos previstos, podría supervisar los sistemas de IA de alto impacto, sus usos y los casos extremos en todo el mundo. Un registro de este tipo puede fomentar la colaboración documentando tanto los datos de formación como los resultados e impactos posteriores de estos sistemas.

Evaluación de los niveles de aceptación: Evaluar y dar a conocer qué marcos normativos, reglamentos, mejores prácticas y estándares en la gobernanza de la IA han obtenido la mayor aceptación mundial y el mayor impacto demostrado puede favorecer su adopción. Esto es especialmente pertinente cuando se considera el acceso a tecnologías y modelos generativos de IA, la transparencia de los datos de formación, los recursos informáticos, el impacto medioambiental, las declaraciones relativas a la madurez de los productos y el uso de datos comunes.

Registro del linaje y la procedencia de los datos: Recopilar el historial de derivación de un producto de datos, desde sus fuentes originales, es esencial para establecer un linaje de datos fiable y mantener unas prácticas de procedencia de datos sólidas. Confiar únicamente en la marca de agua como iniciativa independiente es insuficiente, ya que aborda principalmente la propiedad y los derechos de autor. Para garantizar la trazabilidad y la integridad de los datos, es necesario un enfoque global que combine la marca de agua y el seguimiento detallado del linaje.

Marcos interoperables de intercambio de datos: Marcos interoperables de intercambio de datos: Para una supervisión mundial eficaz, es primordial elaborar y adoptar normas y marcos internacionales que normalicen las prácticas de gobernanza de datos en todas las regiones. Esto resulta especialmente crucial si se tiene en cuenta el enorme volumen de datos privados utilizados en la creación de tecnologías patentadas. Al establecer estos marcos armonizados, podemos promover una mayor interoperabilidad y reforzar la confianza pública en las iniciativas mundiales de intercambio de datos. Este esfuerzo de colaboración exige la acción combinada de gobiernos, organizaciones y partes interesadas de la industria para garantizar que los intercambios de datos sean transparentes, se divulguen adecuadamente y sean seguros para todas las partes implicadas.

Equipos rojos globales: La creación de listas de expertos independientes y multidisciplinares, a menudo denominados "equipos rojos",con actualizaciones cada dos años para abordar los conflictos de intereses, y con participantes obligados a declarar cualquier implicación en desarrollos relacionados con la IA. Estos equipos se encargarían de analizar las implicaciones positivas y negativas de la IA en diversos sectores, desarrollar herramientas científicas y de ingeniería para evaluar la seguridad y el impacto de los sistemas de IA mediante análisis de la duración y la cadena de valor, y anticiparse a futuros desarrollos.

Consejo de Alineación Tecnológica: El establecimiento de un órgano consultivo permanente que se reúna trimestralmente, formado por empresas tecnológicas mundiales para compartir en tiempo real sus conocimientos sobre gobernanza, puede fomentar el avance cohesivo y sinérgico de tecnologías de IA interoperables y trazables. Este método hace hincapié en el diálogo y la colaboración continuos entre los gigantes tecnológicos y las partes interesadas. Ayuda a evitar la concentración indebida de poder y aboga por la transparencia, la interoperabilidad y la trazabilidad en la búsqueda de un desarrollo responsable de la IA.

Mejores prácticas globales: Podrían diseñarse plantillas de políticas y sistemas modelo de salvaguarda para reconocer las características de uso universal de la tecnología de IA. Estos sistemas deberían tratar de equilibrar el fomento de las aplicaciones beneficiosas de la IA con el establecimiento de controles estrictos para contrarrestar los usos adversos y reducir los resultados perjudiciales. La adopción de esta estrategia puede ofrecer unas condiciones más equitativas, especialmente para las naciones y entidades que se esfuerzan por mantenerse al día de los rápidos avances tecnológicos y los cambiantes entornos normativos. Llegar a un acuerdo sobre el equilibrio entre el fomento de las aplicaciones beneficiosas de la IA y el establecimiento de controles estrictos para contrarrestar los usos adversos y reducir los resultados perjudiciales es fundamental para lograr avances significativos en la gobernanza de la IA (y otras tecnologías emergentes).

Informe anual: Un informe anual que recopile y sintetice la investigación sobre las nuevas tendencias, inversiones y lanzamientos de productos de IA -y evalúe los marcos de gobernanza pertinentes- puede cambiar las reglas del juego. Este informe también abarcaría los impulsores globales, las amenazas potenciales, los actores de las amenazas y las oportunidades. Al proponer posibles escenarios, proporcionar recomendaciones prácticas para gobiernos y organizaciones internacionales e incluir un calendario detallado para evitar retrasos en las acciones de seguimiento, reforzaría sustancialmente la toma de decisiones informadas y elevaría el discurso público.

Base de datos mundial de incidentes: Una base de datos mundial, concebida para la notificación anónima e identificada de incidentes significativos relacionados con la IA y basada en los esfuerzos locales existentes, podría reducir las barreras a la notificación y aumentar los incentivos para hacerlo. Esta herramienta prospectiva debería ser gestionada por una entidad intermediaria con capacidades técnicas demostradas para evaluar las reclamaciones. Podría catalizar la colaboración transfronteriza y garantizar un análisis coherente de las amenazas. Esta base de datos proporcionaría una plataforma segura para debatir y evaluar las amenazas emergentes, mejorando la preparación global y sirviendo como medida para reforzar la confianza.

Alfabetización tecnológica: La entidad o entidades deben colaborar con instituciones educativas y aprovechar las normas, materiales y plataformas con licencia Creative Commons de libre acceso para promover la alfabetización en IA. Esto se alinea con la iniciativa de orientación de la UNESCO. Tales iniciativas subrayan la importancia de invertir en educación, capacitando a los individuos para navegar eficazmente por el panorama de la IA y aprovechar su potencial para la mejora personal y social. Deberían adaptarse todos los planes de estudios y establecerse incentivos y requisitos para que las empresas expliquen cómo funciona su tecnología, cómo se construyen los sistemas, quién los construye, con qué recursos y con qué fin. De este modo se garantiza que las personas, especialmente los niños, perciban orgánicamente estos sistemas como herramientas informáticas avanzadas pero defectuosas y se comprometan con ellas en consecuencia.

Pasaportes tecnológicos: Un sistema de "pasaporte tecnológico" podría agilizar las evaluaciones en todas las jurisdicciones, permitiendo a las partes interesadas examinar los resultados de una tecnología a lo largo de su recorrido. Este pasaporte sería un documento evolutivo en el que los sistemas de IA acumularían "sellos", lo que significaría que el examen de expertos ha verificado la adhesión del sistema a unos criterios predeterminados. Los sellos se otorgarían en momentos clave del recorrido evolutivo del sistema y de su cadena de valor, como cuando integra nuevos datos, se conecta a otros sistemas, se da de baja o se aplica a un nuevo fin.

Repositorio de normas internacionales: Establecer un repositorio exhaustivo, potencialmente gestionado por una entidad de software intermedio dentro de un entorno académico, que centralice las referencias a las normas de IA existentes, aclare las disparidades, evalúe la necesidad de actualizaciones a la luz del avance del panorama tecnológico, ilustre las aplicaciones prácticas y aborde las preocupaciones éticas y los conflictos de intereses. Este repositorio reforzaría la transparencia, orientaría la toma de decisiones y fomentaría la colaboración para evitar aplicaciones éticamente erróneas, evitando al mismo tiempo que las normas influenciadas por conflictos de intereses suplanten una gobernanza sólida. Permitiría a las partes interesadas navegar por los recursos disponibles y determinar los mejores enfoques para los casos de uso. Y lo que es más importante, este repositorio sería de libre acceso, aunque algunas de las normas a las que se haga referencia sigan siendo propiedad de los organismos de normalización que las hayan emitido.

Sandboxes de código abierto: Creación de marcos para bancos de pruebas o "sandboxes" de código abierto que permitan a los desarrolladores y agentes de ejecución probar, validar, verificar y supervisar técnicamente de forma ética y transparente las capacidades de la IA, ya se trate de interacciones hombre-máquina o máquina-máquina. Estos marcos para sandboxes se diseñarán teniendo en cuenta arquitecturas de soluciones reproducibles y de código abierto. Este enfoque de código abierto no sólo encierra un potencial significativo para aplicaciones dentro del campo de la IA, sino que también aborda la convergencia sin precedentes de tecnologías que permite la IA. Si tienen éxito, muchos de los componentes propuestos dentro de estos espacios aislados de código abierto podrían servir de modelo para gobernar campos aún por anticipar del descubrimiento científico y la innovación tecnológica.

Herramientas tecnológicas: El desarrollo continuo de herramientas de software y hardware, incluidos los métodos criptográficos y los protocolos de seguridad, constituye la base para crear sistemas sólidos, seguros y fiables que protejan contra las ciberamenazas, la manipulación indebida de datos, la extracción de datos sin escrúpulos y otras vulnerabilidades relacionadas. Este desarrollo también puede mejorar la eficiencia de los procesos, lo que puede suponer un ahorro sustancial de tiempo y costes. Además, para cultivar una cultura de seguridad que vaya más allá de los enfoques técnicos, es importante fomentar el intercambio de conocimientos y experiencia entre una amplia gama de partes interesadas a nivel mundial. Este esfuerzo de colaboración puede fomentar el perfeccionamiento continuo de herramientas que sean gratuitas, accesibles y se adapten a un panorama tecnológico en constante evolución.

Foros de colaboración política: Una Asamblea específica, similar a las Conferencias de los Estados Partes que suelen asociarse a los tratados internacionales, podría funcionar como foro para alcanzar acuerdos relativos a la prohibición o restricción de las tecnologías de IA y sus aplicaciones en situaciones que plantean riesgos indeseables con posibles consecuencias para la estabilidad y la seguridad internacionales. Estos encuentros podrían reforzar la gobernanza de la tecnología y la IA, incluso en ausencia de un tratado formal. Esto resultaría especialmente valioso en escenarios en los que los modelos de IA y sus aplicaciones posteriores puedan entrar en conflicto con marcos normativos establecidos, instrumentos de control de armamento, así como principios relacionados con la política, la sociedad y los derechos humanos.

Portal de declaraciones: El establecimiento de un "portal de declaraciones", inspirado en el régimen de control de armamento y no proliferación, que exija a los actores estatales y empresariales revelar sus desarrollos, enfoques y despliegues de IA, fomentaría la transparencia y la adhesión a las normas y estándares acordados a nivel mundial, promovería la cooperación técnica internacional y el intercambio de conocimientos, y serviría como medida de fomento de la confianza.

Certificación mundial: Desarrollar programas mundiales de certificación destinados a integrar en los procesos de IA principios éticos acordados universalmente, incluido el tratamiento de los puntos de tensión y las compensaciones. Lo ideal sería que estos programas de certificación se llevaran a cabo en colaboración con organizaciones técnicas profesionales creíbles, aprovechando su experiencia demostrada en el desarrollo de este tipo de programas para garantizar que el proceso de certificación va más allá de los conceptos teóricos y proporciona soluciones prácticas para abordar las consideraciones éticas que están claramente definidas en los instrumentos normativos existentes que abordan los derechos políticos, sociales, ambientales y humanos.

***

Un marco mundial de gobernanza de la tecnología y la IA debe ser flexible y ágil. El fomento proactivo del diálogo y las medidas de creación de confianza pueden hacer que la aplicación de un marco mundial sea más fiable y facilitar respuestas rápidas a los problemas pertinentes. Así pues, la gobernanza de una tecnología en rápida evolución requiere un planteamiento global y federado, que abarque el recorrido de cada tecnología desde su creación hasta su obsolescencia.

Aunque las aportaciones de las empresas son valiosas para dar forma a cualquier marco relacionado con la tecnología, mantener un enfoque de código abierto, impulsado por la comunidad e independiente es esencial para la transparencia. Cualquier marco debe definir claramente la responsabilidad, especificando qué se está desarrollando, quién lo hace, bajo qué directrices, con qué normas y con qué fin. De este modo, puede incitar a las empresas a mostrar su dedicación a un despliegue transparente, seguro y responsable de la IA y a fomentar una colaboración más amplia entre las partes interesadas.

Aún quedan numerosas cuestiones por resolver en relación con la navegación por diferentes panoramas normativos, la mitigación de las tensiones geopolíticas y el equilibrio entre los diversos intereses de las empresas. Por ejemplo, ¿cómo se aplicarán y supervisarán los mecanismos propuestos? ¿Cómo salvaguardar la autonomía política, la independencia corporativa, la integridad técnica y la fiabilidad de las personas, instituciones y entidades intermediarias que influyen en el desarrollo y uso de estas tecnologías? Cuando surjan desacuerdos políticos y técnicos, ¿quién los resolverá? ¿Tiene un papel, por ejemplo, el Tribunal Internacional de Justicia para resolver los litigios con arreglo a las leyes internacionales y ofrecer orientación sobre cuestiones relacionadas con la IA con implicaciones transnacionales? O bien, ¿es necesario crear un órgano de resolución judicial independiente que se ocupe de las posibles demandas por usos nocivos con implicaciones mundiales?

Si somos capaces de encontrar respuestas a estas y otras preguntas que sin duda se irán planteando a medida que evolucione nuestro uso de estas tecnologías, un marco de gobernanza de la IA aceptado a escala mundial podría servir de trampolín para gobernar futuros avances científicos y tecnológicos, más allá de la IA.

Sobre esta propuesta

Esta propuesta se basa en la colaboración entre la Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI) de Carnegie Council para la Ética en los Asuntos Internacionales (CCEIA) y la Asociación de Normas del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE SA). La propuesta se beneficia y se basa en los conocimientos y experiencias de un gran número de personas brillantes que trabajan en el campo de la IA y la gobernanza.

Fundada en 2020, la AIEI es una comunidad de práctica dinámica y orientada a los resultados que se dedica a analizar el impacto de la IA en la igualdad social. Con el objetivo comprometido de fomentar la integración ética y el empoderamiento en los avances de la IA, defiende el desarrollo y el despliegue de tecnologías de IA que sean justas, inclusivas y estén firmemente arraigadas en principios pragmáticos y responsables. Esta dinámica iniciativa reúne a un Consejo Asesor representativo de todo el mundo, con miembros de más de 20 países de todos los continentes. Estos asesores son luminarias en sus respectivos campos, procedentes del mundo académico, organismos gubernamentales, instituciones multinacionales, ONG y el sector empresarial, y combinan conocimientos tecnológicos con experiencia geopolítica.

NOTA:

El Marco para la Gobernanza Internacional de la IA propuso cinco componentes simbióticos:

(1.) Organización técnica neutral encargada de evaluar continuamente qué marcos jurídicos, mejores prácticas y normas están logrando los mayores niveles de aceptación a escala mundial.

(2.) Una capacidad de gobernanza normativa con poderes de ejecución limitados para promover el cumplimiento de las normas mundiales para el uso ético y responsable de la IA y las tecnologías relacionadas.

(3.) Una caja de herramientas para que las organizaciones evalúen y certifiquen la conformidad con las normas.

(4.) El desarrollo continuo de herramientas tecnológicas de apoyo a la gobernanza de la IA, que puedan ayudar con datos relevantes para la toma de decisiones, validando y auditando los sistemas existentes, y mitigando los riesgos cuando sea necesario.

(5.) Creación de un Observatorio Mundial de la Inteligencia Artificial (GAIO), que sirva de puente entre los científicos y los responsables políticos y cumpla las funciones definidas a continuación que no estén siendo desempeñadas ya por otras instituciones.


RECURSOS ADICIONALES:

AI Red Team/Hack the Future: Redefinición de los equipos rojos, julio de 2023

Declaración de la Association for Computer Machinery sobre la IA Generativa, septiembre de 2023

Credo.ai: The Hacker Mindset: 4 Lessons for AI from DEF CON 31, agosto 2023

Declaración del IEEE sobre IA Generativa, junio de 2023

También le puede interesar

31 JULIO 2024 - Podcast

Responsible AI & the Ethical Trade-offs of Large Models, con Sara Hooker

En este episodio, Anja Kaspersen, Senior Fellow, habla con Sara Hooker, de Cohere for AI, sobre el diseño de modelos, el sesgo de los modelos y la representación de datos.

24 DE JULIO DE 2024 - Podcast

IA y guerra: A New Era for Arms Control & Deterrence, con Paul Scharre

La Senior Fellow Anja Kaspersen habla con Paul Scharre, del Center for a New American Security, sobre las cuestiones emergentes en la intersección entre tecnología y guerra.

2 DE JULIO DE 2024 Podcast

Cibernética, vigilancia digital y el papel de los sindicatos en la gobernanza tecnológica, con Elisabet Haugsbø

Anja Kaspersen, investigadora sénior, habla con Elisabet Haugsbø, presidenta del sindicato tecnológico Tekna, sobre su trayectoria en ingeniería, la resiliencia en la era de la IA y mucho más.