El Observatorio Mundial de la IA (GAIO) fue mencionado por el Dr. Adam Day, director de la oficina de Ginebra del Centro de Investigación Política de la Universidad de las Naciones Unidas, en su libro 2024 The Forever Crisis: Adaptive Global Governance for an Era of Accelerating Complexity..
Los autores de la siguiente propuesta de GAIO son el profesor Sir Geoff Mulgan, de la UCL; el profesor Thomas Malone, del MIT; Divya Siddharth y Saffron Huang, del Proyecto de Inteligencia Colectiva de la Universidad de Oxford; Joshua Tan, Director Ejecutivo del Proyecto Metagovernance; Lewis Hammond, de Cooperative AI
Aquí sugerimos un paso plausible, y complementario, que el mundo podría acordar ahora como condición necesaria para una regulación más seria de la IA en el futuro (la propuesta se basa en el trabajo con colegas de la UCL, el MIT, Oxford, el Collective Intelligence Project, Metagov y la Cooperative AI Foundation, así como en propuestas anteriores).
Un Observatorio Mundial de la IA (GAIO) proporcionaría los datos y análisis necesarios para respaldar la toma de decisiones. Sintetizaría la ciencia y las pruebas necesarias para apoyar una diversidad de respuestas de gobernanza y respondería a la gran paradoja de un campo fundado en datos en el que se sabe tan poco sobre lo que está ocurriendo en la IA, y lo que podría estar por venir. Actualmente no existen instituciones que asesoren al mundo, evaluando y analizando tanto los riesgos como las oportunidades, y gran parte del trabajo más importante se mantiene deliberadamente en secreto. GAIO llenaría este vacío.
El mundo ya tiene un modelo en el Grupo Intergubernamental de Expertos sobre el Cambio Clim ático (IPCC). Creado en 1988 por las Naciones Unidas con países miembros de todo el mundo, el IPCC proporciona a los gobiernos información científica que pueden utilizar para elaborar políticas climáticas.
Un organismo comparable para la IA proporcionaría una base fiable de datos, modelos e interpretación para orientar la política y la toma de decisiones más amplias sobre la IA. Un GAIO tendría que ser muy diferente del IPCC en algunos aspectos, ya que tendría que trabajar mucho más rápido y de forma más iterativa. Pero lo ideal sería que, al igual que el IPCC, colaborara estrechamente con los gobiernos proporcionándoles la orientación que necesitan para diseñar leyes y reglamentos.
En la actualidad, numerosos organismos recopilan valiosas métricas relacionadas con la IA. Los Estados siguen la evolución dentro de sus fronteras; las empresas privadas recopilan datos relevantes de la industria; y organizaciones como el Observatorio de Políticas de Inteligencia Artificial de la OCDE se centran en las políticas y tendencias nacionales en materia de IA. También ha habido intentos de trazar opciones para la gobernanza de la IA más avanzada, como este de governance.ai. Aunque estas iniciativas son un comienzo crucial, sigue habiendo un abismo entre lo que piensan los científicos sobre estos temas y lo que piensan el público, los gobiernos y los políticos. Además, gran parte de la IA sigue siendo opaca, a menudo deliberadamente. Sin embargo, es imposible regular con sensatez lo que los gobiernos no entienden.
GAIO podría ayudar a llenar este vacío a través de seis áreas principales de actividad:
- El primero es la creación de una base de datos global y estandarizada de notificación de incidentes que se concentre en las interacciones críticas entre los sistemas de IA y el mundo real. Por ejemplo, en el ámbito de los riesgos biológicos, donde la IA podría ayudar a crear patógenos peligrosos, un marco estructurado para documentar los incidentes relacionados con tales riesgos podría ayudar a mitigar las amenazas. Una base de datos centralizada registraría detalles esenciales sobre incidentes concretos relacionados con aplicaciones de IA y sus consecuencias en diversos entornos, examinando factores como la finalidad del sistema, los casos de uso y los metadatos sobre los procesos de formación y evaluación. Los informes estandarizados sobre incidentes podrían permitir la coordinación transfronteriza, disminuyendo las probabilidades y mitigando los efectos potenciales de la falta de comunicación en una probable carrera armamentística por la IA, con consecuencias tan nefastas como la carrera armamentística por las armas nucleares.
- En segundo lugar, GAIO reuniría un registro de sistemas de IA cruciales centrado en las aplicaciones de IA con mayor impacto social y económico, medido por el número de personas afectadas, las horas-persona de interacción y lo que está en juego en sus efectos para rastrear sus posibles consecuencias. Lo ideal sería que también estableciera normas para facilitar el acceso a los modelos, con el fin de permitir su escrutinio. Singapur ya cuenta con un registro y el Gobierno británico está estudiando la posibilidad de crear uno similar en su propio país, pero en algún momento será necesario que este tipo de planteamientos se generalicen.
- En tercer lugar, GAIO reuniría un corpus compartido de datos y análisis de los hechos clave de la IA: gasto, geografía, campos clave, usos, aplicaciones (hay muchas fuentes para esto, pero aún no están reunidas en formas fácilmente accesibles, y gran parte de la inversión sigue siendo muy opaca).
- En cuarto lugar, GAIO reuniría los conocimientos mundiales sobre el impacto de la IA en áreas críticas a través de grupos de trabajo que abarcarían temas como los mercados laborales, la educación, los medios de comunicación y la sanidad. Estos grupos organizarían la recopilación de datos, la interpretación y la previsión, por ejemplo, de los posibles efectos de los LLM en el empleo y las competencias. GAIO también incluiría indicadores de los efectos positivos y negativos de la IA, como el valor económico creado por los productos de IA y el impacto de los medios sociales basados en IA en la salud mental y la polarización política.
- En quinto lugar, el GAIO podría ofrecer opciones de regulación y política a los gobiernos nacionales, así como, potencialmente, asistencia legislativa (basándose en las lecciones aprendidas del codesarrollo que promueve el DIP y el OIEA), proporcionando modelos de leyes y normas que podrían adaptarse a diferentes contextos.
- Por último, el GAIO orquestaría el debate mundial mediante un informe anual sobre el estado de la IA que analizara las cuestiones clave, las pautas que surgen y las opciones que los gobiernos y las organizaciones internacionales deben tener en cuenta. Se trataría de un programa continuo de predicciones y escenarios centrados sobre todo en las tecnologías que probablemente salgan al mercado en los próximos dos o tres años, y podría basarse en iniciativas ya existentes como el Índice de IA elaborado por la Universidad de Stanford.
El GAIO también tendría que innovar. Como se ha indicado, tendría que actuar mucho más deprisa que el IPCC, intentando realizar evaluaciones rápidas de los nuevos avances. Además, podría utilizar métodos de inteligencia colectiva para reunir las aportaciones de miles de científicos y ciudadanos, lo que resulta esencial para seguir las capacidades emergentes en un campo tan complejo y cambiante. Además, podría introducir métodos de denuncia de irregularidades similares a los generosos incentivos del gobierno estadounidense para que los empleados informen sobre acciones perjudiciales o ilegales.
Para tener éxito, el GAIO necesitaría una legitimidad comparable a la del IPCC. Esto puede lograrse a través de sus miembros, entre los que se incluyen gobiernos, organismos científicos y universidades, entre otros, y garantizando un enfoque nítido en los hechos y el análisis más que en la prescripción, que se dejaría en manos de los gobiernos. Lo ideal sería que tuviera vínculos formales con otros organismos con un papel claro en este espacio: la UIT, el IEEE, la UNESCO y el Consejo Científico Internacional. Debería intentar colaborar lo más estrechamente posible con otros organismos que ya realizan un excelente trabajo en este ámbito, desde la OCDE hasta los centros académicos.
Al igual que en el IPCC, los colaboradores del GAIO se seleccionarían a partir de las candidaturas presentadas por las organizaciones miembros, con el fin de garantizar la profundidad de los conocimientos, la diversidad disciplinaria y la representatividad mundial, así como la máxima transparencia para minimizar los conflictos de intereses, tanto reales como percibidos.
La comunidad de la IA y las empresas que la utilizan tienden a desconfiar de la implicación de los gobiernos, que a menudo ven únicamente como una fuente de restricciones. Pero la era del autogobierno ha terminado. Lo que se propone aquí es una organización que exista en parte para los gobiernos, pero cuyo trabajo principal lo realicen los científicos, inspirándose en los intentos exitosos de gobernar muchas otras tecnologías, desde la fertilización humana y la clonación hasta las armas biológicas y nucleares.
En los últimos años, el sistema de la ONU se ha esforzado por hacer frente a la creciente influencia de las tecnologías digitales. Ha creado muchos comités y paneles, a menudo con grandes títulos, pero en general con poco efecto. El mayor riesgo ahora es que haya múltiples esfuerzos inconexos, ninguno de los cuales consiga la tracción suficiente. Los medios de comunicación y los políticos se han dejado distraer fácilmente por afirmaciones descabelladas de riesgo existencial, y pocos se sienten seguros para desafiar a las grandes corporaciones, especialmente cuando se ven amenazados con la perspectiva de que sus ciudadanos se vean privados de los beneficios de la IA abierta o de Google.
Así pues, legitimar un nuevo organismo no será fácil. GAIO tendrá que convencer a los principales actores de EE.UU., China, Reino Unido, la UE y la India, entre otros, de que llenará un vacío vital, y tendrá que persuadir a las grandes empresas de que sus intentos de controlar la agenda, sin ninguna puesta en común de conocimientos y evaluaciones globales, probablemente no sobrevivan mucho tiempo. El argumento fundamental para su creación es que ningún país se beneficiará de una IA fuera de control, al igual que ningún país se beneficia de unos patógenos fuera de control.
La respuesta de cada país puede variar. China, por ejemplo, propuso recientemente prohibir los LLM con "cualquier contenido que subvierta el poder del Estado, abogue por el derrocamiento del sistema socialista, incite a la división del país o socave la unidad nacional". Estados Unidos, por el contrario, es probable que quiera la máxima libertad.
Pero el conocimiento y el análisis compartidos son la condición necesaria para que las naciones puedan decidir sus propias prioridades. La inteligencia artificial no gestionada amenaza las infraestructuras y los espacios de información que todos necesitamos para pensar, actuar y prosperar. Poner en común los conocimientos de forma inteligente es el inicio vital en el camino para aprovechar mejor los beneficios de la inteligencia artificial y evitar los peligros.
Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este artículo son las de sus autores y no reflejan necesariamente la posición de Carnegie Council.