El rápido auge y la amplia adopción de las tecnologías de IA generativa subrayan la urgente necesidad de una gobernanza integral que abarque cada paso de un sistema de IA a lo largo de las complejas etapas de su historia. Cuando las tecnologías de IA se utilizan en las estructuras e instituciones de la sociedad con cuidado, precaución y coherencia, tienen el potencial de fomentar el progreso colectivo y elevar las capacidades. Sin embargo, si se despliegan precipitadamente o sin salvaguardias, plantean riesgos sustanciales. Tienen el potencial de desestabilizar las sociedades, poner en peligro la seguridad pública e individual, amplificar las desigualdades existentes y socavar las relaciones internacionales. El amplio alcance y la influencia de estas tecnologías de IA ponen de manifiesto la urgencia de concebir nuevas modalidades de gobernanza internacional y salvaguardias.
Históricamente, el sector de la investigación y el desarrollo de la IA se ha resistido a la supervisión gubernamental en favor de la autorregulación, mientras que los gobiernos se han quedado rezagados incluso a la hora de abordar la necesidad de supervisión. Este enfoque es inadecuado. Como un puñado de empresas controlan de forma dominante las tecnologías de IA, que impregnan todas las facetas de nuestras vidas, y los retos en diversas áreas siguen aumentando, surge un desequilibrio de poder. La necesidad de una rigurosa supervisión global y ética y de una acción reguladora decisiva se hace innegable.
Muchos Estados y grupos regionales están aplicando restricciones o contemplándolas, especialmente a medida que aumentan las inversiones en tecnologías de modelos lingüísticos nacionales basados en IA y en aplicaciones derivadas. Sin embargo, algunos no han iniciado deliberaciones formales, mientras que otros expresan su preocupación por quedarse rezagados en este campo en rápida evolución debido a su inexperiencia tecnológica y a su limitada capacidad de compromiso. Esto ha dado lugar a un panorama de gobernanza fragmentado marcado por una proliferación dispar de modelos y un mosaico de normas que reflejan diferentes normas culturales y objetivos estratégicos. En particular, sólo se han promulgado unas pocas leyes que aborden específicamente la IA.
Hasta cierto punto, la competencia en el panorama normativo puede ser beneficiosa: una gobernanza tecnológica centralizada puede ahogar la innovación y la agilidad. Sin embargo, una fragmentación excesiva puede permitir que se establezcan prácticas poco éticas a través del "forum shopping", en el que las empresas pivotan hacia jurisdicciones con normativas más permisivas. Para hacer frente a este riesgo es necesaria la colaboración mundial.
Está claro que la IA necesita un marco de gobernanza internacional personalizado que se inspire en los modelos desarrollados en organizaciones como el IPCC para evaluar la magnitud y las repercusiones del cambio climático; el OIEA para potenciar la contribución de la energía atómica a la paz, la salud y la prosperidad, garantizando al mismo tiempo que no se utilice para ningún fin militar; y el CERN para hacer avanzar la investigación en física fundamental. Este planteamiento, que aúna funciones políticas y técnicas, serviría de puente entre tecnólogos y responsables políticos al equilibrar promoción y control para colmar las lagunas que dejan los mecanismos y planteamientos actuales. Además, un marco de este tipo debería promover la cooperación y el diálogo entre las partes interesadas e implicar al público en debates significativos e informados.
El objetivo final debería ser una normativa mundial vinculante, basada en instrumentos de control, información, verificación y, en caso necesario, aplicación, idealmente respaldada por un tratado. Sin embargo, deben iniciarse ya los pasos inmediatos hacia este marco. Estas acciones intermedias pueden compararse al "middleware" de la informática, que mejora la interoperabilidad entre diversos dispositivos y sistemas. Este "middleware" de gobernanza no sólo puede conectar y alinear los esfuerzos existentes, sino también allanar el camino hacia medidas más ejecutables en el futuro.
Tanto las entidades como los proveedores de "middleware" podrían establecerse bajo los auspicios de organizaciones existentes, crearse de nuevo, o una combinación que incorpore otras iniciativas con legitimidad global y competencia técnica demostradas. No es necesario que todas las actividades propuestas a continuación sean realizadas por una sola entidad, y las funciones pueden distribuirse.
Al tratar de lograr una gobernanza mundial de la IA, nos enfrentamos a dos riesgos acuciantes: el fracaso potencial de esfuerzos bienintencionados pero demasiado ambiciosos y propuestas que limitan su empuje a objetivos admirables. Las áreas y modalidades que se proponen a continuación pretenden superar las divergencias políticas, la burocracia organizativa, las narrativas tecnológicas deterministas y los esfuerzos por mantener la autorregulación de la industria. Pretenden ser propuestas tangibles diseñadas para ayudar a navegar por las complejidades de la gobernanza tecnológica mundial y superar la fragmentación. Aunque este documento no profundiza en los detalles, es evidente que algunas de las áreas propuestas para una mayor consideración podrían requerir concesiones en relación con la propiedad intelectual tanto emergente como existente. Se reconoce que los imperativos de seguridad nacional desempeñarán un papel importante en la forma de abordar estas cuestiones. Por lo tanto, destacar las ventajas y beneficios colectivos de demostrar una gobernanza tecnológica sólida para la estabilidad internacional será crucial para la aceptación de cualquier propuesta.
Es importante señalar que la lista no está ordenada por importancia. En lugar de ello, cada punto se presenta como un posible enfoque y un área para seguir explorando. Algunos de ellos podrían ser inmediatamente relevantes, mientras que otros podrían no serlo. Las actividades sugeridas para las entidades de gobernanza del middleware se basan en el Marco para la Gobernanza Internacional de la IA. Este marco representa un esfuerzo de colaboración entre la Artificial Intelligence & Equality Initiative (AIEI) de Carnegie Council for Ethics in International Affairs (CCEIA) y la Institute of Electrical and Electronics Engineers Standards Association (IEEE SA). Las modalidades que se proponen a continuación están estructuradas para reflejar los elementos adecuados para un enfoque de software intermedio más funcional que facilite y agilice la transición a un acuerdo internacional formal, siempre que los Estados coincidan y acuerden una vía viable para avanzar.
AI Impact Hub: Un centro mundial, desarrollado en estrecha colaboración con las comunidades técnicas pertinentes en función de los objetivos previstos, podría supervisar los sistemas de IA de alto impacto, sus usos y los casos extremos en todo el mundo. Un registro de este tipo puede fomentar la colaboración documentando tanto los datos de formación como los resultados e impactos posteriores de estos sistemas.
Evaluación de los niveles de aceptación: Evaluar y dar a conocer qué marcos normativos, reglamentos, mejores prácticas y estándares en la gobernanza de la IA han obtenido la mayor aceptación mundial y el mayor impacto demostrado puede favorecer su adopción. Esto es especialmente pertinente cuando se considera el acceso a tecnologías y modelos generativos de IA, la transparencia de los datos de formación, los recursos informáticos, el impacto medioambiental, las declaraciones relativas a la madurez de los productos y el uso de datos comunes.
Registro del linaje y la procedencia de los datos: Recopilar el historial de derivación de un producto de datos, desde sus fuentes originales, es esencial para establecer un linaje de datos fiable y mantener unas prácticas de procedencia de datos sólidas. Confiar únicamente en la marca de agua como iniciativa independiente es insuficiente, ya que aborda principalmente la propiedad y los derechos de autor. Para garantizar la trazabilidad y la integridad de los datos, es necesario un enfoque global que combine la marca de agua y el seguimiento detallado del linaje.
Marcos interoperables de intercambio de datos: Marcos interoperables de intercambio de datos: Para una supervisión mundial eficaz, es primordial elaborar y adoptar normas y marcos internacionales que normalicen las prácticas de gobernanza de datos en todas las regiones. Esto resulta especialmente crucial si se tiene en cuenta el enorme volumen de datos privados utilizados en la creación de tecnologías patentadas. Al establecer estos marcos armonizados, podemos promover una mayor interoperabilidad y reforzar la confianza pública en las iniciativas mundiales de intercambio de datos. Este esfuerzo de colaboración exige la acción combinada de gobiernos, organizaciones y partes interesadas de la industria para garantizar que los intercambios de datos sean transparentes, se divulguen adecuadamente y sean seguros para todas las partes implicadas.
Equipos rojos globales: La creación de listas de expertos independientes y multidisciplinares, a menudo denominados "equipos rojos",con actualizaciones cada dos años para abordar los conflictos de intereses, y con participantes obligados a declarar cualquier implicación en desarrollos relacionados con la IA. Estos equipos se encargarían de analizar las implicaciones positivas y negativas de la IA en diversos sectores, desarrollar herramientas científicas y de ingeniería para evaluar la seguridad y el impacto de los sistemas de IA mediante análisis de la duración y la cadena de valor, y anticiparse a futuros desarrollos.
Consejo de Alineación Tecnológica: El establecimiento de un órgano consultivo permanente que se reúna trimestralmente, formado por empresas tecnológicas mundiales para compartir en tiempo real sus conocimientos sobre gobernanza, puede fomentar el avance cohesivo y sinérgico de tecnologías de IA interoperables y trazables. Este método hace hincapié en el diálogo y la colaboración continuos entre los gigantes tecnológicos y las partes interesadas. Ayuda a evitar la concentración indebida de poder y aboga por la transparencia, la interoperabilidad y la trazabilidad en la búsqueda de un desarrollo responsable de la IA.
Mejores prácticas globales: Podrían diseñarse plantillas de políticas y sistemas modelo de salvaguarda para reconocer las características de uso universal de la tecnología de IA. Estos sistemas deberían tratar de equilibrar el fomento de las aplicaciones beneficiosas de la IA con el establecimiento de controles estrictos para contrarrestar los usos adversos y reducir los resultados perjudiciales. La adopción de esta estrategia puede ofrecer unas condiciones más equitativas, especialmente para las naciones y entidades que se esfuerzan por mantenerse al día de los rápidos avances tecnológicos y los cambiantes entornos normativos. Llegar a un acuerdo sobre el equilibrio entre el fomento de las aplicaciones beneficiosas de la IA y el establecimiento de controles estrictos para contrarrestar los usos adversos y reducir los resultados perjudiciales es fundamental para lograr avances significativos en la gobernanza de la IA (y otras tecnologías emergentes).
Informe anual: Un informe anual que recopile y sintetice la investigación sobre las nuevas tendencias, inversiones y lanzamientos de productos de IA -y evalúe los marcos de gobernanza pertinentes- puede cambiar las reglas del juego. Este informe también abarcaría los impulsores globales, las amenazas potenciales, los actores de las amenazas y las oportunidades. Al proponer posibles escenarios, proporcionar recomendaciones prácticas para gobiernos y organizaciones internacionales e incluir un calendario detallado para evitar retrasos en las acciones de seguimiento, reforzaría sustancialmente la toma de decisiones informadas y elevaría el discurso público.
Base de datos mundial de incidentes: Una base de datos mundial, concebida para la notificación anónima e identificada de incidentes significativos relacionados con la IA y basada en los esfuerzos locales existentes, podría reducir las barreras a la notificación y aumentar los incentivos para hacerlo. Esta herramienta prospectiva debería ser gestionada por una entidad intermediaria con capacidades técnicas demostradas para evaluar las reclamaciones. Podría catalizar la colaboración transfronteriza y garantizar un análisis coherente de las amenazas. Esta base de datos proporcionaría una plataforma segura para debatir y evaluar las amenazas emergentes, mejorando la preparación global y sirviendo como medida para reforzar la confianza.
Alfabetización tecnológica: La entidad o entidades deben colaborar con instituciones educativas y aprovechar las normas, materiales y plataformas con licencia Creative Commons de libre acceso para promover la alfabetización en IA. Esto se alinea con la iniciativa de orientación de la UNESCO. Tales iniciativas subrayan la importancia de invertir en educación, capacitando a los individuos para navegar eficazmente por el panorama de la IA y aprovechar su potencial para la mejora personal y social. Deberían adaptarse todos los planes de estudios y establecerse incentivos y requisitos para que las empresas expliquen cómo funciona su tecnología, cómo se construyen los sistemas, quién los construye, con qué recursos y con qué fin. De este modo se garantiza que las personas, especialmente los niños, perciban orgánicamente estos sistemas como herramientas informáticas avanzadas pero defectuosas y se comprometan con ellas en consecuencia.
Pasaportes tecnológicos: Un sistema de "pasaporte tecnológico" podría agilizar las evaluaciones en todas las jurisdicciones, permitiendo a las partes interesadas examinar los resultados de una tecnología a lo largo de su recorrido. Este pasaporte sería un documento evolutivo en el que los sistemas de IA acumularían "sellos", lo que significaría que el examen de expertos ha verificado la adhesión del sistema a unos criterios predeterminados. Los sellos se otorgarían en momentos clave del recorrido evolutivo del sistema y de su cadena de valor, como cuando integra nuevos datos, se conecta a otros sistemas, se da de baja o se aplica a un nuevo fin.
Repositorio de normas internacionales: Establecer un repositorio exhaustivo, potencialmente gestionado por una entidad de software intermedio dentro de un entorno académico, que centralice las referencias a las normas de IA existentes, aclare las disparidades, evalúe la necesidad de actualizaciones a la luz del avance del panorama tecnológico, ilustre las aplicaciones prácticas y aborde las preocupaciones éticas y los conflictos de intereses. Este repositorio reforzaría la transparencia, orientaría la toma de decisiones y fomentaría la colaboración para evitar aplicaciones éticamente erróneas, evitando al mismo tiempo que las normas influenciadas por conflictos de intereses suplanten una gobernanza sólida. Permitiría a las partes interesadas navegar por los recursos disponibles y determinar los mejores enfoques para los casos de uso. Y lo que es más importante, este repositorio sería de libre acceso, aunque algunas de las normas a las que se haga referencia sigan siendo propiedad de los organismos de normalización que las hayan emitido.
Sandboxes de código abierto: Creación de marcos para bancos de pruebas o "sandboxes" de código abierto que permitan a los desarrolladores y agentes de ejecución probar, validar, verificar y supervisar técnicamente de forma ética y transparente las capacidades de la IA, ya se trate de interacciones hombre-máquina o máquina-máquina. Estos marcos para sandboxes se diseñarán teniendo en cuenta arquitecturas de soluciones reproducibles y de código abierto. Este enfoque de código abierto no sólo encierra un potencial significativo para aplicaciones dentro del campo de la IA, sino que también aborda la convergencia sin precedentes de tecnologías que permite la IA. Si tienen éxito, muchos de los componentes propuestos dentro de estos espacios aislados de código abierto podrían servir de modelo para gobernar campos aún por anticipar del descubrimiento científico y la innovación tecnológica.
Herramientas tecnológicas: El desarrollo continuo de herramientas de software y hardware, incluidos los métodos criptográficos y los protocolos de seguridad, constituye la base para crear sistemas sólidos, seguros y fiables que protejan contra las ciberamenazas, la manipulación indebida de datos, la extracción de datos sin escrúpulos y otras vulnerabilidades relacionadas. Este desarrollo también puede mejorar la eficiencia de los procesos, lo que puede suponer un ahorro sustancial de tiempo y costes. Además, para cultivar una cultura de seguridad que vaya más allá de los enfoques técnicos, es importante fomentar el intercambio de conocimientos y experiencia entre una amplia gama de partes interesadas a nivel mundial. Este esfuerzo de colaboración puede fomentar el perfeccionamiento continuo de herramientas que sean gratuitas, accesibles y se adapten a un panorama tecnológico en constante evolución.
Foros de colaboración política: Una Asamblea específica, similar a las Conferencias de los Estados Partes que suelen asociarse a los tratados internacionales, podría funcionar como foro para alcanzar acuerdos relativos a la prohibición o restricción de las tecnologías de IA y sus aplicaciones en situaciones que plantean riesgos indeseables con posibles consecuencias para la estabilidad y la seguridad internacionales. Estos encuentros podrían reforzar la gobernanza de la tecnología y la IA, incluso en ausencia de un tratado formal. Esto resultaría especialmente valioso en escenarios en los que los modelos de IA y sus aplicaciones posteriores puedan entrar en conflicto con marcos normativos establecidos, instrumentos de control de armamento, así como principios relacionados con la política, la sociedad y los derechos humanos.
Portal de declaraciones: El establecimiento de un "portal de declaraciones", inspirado en el régimen de control de armamento y no proliferación, que exija a los actores estatales y empresariales revelar sus desarrollos, enfoques y despliegues de IA, fomentaría la transparencia y la adhesión a las normas y estándares acordados a nivel mundial, promovería la cooperación técnica internacional y el intercambio de conocimientos, y serviría como medida de fomento de la confianza.
Certificación mundial: Desarrollar programas mundiales de certificación destinados a integrar en los procesos de IA principios éticos acordados universalmente, incluido el tratamiento de los puntos de tensión y las compensaciones. Lo ideal sería que estos programas de certificación se llevaran a cabo en colaboración con organizaciones técnicas profesionales creíbles, aprovechando su experiencia demostrada en el desarrollo de este tipo de programas para garantizar que el proceso de certificación va más allá de los conceptos teóricos y proporciona soluciones prácticas para abordar las consideraciones éticas que están claramente definidas en los instrumentos normativos existentes que abordan los derechos políticos, sociales, ambientales y humanos.
***
Un marco mundial de gobernanza de la tecnología y la IA debe ser flexible y ágil. El fomento proactivo del diálogo y las medidas de creación de confianza pueden hacer que la aplicación de un marco mundial sea más fiable y facilitar respuestas rápidas a los problemas pertinentes. Así pues, la gobernanza de una tecnología en rápida evolución requiere un planteamiento global y federado, que abarque el recorrido de cada tecnología desde su creación hasta su obsolescencia.
Aunque las aportaciones de las empresas son valiosas para dar forma a cualquier marco relacionado con la tecnología, mantener un enfoque de código abierto, impulsado por la comunidad e independiente es esencial para la transparencia. Cualquier marco debe definir claramente la responsabilidad, especificando qué se está desarrollando, quién lo hace, bajo qué directrices, con qué normas y con qué fin. De este modo, puede incitar a las empresas a mostrar su dedicación a un despliegue transparente, seguro y responsable de la IA y a fomentar una colaboración más amplia entre las partes interesadas.
Aún quedan numerosas cuestiones por resolver en relación con la navegación por diferentes panoramas normativos, la mitigación de las tensiones geopolíticas y el equilibrio entre los diversos intereses de las empresas. Por ejemplo, ¿cómo se aplicarán y supervisarán los mecanismos propuestos? ¿Cómo salvaguardar la autonomía política, la independencia corporativa, la integridad técnica y la fiabilidad de las personas, instituciones y entidades intermediarias que influyen en el desarrollo y uso de estas tecnologías? Cuando surjan desacuerdos políticos y técnicos, ¿quién los resolverá? ¿Tiene un papel, por ejemplo, el Tribunal Internacional de Justicia para resolver los litigios con arreglo a las leyes internacionales y ofrecer orientación sobre cuestiones relacionadas con la IA con implicaciones transnacionales? O bien, ¿es necesario crear un órgano de resolución judicial independiente que se ocupe de las posibles demandas por usos nocivos con implicaciones mundiales?
Si somos capaces de encontrar respuestas a estas y otras preguntas que sin duda se irán planteando a medida que evolucione nuestro uso de estas tecnologías, un marco de gobernanza de la IA aceptado a escala mundial podría servir de trampolín para gobernar futuros avances científicos y tecnológicos, más allá de la IA.
Sobre esta propuesta
Esta propuesta se basa en la colaboración entre la Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI) de Carnegie Council para la Ética en los Asuntos Internacionales (CCEIA) y la Asociación de Normas del Instituto de Ingenieros Eléctricos y Electrónicos (IEEE SA). La propuesta se beneficia y se basa en los conocimientos y experiencias de un gran número de personas brillantes que trabajan en el campo de la IA y la gobernanza.
Fundada en 2020, la AIEI es una comunidad de práctica dinámica y orientada a los resultados que se dedica a analizar el impacto de la IA en la igualdad social. Con el objetivo comprometido de fomentar la integración ética y el empoderamiento en los avances de la IA, defiende el desarrollo y el despliegue de tecnologías de IA que sean justas, inclusivas y estén firmemente arraigadas en principios pragmáticos y responsables. Esta dinámica iniciativa reúne a un Consejo Asesor representativo de todo el mundo, con miembros de más de 20 países de todos los continentes. Estos asesores son luminarias en sus respectivos campos, procedentes del mundo académico, organismos gubernamentales, instituciones multinacionales, ONG y el sector empresarial, y combinan conocimientos tecnológicos con experiencia geopolítica.
RECURSOS ADICIONALES:
AI Red Team/Hack the Future: Redefinición de los equipos rojos, julio de 2023
Declaración de la Association for Computer Machinery sobre la IA Generativa, septiembre de 2023
Trabajos en curso del Consejo de Europa, julio de 2023
Credo.ai: The Hacker Mindset: 4 Lessons for AI from DEF CON 31, agosto 2023
Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este artículo son las del autor y no reflejan necesariamente la posición de Carnegie Council.