Visión general
Promover los beneficios de las tecnologías innovadoras exige abordar las posibles perturbaciones sociales y garantizar la seguridad pública. El rápido despliegue de las aplicaciones de inteligencia artificial (IA) generativa pone de relieve la urgencia de establecer mecanismos de gobernanza sólidos para una supervisión ética y jurídica eficaz. Esta nota conceptual propone la creación inmediata de un observatorio mundial de la IA apoyado por mecanismos consultivos de cooperación para identificar y difundir las mejores prácticas, normas y herramientas para la gobernanza internacional integral de los sistemas de IA.
Propósito
Esta iniciativa dirige la atención hacia formas prácticas de establecer un marco de gobernanza que se base en los recursos existentes y pueda tener un efecto inmediato. Dicho marco permitiría el uso constructivo de la IA y las tecnologías relacionadas, al tiempo que ayudaría a prevenir usos inmaduros o usos indebidos que causen trastornos sociales o supongan amenazas para la seguridad pública y la estabilidad internacional.
De los principios a la práctica
Ya existen numerosos códigos de conducta o listas de principios para el uso responsable de la IA. Los publicados por la UNESCO y la OCDE/G20 son los dos más ampliamente respaldados. En los últimos años, diversas instituciones se han esforzado por llevar estos principios a la práctica mediante normas específicas para cada ámbito. Algunos Estados y regiones han hecho propuestas e incluso han promulgado restricciones sobre usos específicos de la IA. Por ejemplo, la Comisión Europea publicó un amplio marco jurídico (Ley de IA de la UE) destinado a garantizar sistemas de IA seguros, transparentes, trazables, no discriminatorios y respetuosos con el medio ambiente, supervisados por seres humanos. Los principios de Inteligencia Artificial de Pekín fueron seguidos de nuevas normativas impuestas a empresas y aplicaciones por la Administración del Ciberespacio de China. Diversas iniciativas a nivel federal y estatal en Estados Unidos subrayan aún más la necesidad de un marco legislativo. El Secretario General de la ONU también propuso recientemente un Grupo de Alto Nivel para estudiar una supervisión de la IA similar a la del OIEA.
Marco propuesto
La gobernanza de la IA es difícil porque afecta a casi todas las facetas de la vida moderna. Los retos van desde la interoperabilidad hasta garantizar que las aplicaciones contribuyan a la consecución de los ODS y no los socaven. Estos retos cambian a lo largo del ciclo de vida de un sistema y a medida que evolucionan las tecnologías.
Un marco de gobernanza global debe basarse en el trabajo de instituciones existentes respetadas y en nuevas iniciativas que cumplan tareas clave, como la supervisión, la verificación y la aplicación del cumplimiento. Sólo un enfoque verdaderamente ágil y flexible de la gobernanza puede proporcionar una supervisión continua de las tecnologías en evolución que tienen amplias aplicaciones, con diferentes plazos de realización y despliegue, y una plétora de normas y prácticas con diferentes propósitos.
Teniendo en cuenta las divergencias políticas en torno a las cuestiones de política y gobernanza tecnológicas, llevará tiempo crear un nuevo organismo mundial. No obstante, algunas funciones específicas pueden y deben atenderse de inmediato. Por ejemplo, un observatorio mundial de la IA puede gestionarse dentro de un intermediario neutral ya existente, capaz de trabajar de forma distribuida con otros organismos técnicos sin ánimo de lucro y agencias cualificadas en asuntos relacionados con la investigación de la IA y su impacto en la sociedad.
Para establecer una estructura eficaz de gobernanza internacional de la IA son necesarios cinco componentes simbióticos:
1. 1. Una organización técnica neutral que clasifique los marcos jurídicos, las mejores prácticas y las normas que han alcanzado el máximo nivel de aceptación mundial. Serán necesarias reevaluaciones continuas a medida que evolucionen las tecnologías y los paradigmas normativos.
2. Un Observatorio Mundial de la IA (GAIO) encargado de elaborar informes normalizados, tanto a nivel general como de ámbitos específicos, sobre las características, funciones y prestaciones de la IA y los sistemas relacionados que se lancen y desplieguen. Estos esfuerzos permitirán evaluar la conformidad de los sistemas de IA con las normas existentes que se hayan acordado. Los informes deben actualizarse lo más cerca posible al tiempo real para facilitar la coordinación de respuestas tempranas antes de que se haya producido un daño significativo. Los observatorios que ya existen, como el de la OCDE, no representan a todos los países y partes interesadas, ni proporcionan supervisión, ni permiten una profundidad de análisis suficiente, ni cumplen todas las tareas que se proponen a continuación.
- La GAIO orquestaría el debate y la cooperación mundiales convocando a expertos y a otras partes interesadas pertinentes e integradoras, según fuera necesario.
- GAIO publicaría un informe anual sobre el estado de la IA en el que se analizarían las cuestiones clave, los patrones, los esfuerzos de normalización y las inversiones que han surgido durante el año anterior, así como las opciones que los gobiernos, los líderes electos y las organizaciones internacionales deben tener en cuenta. Se trataría de una prospectiva estratégica y de escenarios centrados principalmente en las tecnologías que probablemente entren en funcionamiento en los dos o tres años siguientes. Estos informes fomentarán un acuerdo lo más amplio posible sobre los fines y las normas aplicables a las plataformas y sistemas específicos de IA.
- GAIO desarrollaría y actualizaría continuamente cuatro registros. Juntos, un registro de incidentes adversos y un registro de aplicaciones nuevas, emergentes y (cuando sea posible) anticipadas ayudarán a los reguladores gubernamentales e internacionales a atender los posibles daños antes del despliegue de nuevos sistemas.
- El tercer registro hará un seguimiento de la historia de los sistemas de IA, incluyendo información sobre pruebas, verificación, actualizaciones y la experiencia de los Estados que los han desplegado. Esto ayudará a los numerosos países que carecen de recursos para evaluar dichos sistemas. Un cuarto registro mantendrá un repositorio mundial de datos, código y procedencia de modelos.
3. Una capacidad de gobernanza normativa con poderes coercitivos limitados para promover el cumplimiento de las normas mundiales para el uso ético y responsable de la IA y las tecnologías relacionadas. Esto podría implicar la creación de un sistema de "pasaporte tecnológico" para facilitar las evaluaciones entre jurisdicciones y panoramas normativos. El apoyo de los actores internacionales existentes, como la ONU, proporcionaría legitimidad y un mandato para esta capacidad. Podría desarrollarse dentro del ecosistema de las Naciones Unidas mediante la colaboración entre la UIT, la UNESCO y la OACDH, con el apoyo de organizaciones técnicas mundiales como el IEEE.
4. Un conjunto de herramientas de evaluación de la conformidad y certificación de procesos para promover un comportamiento responsable y contribuir a las medidas de creación de confianza y a los esfuerzos de transparencia. Dichas evaluaciones no deben ser realizadas por las empresas que desarrollan sistemas de IA o las herramientas utilizadas para evaluar dichos sistemas.
5. El desarrollo continuo de herramientas tecnológicas ("regulación en una caja"), ya sea integradas en software o hardware o en ambos, es necesario para la transparencia, la responsabilidad, la validación y los protocolos de seguridad de auditoría, y para abordar cuestiones relacionadas con la preservación de los derechos humanos, sociales y políticos en todos los bienes digitales, cada uno de los cuales es un elemento crítico de las medidas de fomento de la confianza. Desarrolladas con otros actores del espacio digital, estas herramientas deben ser auditadas continuamente para detectar actividades erróneas y adaptadas por la comunidad científica y técnica. Deben ser accesibles a todas las partes sin coste alguno. La ayuda de la comunidad empresarial para proporcionar y desarrollar herramientas e información sobre la viabilidad técnica es esencial, al igual que sus sugerencias sobre las normas. Sin embargo, es inaceptable que los que más tienen que ganar financieramente se apoderen de la regulación. Las empresas no deben desempeñar ningún papel en el establecimiento de las normas, en su aplicación o en quién debe disponer de las herramientas.
Somos plenamente conscientes de que este esqueleto de marco plantea innumerables preguntas sobre cómo se aplican y gestionan estos mecanismos de gobernanza, cómo se puede establecer y mantener su neutralidad y fiabilidad, o cómo se decidirán los desacuerdos políticos y técnicos y se remediarán las posibles consecuencias perjudiciales. Sin embargo, se ofrece para estimular una reflexión más profunda sobre lo que hemos aprendido de la promoción y el gobierno de las tecnologías existentes, lo que se necesita y los próximos pasos a dar.
Tecnologías emergentes y convergentes
Este marco tiene importantes aplicaciones potenciales más allá del espacio de la IA. Si son eficaces, muchos de los componentes propuestos podrían servir de modelo para la gobernanza de campos aún no previstos del descubrimiento científico y la innovación tecnológica. Si bien la IA generativa hace urgente la instauración de una gobernanza internacional, muchos otros campos existentes, emergentes y previstos de descubrimiento científico e innovación tecnológica requerirán supervisión. Estos campos amplifican el desarrollo de los demás y convergen de formas difíciles de predecir.
Esta propuesta, elaborada por Carnegie Council for Ethics in International Affairs (CCEIA) en colaboración con el IEEE, se basa en ideas y conceptos debatidos en dos talleres multidisciplinares de expertos organizados en junio de 2023 por Carnegie Council's AI & Equality Initiative e IEEE SA y acogidos por la UNESCO en París y la UIT en Ginebra. No obstante, la participación en dichos talleres no implica la aprobación de este marco ni de ninguna de las ideas específicas que lo componen.
Participantes en el taller (por orden alfabético):
Doaa Abu Elyounes, Phillippa Biggs, Karine Caunes, Raja Chatila, Sean Cleary, Nicolas Davis, Cristian de Francia, Meeri Haataja, Peggy Hicks, Konstantinos Karachalios, Anja Kaspersen, Gary Marcus, Doreen Bogdan-Martin, Preetam Maloor, Michael Møller, Corinne Momal-Vanian, Geoff Mulgan, Gabriela Ramos, Nanjira Sambuli, Reinhard Scholl, Clare Stark, Sofia Vallecorsa, Wendell Wallach, Frederic Werner.
Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este artículo son las de sus autores y no reflejan necesariamente la posición de Carnegie Council.