Grandes modelos lingüísticos (LLM) y diplomacia
Una acción multilateral sólida depende de la capacidad de los Estados para recibir, procesar y generar grandes cantidades de texto escrito. Resoluciones, memorandos, comunicados, informes de los presidentes, transcripciones y mucho más; procesar y generar corpus tan extensos es una tarea importante, que muchas partes pueden considerar tediosa y repetitiva. Por lo tanto, es lógico que algunas partes se sientan impulsadas, si no lo están ya, a utilizar grandes modelos lingüísticos para respaldar sus esfuerzos en este ámbito.
¿Cuáles serán las contrapartidas éticas de esta práctica?
Recomendaciones para gestionar las compensaciones
El Acelerador Ético Carnegie convocó a expertos de organizaciones diplomáticas, el mundo académico y la sociedad civil para analizar más a fondo estas disyuntivas y elaborar una serie de propuestas para gestionarlas.
¿Cómo pueden las entidades diplomáticas sortear los problemas de transparencia, desigualdad y desvanecimiento de competencias que conlleva la adopción de LLM?
Para más información sobre la ética de la tecnología emergente y la IA, suscríbase al Boletín de Ética de Carnegie.
Convenciones del Acelerador Ético sobre la IA en la diplomacia
Taller 1
8 de noviembre de 2023
Carnegie Council
Nueva York, NY
Taller 2
19 de marzo de 2024
Carnegie Council
Nueva York, NY
Previsión de escenarios a partir del uso de la IA en la diplomacia
Si las entidades diplomáticas adoptan los LLM para tareas de traducción, investigación y predicción, ¿qué tipo de resultados podemos esperar? ¿Cuáles son los factores tecnológicos, económicos, sociales, culturales (etc.) clave que influyen en la eficacia del uso de los LLM?
Tres participantes en el Acelerador Ético Carnegie evalúan los impulsores y la probabilidad de seis escenarios distintos de IA.