"El estudio de las máquinas pensantes nos enseña más sobre el cerebro de lo que podemos aprender por métodos introspectivos. El hombre occidental se está exteriorizando en forma de artilugios". - William S. Burroughs, El almuerzo desnudo
Estamos viviendo una de las mayores crisis de refugiados desde la Segunda Guerra Mundial. A las pocas semanas del inicio de la invasión rusa de Ucrania, más de 4 millones de personas huyeron del país, según la Agencia de la ONU para los Refugiados (ACNUR). Aunque la atención de los medios de comunicación internacionales se centra en Europa del Este, esto se suma a una situación ya desesperada en el Sur Global: Se calcula que los países de esa región del mundo han absorbido dos tercios de los 82,4 millones de refugiados que se calcula que hay en el mundo.
El escenario en Europa del Este y el Sur Global es el de un número masivo de personas que cruzan las fronteras a toda prisa, buscando refugio y protección, y necesitando unas condiciones básicas para su estancia digna en el país de destino. Se trata de una situación enormemente difícil, pero las nuevas tecnologías han ayudado a los que llegan y a los que reciben a los inmigrantes. La tecnología puede ayudar a los países de acogida a gestionar grandes cantidades de información para tomar decisiones vitales para su seguridad y la de quienes cruzan sus fronteras. También ha ayudado a los migrantes de muchas maneras, como obteniendo geolocalización en tiempo real, estancias gratuitas a través de empresas de alquiler de inmuebles en línea y donaciones de criptomonedas; y luchando contra los apagones de Internet y las noticias falsas.
Las tecnologías de inteligencia artificial (IA) pueden mitigar potencialmente situaciones como la que hemos observado en Ucrania a principios de 2022 y durante años en el Sur Global. Utilizar perspectivas deontológicas y utilitarias para reflexionar sobre los pros y los contras del uso de la IA en el contexto migratorio es un ejercicio útil mientras esta situación sigue evolucionando.
IA, ética y migración
Es un hecho que la IA se ha utilizado cada vez más en el ciclo migratorio en los últimos años. Desde 2020, el uso de la IA aplicada a la migración se ha acelerado debido a la pandemia de COVID-19 para que los países vigilen sus fronteras con el fin de, ostensiblemente, ayudar a frenar el flujo del virus. Las tecnologías de IA también se han utilizado para la verificación de identidad, la deliberación sobre solicitudes de visado y otras decisiones administrativas, la gestión de fronteras y, mediante un algoritmo, el análisis de la probabilidad de que un migrante cause problemas. Aun así, su uso indiscriminado plantea retos tanto a los gestores de las políticas públicas como a los migrantes, incluidos posibles efectos adversos sobre la protección de los derechos humanos, como la discriminación y la violación de la intimidad.
La historia de las crisis migratorias revela que la realidad de una gran parte de los migrantes es de vulnerabilidad, como es el caso de los solicitantes de asilo y los refugiados; los desplazados; los niños, especialmente los separados y no acompañados; las mujeres; las minorías perseguidas por motivos raciales y étnicos; y los LGBTQI+. Sus vulnerabilidades pueden verse atenuadas o agravadas en función de cómo se utilice la IA durante la migración.
Por último, consideramos que las decisiones migratorias existen en un espectro de dos extremos. En un lado están los derechos humanos de los migrantes, mientras que en el otro está la seguridad nacional del Estado receptor. Reconocemos que los Estados tienen derecho a decidir la mejor manera de gestionar los flujos migratorios dentro de sus territorios. Sin embargo, también hacemos hincapié en que este poder no está exento de restricciones. Está limitado por las normas internacionales de derechos humanos adoptadas voluntariamente por los Estados miembros que forman parte del régimen internacional de movilidad humana.
Ejemplos del uso de la IA en la migración
El uso de la IA en la migración es una realidad cada vez más frecuente y generalizada. En Estados Unidos, la Extreme Vetting Initiative era un proyecto que supervisaba las actividades en las redes sociales de los solicitantes y titulares de visados para evaluar si contribuirían positivamente a la sociedad. Estados Unidos interrumpió el aspecto de aprendizaje automático de este proyecto tras las críticas de que el programa podía presentar información poco fiable y violar el derecho a la libertad de expresión en línea. En Nueva Zelanda, los algoritmos detectan probables personas no deseadas en función de la edad, el sexo y el origen étnico en el contexto migratorio. En la Unión Europea, el detector de mentiras iBorderCtrl, que funciona utilizando tecnologías de IA, ya se ha utilizado para controlar a los pasajeros en los aeropuertos. Grecia está probando el sistema Centaur para vigilar los campos de refugiados, que, basándose en algoritmos, predice y notifica posibles amenazas a la seguridad. En , Malasia, la verificación del cumplimiento de las medidas de restricción de entrada se hizo mediante drones. Las tecnologías de vigilancia utilizadas en la frontera entre Estados Unidos y México se han asociado a un aumento de las muertes de migrantes, que intentan eludir la vigilancia y acaban recorriendo rutas más peligrosas. En 2020, el programa de investigación e innovación Horizonte 2020 de la Unión Europea financió el proyecto Roborder. El proyecto aún no es funcional, pero pretende desarrollar un sistema de vigilancia fronteriza completamente autónomo que tenga la capacidad de identificar actividades delictivas en la frontera.
Deontología x Utilitarismo
Para reflexionar mejor sobre la migración y la IA, volvemos a las perspectivas filosóficas deontológica y utilitarista sobre el uso de la inteligencia artificial.
Los utilitaristas sostienen que si la IA puede producir mejores resultados que los humanos, debe utilizarse para maximizar las ganancias. Por ejemplo, un robot que decida sobre el estatus migratorio genera mayor seguridad para los Estados. Según esta perspectiva, la tecnología permite tomar decisiones rápidas, imparciales, precisas y basadas en datos. Por tanto, reduciría las posibilidades de sesgos y prejuicios humanos en el proceso de toma de decisiones. Incluso si una minoría se viera perjudicada por decisiones que no ejercen un juicio evaluativo adecuado, la decisión sería válida en un contexto más amplio, ya que beneficia a un número más significativo de personas. Desde el punto de vista de los Estados, las decisiones rápidas basadas en una gran cantidad de datos se traducirían en una mejor defensa de los intereses de seguridad nacional. Por lo tanto, el uso de la IA haría el proceso más justo, seguro y objetivo para un mayor número de personas. Así pues, los argumentos a favor del uso de la IA para la gestión de la migración son predominantemente utilitaristas.
Los deontólogos entienden que, aunque la IA pueda ofrecer mejores resultados que los humanos, es moralmente inadmisible emplearla para realizar tareas inherentemente humanas. Por ejemplo, utilizar un algoritmo para decidir quién puede entrar y permanecer en un país sería incorrecto, independientemente de sus consecuencias. En la raíz de este argumento está la noción de que la dignidad humana resulta de la interacción entre dos individuos que se reconocen libres y portadores de derechos. Así pues, la IA no debería utilizarse, al menos en algunos ámbitos que requieren una valoración, ya que carecería de la capacidad para comprender todo el contexto personal y migratorio y medir las repercusiones de tal decisión en el proyecto de vida de los migrantes.
Aunque sea bienintencionado, el uso de la IA puede convertirse en un instrumento de vigilancia y opresión. Su uso puede dar lugar a prácticas discriminatorias y violar los derechos a la intimidad, la movilidad y la asociación. Dado que la tecnología suele reproducir los prejuicios de las bases de datos que reflejan prácticas sociales injustas como el racismo y la xenofobia, es probable que los sistemas de IA reproduzcan éstas y otras formas de discriminación. Así, las personas podrían ser categorizadas en una perspectiva lombrosiana como poseedoras de una personalidad delincuente.
Además, los equipos que desarrollan algoritmos suelen carecer de diversidad de género, clase social y origen étnico, lo que aumenta las posibilidades de discriminación velada. La privacidad y el derecho de asociación se ven vulnerados con el acceso y consideración de tus redes sociales, amigos y comunidades, entre otros. En resumen, la IA no es capaz de comprender el contexto y los matices de las diferentes realidades migratorias. Por lo tanto, no debería tener la última palabra en este tema. Dicho esto, una perspectiva deontológica gravita sobre los derechos humanos de los migrantes.
Consideraciones finales
Cuando pensamos en cuestiones de migración, tenemos, por un lado, consideraciones de seguridad nacional y, por otro, los derechos humanos de los migrantes. Hasta ahora, el único argumento favorable al uso de la IA en estas situaciones que parece beneficiar a los migrantes es la posibilidad de acelerar las decisiones migratorias. Incluso si la IA puede maximizar el bienestar ofreciendo rapidez y seguridad nacional, su uso por parte de los gobiernos en el contexto migratorio debe encontrar límites basados en el principio de la dignidad humana.
Los gobiernos, el mundo académico y la sociedad civil deben debatir el uso de la IA en el contexto migratorio para evitar excesos y garantizar su uso eficiente. Abogamos por que se incorpore una noción clara de derechos humanos en el desarrollo de algoritmos y también en su aplicación y evaluación. Es esencial que los algoritmos migratorios sean desarrollados por equipos con diversidad de género, clase, etnia y origen nacional. Los mecanismos de revisión de los algoritmos antes y durante su uso, así como los procedimientos de rendición de cuentas, tienen que ser piezas centrales en el uso de esta tecnología.