Control Mental al Mayor Tom: El primer Estado que regula el uso de neurotecnologías

29 de octubre de 2021

Una de las últimas fronteras de la ciencia sigue siendo la mente humana, pero no por mucho tiempo. Los científicos ya pueden manipular recuerdos y emociones como el miedo o la ira, a golpe de nanoláser, mediante una técnica llamada optogenética. Rafael Yuste, profesor de biología de la Universidad de Columbia, afirma que los científicos "ya han conseguido implantar en el cerebro de ratones imágenes de cosas que en realidad no habían visto y que afectaban a su comportamiento". Junto con las neuroprótesis, las sondas neurales, los implantes de tejido intraneural y otros avances de la investigación neurológica, la capacidad de controlar y manipular el cerebro a distancia ha dejado de ser ciencia ficción. Mientras que antes las imágenes sólo permitían a los científicos observar tipos específicos de actividad dispar dentro del cerebro, ahora se están cartografiando y alterando las funciones cerebrales del mismo modo que se hizo con el genoma humano, con intentos similares de intervenir y manipular la función neuronal con fines muy diversos.

La semana pasada, Chile se convirtió en el primer país en legislar sobre la neurotecnología que puede manipular la mente, centrándose en los derechos a la identidad personal, el libre albedrío y la "privacidad mental", planteando la preocupación de que "el desarrollo científico y tecnológico debe estar al servicio de las personas y realizarse con respeto a la vida y a la integridad física y mental", dijo la Cámara de Diputados en un comunicado. La que esperemos sea la primera respuesta normativa estatal de muchas aborda la protección de la intimidad de los ciudadanos y, esperemos, de los derechos humanos. Lo que esta legislación no aborda es el uso de estas tecnologías fuera del contexto de los tiempos de paz, es decir, durante un conflicto armado o una guerra.

Estas tecnologías pueden ser utilizadas por los militares para manipular el comportamiento y la memoria humanos, o para inducir el miedo o la ira, por poner sólo un par de ejemplos. Los recientes avances en el uso del láser no se aplican cada vez más en el sentido "tradicional" de las armas, ya que sus efectos son neurológicos y reversibles. La optogenética ofrece la oportunidad de influir en el cerebro, en momentos concretos, para que muestre comportamientos específicos. Una mayor comprensión del funcionamiento de la memoria, la emoción y la cognición también dará lugar, casi con toda seguridad, a la manipulación de estas funciones. El impacto de estas intervenciones neuronales tiene el potencial de verse magnificado por otras tecnologías emergentes en los conflictos armados, especialmente en conjunción con otras tecnologías emergentes, incluidas las motas, que ya están en uso, los drones y otros sistemas automatizados.

Las leyes de la guerra prohíben las armas biológicas y químicas, y muchos otros tipos de armas y guerras, pero la regulación de la intervención en el cerebro humano (especialmente en formas que son reversibles) no fue prevista por los redactores de las leyes de la guerra hace décadas y es una aplicación real y amenazadora de las tecnologías que necesita una mayor consideración -y potencialmente una aplicación más reflexiva de la ley existente. El requisito legal de revisar las armas nuevas o modificadas debería incluir las armas tradicionales, pero también cualquier uso de la ciencia que se convierta en arma, para proteger los "derechos a la identidad personal", el libre albedrío y la "intimidad mental", no sólo en tiempos de paz, sino aún más en tiempos de guerra.

Este blog fue publicado originalmente el 19 de octubre de 2021 por Cambridge University Press. Más información sobre el impacto de las nuevas tecnologías en la guerra moderna en el libro de Kobi Leins New War Technologies and International Law, que saldrá a la venta en noviembre de 2021.

Kobi Leins es investigador principal de ética digital en la Facultad de Ingeniería e Informática de la Universidad de Melbourne y miembro no residente del Instituto de las Naciones Unidas de Investigación sobre el Desarme.

También le puede interesar

Portada del libro A Dangerous Master. CRÉDITO: Sentient Publications.

18 DE ABRIL DE 2024 - Artículo

Un maestro peligroso: Bienvenido al mundo de las tecnologías emergentes

En este prólogo a la edición de bolsillo de su libro "Un maestro peligroso", Wendell Wallach analiza los avances y las cuestiones éticas de la IA y las tecnologías emergentes.

MAR 22, 2024 - Podcast

Dos cuestiones fundamentales en la gobernanza de la IA, con Elizabeth Seger

En este podcast "Inteligencia Artificial e Igualdad", Wendell Wallach, becario de Carnegie-Uehiro, y Elizabeth Seger, de Demos, debaten sobre cómo hacer que la IA generativa sea segura y democrática.

23 DE FEBRERO DE 2024 - Artículo

¿Qué queremos decir cuando hablamos de "democratización de la IA"?

Elizabeth Seger, directora del centro de investigación sobre política digital CASM de Demos, analiza las cuatro acepciones del término.