Kobi Leins

Consejo de Asesores de la AIEI; King's College de Londres

Kobi Leins es investigador principal invitado en el King's College de Londres, experto de Standards Australia que asesora técnicamente a la Organización Internacional de Normalización sobre las próximas normas de IA, cofundador de Responsible Innovation of AI and the Life Sciences del IEEE, miembro no residente del Instituto de las Naciones Unidas de Investigación sobre el Desarme y miembro del consejo asesor de la Iniciativa Carnegie sobre Inteligencia Artificial e Igualdad (AIEI).

En la primera fase del proyecto se ha creado un mapa de las leyes australianas que inciden en la ciberseguridad y la ciberresiliencia, que se publicará en Internet en una página tipo Wikipedia, con el fin de a) mejorar la comprensión nacional e internacional de la legislación australiana en este ámbito y b) crear una comunidad de expertos y profesionales en la materia que estén al tanto de la evolución de la legislación cibernética adyacente. En la fase II de la investigación se identificarán las lagunas de la legislación vigente que requieran una rectificación o una nueva regulación. La fase III de la investigación desarrollará una matriz para que otros países elaboren un mapa similar de sus capacidades legales y lagunas en la legislación.

Leins ha dirigido programas y equipos en las áreas de derecho administrativo y justicia, derecho humanitario, legislación sobre derechos humanos y desarme con las Naciones Unidas y el Comité Internacional de la Cruz Roja. En 2006, Leins trabajó con el Servicio Internacional para los Derechos Humanos en Nueva York para promover la adopción de la Declaración sobre los Derechos de los Pueblos Indígenas, tras lo cual trabajó para la Secretaría de las Naciones Unidas. En 2005, se puso en contacto con Estados, científicos y partes interesadas para dar a conocer la Convención sobre Armas Biológicas y la Convención sobre Armas Químicas y promover su cumplimiento. En 2004, Leins trabajó como jurista en la Comisión de Indemnización de las Naciones Unidas en Ginebra, bajo los auspicios de una Resolución del Consejo de Seguridad, analizando y presentando reclamaciones por daños medioambientales tras la invasión de Kuwait por Irak en 1991. Lein salso preparó una matriz para examinar el cumplimiento nacional de la Convención sobre Armas Químicas, que muchos Estados adoptaron.

El doctorado de Leins en la Universidad de Melbourne versó sobre el Derecho internacional que regula el uso de nanomateriales en conflictos armados.

Obras destacadas

5 DE JUNIO DE 2023 - Artículo

¿Estamos automatizando la banalidad y radicalidad del mal?

Las iteraciones actuales de la IA son cada vez más capaces de fomentar el servilismo a un amo no humano, diciendo falsedades potencialmente sistemáticas con rotunda confianza.

NOV 1, 2022 - Podcast

IA para la accesibilidad de la información: AI, Law, & Social Justice, con la jueza Isabela Ferrari y el Dr. Kobi Leins

En este episodio del podcast "AI & Information Accessibility", la presentadora Ayushi Khemka analiza temas relacionados con la IA, el derecho y la justicia social con Isabela Ferrari, ...

18 DE AGOSTO DE 2022 - Artículo

¿Quién decide qué conversaciones están permitidas sobre inteligencia artificial?

En el desarrollo, el uso y la compra de sistemas de IA, es importante plantearse preguntas sobre quién ostenta el poder, qué conversaciones ...

JUN 15, 2022 - Artículo

¿Deus ex machina o Diabolus ex machina?

"Cada vez que vemos u oímos algo que se parece al "deus ex machina", o un uso inexplicable de la tecnología que se resuelve de forma demasiado simple o fácil, ...

25 DE MAYO DE 2022 - Podcast

Nuevas tecnologías de guerra y Derecho internacional: The Legal Limits to Weaponizing Nanomaterials, con Kobi Leins

En un fascinante podcast, la Senior Fellow Anja Kaspersen habla con Kobi Leins sobre su nuevo libro "New War Technologies and International Law: The Legal Limits ...

NOV 9, 2021 - Artículo

Siete mitos sobre el uso del término "humano en bucle": "¿Qué crees que estás haciendo, Dave?"

A medida que se potencian y amplían los sistemas de inteligencia artificial, con frecuencia se reclama un "control humano significativo" o una "interacción humana significativa en el bucle". Originalmente un ...

29 DE OCTUBRE DE 2021 - Artículo

Control Mental al Mayor Tom: El primer Estado que regula el uso de neurotecnologías

Una de las últimas fronteras de la ciencia sigue siendo la mente humana, pero no por mucho tiempo.

21 DE DICIEMBRE DE 2020 - Podcast

Iniciativa sobre IA e Igualdad: Sesgo algorítmico e implicaciones éticas

En este podcast de la Iniciativa sobre Inteligencia Artificial e Igualdad, Anja Kaspersen, investigadora principal, habla con tres investigadores del Centro de Inteligencia Artificial y ...