Responsabilidad de la IA

Definición e introducción

La responsabilidad de la IA se refiere a la idea de que la inteligencia artificial debe desarrollarse, desplegarse y utilizarse de manera que la responsabilidad de los malos resultados pueda asignarse a las partes responsables. La tecnología basada en IA suele plantear problemas de rendición de cuentas debido a la opacidad y complejidad de los sistemas de aprendizaje automático y profundo, al número de partes interesadas que suelen participar en la creación e implementación de productos de IA y al potencial de aprendizaje dinámico de la tecnología.

A menudo se critica a los sistemas de IA por ser una "caja negra", lo que significa que los usuarios no pueden explicar o interpretar completamente el proceso que hay detrás de un resultado. Si la toma de decisiones de la IA no puede explicarse o entenderse, resulta muy difícil asignar responsabilidades y hacer que las partes rindan cuentas por los resultados perjudiciales.

Para más información sobre la responsabilidad de la IA, consulte los siguientes recursos.

Pérdida de transparencia, trazabilidad y responsabilidad

"Los grandes modelos lingüísticos (LLM) son sistemas estocásticos inescrutables desarrollados en entornos cerrados, a menudo por empresas que no están dispuestas a compartir información sobre su arquitectura. Esto dificulta saber cómo y por qué un sistema consigue un determinado resultado. Eso, a su vez, dificulta el rastreo de la causa -y la responsabilización de las personas adecuadas- de los daños que puedan derivarse de los resultados del sistema."

Descargue el comunicado para saber más sobre las ventajas y desventajas de los LLM en diplomacia.

Descargar el comunicado

Recursos para la rendición de cuentas

6 DE OCTUBRE DE 2022 - Podcast

IA para la accesibilidad de la información: Ética y filosofía, con Emad Mousavi y Paolo Verdini

Emad Mousavi y Paolo Verdini debaten sobre la ética y la filosofía de la inteligencia artificial. Hablan del proyecto Ethics Bot y exploran cuestiones de responsabilidad.

8 DE JUNIO DE 2020 - Podcast

Máquinas misteriosas: The Road Ahead for AI Ethics in International Security, con Arthur Holland Michel.

¿Cómo aprendemos a confiar en los sistemas de IA y cuáles son las implicaciones de esta tecnología cuando las naciones se enfrentan a protestas masivas en un mundo post-pandémico?

Preguntas para el debate

  1. ¿Por qué es importante la transparencia en los sistemas de IA?
  2. ¿Quién debe responder cuando un sistema de IA comete un error?
  3. ¿Hasta qué punto los desarrolladores de IA deben responsabilizarse de las consecuencias imprevistas de los sistemas que crean?
  4. ¿Qué responsabilidades tienen las empresas, si es que tienen alguna, a la hora de hacer que sus sistemas de IA sean explicables?
  5. ¿Cómo podemos hacer que los complejos sistemas de IA sean más interpretables y qué papel debe desempeñar la educación en ese proceso?
  6. ¿Qué principios éticos y técnicos deben guiar el desarrollo de los sistemas de IA para protegerse de los problemas de responsabilidad de la IA?
  7. ¿Cómo puede regularse la cuestión de la responsabilidad de la IA?
  8. ¿Qué importancia tiene la explicabilidad de la IA en áreas críticas como la sanidad y la justicia penal?

Un marco para la gobernanza internacional de la IA

A la luz del rápido desarrollo de las aplicaciones de inteligencia artificial generativa, Carnegie Council for Ethics in International Affairs y el Instituto de Ingenieros Eléctricos y Electrónicos (IEEE) han desarrollado conjuntamente este marco a partir de las ideas debatidas en los talleres 2023.

La propuesta "se ofrece para estimular una reflexión más profunda sobre lo que hemos aprendido de la promoción y el gobierno de las tecnologías existentes, lo que se necesita y los próximos pasos a seguir".

Leer el marco

Recursos adicionales

Cómo utilizan las ciudades el poder de la contratación pública para una IA responsable

La Fundación Carnegie para la Paz Internacional analiza cómo los gobiernos locales de California están transformando una función tradicionalmente mundana en una palanca estratégica.

Leer

El desarrollo de mecanismos de rendición de cuentas para los sistemas de IA es fundamental para el desarrollo de una IA digna de confianza

El Center for American Progress presentó un comentario público a la política de responsabilidad en materia de IA de la Administración Nacional de Telecomunicaciones e Información (NTIA).

Leer

Marco de ética, transparencia y responsabilidad para la toma de decisiones automatizada

El gobierno británico ha publicado un marco de siete puntos para ayudar a los departamentos gubernamentales en el uso ético de los sistemas de toma de decisiones basados en IA.

Leer

IBM Design for AI | Rendición de cuentas

IBM sostiene que "cada persona implicada en la creación de IA en cualquier paso es responsable de considerar el impacto del sistema en el mundo, al igual que las empresas que invierten en su desarrollo".

Leer