Si "la confianza es imprescindible", tres cosas prácticas que deben hacer los reguladores de la IA

27 de enero de 2022

"En lo que respecta a la inteligencia artificial, la confianza es una obligación, no algo que se pueda tener por bueno", proclamó Margrethe Vestager, responsable de asuntos digitales de la Comisión Europea, en una declaración de lanzamiento de las tan esperadas normas de la Unión Europea sobre inteligencia artificial (IA). Y tiene razón. Las nuevas normas y medidas propuestas por la UE serán fundamentales para ganarse la confianza de los ciudadanos, ya que garantizarán el respeto de la igualdad, la ética y los derechos humanos en el uso de la IA. Pero no son sólo las tecnologías las que deben considerarse dignas de confianza; el propio sistema de gobernanza y los reguladores que lo aplican también deben ganarse la confianza de los ciudadanos.

El peso cada vez mayor que los ciudadanos conceden a la gobernanza como base de la confianza se ha observado en las actitudes ante la gobernanza de la vacuna COVID-19 en todo el mundo, donde la confianza en el proceso de aprobación importaba tanto como la confianza en las propias vacunas a la hora de combatir la indecisión ante las vacunas.

Su importancia en el espacio digital se vio reforzada por el Centro para la Ética de los Datos del gobierno británico, que descubrió en su informe COVID-19 Repository & Public Attitudes 2020 Review que "la confianza en las normas y reglamentos que rigen la tecnología es el principal factor predictivo de si alguien cree que la tecnología digital tiene un papel que desempeñar en la respuesta a COVID-19. Esta confianza en la gobernanza fue sustancialmente más predictiva que variables de actitud como el nivel de preocupación de la gente por la pandemia o la creencia de que la tecnología sería eficaz, y variables demográficas como la edad y la educación". Esta confianza en la gobernanza fue sustancialmente más predictiva que variables de actitud como el nivel de preocupación de la gente por la pandemia, o la creencia de que la tecnología sería eficaz; y variables demográficas como la edad y la educación".

Pero, ¿qué deben hacer los reguladores de todo el mundo para ser considerados dignos de confianza y ganarse así la confianza del público? Tres factores críticos identificados en la reciente investigación de TIGTech sobre Confianza y Gobernanza Tecnológica pueden ayudar:

1. Garantizar la aplicación efectiva

Nuestros estudios demuestran que los ciudadanos confían más en la gobernanza cuando ven que funciona: cuando las instituciones de gobernanza defienden visiblemente el interés público, se defienden los valores, se aplican las leyes, se sanciona a las organizaciones y se publican las infracciones. Es más probable que el público pierda la confianza cuando percibe que los reguladores están más preocupados por allanar el camino del desarrollo tecnológico y dar prioridad a las preocupaciones financieras que a la ética, los valores sociales y los derechos humanos.

La propuesta de Ley de Inteligencia Artificial de la UE es realmente innovadora al tratar de mantener el equilibrio entre el fomento de la innovación y la defensa de los valores europeos mediante la identificación de aplicaciones claramente "inaceptables" y de "alto riesgo", que requieren una atención especial, frente a la luz verde para ámbitos menos polémicos. Pero comentaristas como Access Now, una coalición de más de 110 organizaciones de la sociedad civil, piden mucha más transparencia sobre los criterios de asignación de riesgos y los proveedores y usuarios de IA, una rendición de cuentas más clara para los infractores y derechos significativos de reparación para las personas afectadas por la IA. Todo ello contribuirá a demostrar que la Ley es digna de confianza.

El principal mecanismo de aplicación es la imposición de importantes sanciones económicas a las empresas tecnológicas, de hasta el 6 por ciento de la facturación mundial, cuya evaluación depende en gran medida de la autorregulación. ¿Será suficiente? Históricamente, incluso las grandes sanciones económicas se han considerado a menudo como "un coste de hacer negocios", y la autorregulación suele dejar los comportamientos en gran medida inalterados.

A medida que se aplica este nuevo marco jurídico, los Estados miembros pueden tener que considerar otros enfoques más innovadores y eficaces que las simples multas para garantizar que esta normativa cumpla su función de exigir responsabilidades a las empresas y ganarse así la confianza de los ciudadanos.

2. Ser más humano, abierto y comunicativo

La gente tiene más confianza en la regulación cuando sabe más sobre quién está al mando. En el Reino Unido, por ejemplo, el 82% de las personas se sienten más protegidas cuando han oído hablar del regulador y al 67% le gustaría saber más sobre lo que hacen los reguladores, según el informe de PA Consulting Rethinking Regulators.

Con este nuevo marco jurídico, los Estados miembros deberán designar una o varias autoridades nacionales competentes para hacer cumplir la normativa a nivel nacional. Es importante confiar en que den amplia publicidad a quiénes son estos organismos y de qué son responsables y les animen a abrirse mucho más sobre cómo trabajan, qué hacen y cómo está surtiendo efecto su planteamiento. Aunque resulte incómodo para algunos, es especialmente útil cuando los representantes de los reguladores son nombrados y visibles y salen a la comunidad y a los medios de comunicación a hablar de lo que hacen y de cómo está funcionando, y de cuándo no.

"Sean menos distantes, más abiertos, más humanos" es un tema recurrente en los diálogos ciudadanos que exploran la confianza en los reguladores; deberían empezar por sus sitios web. No es casualidad que los dos organismos reguladores más fiables del Reino Unido -la Agencia de Normas Alimentarias y la Autoridad de Fertilización Humana y Embriología- tengan los sitios web más accesibles e informativos. Están redactados en un lenguaje sencillo, dejan claro lo que hacen y demuestran que son abiertos, accesibles e integradores en el desempeño de sus funciones.

3. Capacitarnos y desarrollar relaciones integradoras con los ciudadanos

La Ley de Inteligencia Artificial de la UE no permite incorporar las opiniones y los valores de los ciudadanos y de las personas afectadas en última instancia por la IA a la hora de definir su ámbito de aplicación. Como señalan las propuestas del Instituto Ada Lovelace del Reino Unido para reforzar la Ley de Inteligencia Artificial, tampoco permite de manera sustancial que las personas se quejen o impugnen los sistemas de inteligencia artificial por violación de los derechos fundamentales.

Nuestro trabajo sobre confianza y gobernanza tecnológica demuestra que dar a los ciudadanos la capacidad de influir en decisiones éticas complejas y en la regulación es un importante motor de confianza. Esto no solo se debe a que, como destaca la investigación, "es más probable que los ciudadanos confíen en una decisión en la que ha influido la gente corriente que en una tomada exclusivamente por el gobierno o a puerta cerrada"; o incluso porque cuanta más diversidad de perspectivas se incorpore a la toma de decisiones, más sabios serán los juicios, sino porque la participación y la capacitación de los ciudadanos confieren más legitimidad democrática y, por tanto, percepción de fiabilidad al proceso de diseño de la gobernanza.

Si la confianza es realmente una necesidad, los reguladores de la IA en la UE y fuera de ella tendrán que desarrollar una relación nueva y más integradora con los ciudadanos, implicándolos directamente o a través de intermediarios imparciales en los complejos juicios éticos que habrá que hacer para que la IA funcione para todos nosotros, sin causar más problemas de los que resuelve. Un ejemplo de ello puede encontrarse en el Reino Unido con el Consejo Ciudadano de Biometría, que informará directamente la política y la gobernanza de las tecnologías de reconocimiento facial en el Reino Unido.

Estas tres importantes consideraciones contribuirán en gran medida a ganar la confianza de los ciudadanos en la gobernanza de la IA y, potencialmente, su confianza en sus muy diversas aplicaciones. También cambian el papel de los reguladores, haciéndoles pasar, como propone PA Consulting, de ser "Vigilantes de la Industria, a Campeones del Público". Las nuevas normas de la Comisión están allanando el camino para este papel, pero sólo serán eficaces si los reguladores de los Estados miembros y de otros países consiguen defender el interés público a través de una aplicación efectiva y un compromiso significativo para ayudar a la IA a desarrollar su potencial para el bien de la sociedad.


Hilary Sutcliffe, SocietyInside, directora de la iniciativa Trust in Tech Governance, www.tigtech.org

También le puede interesar

31 JULIO 2024 - Podcast

Responsible AI & the Ethical Trade-offs of Large Models, con Sara Hooker

En este episodio, Anja Kaspersen, Senior Fellow, habla con Sara Hooker, de Cohere for AI, sobre el diseño de modelos, el sesgo de los modelos y la representación de datos.

24 DE JULIO DE 2024 - Podcast

IA y guerra: A New Era for Arms Control & Deterrence, con Paul Scharre

La Senior Fellow Anja Kaspersen habla con Paul Scharre, del Center for a New American Security, sobre las cuestiones emergentes en la intersección entre tecnología y guerra.

2 DE JULIO DE 2024 Podcast

Cibernética, vigilancia digital y el papel de los sindicatos en la gobernanza tecnológica, con Elisabet Haugsbø

Anja Kaspersen, investigadora sénior, habla con Elisabet Haugsbø, presidenta del sindicato tecnológico Tekna, sobre su trayectoria en ingeniería, la resiliencia en la era de la IA y mucho más.