Vector azul

CRÉDITO: rawpixel.

24 de mayo de 2023 - Artículo

Silicon Valley viola a sabiendas los principios éticos de la IA. La sociedad no puede responder si dejamos que los desacuerdos envenenen el debate.

Este artículo apareció originalmente en Fortune.com.

Con las críticas al ChatGPT tan presentes en las noticias, también nos llegan cada vez más noticias de desacuerdos entre pensadores críticos con la IA. Aunque el debate sobre un tema tan importante es natural y esperado, no podemos permitir que las diferencias paralicen nuestra capacidad de avanzar en la ética de la IA en este momento crucial. En la actualidad, me temo que quienes deberían ser aliados naturales de las comunidades tecnológica/empresarial, política y académica están cada vez más enfrentados. Cuando el campo de la ética de la IA parece dividido, es más fácil que los intereses creados dejen de lado las consideraciones éticas.

Estos desacuerdos deben entenderse en el contexto de cómo hemos llegado al actual momento de excitación en torno a los rápidos avances de los grandes modelos lingüísticos y otras formas de IA generativa.

OpenAI, la empresa que está detrás de ChatGPT, se creó inicialmente como una organización sin ánimo de lucro en medio de mucha fanfarria sobre la misión de resolver el problema de la seguridad de la IA. Sin embargo, cuando quedó claro que el trabajo de OpenAI en grandes modelos lingüísticos era lucrativo, OpenAI se convirtió en una empresa pública. Desplegó ChatGPT y se asoció con Microsoft, que siempre ha intentado presentarse como la empresa tecnológica más preocupada por la ética.

Ambas empresas sabían que ChatGPT viola, por ejemplo, los principios éticos de la IA aprobados por la UNESCO. OpenAI incluso se negó a hacer pública una versión anterior de GPT, alegando su preocupación por los mismos posibles usos indebidos de los que ahora somos testigos. Pero para OpenAI y Microsoft, la tentación de ganar la carrera corporativa se impuso a las consideraciones éticas. Esto ha alimentado un cierto grado de cinismo a la hora de confiar en el autogobierno corporativo o incluso en los gobiernos para establecer las salvaguardas necesarias.

No debemos ser demasiado cínicos con los dirigentes de estas dos empresas, que se encuentran atrapados entre su responsabilidad fiduciaria para con los accionistas y un auténtico deseo de hacer lo correcto. Siguen siendo personas de buenas intenciones, al igual que todos los que expresan su preocupación por la trayectoria de la IA.

El mejor ejemplo de esta tensión es un tuit reciente del senador demócrata Chris Murphy y la respuesta de la comunidad de la IA. Al hablar de ChatGPT, Murphy tuiteó: "Algo se acerca. No estamos preparados". Y fue entonces cuando los investigadores y especialistas en ética de la IA se echaron encima. Procedieron a criticar al senador por no entender la tecnología y por caer en exageraciones futuristas y centrar la atención en cuestiones equivocadas. Murphy devolvió el golpe a uno de los críticos: "Creo que el efecto de sus comentarios es muy claro, intentar que la gente como yo no participe en la conversación, porque ella es más lista y la gente como ella es más lista que el resto de nosotros".

Me entristecen disputas como ésta. Las preocupaciones planteadas por Murphy son válidas, y necesitamos líderes políticos comprometidos en el desarrollo de salvaguardias legales. Su crítica, sin embargo, no se equivoca al cuestionar si estamos centrando la atención en las cuestiones adecuadas.

Para ayudarnos a comprender las diferentes prioridades de los diversos críticos y, con suerte, superar estas divisiones potencialmente perjudiciales, quiero proponer una taxonomía para la plétora de preocupaciones éticas planteadas sobre el desarrollo de la IA Veo tres cestas principales:

La primera cesta tiene que ver con la justicia social, la equidad y los derechos humanos. Por ejemplo, ahora se sabe que los algoritmos pueden exacerbar los prejuicios raciales, de género y de otro tipo cuando se entrenan con datos que encarnan esos prejuicios.

La segunda cesta es existencial: A algunos miembros de la comunidad de desarrollo de la IA les preocupa estar creando una tecnología que pueda amenazar la existencia humana. Una encuesta realizada en 2022 entre expertos en IA reveló que la mitad espera que la IA sea exponencialmente más inteligente que los humanos en 2059, y los últimos avances han llevado a algunos a adelantar sus estimaciones.

El tercer grupo se refiere a la preocupación por colocar modelos de IA en puestos de toma de decisiones. Dos tecnologías han centrado este debate: los vehículos autoconducidos y los sistemas de armas autónomas letales. Sin embargo, surgen preocupaciones similares a medida que los módulos de software de IA se integran cada vez más en los sistemas de control de todas las facetas de la vida humana.

En todos estos ámbitos se entremezclan el mal uso de la IA, como la difusión de desinformación para obtener beneficios políticos y económicos, y la preocupación bicentenaria por el desempleo tecnológico. Mientras que en la historia del progreso económico las máquinas han sustituido sobre todo al trabajo físico, las aplicaciones de la IA pueden sustituir al trabajo intelectual.

Simpatizo con todas estas preocupaciones, aunque he tendido a ser un escéptico amistoso hacia las preocupaciones más futuristas de la segunda cesta. Como en el ejemplo anterior del tuit del senador Murphy, los desacuerdos entre los críticos de la IA suelen tener su origen en el temor a que los argumentos existenciales distraigan la atención de cuestiones acuciantes sobre justicia social y control.

Sin embargo, no podemos permitir que el sano escepticismo y el debate se conviertan en una caza de brujas entre posibles aliados y socios.

Los miembros de la comunidad de la IA deben recordar que lo que nos une es más importante que las diferencias de énfasis que nos separan.

Este momento es demasiado importante.

Wendell Wallach es Carnegie-Uehiro Fellow en Carnegie Council for Ethics in International Affairs, donde codirige la Iniciativa sobre Inteligencia Artificial e Igualdad (AIEI). Es presidente emérito del Grupo de Estudio sobre Tecnología y Ética del Centro Interdisciplinario de Bioética de la Universidad de Yale.

Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este artículo son las del autor y no reflejan necesariamente la posición de Carnegie Council.

También le puede interesar

24 DE JULIO DE 2024 - Podcast

IA y guerra: A New Era for Arms Control & Deterrence, con Paul Scharre

La Senior Fellow Anja Kaspersen habla con Paul Scharre, del Center for a New American Security, sobre las cuestiones emergentes en la intersección entre tecnología y guerra.

2 DE JULIO DE 2024 Podcast

Cibernética, vigilancia digital y el papel de los sindicatos en la gobernanza tecnológica, con Elisabet Haugsbø

Anja Kaspersen, investigadora sénior, habla con Elisabet Haugsbø, presidenta del sindicato tecnológico Tekna, sobre su trayectoria en ingeniería, la resiliencia en la era de la IA y mucho más.

NOV 17, 2021 - Podcast

IA y guerra: ¿Estamos en un nuevo "momento caballo y tanque"? con Kenneth Payne

¿Transformarán los sistemas de IA el futuro campo de batalla de forma tan drástica que dejarán obsoletos los paradigmas y doctrinas existentes, alimentando nuevos e intensos dilemas de seguridad? En este "...