Los grandes modelos lingüísticos no necesitan una pausa en la investigación, sino una retirada inmediata del producto.

26 de abril de 2023

Hilary Sutcliffe examina la gobernanza de la IA desde otro ángulo. . .

Me siento como si acabara de escapar de una secta después de ver la convincente presentación de Tristan Harris y Aza Raskin"El dilema de la IA". Este vídeo de una reunión privada de tecnólogos en San Francisco explica en términos fáciles de entender por qué los grandes modelos lingüísticos (LLM) como ChatGPT y Bard son tan peligrosos para las personas y la sociedad.

Harris y Raskin son fundadores del Center for Humane Technology, y también aparecen en El dilema social de Netflix, un documental sobre los peligros de las redes sociales. En "The AI Dilemma", ilustran cómo los problemas con los grandes modelos lingüísticos no se limitan a las cuestiones éticas obvias, como los escalofriantes chatbots sexualmente inapropiados ya integrados en Snapchat, o las habilidades de nivel de genio en la química de investigación que el software ha desarrollado por sí mismo, que puede decirle a cualquiera cómo hacer gas nervioso en sencillos pasos. Harris y Raskin muestran persuasivamente que estos problemas y muchos otros proliferarán porque el software se enseña a sí mismo y sus diseñadores no saben cómo lo hace, cómo detenerlo, cuáles podrían ser los daños sociales o cómo prevenirlos.

Es obvio que no necesitamos la "pausa de seis meses en la investigación" propuesta por los desarrolladores tecnológicos. Necesitamos una retirada inmediata de productos ahora, hasta que las empresas y sus diseñadores puedan demostrar a la sociedad y a los reguladores que pueden crear software seguro y que puede diseñarse con barandillas para evitar daños masivos a las personas y a la sociedad.

Me siento como si me hubiera liberado de una secta porque ahora veo la tecnología de otra manera y no puedo entender cómo caí en el bombo y también cómo los gobiernos no lo han hecho ya. No es que unos pocos se hayan "bebido el Kool-Aid" y hayan sucumbido a la narrativa de la inevitabilidad de la IA y su importancia esencial para la sociedad. Pero, de alguna manera, todos hemos bebido agua con Kool-Aid y nos hemos dejado engañar colectivamente por la narrativa de lo especial y lo inevitable que nos vende la comunidad de la IA en Silicon Valley.

Utilizo el término retirada de productos en lugar de moratoria, prohibición o pausa en la investigación porque, en términos sencillos, se trata de un producto defectuoso que nunca debería haber salido al mercado y que debe retirarse inmediatamente antes de que se produzcan más daños. Ni siquiera se trata de una retirada de producto del coste y la complejidad de, por ejemplo, los 3.200 millones de dólares que costó a Toyota la retirada mundial de 8,1 millones de coches porque el pedal del acelerador se atascó en las alfombrillas, o la retirada de 11 millones de coches de Volkswagen por hacer trampas en sus normas de emisiones, que con las facturas legales se calcula que les costará 18.000 millones de dólares. Sólo se trata de conseguir que tres empresas realicen la sencilla y barata tarea de retirar un software con el que de momento no ganan dinero, para hacer lo que deberían haber hecho en primer lugar: asegurarse de que es seguro para las personas y la sociedad antes de sacarlo al mercado.

Estas empresas que comercializan este software de IA no son tan especiales como les gusta pensar que son. Se limitan a probarlo, como hacen tantas empresas, para ganar tanto dinero como puedan, o matar o mantenerse a la altura de sus competidores, sin pensar realmente en lo que les ocurre a los individuos y a la sociedad en el proceso. Lo que se necesita para alejarlas de este mal hábito es un enfoque "pro-sociedad" de la innovación y la regulación, un sistema que tenga la capacidad de comprender y prevenir los impactos negativos más amplios en la sociedad, así como los daños a los individuos y a la economía.

Así pues, tras la retirada, cuando los productos estén fuera del mercado, debería llegarse a un acuerdo, tal vez convocado por una coalición mundial de grupos de la sociedad civil y ciudadanos, académicos, políticos, instituciones multilaterales, reguladores y empresas tecnológicas, sobre lo que es aceptable, cuáles deberían ser las compensaciones por el bien de la sociedad y cómo podría lograrse técnica y legalmente antes de permitir que los productos vuelvan al mercado.

Un buen punto de partida podría ser resucitar el excelente Congreso Internacional para la Gobernanza de la IA convocado(virtualmente en 2021) por Wendell Wallach, copresidente de la Iniciativa IA e Igualdad de Carnegie Council, que incluía esta coalición global y que estaba previsto que se reuniera en Praga justo cuando se produjo la pandemia COVID-19. ¡Cuenta conmigo!

Necesito un hashtag para esto: ¿Qué tal #LLMrecallnow?

Hilary Sutcliffe es miembro del Consejo Asesor de la AIEI y presentadora de Carnegie Council's Desde otro ángulo de .

Carnegie Council para la Ética en los Asuntos Internacionales es una organización independiente y no partidista sin ánimo de lucro. Las opiniones expresadas en este artículo son las del autor y no reflejan necesariamente la posición de Carnegie Council.

También le puede interesar

Portada del libro A Dangerous Master. CRÉDITO: Sentient Publications.

18 DE ABRIL DE 2024 - Artículo

Un maestro peligroso: Bienvenido al mundo de las tecnologías emergentes

En este prólogo a la edición de bolsillo de su libro "Un maestro peligroso", Wendell Wallach analiza los avances y las cuestiones éticas de la IA y las tecnologías emergentes.

23 DE FEBRERO DE 2024 - Artículo

¿Qué queremos decir cuando hablamos de "democratización de la IA"?

Elizabeth Seger, directora del centro de investigación sobre política digital CASM de Demos, analiza las cuatro acepciones del término.

26 DE MAYO DE 2021 - Podcast

Reflexiones creativas sobre la historia y el papel de la ética de la IA, con Wendell Wallach

¿Cómo se está configurando la nueva economía digital mundial? ¿Cuáles son las compensaciones? ¿Quiénes son las partes interesadas? ¿Cómo construimos la "inteligencia participativa"? En este ...