Definición e introducción
La IA generativa se refiere a una clase de tecnologías de inteligencia artificial (IA) que producen resultados como texto, imágenes, conjuntos de datos u otros medios en respuesta a las instrucciones del usuario. Estas tecnologías suelen basarse en el aprendizaje automático o en grandes modelos lingüísticos para identificar patrones en un conjunto de datos de entrenamiento y utilizarlos para generar resultados.
En un artículo de la Iniciativa Inteligencia Artificial e Igualdad (AIEI) de Carnegie Council titulado "Now is the Moment for a Systemic Reset of AI and Technology Governance" (Ahora es el momento de un reajuste sistémico de la gobernanza de la IA y la tecnología), los investigadores Wendell Wallach y Anja Kaspersen destacan los "asombrosos" avances de la tecnología de IA generativa en los últimos años, aunque advierten de que los algoritmos que hay detrás de estas soluciones "pueden descubrir y regurgitar palabras y conceptos perspicaces, pero no comprenden la profundidad del significado de estas palabras y conceptos".
La rapidez, facilidad de uso y accesibilidad de esta tecnología plantea problemas éticos tanto a las empresas como a las escuelas, universidades y particulares. Existen problemas de propiedad intelectual y derechos de autor que llevaron a Amazon a advertir a sus empleados que no compartieran el código con ChatGPT. En el caso de las instituciones académicas, dependiendo de cómo aprovechen los estudiantes la IA generativa, las prácticas aceptables de investigación y realización de tareas podrían verse afectadas.
Para más información sobre este tema, consulte los siguientes artículos, podcasts y recursos externos creados y seleccionados por la red de Carnegie Council.
Un marco para la gobernanza internacional de la IA
El rápido despliegue de las tecnologías de IA generativa pone de relieve la importancia de establecer mecanismos eficaces de gobernanza para la supervisión ética y jurídica.
Esta nota conceptual propone la creación inmediata de un Observatorio Mundial de la IA (GAIO) apoyado por mecanismos consultivos de cooperación para identificar y difundir las mejores prácticas, normas y herramientas para la gobernanza internacional integral de los sistemas de IA.
Ha llegado el momento de un reajuste sistémico de la gobernanza de la IA y la tecnología
Wallach y Kaspersen plantean una pregunta importante: ¿Cómo podemos garantizar que las tecnologías que se están desarrollando actualmente se utilicen para el bien común, en lugar de para el beneficio de unos pocos elegidos?
¿Qué respondió ChatGPT a la pregunta de qué significan los avances de la inteligencia artificial para la condición humana?
Suscríbase al Carnegie Ethics Newsletter para más análisis sobre ética y tecnología emergente.
¿Estamos automatizando la banalidad y radicalidad del mal?
En un artículo de la Iniciativa Inteligencia Artificial e Igualdad (AIEI) de Carnegie Council, los investigadores Anja Kaspersen y Wendell Wallach, junto con el consejero de la AIEI Kobi Leins, afirman:
"En la carrera por desplegar modelos y tecnologías de IA generativa, sin suficientes barreras o regulaciones, los individuos ya no son vistos como seres humanos sino como puntos de datos, que alimentan una máquina más amplia de eficiencia para reducir costes y cualquier necesidad de contribuciones humanas. De este modo, la IA amenaza con permitir tanto la banalidad como la radicalidad del mal, y alimenta potencialmente el totalitarismo".
Preguntas para el debate sobre la ética de la IA generativa
- ¿Es ético que alguien cree contenidos utilizando IA generativa sin revelar que se ha utilizado IA generativa?
- ¿Deben estar sujetos a derechos de autor los contenidos generados por IA, como imágenes, vídeos y otros medios? En caso afirmativo, ¿quién debería poseer los derechos de autor?
- ¿Debería regularse la IA generativa para garantizar que se utiliza de forma éticamente admisible? ¿Cómo podría ser este tipo de regulación?
- ¿Cómo pueden diseñarse las herramientas de IA generativa para minimizar los sesgos?
- ¿Debería prohibirse el uso de IA generativa en determinados contextos, es decir, para que un estudiante haga los deberes, para que los usuarios creen noticias falsas o propaganda, para que una empresa de entretenimiento cree una imagen o un vídeo profundamente falsos, etc.?
Más sobre ética e inteligencia artificial
MAR 29, 2022 - Podcast
¿Se puede codificar la empatía? con Pascale Fung
NOV 3, 2021 - Podcast
Es hora de un discurso científico honesto sobre IA y aprendizaje profundo, con Gary Marcus
En este episodio del podcast "Artificial Intelligence & Equality Initiative", la investigadora principal Anja Kaspersen habla con Gary Marcus sobre la necesidad de un discurso científico abierto y sano sobre la IA. ¿Qué podemos aprender de la física de partículas y del CERN?
JUN 22, 2022 - Podcast
¿Está la IA cambiando la geopolítica? con Angela Kane
En este episodio del podcast "Artificial Intelligence & Equality Initiative", Wendell Wallach, becario de Carnegie-Uehiro, y Angela Kane, presidenta del Consejo de Gobierno de la Universidad de las Naciones Unidas, debaten sobre cómo la inteligencia artificial puede cambiar la geopolítica.
Carnegie CouncilInteligencia Artificial e Igualdad
La Iniciativa Inteligencia Artificial e Igualdad pretende sentar las bases de un diálogo inclusivo sobre ética de la IA y potenciar la ética como herramienta para tomar decisiones meditadas sobre cómo la IA se integra en nuestras vidas.
Recursos adicionales sobre IA generativa
¿ChatGPT para agencias estatales y locales? No tan rápido.
Carnegie Council El investigador Arthur Holland Michel analiza algunas de las posibles repercusiones sociales del ChatGPT.
Leer¿Puede el ChatGPT resolver los acuciantes problemas de la ética mundial?
"Tratar el ChatGPT como una fuente objetiva de conocimiento, por lo tanto, no sólo es erróneo sino que reproduce las desigualdades en el conocimiento".
LeerÉtica de la IA generativa - BMJ
"La inteligencia artificial (IA) y su introducción en las vías clínicas plantea toda una serie de cuestiones éticas . . ."
LeerChatGPT ha echado gasolina a los temores de una carrera armamentística entre EE.UU. y China en torno a la IA
Wendell Wallach, miembro de Carnegie-Uehiro, analizó las implicaciones de una "carrera armamentística sobre la IA" entre ambos países.
LeerRiesgos y consideraciones éticas de la IA generativa
"Cuando se entrena con un gran corpus de datos de texto o imágenes, el modelo reproduce de forma natural cualquier sesgo representativo de su fuente".
Leer