Por qué debe preocuparnos el marketing en línea impulsado por la IA

24 de noviembre de 2021

A estas alturas todos entendemos el compromiso que supone utilizar Internet: Dejamos que las empresas recopilen datos sobre nosotros y, a cambio, nos ofrecen una experiencia de usuario más personalizada. Pero, ¿y si te dijera que el arco a largo plazo de esta compensación va más allá de lo que puedas imaginar?

Todo lo que hacemos en Internet genera datos que las empresas de plataformas recopilan y clasifican cuidadosamente para crear perfiles digitales. A continuación, sus sistemas de inteligencia artificial (IA) correlacionan nuestros perfiles digitales con los de otros usuarios para determinar lo que vemos en Internet: cómo se interpretan nuestras consultas de búsqueda, qué publicaciones se incluyen en nuestras redes sociales, qué anuncios se nos muestran, etc.

Este tipo de microtargeting, basado en perfiles psicológicos individuales, explota lo que Daniel Kahneman, premio Nobel de Economía en 2002, denominó pensamiento "rápido", es decir, las decisiones que tomamos con rapidez y sin pensarlas conscientemente, como hacer clic en un enlace, ver otro vídeo, seguir desplazándonos por nuestro timeline o colgar el teléfono. Cuanto más nos conozca la IA, más hábilmente podrá manipular nuestras emociones y decisiones.

La aplicación más obvia de este poder es la publicidad, que subyace en la mayoría de los modelos de negocio en línea. El argumento a favor de la publicidad personalizada es que nos ayuda a evitar la fatiga de decisión al presentarnos las opciones de compra más relevantes. Pero eso sólo nos ayuda si queremos comprar. A menudo, los anuncios nos tientan a comprar cosas que no necesitamos o no podemos permitirnos, en contra de nuestro buen juicio.

Para poder ofrecernos más anuncios, los algoritmos primero tienen que mantener nuestra atención. Las recientes películas de Netflix El gran hack y El dilema social exploran las implicaciones de esto. Una de ellas es que estos algoritmos tienden a mostrarnos contenido político con el que la IA cree que estaremos de acuerdo, en lugar de puntos de vista alternativos que podría beneficiarnos considerar y con los que comprometernos.

El efecto es la fractura de las sociedades, al dar a todos la impresión de que los demás piensan mayoritariamente como ellos. Y lo que es más insidioso, mantener nuestra atención con frecuencia también significa mostrarnos versiones más extremas de puntos de vista con los que tendemos a estar de acuerdo, polarizando aún más a la gente.

En 2016, el escándalo de Cambridge Analytica puso de manifiesto que los perfiles de Facebook podían utilizarse para manipular las inclinaciones políticas de las personas dirigiéndoles información errónea adaptada a sus vulnerabilidades personales. Esta capacidad no ha desaparecido: Recientemente, Frances Haugen, denunciante de Facebook, alegó que la empresa sigue "amplificando a sabiendas el descontento político, la desinformación y el odio", y Karen Hao, de MIT TechnologyReview, reveló recientemente cómo las grandes empresas de plataformas y los gigantes tecnológicos están pagando grandes cantidades de dinero a los operadores de las llamadas "páginas clickbait", haciendo que estas fracturas sean aún mayores. Como escribe Hao, en países "donde Facebook es sinónimo de Internet, el contenido de baja calidad abruma a otras fuentes de información".

Como alguien que lleva trabajando en el sector de la publicidad el tiempo suficiente como para haber sido testigo directo del impacto de la transformación digital, la dirección en la que nos movemos está clara. Estamos creando un futuro "clickbait" en el que sistemas de IA cada vez más potentes nos manipulan para que tomemos decisiones que maquinan deseos y a menudo van en contra de nuestras necesidades reales: decisiones sobre cómo gastar nuestro dinero y nuestro tiempo, y qué sentir y pensar sobre los demás.

Si eso no es suficientemente distópico, consideremos que otras aplicaciones de sistemas de IA utilizan cada vez más nuestros datos para tomar decisiones críticas sobre nuestras vidas, como si nos llaman o no para una entrevista de trabajo, nos ofrecen un tratamiento médico o nos aprueban un préstamo. Muchas de estas aplicaciones utilizan algoritmos de "caja negra" que no pueden explicar ni justificar sus decisiones, y es probable que tengan prejuicios sobre características como la raza o el sexo.

Un ejemplo famoso de 2018 fue un algoritmo de recursos humanos de Amazon que se descubrió que proponía menos mujeres para las entrevistas. El algoritmo no había sido programado para preferir a los candidatos masculinos, sino que había aprendido de sus datos de entrenamiento a preferir a los candidatos con características que predecían que eran hombres.

Por ejemplo, un algoritmo utilizado en recursos humanos examinará el CV de un candidato a un puesto de trabajo, mientras que un algoritmo utilizado para tomar decisiones sobre préstamos examinará los formularios de solicitud y el historial crediticio del solicitante. Pero, ¿y si, en el futuro, las empresas de plataformas y terceros actores acceden a más datos de nuestro perfil digital? Y, al hablar de un futuro metaverso, ¿cómo podemos asegurarnos de que sea algo más que un universo de "clickbait" bien seleccionado?

Imagine, por ejemplo, que investiga los síntomas de una enfermedad cardiaca. Más tarde, busca un seguro médico. El sistema de IA deduce de sus búsquedas recientes que puede tener un problema de corazón, por lo que le cotiza una prima más alta. O imagina que compras o incluso buscas pastillas de ácido fólico y más tarde solicitas un trabajo. El algoritmo deduce de tu historial de compras en Internet que puedes estar o estás pensando en quedarte embarazada, por lo que recomienda no llamarte para una entrevista.

Por el momento suponemos que los datos personales que compartimos con una entidad -Google, el banco, una compañía de seguros- no serán necesariamente compartidos después con todas las demás. Pero no debemos ser ingenuos: toda la información que compartimos en Internet tiene el potencial de ser accedida por cualquier tercero, y sin una normativa al respecto, es cada vez más probable que esto ocurra. Entre estos terceros se incluyen no sólo otras empresas, sino piratas informáticos y gobiernos, que pueden utilizar la información contra nosotros de formas que no podemos prever.

El intercambio de datos personales por una mejor experiencia en línea puede parecer sencillo. Pero el marketing basado en IA está creando vulnerabilidades sutiles y multifacéticas que, como individuos y como sociedad, no estamos preparados para afrontar.

Volha Litvinets fue anteriormente investigadora de la Iniciativa Inteligencia Artificial e Igualdad de Carnegie Council. También es candidata al doctorado en la Universidad de la Sorbona (París, Francia), donde trabaja sobre la ética de la inteligencia artificial en el ámbito del marketing digital.Antes de iniciar su doctorado, Litvinets cursó dos másteres en filosofía y en filosofía política y ética.

También le puede interesar

Portada del libro A Dangerous Master. CRÉDITO: Sentient Publications.

18 DE ABRIL DE 2024 - Artículo

Un maestro peligroso: Bienvenido al mundo de las tecnologías emergentes

En este prólogo a la edición de bolsillo de su libro "Un maestro peligroso", Wendell Wallach analiza los avances y las cuestiones éticas de la IA y las tecnologías emergentes.

MAR 22, 2024 - Podcast

Dos cuestiones fundamentales en la gobernanza de la IA, con Elizabeth Seger

En este podcast "Inteligencia Artificial e Igualdad", Wendell Wallach, becario de Carnegie-Uehiro, y Elizabeth Seger, de Demos, debaten sobre cómo hacer que la IA generativa sea segura y democrática.

23 DE FEBRERO DE 2024 - Artículo

¿Qué queremos decir cuando hablamos de "democratización de la IA"?

Elizabeth Seger, directora del centro de investigación sobre política digital CASM de Demos, analiza las cuatro acepciones del término.