Rusia, China y las grandes empresas tecnológicas utilizan mujeres falsas para obtener clics
WASHINGTON (AP) — Cuando el investigador de desinformación Wen-Ping Liu investigó los esfuerzos de China para influir en las recientes elecciones de Taiwán utilizando cuentas falsas en las redes sociales, algo inusual se destacó en los perfiles más exitosos.
Eran mujeres, o al menos eso es lo que parecían ser. Los perfiles falsos que decían ser mujeres obtuvieron más participación, más ojos y más influencia que las cuentas supuestamente masculinas.
“Fingir ser una mujer es la forma más fácil de ganar credibilidad”, dijo Liu, investigador del Ministerio de Justicia de Taiwán.
Ya sean agencias de propaganda chinas o rusas, estafadores en línea o chatbots de IA, vale la pena ser mujer, lo que demuestra que, si bien la tecnología puede volverse cada vez más sofisticada, el cerebro humano sigue siendo sorprendentemente fácil de hackear gracias en parte a los antiguos estereotipos de género que han migrado del mundo real al virtual.
Durante mucho tiempo la gente ha asignado características humanas, como el género, a objetos inanimados —los barcos son un ejemplo_, por lo que tiene sentido que los rasgos humanos hagan que los perfiles falsos de las redes sociales o los chatbots sean más atractivos. Sin embargo, las preguntas sobre cómo estas tecnologías pueden reflejar y reforzar los estereotipos de género están recibiendo atención a medida que ingresan al mercado más asistentes de voz y chatbots habilitados para inteligencia artificial, desdibujando aún más la línea entre hombre (y mujer) y máquina.
“Quieres inyectar algo de emoción y calidez y una manera muy fácil de hacerlo es elegir el rostro y la voz de una mujer”, dijo Sylvie Borau, profesora de marketing e investigadora de internet en Toulouse, Francia, cuyo trabajo ha descubierto que los usuarios de internet prefieren bots “femeninos” y los ven como más humanos que las versiones “masculinas”.
La gente tiende a ver a las mujeres como más cálidas, menos amenazantes y más agradables que los hombres, dijo Borau a The Associated Press. Mientras tanto, a menudo se percibe que los hombres son más competentes, aunque también más propensos a ser amenazantes u hostiles. Debido a esto, muchas personas pueden estar, consciente o inconscientemente, más dispuestas a interactuar con una cuenta falsa que se hace pasar por femenina.
Cuando el director general de OpenAI, Sam Altman, estaba buscando una nueva voz para el programa ChatGPT AI, se acercó a Scarlett Johansson, quien comentó que Altman le dijo que los usuarios encontrarían su voz “reconfortante”. Hace unos años, la actriz dio voz a una asistente de computadora en la película “Her”. Johansson rechazó la solicitud de Altman y amenazó con demandar cuando la compañía utilizó lo que ella consideró una voz “inquietantemente similar”. OpenAI puso la nueva voz en espera.
Las fotos de perfil femeninas, en particular aquellas que muestran mujeres con piel perfecta, labios exuberantes y ojos muy abiertos con atuendos reveladores, pueden ser otro atractivo online para muchos hombres.
Los usuarios también tratan a los bots de manera diferente según su sexo percibido: la investigación de Borau ha encontrado que los chatbots “femeninos” tienen muchas más probabilidades de recibir acoso sexual y amenazas que los bots “masculinos”.
Los perfiles femeninos en las redes sociales reciben en promedio más de tres veces más visitas en comparación con los de los hombres, según un análisis de más de 40.000 perfiles realizado para AP por Cyabra, una empresa tecnológica israelí que se especializa en la detección de bots. Cyabra descubrió que los perfiles femeninos que dicen ser más jóvenes obtienen la mayor cantidad de visitas.
“Crear una cuenta falsa y presentarla como una mujer ayudará a que la cuenta tenga más alcance que si se le presenta como un hombre”, según el informe de Cyabra.
Las campañas de influencia en línea montadas por naciones como China y Rusia han utilizado durante mucho tiempo a mujeres falsas para difundir propaganda y desinformación. Estas campañas a menudo explotan la opinión de la gente sobre las mujeres. Algunas parecen abuelas sabias y cariñosas que imparten sabiduría casera, mientras que otras imitan a mujeres jóvenes, convencionalmente atractivas, ansiosas por hablar de política con hombres mayores.
El mes pasado, investigadores de la firma NewsGuard descubrieron que se utilizaron cientos de cuentas falsas, algunas con imágenes de perfil generadas por inteligencia artificial, para criticar al presidente Joe Biden. Sucedió después de que algunos partidarios de Trump comenzaran a publicar una foto personal con el anuncio de que “no votarán por Joe Biden”.
Si bien muchas de las publicaciones eran auténticas, más de 700 procedían de cuentas falsas. La mayoría de los perfiles afirmaban ser mujeres jóvenes que vivían en estados como Illinois o Florida; uno se llamaba PatriotGal480. Pero muchas de las cuentas usaban un lenguaje casi idéntico y tenían fotos de perfil generadas por inteligencia artificial o robadas a otros usuarios. Y aunque no pudieron decir con certeza quién operaba las cuentas falsas, encontraron docenas con vínculos a países como Rusia y China.
La red social X eliminó las cuentas después de que NewsGuard se comunicara con la plataforma.
Un informe de la ONU sugirió que hay una razón aún más obvia por la que tantas cuentas falsas y chatbots son femeninos: fueron creados por hombres. El informe, titulado “¿Son sexistas los robots?”, analizó las disparidades de género en las industrias tecnológicas y concluyó que una mayor diversidad en la programación y el desarrollo de la IA podría conducir a menos estereotipos sexistas integrados en sus productos.
Para los programadores deseosos de hacer que sus chatbots sean lo más humanos posible, esto crea un dilema, dijo Borau: si seleccionan una persona femenina, ¿están fomentando puntos de vista sexistas sobre las mujeres de la vida real?
“Es un círculo vicioso”, señaló Borau. “Humanizar la IA podría deshumanizar a las mujeres”.