X frena algunas búsquedas de Taylor Swift por imágenes explícitas falsas
La red social X de Elon Musk ha bloqueado algunas búsquedas de Taylor Swift, pues circulan en internet imágenes pornográficas falsas de la cantante.
Los intentos de búsqueda del nombre de Swift sin comillas arrojaban como resultado el lunes un mensaje de error y un mensaje para que los usuarios volvieran a intentar su búsqueda, con la leyenda: “No te preocupes, no es tu culpa”.
Sin embargo, al entrecomillar el nombre de Swift aparecieron publicaciones que mencionaban su nombre.
Las imágenes de Swift falsas, sexualmente explícitas y abusivas, comenzaron a circular ampliamente la semana pasada en X, convirtiéndola en la víctima más famosa de un flagelo que las plataformas tecnológicas y los grupos antiabuso han luchado por solucionar.
“Esta es una acción temporal y se hace con mucha precaución, ya que priorizamos la seguridad en este tema”, dijo Joe Benarroch, jefe de operaciones comerciales de X, en un comunicado.
Después de que las imágenes comenzaron a difundirse en línea, la devota base de fans de la cantante, conocidos commo “Swifties”, se movilizó rápidamente, lanzando una contraofensiva en X y el hashtag #ProtectTaylorSwift (Protejamos a Taylor Swift) para inundarlo con imágenes más positivas de la estrella del pop. Algunos dijeron que estaban reportando cuentas que compartían los deepfakes (vídeos, imágenes o sonidos manipulados mediante inteligencia artificial para parecer auténticos y reales).
El grupo de detección de deepfakes Reality Defender dijo que rastreó una avalancha de material pornográfico no consensuado que representaba a Swift, particularmente en X, anteriormente conocido como Twitter. Algunas imágenes también llegaron a Facebook, propiedad de Meta, y a otras plataformas de redes sociales.
Los investigadores encontraron más de una veintena de imágenes únicas generadas por IA. Las más compartidas estaban relacionados con el fútbol, mostrando a una Swift pintada o ensangrentada que la cosificaba y, en algunos casos, infligía un daño violento a su imagen falsa.
Los investigadores han dicho que el número de deepfakes explícitos ha crecido en los últimos años, ya que la tecnología utilizada para producir tales imágenes se ha vuelto más accesible y fácil de usar.
En 2019, un informe publicado por la empresa de inteligencia artificial DeepTrace Labs mostró que estas imágenes eran abrumadoramente producidas contra las mujeres. La mayoría de las víctimas, dijo, eran actrices de Hollywood y cantantes sudcoreanas de K-pop.