La Unión Europea se prepara para hacer frente a la desinformación extranjera antes de sus elecciones
BRUSELAS (AP) — Los votantes en la Unión Europea tenían previsto empezar a elegir legisladores para el Parlamento del bloque a partir del jueves, en un gran ejercicio democrático que probablemente también se verá empañado por la desinformación en internet.
Los expertos han advertido que la inteligencia artificial podría impulsar una proliferación de noticias falsas que podría afectar a los comicios en la UE y muchos otros países este año. Pero las apuestas son especialmente altas en Europa, que ha enfrentado campañas rusas de propaganda mientras continúa la guerra de Moscú con Ucrania.
A continuación, un vistazo en detalle:
Unos 360 millones de personas en 27 países —-de Portugal a Finlandia, de Irlanda a Chipre— elegirán a 720 eurodiputados en unos comicios que se celebran entre el jueves y el domingo. En los meses previos a la votación, los expertos han observado un repunte en la cantidad y calidad de las noticias falsas y la desinformación contra la UE que circula en los estados miembros.
Un gran temor es que engañar a los votantes será más fácil que nunca, gracias a nuevas herramientas de IA que facilitan crear información falsa o engañosa. Parte de la actividad maliciosa procede de los propios países y parte del extranjero. Principalmente se atribuye a Rusia y en ocasiones a China, aunque resulta difícil encontrar pruebas sólidas del origen de estos ataques.
“La campaña rusa patrocinada por el estado para inundar el espacio informativo de la UE con contenido engañoso es una amenaza para la forma en la que estamos acostumbrados a tener nuestros debates democráticos, especialmente en época de elecciones”, advirtió el lunes Josep Borrell, responsable de política exterior de la UE.
Los esfuerzos rusos de “manipulación de información” aprovechan la creciente penetración de las redes sociales y “operaciones asistidas por IA barata”. Se utilizan bots para difundir de forma automática campañas de desprestigio contra líderes políticos europeos que son críticos con el presidente de Rusia, Vladímir Putin, señaló.
Ha habido muchos ejemplos de desinformación asociada con las elecciones.
Dos días antes de las elecciones nacionales en España el pasado julio, se registró un sitio web falso que imitaba a uno gestionado por las autoridades en la capital, Madrid. Mostraba un artículo que advertía falsamente de un posible ataque contra centros electorales del grupo armado separatista vasco ETA, que ya está disuelto.
En Polonia, dos días antes de las elecciones parlamentarias de octubre, la policía acudió a un centro de votación en respuesta a un falso aviso de bomba. Cuentas de redes sociales asociadas a lo que las autoridades describen como la “infosfera” de interferencia rusa afirmaban que había explotado un dispositivo.
Apenas unos días antes de las elecciones parlamentarias eslovacas de noviembre, grabaciones de sonido elaboradas con inteligencia artificial suplantaban a un candidato y le mostraban comentando planes para amañar los comicios, lo que extendió un rumor falso por redes sociales mientras los verificadores de datos trataban de desmentirlo.
La semana pasada, la agencia nacional de noticias polaca publicó un reporte falso que decía que el primer ministro, Donald Tusk, movilizaría a 200.000 hombres a partir del 1 de julio, en un aparente pirateo del servicio que las autoridades atribuyeron a Rusia. La agencia polaca de noticias eliminó el reporte unos minutos después y emitió un comunicado indicando que no era la fuente del texto.
Es “muy preocupante, y un poco diferente de otros esfuerzos de crear desinformación de fuentes alternativas”, dijo Alexandre Alaphilippe, director ejecutivo de EU DisinfoLab, un grupo sin fines de lucro que investiga la desinformación. “En concreto plantea la cuestión de la ciberseguridad de la producción de noticias, que debería considerarse una infraestructura crítica”.
Expertos y autoridades dijeron que la desinformación rusa pretende trastocar la democracia y disuadir a los votantes del bloque de acudir a las urnas.
“No podemos dar nuestra democracia por sentada, y el Kremlin seguirá utilizando la desinformación, la interferencia maligna, la corrupción y otros trucos sucios del manual autoritario para dividir a Europa”, afirmó la vicepresidenta de la Comisión Europea Vera Jourova ante el Parlamento en abril.
Por su parte, Tusk denunció la “estrategia de desestabilización” de Rusia la víspera de los comicios europeos.
En un plano más general, a menudo el objetivo de “las campañas de desinformación no es interferir con elecciones”, explicó Sophie Murphy Byrne, responsable de asuntos de gobierno en Logically, una empresa de inteligencia sobre IA. “Tiende a ser una actividad continuada diseñada para fomentar ideas sobre conspiraciones y erosionar la confianza de la sociedad”, explicó en una nota informativa la semana pasada.
También se inventan relatos para avivar el descontento público hacia la élite política europea, tratar de dividir a las comunidades en asuntos como valores familiares, género o sexualidad, sembrar dudas sobre el cambio climático y mermar el apoyo occidental a Ucrania, según analistas y expertos en la UE.
Hace cinco años, cuando se celebraron las elecciones anteriores al Parlamento Europeo, la mayoría de la desinformación en internet era difundida laboriosamente por “granjas de trolls” en las que había personas trabajando en turnos para escribir publicaciones manipuladoras, en ocasiones en un inglés rudimentario o reutilizando imágenes de video antiguas. Los mensajes falsos eran fáciles de identificar.
Ahora, los expertos han alertado sobre el auge de la inteligencia artificial generativa, que según dice amenaza con dar un enorme impulso a la desinformación en todo el mundo. Los actores maliciosos pueden utilizar la misma tecnología en la que se basan plataformas fáciles de utilizar como ChatGPT, de OpenAI, para crear imágenes, videos y audio falsos de apariencia auténtica. Cualquiera con un smartphone y mala intención podría crear contenido falso pero convincente para engañar a los votantes.
“Lo que cambia ahora es la escala que puedes alcanzar como fuente de propaganda”, indicó Salvatore Romano, director de investigación de AI Forensics, un grupo de investigación sin fines de lucro. Ahora se pueden utilizar sistemas de IA generativa para producir imágenes y videos realistas para exponerlos a usuarios de redes sociales, explicó.
AI Forensics descubrió hace poco una red de páginas prorrusas que según dijo aprovechaban la falta de moderación en Meta de la publicidad política en la Unión Europea.
El contenido inventado es ahora “indistinguible” del real, dijo Romano, y a los expertos en desinformación les lleva mucho más tiempo desenmascararlo.
La UE emplea la nueva Ley de servicios digitales para contraatacar. La amplia norma requiere que las plataformas limiten el riesgo a difundir desinformación y puede utilizarse para exigirles responsabilidades con la amenaza de fuertes multas.
El bloque ha empleado la norma para pedir información a Microsoft sobre los riesgos de su bot conversacional Bing Copilot AI, lo que incluye preocupaciones sobre la “manipulación automática de servicios que puede engañar a los votantes”.
La ley también se ha utilizado para investigar al propietario de Facebook e Instagram, Meta Platforms, por no hacer suficiente para proteger a los usuarios de las campañas de desinformación.
La UE ha aprobado una amplia ley sobre inteligencia artificial, que incluye un requisito de que se etiqueten los deepfakes, contenido falso realizado a partir de material de archivo, pero su aplicación no llegará a tiempo para la votación y entrará en vigencia durante los próximos dos años.
La mayoría de las firmas tecnológicas han defendido las medidas que toman para proteger la “integridad electoral” de la UE.,.
Meta Platforms —propietaria de Facebook, Instagram y WhatsApp— ha dicho que establecerá un centro de operaciones electoral para identificar posibles amenazas en internet. También tiene miles de personas que revisan contenido en los 24 idiomas oficiales de la UE y está endureciendo sus normas sobre el contenido generado por IA, lo que incluye etiquetar y relegar el contenido generado por IA que incumple sus normas.
Nick Clegg, presidente de asuntos globales en Meta, ha dicho que no hay indicios de que se estén utilizando herramientas generativas de IA de forma sistemática para interferir con elecciones.
Por su parte, TikTok dijo que establecería centros de verificación de datos para la app de la plataforma videos. Google, propietaria de YouTube, dijo que trabaja con grupos de verificación de datos y utilizará la IA para “combatir los abusos a escala”.
Elon Musk optó por todo lo contrario en su plataforma social X, antes conocida como Twitter. “Oh, ¿decís el equipo de ‘Integridad Electoral’ que estaba socavando la integridad electoral? Sí, ya no están”, dijo en una publicación en septiembre.