Facebook vacila al combatir desinformación en la India
NUEVA DELHI (AP) — La oficina de Facebook de la India actuó en forma selectiva al combatir la difusión de contenido intolerante y de desinformación, sobre todo las publicaciones antimusulmanas, según documentos filtrados obtenidos por la Associated Press, a pesar de que sus propios empleados tenían dudas acerca de sus motivaciones y sus intereses.
Documentos internos de la operación de la India de los últimos dos años reflejan la batalla constante que libra Facebook para combatir el contenido abusivo de sus plataformas en la democracia más grande del mundo y el mercado de mayor crecimiento de la empresa. Las tensiones políticas y religiosas se ventilan en las redes sociales y alientan la violencia.
Los documentos indican que Facebook está al tanto de los problemas desde hace años y plantean interrogantes acerca de si hizo lo suficiente para contrarrestarlos. Numerosos detractores y expertos digitales dicen que no lo hizo, sobre todo cuando los casos involucran al Partido Bharatiya Janata (PBJ) del primer ministro Narendra Modi.
En todo el mundo, Facebook ha pasado a ser un importante instrumento político y la India no es la excepción.
Se dice que Modi usó la plataforma a su favor durante las elecciones e informes del Wall Street Journal del año pasado plantean dudas acerca de si Facebook fue selectivo al combatir el contenido intolerante por temor a sufrir represalias del PBJ. Modi y el CEO de Facebook Mark Zuckerberg parecen tener una buena relación, plasmada en una foto de los dos abrazándose en la sede de Facebook en el 2015.
Los documentos filtrados incluyen informes internos de la compañía sobre el contenido intolerante y la desinformación en la India, que a veces parecen intensificados por las propias recomendaciones de los algoritmos de Facebook. Reflejan asimismo la preocupación del personal acerca del manejo de estos temas y su malestar con el contenido inapropiado de la plataforma.
Según los documentos, Facebook consideraba a la India como uno de los países más “en riesgo” del mundo e identificó los lenguajes hindi y bengalí como prioridades para la detección de violaciones a las normas sobre contenido hostil. Sin embargo, Facebook no tenía suficiente personal evaluador o con conocimientos de esos lenguajes como para detectar esta desinformación, que a veces desató episodios de violencia en el mundo real.
En una declaración enviada a la AP, Facebook dijo que ha “invertido significativamente en tecnología para detectar contenido intolerante en varios lenguajes, incluidos el hindi y el bengalí”, lo que “redujo a la mitad la cantidad de contenido intolerante que ve la gente” en el 2021.
Este y otros artículos sobre Facebook que están siendo publicados esta semana se basan en denuncias de la exejecutiva de la empresa Frances Haugen ante la Comisión de Bolsa y Valores de Estados Unidos. Las versiones redactadas recibidas por el Congreso fueron obtenidas por un grupo de organizaciones periodísticas, incluida The Associated Press.
En febrero del 2016, antes de las elecciones generales y en momentos en que cundía la alarma por la cantidad de desinformación, un empleado de Facebook decidió explorar lo que ve un nuevo usuario de la India si simplemente sigue las páginas y los grupos recomendados por la propia plataforma.
Creó una cuenta nueva y la mantuvo durante tres semanas, en un período en el que el país fue sacudido por un ataque de guerrilleros en Cachemira en el que murieron 40 soldados de la India y que puso al país al borde de una guerra con Pakistán.
El empleado, cuyo nombre no fue difundido, dijo que quedó “asombrado” por el material que veía. Lo describió como “un bombardeo casi constante de contenido nacionalista divisivo, de desinformación, violencia y hechos sangrientos”.
Grupos a simple vista inocentes recomendados por Facebook pronto se llenaban de contenido intolerante, rumores no verificados y contenido viral.
Los grupos recomendados estaban llenos de noticias falsas, de retórica antipaquistaní y de contenido islamofóbico. Buena parte del contenido era muy gráfico.
Una publicación mostraba a un hombre sosteniendo la cabeza ensangrentada de otro cubierto con la bandera paquistaní, con la bandera india por encima. La sección con noticias populares en Facebook tenía una cantidad de contenido no verificado alusivo a las represalias de la India tras el ataque, incluida una imagen de un ataque con una bomba de napalm de un videojuego desacreditada por los verificadores de Facebook.
El empleado que hizo el experimento dijo que “en las últimas tres semanas vi más gente muerta que en toda mi vida”.
Un portavoz de Facebook dijo que el estudio “alentó un análisis más profundo y riguroso” de las recomendaciones de sus sistemas y “contribuyó a cambios para mejorar” el producto.
___
Sam McNeil colaboró en este despacho desde Beijing.