Facebook tardó en contrarrestar desinformación sobre COVID
WASHINGTON (AP) — En marzo, cuando en las redes sociales abundaban las denuncias de que las vacunas contra el COVID-19 eran inefectivas y hasta peligrosas, socavando los esfuerzos por contener el virus, algunos empleados de Facebook creyeron haber encontrado una forma de ayudar.
Si se modificaba los parámetros para catalogar las publicaciones sobre las vacunas, se podía limitar la cantidad de información engañosa que veía la gente y ofrecer a los usuarios contenido de fuentes legítimas como la Organización Mundial de la Salud.
“A la luz de los resultados, supongo que trataremos de hacerlo lo más rápidamente posible”, escribió un empleado de Facebook en marzo, en respuesta a un informe interno sobre el estudio que habían hecho.
Facebook, sin embargo, ignoró las recomendaciones del estudio. Y recién en abril hizo algunos cambios.
Cuando otro investigador de Facebook planteó en marzo que se desactivasen los comentarios sobre las publicaciones en torno a las vacunas hasta que la plataforma encontrase la forma de manejar mejor ese contenido, la propuesta fue también ignorada.
Hay quienes dicen que Facebook tardó en reaccionar porque temía que cualquier medida que tomase afectaría sus ganancias.
“¿Por qué no se eliminan los comentarios? Porque lo único que les importa es tener a la gente conectada”, sostiene Imran Ahmed, CEO del Center for Countering Digital Hate (Centro para Contrarrestar el Odio Digital), una agrupación que estudia el funcionamiento de la internet. “Atraen al usuario y eso genera dinero”.
En un email, Facebook dijo que registró “considerables progresos” este año en la lucha contra la desinformación que circula en la aplicación.
Las discusiones internas de Facebook fueron reveladas por la exejecutiva de la empresa Frances Haugen ante la Comisión de Bolsa y Valores de Estados Unidos. Versiones escritas entregadas al Congreso fueron obtenidas por un grupo de organizaciones periodísticas, incluida The Associated Press.
Los documentos revelan que, en medio de la pandemia del COVID-19, Facebook investigó a fondo el papel de sus plataformas en la diseminación de desinformación sobre vacunas que salvan vidas. Indican asimismo que sus empleados ofrecían periódicamente soluciones para contrarrestar esa desinformación, que no eran tomadas en cuenta. El Wall Street Journal informó acerca de algunos de los esfuerzos de Facebook por lidiar con los comentarios en contra de las vacunas el mes pasado.
El que no se tomasen medidas hace que muchos se pregunten si Facebook priorizó la controversia y la división por sobre la salud de sus usuarios.
“Esta gente vende temor e indignación”, opinó Roger McNamee, inversionista del Silicon Valley que alguna vez fue accionista de Facebook y que ahora critica a la empresa. “No es una casualidad. Es un modelo empresarial”.
Normalmente, Facebook evalúa las publicaciones según el interés que generan, la cantidad de “me gusta”, “no me gusta”, comentarios y de veces que son compartidas. Esa forma de evaluar funciona con publicaciones inocuas, como recetas de cocina y fotos de perros. Pero los documentos del propio Facebook señalan que cuando se trata de temas que generan divisiones —cosas como las vacunas—, esa forma de catalogar publicaciones alimenta la polarización, los desacuerdos y las dudas.
Para estudiar formas de reducir la cantidad de desinformación acerca de las vacunas, investigadores de Facebook cambiaron la forma de evaluar las publicaciones de más de 6.000 usuarios de Estados Unidos, México, Brasil y las Filipinas. En lugar de catalogar las publicaciones sobre vacunas a partir del interés que generan, lo hizo en base a su veracidad.
Los resultados fueron llamativos: El interés en publicaciones cuyo contenido fue desautorizado por verificadores bajó casi un 12%, mientras que la lectura de publicaciones de fuentes autorizadas como la OMS o los Centros para el Control de Enfermedades de Estados Unidos subió un 8%.
Numerosos empleados de Facebook se preguntaron por qué la empresa no aceptaba sus recomendaciones.
Facebook, por su parte, afirmó que implementó muchas sugerencias del estudio. Pero dejó pasar un mes en un momento clave de la campaña de vacunaciones.
En un comunicado, la portavoz de Facebook Dani Lever dijo que los documentos internos “no representan los considerables progresos que hicimos desde entonces en la promoción de información confiable sobre el COVID-19 y la expansión de nuestras políticas para eliminar desinformación dañina sobre el COVID y las vacunas”.
La compañía acotó que tomó tiempo analizar e implementar los cambios.
La demora en actuar se produjo en momentos en que se ofrecían vacunas a los más vulnerables: los ancianos y los enfermos. Las autoridades de salud pública estaban alarmadas ya que solo el 10% de la población había recibido la primera dosis. Y un tercio de la población pensaba no vacunarse, según una encuesta de la Associated Press-NORC Center for Public Affairs Research.
Los empleados de Facebook admitieron que “no tenían idea” acerca de qué tan fuerte era la resistencia a vacunarse que expresaban los comentarios en el portal. Una investigación de la empresa de febrero, no obstante, reveló que un 60% de los comentarios eran en contra de la vacuna o expresaban reticencia a vacunarse.
“Nuestra capacidad de detectar (reticencia a vacunarse) en los comentarios es mala en inglés y básicamente inexistente en otras partes”, decía otro informe interno publicado el 2 de marzo.
El CEO de Facebook Mark Zuckerberg anunció el 15 de marzo que la empresa comenzaría a etiquetar publicaciones sobre las vacunas que las describían como seguras.
Esta medida permitió a Facebook seguir atrayendo usuarios —y dinero— que hacían comentarios negativos sobre las vacunas, de acuerdo con Ahmed, del Center for Countering Digital Hate.
“Facebook tomó medidas que hicieron que la gente reciba desinformación que le causó la muerte”, manifestó Ahmed. “A esta altura, deberían investigar asesinatos”.
___
Seitz informó desde Columbus, Ohio.