Facebook mejora detección y eliminación de discurso de odio
NUEVA YORK (AP) — Facebook está logrando avances para detectar las expresiones de odio, la violencia explícita y otras violaciones a sus reglas, incluso antes de que los usuarios las vean y reporten, informó el jueves la red social.
De abril a septiembre la compañía detectó el doble de discursos de odio en comparación a los seis meses previos, indicó.
Los hallazgos forman parte del segundo reporte de la red social sobre cómo aplica los estándares comunitarios. El informe surge ahora que enfrenta desafío tras desafío, desde las noticias falsas hasta el papel de la empresa en la interferencia electoral, expresiones de odio e incitación a la violencia en Estados Unidos, Myanmar, la India y otros lugares.
Facebook desactivó más de 1.500 millones de cuentas falsas en el último período de seis meses, señaló, en comparación con 1.300 millones durante los seis meses previos. Indicó que la mayoría de las cuentas falsas que encontró tenían fines monetarios, no de desinformación. La compañía cuenta con casi 2.300 millones de usuarios.
El reporte fue difundido un día después de que The New York Times publicara un extenso artículo sobre la manera como la compañía enfrentó crisis tras crisis en los últimos dos años. El diario describió que la estrategia de Facebook fue "demorar, negar y desviar".
Facebook dijo el jueves que ha cortado lazos con Definers, agencia de relaciones públicas en Washington. Según el periódico, la red social contrató a Definers para desacreditar a sus oponentes. El director general de Facebook Mark Zuckerberg dijo durante una conferencia telefónica con reporteros que él se enteró de la relación de la empresa con Definers solo después de leer el artículo del Times.
En cuanto a directrices comunitarias, Facebook también emitió parámetros sobre temas como desnudos infantiles y explotación sexual, propaganda terrorista, acoso o intimidación y correo electrónico basura.
Si bien está divulgando cuántas violaciones detectó, la red social dijo que no siempre puede medir fidedignamente la prevalencia general de estas cosas. Por ejemplo, si bien Facebook tomó medidas en dos millones de incidentes de intimidación entre julio y septiembre, esto no quiere decir que solo hubo dos millones de casos de intimidación en este período.