Facebook enfrenta problema de videos de violencia
Facebook anuncia que contratará a otras 3.000 personas para revisar videos de crímenes y suicidios, tras la transmisión en vivo de varios homicidios.
Facebook anunció el miércoles que contratará a otras 3.000 personas para revisar videos de crímenes y suicidios, tras la transmisión en vivo de varios homicidios.
La red social ya cuenta con 4.500 técnicos que vigilan ese tipo de contenidos.
El anuncio lo hizo el director general Mark Zuckerberg en un blog.
Facebook ha sido criticado por no hacer lo suficiente para combatir la transmisión de ese tipio de contenidos, como por ejemplo un asesinato reciente en Cleveland y la matanza de un bebé en Tailandia.
Según el acuerdo del usuario de Facebook, está prohibido colocar videos o mensajes que glorifiquen la violencia. Pero en muchos casos los usuarios son los que reportan esos contenidos a la empresa, que luego los saca.
En la mayoría de los casos, solo se revisa y eventualmente se retira un mensaje si hay quejas de usuarios. Los informes noticiosos y mensajes que condenan la violencia están permitidos. Esto coloca a la empresa en una situación delicada. Facebook no quiere ejercer la censura en casos de videos violentos, como los que documentan la brutalidad policial o los horrores de la guerra, si tienen una finalidad útil.
Los videos en vivo de acciones policiales son particularmente difíciles ya que el espectador no sabe qué sucederá. Esta imprevisibilidad es parte de su atractivo.
Los videos negativos llegan a las primeras planas, pero constituyen una pequeña proporción de los mensajes. ¿Cuáles son los positivos? Los de los primeros pasos de un niño para que los vean parientes que viven lejos, las noticias, los músicos que actúan para sus fans, la gente que recauda dinero para obras de bien.