A raíz del ataque terrorista que tuvo lugar en Londres a principios del mes de junio, un congresista estadounidense, Clay Higgins, publicó en su cuenta de Facebook un mensaje en el que pedía la matanza de los musulmanes radicalizados. "Matadlos", instó Higgins. El contenido violento de su mensaje fue intocable por los trabajadores de Facebook, los cuales se encargan de explorar la web para eliminar cualquier mensaje ofensivo.
Sin embargo, el activista de Black Lives Matter, Didi Delgado, publicó un mensaje en el que describía a los blancos como racistas. Inmediatamente, la publicación fue eliminada e inhabilitaron su cuenta de Facebook durante siete días.
El estudio publicado por ProPublica muestra un nuevo dato sobre las directrices que siguen los encargados de moderar el contenido de esta red social. Durante la última década, la compañía ha desarrollado un amplio número de reglas con ciertas distinciones entre lo que se debe y lo que no se debe permitir. De este modo, en estos documentos, se establece la diferencia entre el discurso de Higgins y el de Delgado. El primer caso se refiere a los "musulmanes radicalizados", es decir, a un subgrupo específico, por tanto forma parte de una categoría menos protegida. Sin embargo, el comentario de Delgado fue eliminado al dirigirse a los blancos en general, por lo que es calificado como un mensaje de odio hacia una "categoría protegida" que debe ser eliminado.
[[DEST:Zuckerberg ordenó que no se eliminaran los mensajes publicados por Trump sobre el veto migratorio]]
Entre las diferencias que recogen las normas desarrolladas por Facebook, refleja que una de las categorías más protegidas es la de los blancos, mientras que la de los niños de raza negra o de las mujeres conductoras quedan en un segundo plano. Es decir, cualquier contenido ofensivo hacia las personas blancas tienen prioridad frente a los que se refieren a las personas de raza negra o a las conductoras. Así lo plantean a través de una pregunta: "¿Cuál de estos grupos está protegido de mensajes de odio?", cuya respuesta es "los hombres blancos".
Otra de las reglas que desarrolló esta red social, aunque confirma que ya no está en vigor, es la de eliminar los mensajes de activistas y periodistas que se encuentren en territorios en disputa, como Palestina, Cachemira, Crimea y Sáhara Occidental.
Este reto de controlar los contenidos en Facebook es aún más complejo cuando se extiende a la protección de diversas personalidades públicas. Los documentos revisados por ProPublica estudian, por ejemplo, los mensajes de Donald Trump sobre el veto migratorio, los cuales violaron las reglas de la compañía. Según informa The Wall Street Journal, Zuckerberg excluyó los mensajes de Trump de las políticas impuestas sobre la exclusión y el comentario no se eliminó.
No obstante, la forma en la que controla Facebook sus contenidos se ha vuelto cada vez más prominente en los últimos meses debido al surgimiento de las 'noticias falsas' y por la preocupación de que los terroristas están usando las redes sociales para el reclutamiento.
Pero no es el primer programa que desarrolla la compañía para el control de contenidos ofensivos. Durante mucho tiempo, se dedican a eliminar obviamente contenidos de pornografía infantil. Artículos recientes publicados en The Guardian y Süddeutsche Zeitung detallan que las mayores dificultades a las que se enfrenta Facebook son las de eliminar los mensajes que contengan violencia gráfica, abuso infantil, pornografía por venganza y auto-mutilación.