Inicio  /  Historias
CIENCIA Y TECNOLOGíA

Descubren cómo es que Facebook maneja el contenido sexual, violento y racista

El periódico inglés The Guardian reveló este 21 de mayo documentos filtrados de la red social de Facebook sobre sus reglas para moderar contenido que publican los usuarios.

Facebook, según los documentos publicados por The Guardian, permite a usuarios hacer publicaciones de personas autolesionándose, al mismo tiempo que elimina imágenes de crueldad animal cuando estas son “extremadamente perturbadoras”. La red argumenta que no elimina publicaciones de autolesiones debido a que no busca censurar a personas que están sufriendo. Sin embargo median el contenido de temas violentos y relacionados con racismo, terrorismo, pornografía y en general sobre odio.

En los últimos años la red social ha sido presionada para ser regulada como una plataforma de contenido, por el hecho de que toman decisiones editoriales y regulan las publicaciones. Con esto se busca que se pueda hacer responsable a Facebook del contenido que se publique en esta plataforma.

Sin embargo, nunca antes se habían visto las reglas de un manual de moderación de la red social de Mark Zuckerberg. Este documento permite observar qué contenido, ya sea foto, imagen o video podría o no ser eliminado de la red. Las fuentes de The Guardian han revelado que Facebook “no puede controlar su propio contenido”, ya que ha tenido un fuerte crecimiento en muy poco tiempo. Por otro lado, la decisión de eliminar o no eliminar se toma en menos de 10 segundos. Se encuentra en el manual de los moderadores de contenido qué hacer sobre el abuso no sexual a un niño, las amenazas de violencia y los actos de crueldad animal.

Una parte extraña del manual ha sido que Facebook dice que los moderadores deben eliminar cualquier mensaje que diga: “Alguien dispárele a Trump”. Pero si se publica un mensaje a un usuario que diga, “Espero que alguien te mate” no se elimina.

Estos casos de manejo de publicaciones no son los únicos. También se incluye que los videos de muertes violentas, a pesar de que sean denunciados, no siempre se borrarán. El argumento de Facebook ha sido que esto permite que no se ignoren asuntos como enfermedades mentales. El bullying tampoco se elimina necesariamente, a menos que se haya publicado para hacer una celebración. También videos de abortos son permitidos, siempre y cuando no tengan desnudos.

En cuanto al tema del cuerpo desnudo, es posible publicar cierto contenido como arte hecho a mano, sin embargo, el arte digital que tiene desnudos no es válido en Facebook. Sin embargo, en una ocasión Facebook eliminó una foto de una niña desnuda durante la guerra de Vietnam, desatando un fuerte cuestionamiento a sus políticas, pues se trataba de un documento de denuncia y de guerra. Su política cambió después de esto, pues ahora permite que este tipo de contenido sea publicado.

En años anteriores, Facebook ha pasado por polémicas que han provocado descontento sobre sus políticas de moderación de contenido. Entre grupos que han señalado a Facebook de hacer malas prácticas, se encuentra #BlackLivesMatter, después de que Facebook borró el video de Philando Castile para después volverlo a subir argumentando que fue un error y ha quitado material de protestas.