Facebook podrá reconocer mensajes de odio y eliminarlos

Facebook podría reconocer mensajes de odio y eliminarlos

Facebook podría reconocer mensajes de odio y eliminarlos de manera más eficiente a través de un tribunal interno (Reuters)

El fundador de Facebook, Mark Zuckerberg, anunció el pasado jueves 15 de noviembre la creación de un “tribunal de apelación independiente” que podrá decidir sobre los contenidos controversiales, como mensajes de odio, y si estos pueden permanecer en línea o no.

Facebook prescinde de los servicios de la firma que atacaba a sus críticos

El anuncio se produjo durante una teleconferencia para abordar una nueva controversia que involucra al grupo y a una compañía de relaciones públicas con la que ha roto relaciones recientemente, tras publicarse denuncias de intimidación a críticos y competidores de la empresa tecnológica por parte de periódicos estadounidenses

Más allá de esta nueva controversia, Zuckerberg y su equipo anunciaron que han aumentado la capacidad de la red social para detectar “mensajes de odio” de cualquier tipo.

La compañía señaló que de abril a septiembre, la red social detectó el doble de discursos de odio en comparación a los seis meses previos.

Facebook bloquea 115 cuentas antes de elecciones en Estados Unidos

Facebook es acusado regularmente de no hacer lo suficiente para suprimir estos mensajes y reconoce, por ejemplo, que fue demasiado lento para reaccionar ante la propaganda del ejército de Myanmar en su sitio web, contra la minoría de los rohinya.

“Llegué a la conclusiónŒ de que no deberíamos tomar tantas decisiones sobre la libertad de expresión o la de seguridad”, dijo Zuckerberg.

Los contenidos detectados a través de la inteligencia artificial o porque son reportados por los usuarios, se revisan a través de un sistema interno.

Facebook hizo pública por error información privada de 14 millones de usuarios

No obstante, una especie de “tribunal de apelación” independiente, que debería establecerse el próximo año, será responsable de decidir en caso de litigio.

La composición de la “corte”, así como su grado de independencia, en concordancia con las guías de Facebook, se determinarán en los próximos meses.

A partir del próximo año también, Facebook va a publicar un informe cada tres meses sobre el contenido que se ha eliminado del sitio. La frecuencia es equivalente a la de la publicación de resultados financieros.

“Hemos logrado avances en la eliminación del odio, el hostigamiento y el terrorismo de nuestra red” dijo Zuckerberg, pero “debemos encontrar el equilibrio entre darles voz a las personas y asegurarnos de que están seguras”

Con información de AFP

CARGANDO...