Facebook borra 583 millones de cuentas falsas durante el primer trimestre de 2018
- Las ha bloqueado por contenido inadecuado como 'spam' o propaganda terrorista
- También ha eliminado 837 millones de mensajes no deseados
- Casi el 100% fueron borrados antes de que los usuarios los reportasen
La red social Facebook ha difundido por primera vez las cifras de publicaciones y cuentas que ha bloqueado por contenido inadecuado como 'spam' o propaganda terrorista, asegurando que ha eliminado durante el primer trimestre del año 583 millones de cuentas falsas y 837 millones de mensajes no deseados.
Facebook ha emitido un informe sobre el cumplimiento de las normas de su comunidad que se divide en seis áreas: propaganda terrorista, violencia gráfica, desnudos de adultos y contenido sexual, correos no deseados, mensajes de odio y cuentas falsas, como ha explicado la compañía a través de su blog oficial.
El informe comprende el período de normas establecidas entre octubre de 2017 y marzo de 2018, y refleja que la red social eliminó 837 millones de mensajes no deseados durante el primer trimestre de 2018, casi el 100% de ellos hallados y borrados antes de que los usuarios los reportasen.
Durante el primer trimestre del año se desactivaron 583 millones de cuentas falsas, la mayoría a los pocos minutos de su registro, según asegura Facebook.
Contenido sexual, violencia gráfica y discursos de odio
La red social dirigida por Mark Zuckerberg también eliminó 21 millones de publicaciones de contenido sexual y desnudos en adultos en el primer trimestre de 2018, el 96% de éstas detectadas y eliminadas por la tecnología de Facebook. De cada 10.000 piezas de contenido visualizadas en la red social, hay entre 7 y 9 que incluyen contenido que viola sus políticas.
En relación con la violencia gráfica, durante el primer trimestre del año se quitaron o se realizó una advertencia a aproximadamente 3,5 millones de publicaciones de contenido violento, el 86% de ellas detectadas por Facebook antes de ser denunciadas.
La red social llega también a conclusiones en su informe, asegurando que su tecnología funciona con menor efectividad en cuanto a los discursos de odio, puesto que de los 2,5 millones de contenidos que incumplían las normas en este sentido, solo el 38% fue detectado por Facebook.