Jesús Augusto Sarcos Romero: Facebook eliminó entre abril y septiembre 4,5 millones de contenidos por fomentar el suicidio y las autolesiones
Facebook eliminó de su red social homónima 4,5 millones
de contenidos entre abril y septiembre de este año por
vulnerar sus políticas al fomentar el suicidio y las autolesiones,
mientras que en Instagram se eliminó 1,68 millones de publicaciones en el mismo
periodo.
Estos datos aparecen en la cuarta edición del Informe de aplicación de Normas Comunitarias, que comprende el segundo y el tercer trimestre de 2019 y que Facebook presentó. En él, por primera vez, la compañía añadió los datos de Instagram, también de su propiedad.
Estos datos aparecen en la cuarta edición del Informe de aplicación de Normas Comunitarias, que comprende el segundo y el tercer trimestre de 2019 y que Facebook presentó. En él, por primera vez, la compañía añadió los datos de Instagram, también de su propiedad.
En este
informe, Facebook proporciona testimonios sobre cuatro áreas
de sus políticas: desnudez infantil y explotación sexual infantil;
bienes regulados específicamente, venta ilegal de armas de fuego y drogas;
suicidio y autolesiones; y propaganda terrorista.
En el primer apartado de suicidio y autolesiones, Facebook tomó medidas sobre aproximadamente dos millones de piezas de contenido en el segundo trimestre de 2019, de las cuales el 96,1% fueron detectados de manera proactiva por la compañía. En el tercer trimestre eliminó 2,5 millones de piezas de contenido, el 97,1% detectadas de manera proactiva.
En Instagram, la compañía descartó aproximadamente 835.000 piezas de contenido en el segundo trimestre de 2019 (77,8 % detectadas), y en el tercer trimestre esta cifra alcanzó las 845.000 piezas (aumentando al 79,1% la detección).
Los temas que fomentan el suicidio y la autolesión que Facebook e Instagram incluye imágenes y representaciones que según la compañía "podrían llevar a otros a comportarse de manera similar".
El informe recoge también la prevalencia de compendios sobre suicidio y autolesiones, es decir, la probabilidad de que la gente vea contenidos que violen estas políticas, que en el tercer trimestre fue de 4.000 entre 10.000. Estos datos incluyen también la venta ilegal de armas de fuego y drogas.
Asimismo, Facebook compartió a su vez, fundamentos de detección y eliminación de propaganda de grupos terroristas. La tasa de detección proactiva de publicaciones vinculadas a cualquier organización terrorista en Facebook es del 98,5% y en Instagram del 92,2. En el caso de Al Qaeda, ISIS y sus aliados, su detección en Facebook se mantiene por encima del 99%.
En el primer apartado de suicidio y autolesiones, Facebook tomó medidas sobre aproximadamente dos millones de piezas de contenido en el segundo trimestre de 2019, de las cuales el 96,1% fueron detectados de manera proactiva por la compañía. En el tercer trimestre eliminó 2,5 millones de piezas de contenido, el 97,1% detectadas de manera proactiva.
En Instagram, la compañía descartó aproximadamente 835.000 piezas de contenido en el segundo trimestre de 2019 (77,8 % detectadas), y en el tercer trimestre esta cifra alcanzó las 845.000 piezas (aumentando al 79,1% la detección).
Los temas que fomentan el suicidio y la autolesión que Facebook e Instagram incluye imágenes y representaciones que según la compañía "podrían llevar a otros a comportarse de manera similar".
El informe recoge también la prevalencia de compendios sobre suicidio y autolesiones, es decir, la probabilidad de que la gente vea contenidos que violen estas políticas, que en el tercer trimestre fue de 4.000 entre 10.000. Estos datos incluyen también la venta ilegal de armas de fuego y drogas.
Asimismo, Facebook compartió a su vez, fundamentos de detección y eliminación de propaganda de grupos terroristas. La tasa de detección proactiva de publicaciones vinculadas a cualquier organización terrorista en Facebook es del 98,5% y en Instagram del 92,2. En el caso de Al Qaeda, ISIS y sus aliados, su detección en Facebook se mantiene por encima del 99%.