Facebook dice que sus algoritmos reducen en 97% el lenguaje de odio
Facebook dice haber reducido significativamente el número de mensajes de odio
Los cambios que realizó Facebook a las páginas principales de los usuarios en el cuarto trimestre de 2020 permitieron reducir el número de visualizaciones de contenidos relacionados con discursos de odio, contenido violento y gráfico, según afirmó la empresa este jueves. De acuerdo con las cifras compartidas en su informe del cumplimiento de sus normas comunitarias del cuarto trimestre de 2020, Facebook detecta en un 97% este contenido gracias a los nuevos algoritmos, subiendo de un 94% en el trimestre pasado e incrementándose desde un 24% en 2017.Facebook presentó por primera vez su análisis de cuántos posteos relacionados con discursos de odio encontró en la red en el tercer trimestre de 2020, y en este segundo reporte sobre el tema encontró que el número de contenidos cayó a solo "entre siete y ocho visualizaciones de discurso de odio por cada 10,000 visualizaciones de contenido general", compartió Guy Rosen, vicepresidente de Integridad de Facebook, en un comunicado.
Los contenidos violentos y gráficos se redujeron de 0,07% a 0,05% y de 0,05-0,06% a 0,03-0,04%, respectivamente. La plataforma también tuvo mejoras en la manera en que actúa sobre contenido que puede ser conflictivo antes de que un usuario lo reporte, en especial en temas de bullying y acoso. Según el informe de cumplimiento de sus normas comunitarias, su tasa proactiva pasó del 26% en el tercer trimestre al 49% en el cuarto trimestre en Facebook, mientras que en Instagram fue del 55% al 80%.
“Los avances en la Inteligencia Artificial en áreas donde los matices y el contexto son esenciales, como el discurso de odio, el bullying y el acoso, nos han ayudado a escalar mejor nuestros esfuerzos para poder mantener seguras a más personas. Continuamos recuperando lentamente nuestra fuerza laboral de revisión de contenido a nivel mundial, aunque anticipamos que nuestra capacidad para revisar el contenido se verá afectada por el covid-19 hasta que una vacuna esté disponible”, informó el directivo de Facebook.
La inteligencia artificial analiza no sólo el lenguaje, sino el contexto en el que se está dando, explicó Mike Schroepfer, Chief Technology Officer, en una llamada. El directivo indicó que la empresa también liberó el código de esta para poder tener un internet más seguro sin importar si es fuera de su plataforma.
En Facebook, la plataforma encontró y neutralizó 6,3 millones de piezas de contenido de bullying y acoso, 6,4 millones de piezas de contenido de odio organizado, 26,9 millones de contenidos que incitan al odio o la violencia, 2,5 millones de piezas de contenido relacionado con suicidio y autolesiones. Todo en el cuarto trimestre de 2020.
En cuanto a Instagram, se detectaron 5.000.000de piezas de contenido de bullying y acoso; 308.000 posteos de contenido de odio generalizado; 6,6 millones de piezas de contenido de incitación al odio o a la violencia y 3,4 millones de posteos de contenido suicida y de autolesión.
Facebook realizó una serie de cambios a sus algoritmos durante el año pasado para que los usuarios pudieran tener un mejor control sobre el contenido que ven en sus news feed. Además, la compañía ha invertido en mejorar sus procesos de inteligencia artificial para encontrar de manera más efectiva de frenar los discursos que pueden incitar a la violencia y la discriminación.
Un reporte del Washington Post en diciembre de 2020 indicó que la plataforma trabajaba en un proyecto conocido como “WoW”, en el que la compañía aumentaba sus esfuerzos en inteligencia artificial para detectar y neutralizar contenido con lenguaje de odio, enfocándose en grupos que pudieran ser más vulnerables a sufrir estos ataques.