En su germen, Facebook reprime el discurso de odio

Publicó por primera vez en su informe de transparencia trimestral regular el llamado indicador de prevalencia del discurso de odio en Facebook. Aparentemente, el gigante ha estado haciendo serios esfuerzos en los últimos tiempos para llevar contenido a los sitios sociales más grandes (como el propio Facebook o el propio Instagram) de acuerdo con los principios de moderación, por lo que recientemente ha realizado mejoras significativas en sus algoritmos de filtrado basados ​​en inteligencia artificial. .

Como resultado, en el tercer trimestre de este año, la incidencia (aparición) de incitación al odio fue de 0,10-0,11% en las plataformas mencionadas, es decir, se recibieron 10-11 publicaciones objetables por diez mil visualizaciones de contenido, según las estadísticas. El contenido ominoso ahora está siendo eliminado casi completamente de manera proactiva por los algoritmos automatizados de Facebook y los moderadores de carne y hueso, incluso antes de que alguien se haya opuesto a ello: la tasa de intervenciones proactivas fue de alrededor del 95% tanto en Instagram como en Facebook en el último trimestre.

Dibujo: el arma inmerecidamente infrautilizada de Scrum (x)

Swarming, swarming en inglés. Sorprendentemente, pocos de los que saben que trabajan en Scrum se encuentran con esta palabra.

Dibujo: el arma inmerecidamente infrautilizada de Scrum (x) Swarming, swarming en inglés. Sorprendentemente, pocos de los que saben que trabajan en Scrum se encuentran con esta palabra.

El sistema se debe básicamente a sus algoritmos de inteligencia artificial cada vez más sofisticados, que, además de publicaciones de texto fluidas, también pueden analizar el contenido de la imagen y sus contextos. Sin embargo, de acuerdo con la propia admisión de la compañía, el sistema también tiene ciertas limitaciones, por lo que las formas de incitación al odio basadas en las nuevas tendencias e historias generalmente deben enseñarse al algoritmo, y también es difícil incorporar el idioma y las tendencias específicas del país.

También es un absurdo que Facebook interprete el discurso de odio, un buen ejemplo de lo cual es que el proveedor de servicios solo persiguió categóricamente la negación del Holocausto el mes pasado.

Como resultado de la pandemia de coronavirus, Facebook se vio obligado a implementar algoritmos de filtrado automático en más casos que nunca después de que los moderadores fueran enviados a casa desde la mayoría de las oficinas y, por razones obvias, no se les proporcionó un entorno de trabajo completo desde casa. Por cierto, los moderadores que trabajaban para la empresa acababan de escribir una carta abierta a los operadores de la plataforma recientemente que su empleador los había reasignado a la oficina antes de que el riesgo de epidemia se redujera sustancialmente.

Según los moderadores, todo esto muestra el fracaso de la inteligencia artificial. Como dicen, el algoritmo esencialmente se dispara a ciegas, por lo que es importante eliminar el contenido que no viola los principios en absoluto, mientras se pasan algunas publicaciones no deseadas a través del filtro.


Source: HWSW Informatikai Hírmagazin by www.hwsw.hu.

*The article has been translated based on the content of HWSW Informatikai Hírmagazin by www.hwsw.hu. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!