Lo que dicen las filtraciones de documentos sobre la ética de las redes sociales de Facebook en India


Nueva Delhi, India

Facebook en India ha sido selectivo para frenar el discurso de odio, la desinformación y las publicaciones incendiarias, particularmente el contenido anti-musulmán, según documentos filtrados obtenidos por The Associated Press, incluso cuando sus propios empleados ponen en duda las motivaciones e intereses de la compañía.

Desde investigaciones tan recientes como marzo de este año hasta memorandos de la compañía que se remontan a 2019, los documentos internos de la compañía en India destacan las luchas constantes de Facebook para sofocar el contenido abusivo en sus plataformas en la democracia más grande del mundo y el mercado de mayor crecimiento de la compañía. Las tensiones comunitarias y religiosas en India tienen un historial de hervir en las redes sociales y avivar la violencia.

Los archivos muestran que Facebook ha sido consciente de los problemas durante años, lo que plantea dudas sobre si ha hecho lo suficiente para abordar estos problemas. Muchos críticos y expertos digitales dicen que no lo ha hecho, especialmente en los casos en los que están involucrados miembros del gobernante Partido Bharatiya Janata del primer ministro Narendra Modi, el BJP.

En todo el mundo, Facebook se ha vuelto cada vez más importante en política, e India no es diferente.

Se ha acreditado a Modi por aprovechar la plataforma en beneficio de su partido durante las elecciones, y los informes de The Wall Street Journal el año pasado arrojan dudas sobre si Facebook estaba aplicando selectivamente sus políticas sobre el discurso de odio para evitar el retroceso del BJP. Tanto Modi como el presidente y director ejecutivo de Facebook, Mark Zuckerberg, han exudado bonhomia, conmemorado por una imagen de 2015 de los dos abrazándose en la sede de Facebook.

Los documentos filtrados incluyen un tesoro de informes internos de la empresa sobre discursos de odio e información errónea en India. En algunos casos, gran parte de esto se intensificó mediante sus propios algoritmos y funciones “recomendadas”. Pero también incluyen las preocupaciones del personal de la empresa por el mal manejo de estos temas y su descontento expresado por el “descontento” viral en la plataforma.

Según los documentos, Facebook vio a la India como uno de los países más “en riesgo” del mundo e identificó los idiomas hindi y bengalí como prioridades para la “automatización de la violación del discurso hostil”. Sin embargo, Facebook no tenía suficientes moderadores en el idioma local o marcas de contenido para detener la información errónea que a veces conducía a la violencia en el mundo real.

En un comunicado a la AP, Facebook dijo que ha “invertido significativamente en tecnología para encontrar discursos de odio en varios idiomas, incluidos hindi y bengalí”, lo que ha resultado en “una cantidad reducida de discursos de odio que la gente ve a la mitad” en 2021.

“El discurso de odio contra los grupos marginados, incluidos los musulmanes, está aumentando a nivel mundial. Por lo tanto, estamos mejorando la aplicación y estamos comprometidos a actualizar nuestras políticas a medida que el discurso de odio evoluciona en línea”, dijo un portavoz de la compañía.

Esta historia de AP, junto con otras que se están publicando, se basa en divulgaciones hechas a la Comisión de Bolsa y Valores y proporcionadas al Congreso en forma redactada por el asesor legal de Frances Haugen, ex empleada de Facebook convertida en denunciante. Las versiones redactadas fueron obtenidas por un consorcio de organizaciones de noticias, incluida la AP.

En febrero de 2019 y antes de las elecciones generales en las que aumentaba la preocupación por la desinformación, un empleado de Facebook quería entender qué veía un nuevo usuario en el país en su servicio de noticias si todo lo que hacía era seguir páginas y grupos recomendados únicamente por la plataforma. sí mismo.

El empleado creó una cuenta de usuario de prueba y la mantuvo activa durante tres semanas, un período durante el cual un evento extraordinario sacudió a la India: un ataque militante en la disputada Cachemira mató a más de 40 soldados indios, lo que llevó al país a una guerra cercana con su rival Pakistán.

En la nota, titulada “El descenso de un usuario de prueba indio a un mar de mensajes nacionalistas y polarizantes”, el empleado cuyo nombre está redactado dijo que estaba “conmocionado” por el contenido que inundaba las noticias, que “se ha convertido en un aluvión casi constante de polarización contenido nacionalista, desinformación, violencia y gore “.

Los grupos aparentemente benignos e inocuos recomendados por Facebook se transformaron rápidamente en algo completamente diferente, donde el discurso de odio, los rumores no verificados y el contenido viral corrieron desenfrenadamente.

Los grupos recomendados fueron inundados con noticias falsas, retórica anti-Pakistán y contenido islamofóbico. Gran parte del contenido era extremadamente gráfico.

Uno incluía a un hombre que sostenía la cabeza ensangrentada de otro hombre cubierto con una bandera paquistaní, con una bandera india en el lugar de su cabeza. Su función “Popular Across Facebook” mostró una gran cantidad de contenido no verificado relacionado con los ataques indios de represalia en Pakistán después de los atentados, incluida una imagen de una bomba de napalm de un clip de videojuego desacreditado por uno de los socios de verificación de hechos de Facebook.

“Después de la sección de noticias de este usuario de prueba, he visto más imágenes de personas muertas en las últimas tres semanas de las que he visto en toda mi vida”, escribió el investigador.

Desató una profunda preocupación sobre a qué podría conducir ese contenido divisivo en el mundo real, donde las noticias locales en ese momento informaban sobre los ataques de los habitantes de Cachemira en las consecuencias.

“¿Deberíamos, como empresa, tener una responsabilidad adicional para prevenir daños a la integridad que resulten del contenido recomendado?” preguntó el investigador en su conclusión.

El memorando, que circuló con otros empleados, no respondió a esa pregunta. Pero sí expuso cómo los propios algoritmos de la plataforma o la configuración predeterminada jugaron un papel en estimular tal descontento. El empleado notó que había claros “puntos ciegos”, particularmente en el “contenido en el idioma local”. Dijeron que esperaban que estos hallazgos iniciaran conversaciones sobre cómo evitar tales “daños a la integridad”, especialmente para aquellos que “difieren significativamente” del usuario típico de EE. UU.

A pesar de que la investigación se llevó a cabo durante tres semanas que no fueron una representación promedio, reconocieron que sí mostraba cómo un contenido tan “no moderado” y problemático “podría tomar el control por completo” durante “un evento de crisis importante”.

El portavoz de Facebook dijo que el estudio de prueba “inspiró un análisis más profundo y riguroso” de sus sistemas de recomendación y “contribuyó a cambios en los productos para mejorarlos”.

“Por separado, nuestro trabajo para frenar el discurso del odio continúa y hemos fortalecido aún más nuestros clasificadores de odio, para incluir cuatro idiomas indios”, dijo el portavoz.

Otros archivos de investigación sobre desinformación en India destacan cuán enorme es el problema para la plataforma.

En enero de 2019, un mes antes del experimento del usuario de prueba, otra evaluación generó alarmas similares sobre el contenido engañoso. En una presentación distribuida a los empleados, los hallazgos concluyeron que las etiquetas de información errónea de Facebook no eran lo suficientemente claras para los usuarios, lo que subraya que debe hacer más para detener el discurso de odio y las noticias falsas. Los usuarios dijeron a los investigadores que “etiquetar la información claramente les facilitaría la vida”.

Nuevamente, se señaló que la plataforma no tenía suficientes verificadores de datos en el idioma local, lo que significaba que una gran cantidad de contenido no se verificaba.

Junto a la desinformación, los documentos filtrados revelan otro problema que afecta a Facebook en India: la propaganda antimusulmana, especialmente por parte de grupos de línea dura hindú.

India es el mercado más grande de Facebook con más de 340 millones de usuarios; casi 400 millones de indios también utilizan el servicio de mensajería WhatsApp de la compañía. Pero ambos han sido acusados ​​de ser vehículos para difundir discursos de odio y noticias falsas contra las minorías.

En febrero de 2020, estas tensiones cobraron vida en Facebook cuando un político del partido de Modi subió un video a la plataforma en el que pidió a sus seguidores que retiraran a los manifestantes, en su mayoría musulmanes, de una carretera en Nueva Delhi si la policía no lo hacía. En unas horas estallaron violentos disturbios que mataron a 53 personas. La mayoría de ellos eran musulmanes. Solo después de miles de visitas y acciones, Facebook eliminó el video.

En abril, la desinformación dirigida a los musulmanes nuevamente se volvió viral en su plataforma cuando el hashtag “Coronajihad” inundó las fuentes de noticias, culpando a la comunidad por un aumento en los casos de COVID-19. El hashtag fue popular en Facebook durante días, pero luego fue eliminado por la empresa.

Para Mohammad Abbas, un predicador musulmán de 54 años en Nueva Delhi, esos mensajes eran alarmantes.

Algunos videos y publicaciones supuestamente mostraban a musulmanes escupiendo a las autoridades y al personal del hospital. Rápidamente se demostró que eran falsos, pero para entonces las fallas comunales de la India, todavía estresadas por los disturbios mortales del mes anterior, volvieron a estar abiertas de par en par.

La desinformación desencadenó una ola de violencia, boicots comerciales y discursos de odio hacia los musulmanes. Miles de personas de la comunidad, incluido Abbas, estuvieron confinadas a cuarentena institucional durante semanas en todo el país. Algunos incluso fueron enviados a las cárceles, solo para luego ser exonerados por los tribunales.

“La gente compartió videos falsos en Facebook alegando que los musulmanes propagaban el virus. Lo que comenzó como mentiras en Facebook se convirtió en una verdad para millones de personas ”, dijo Abbas.

Las críticas al manejo de Facebook de dicho contenido se intensificaron en agosto del año pasado cuando The Wall Street Journal publicó una serie de historias que detallaban cómo la compañía había debatido internamente si clasificar a un legislador hindú de línea dura cercana al partido de Modi como un “individuo peligroso”. -Una clasificación que lo excluiría de la plataforma- luego de una serie de publicaciones anti-musulmanas en su cuenta.

Los documentos revelan que el liderazgo titubeó sobre la decisión, lo que generó preocupaciones en algunos empleados, de los cuales uno escribió que Facebook solo estaba designando a las organizaciones extremistas no hindúes como “peligrosas”.

Los documentos también muestran cómo la directora de políticas de la compañía en el sur de Asia había compartido lo que muchos sentían eran publicaciones islamófobas en su perfil personal de Facebook. En ese momento, también había argumentado que clasificar al político como peligroso dañaría las perspectivas de Facebook en India.

El autor de un documento interno de diciembre de 2020 sobre la influencia de los actores políticos poderosos en las decisiones de política de Facebook señala que “Facebook hace excepciones de forma rutinaria para los actores poderosos al hacer cumplir la política de contenido”. El documento también cita a un exjefe de seguridad de Facebook que dijo que fuera de los EE. UU., “Los jefes de políticas locales generalmente son retirados del partido político gobernante y rara vez provienen de grupos étnicos desfavorecidos, credos religiosos o elencos” que “naturalmente inclinan la toma de decisiones hacia los poderosos “.

Meses después, el funcionario de India abandonó Facebook. La compañía también retiró al político de la plataforma, pero los documentos muestran que muchos empleados de la compañía sintieron que la plataforma había manejado mal la situación, acusándola de sesgo selectivo para evitar estar en la mira del gobierno indio.

“Varios colegas musulmanes se han sentido profundamente perturbados / heridos por parte del lenguaje utilizado en las publicaciones de los líderes políticos de la India en su perfil personal de FB”, escribió un empleado.

Otro escribió que se estaba permitiendo que la “barbarie” “floreciera en nuestra red”.

Es un problema que ha continuado para Facebook, según los archivos filtrados.

Recientemente, en marzo de este año, la compañía estaba debatiendo internamente si podía controlar las “narrativas anti-musulmanas que promueven el miedo” impulsadas por Rashtriya Swayamsevak Sangh, un grupo nacionalista hindú de extrema derecha del que Modi también forma parte, en su plataforma. .

En un documento titulado “Lotus Mahal”, la empresa señaló que los miembros con vínculos al BJP habían creado varias cuentas de Facebook para amplificar el contenido anti-musulmán, que van desde “llamadas para expulsar a las poblaciones musulmanas de la India” y “Love Jihad”, un teoría de la conspiración de los hindúes de línea dura que acusan a los hombres musulmanes de utilizar matrimonios interreligiosos para obligar a las mujeres hindúes a cambiar de religión.

La investigación encontró que gran parte de este contenido “nunca se marcó ni se activó”, ya que Facebook carecía de “clasificadores” y “moderadores” en los idiomas hindi y bengalí. Facebook dijo que agregó clasificadores de discurso de odio en hindi a partir de 2018 e introdujo el bengalí en 2020.

Los empleados también escribieron que Facebook aún no había “presentado una nominación para la designación de este grupo dada la sensibilidad política”.

La compañía dijo que su proceso de designaciones incluye una revisión de cada caso por parte de los equipos relevantes de la compañía y son agnósticos a la región, la ideología o la religión y se enfocan en los indicadores de violencia y odio. Sin embargo, no reveló si el grupo nacionalista hindú había sido designado desde entonces como “peligroso”.

___

El periodista de Associated Press Sam McNeil en Beijing contribuyó a este informe.


Source: The Christian Science Monitor | World by www.csmonitor.com.

*The article has been translated based on the content of The Christian Science Monitor | World by www.csmonitor.com. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!