Investigadores daneses luchan para combatir el neosexismo, y puede ser peligroso


¿Quieres seguir escuchando?

Obtenga una suscripción a Digital Plus y escuche de inmediato.

cambiar suscripción

Con Digital Plus puedes escuchar artículos. Obtienes acceso de inmediato.

Los debates en las redes sociales son cada vez más difíciles y muchos ya no quieren participar en el debate público en línea.

Ahora, tres investigadores de la Universidad de TI, UIT, en Copenhague, han desarrollado una herramienta digital basada en inteligencia artificial y aprendizaje automático, que puede ayudar a combatir la misoginia en varias formas, incluida una categoría que los investigadores llaman neosexismo.

En los últimos diez meses, los investigadores han desarrollado en parte un sistema de clasificación para la misoginia, o misoginia, como se le llama, y ​​en este sentido han revisado el discurso de odio en 28.000 conjuntos de datos de Facebook, Twitter y Reddit. Con la ayuda de un panel de hombres y mujeres, los investigadores han seleccionado 2.000 ejemplos cuidadosamente clasificados del conjunto de datos con el que han alimentado un modelo informático.

Desde entonces, el modelo ha sido optimizado y hoy, según Leon Derczynski, profesor asociado de ciencias de la computación en la UIT y uno de los tres investigadores detrás de él, puede identificar comentarios potencialmente sexistas con un 85 por ciento de certeza.

¿Qué es el neosexismo?

Las seis categorías de misoginia sobre las que operan los investigadores son el acoso sexual, la dominación, el sexismo disfrazado de cumplidos, la representación estereotipada de las mujeres, el descrédito de las mujeres y el neosexismo.

Categorizar los comentarios como potencialmente neo-sexistas es una innovación, cree Leon Derczynski:

“El neosexismo es un concepto que hemos tomado de la sociología. Esta es la primera vez que se pone en funcionamiento y donde tenemos un gran sistema informático intentando capturarlo. La razón por la que hemos considerado necesario usar el término es que al revisar los muchos hilos de debate en las redes sociales, hemos visto que hay muchas personas que en el debate aquí en Dinamarca insisten en que hay igualdad y, por ejemplo, , está tratando de cambiar el debate, exigiendo pruebas de afirmaciones que son ampliamente aceptadas como una realidad ”, dice Leon Derczynski.

Los investigadores destacan un ejemplo en el que un debate sobre la maternidad y la carrera de las mujeres se encuentra con el siguiente comentario:

“¿Puede señalar una investigación que muestra que la licencia por maternidad es la razón por la que las madres se pierden las promociones?”

“Cambia el debate cuando hay que demostrar que no tenemos igualdad, aunque la discusión no debería ser sobre si la tenemos o no”, dice Leon Derczynski.

Las predicciones incorrectas son peligrosas

¿Podría ser relevante solicitar documentación para tal reclamo?

“Sí, y por eso el contexto es crucial a la hora de saber si se trata de neosexismo. Por ejemplo, si intenta encontrar pruebas que respalden el argumento de que las mujeres pierden oportunidades de promoción, no es sexismo, entonces es una pregunta natural de responder ”, dice Leon Derczynski.

¿Cómo toma en cuenta la computadora la importancia del contexto?

“Es muy difícil saber qué hacer con el contexto. Entre otras cosas, se trata de la procedencia del comentario. Es cuando categorizamos los datos que tomamos las decisiones sobre qué es neosexismo y qué no lo es. Si encontramos algunas frases en las que tenemos dudas, y donde nuestro panel también tiene dudas, entonces no incluimos datos en nuestro modelo de entrenamiento “, explica Leo Derczynski.

¿Para qué debería utilizarse su herramienta en la práctica?

“Nuestro objetivo es abordar la misoginia en línea. Si vamos a hacer eso, necesitamos poder medirlo, puede hacerlo con nuestro modelo. “

“Tienes que ser muy cuidadoso”

¿La herramienta también podrá ser utilizada por, por ejemplo, grandes gigantes tecnológicos como Facebook para monitorear y moderar el debate público sobre sexismo u otros temas como el clima o la política?

“Hay que tener mucho cuidado si se va a utilizar esta tecnología en un debate público. Una cosa es utilizarla para medir cómo se hablan las personas, pero cuando se entra en territorio peligroso es cuando se utiliza la inteligencia artificial y el aprendizaje automático para filtrar y moderar debates. Las tecnologías no son perfectas para eso “, dice Leon Derczynski.

La tecnología solo se puede utilizar si hay personas involucradas en la toma de decisiones y evitando errores.

“Filtrar y moderar un debate es difícil, incluso para los humanos, pero imposible para las computadoras. Por lo tanto, debemos mantener al hombre dentro del círculo. Tenemos que mantener a la gente para que tome las decisiones ”, dice Leon Derczynski.

Predice que la herramienta se utilizará para análisis e investigación, pero no descarta que las empresas puedan beneficiarse de ella. Los investigadores ya han recibido consultas de un par de empresas de medios danesas, justo cuando tienen una reunión con Facebook en Dinamarca en el calendario.

»Puede usar la herramienta para enfocarse en dónde están los problemas en el debate, y luego podría imaginar que se puso a disposición de los moderadores de, por ejemplo, grupos de Facebook, para que puedan decidir qué es apropiado en su grupo.

Según Leon Derczynski, al final, los comentarios individuales no son tan importantes. Lo importante es averiguar qué aceptará cada grupo de Facebook.

La censura perjudica el debate público

¿Su objetivo es censurar ciertos debates en las redes sociales?

“No, si bloqueáramos todos los comentarios potencialmente sexistas, dañaría el debate público mucho más que si no hiciéramos nada”, dijo Leon Derczynski.

»El propósito es ayudar a crear una situación en la que más personas se sientan cómodas participando en el debate público. En la página de Facebook de DR.dk, actualmente hay un debate a raíz de una historia sobre nuestra investigación. Si miras estos comentarios, creo que está muy claro por qué muchos no quieren involucrarse en el debate público ”, agrega Leon Derczynski.

En la página de Facebook, las herramientas de los tres investigadores se discuten enérgicamente, y una gran parte de los más de 300 comentarios probablemente califiquen rápidamente para la clasificación en una de las seis categorías que los investigadores han establecido para la misoginia.

¿Crees que ese debate subraya tu punto?

“Sí, desafortunadamente. Probablemente no hubiera pensado que hubiera sido tan claro”.


Source: www.berlingske.dk by www.berlingske.dk.

*The article has been translated based on the content of www.berlingske.dk by www.berlingske.dk. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!