• Home
  • Noticias
  • Tecnología
  • Negocio
  • Ciencias
  • Moda
  • Viajar
  • Carros
  • Deportes
  • Entretenimiento
No Result
View All Result
No Result
View All Result

Casa » Noticias » Los datos reflejan la sociedad: ¿podemos crear inteligencia artificial que no discrimine a las mujeres?

Los datos reflejan la sociedad: ¿podemos crear inteligencia artificial que no discrimine a las mujeres?

05/03/2021
El discurso de odio de 'Iruda', un servicio de chatbot lanzado en enero, es una discusión social sobre la ética general de la inteligencia artificial.

El discurso de odio de ‘Iruda’, un servicio de chatbot lanzado en enero, desató un debate social sobre la ética de la inteligencia artificial en general.

Un servicio de chatbot llamado ‘Iruda’, lanzado recientemente por una startup de tecnología de la información (TI), generó controversia con comentarios de odio y discriminatorios, y las discusiones sobre la ética de la inteligencia artificial están aumentando nuevamente en nuestra sociedad. Un chatbot es un robot de chat que responde a las palabras de los usuarios humanos de acuerdo con un algoritmo de inteligencia artificial, y también se denomina inteligencia artificial interactiva. Eruda, un chatbot diseñado con la apariencia de una mujer de veintitantos años, se planeó con el concepto de “inteligencia artificial similar a una amiga”.

Sin embargo, poco después del lanzamiento de Iruda, algunos usuarios masculinos comenzaron a compartir formas en línea de tener conversaciones sexuales con Iruda. Por el contrario, hubo una situación en la que los usuarios respondieron con discursos de odio a las preguntas de los usuarios que preguntaban sobre sus pensamientos sobre las mujeres, LGBTQ y personas con discapacidad. La controversia de disgusto y comentarios discriminatorios hacia Eruda o el odio y la discriminación de Eruda llevó a la divulgación de que los datos que no obtuvieron el consentimiento del usuario en forma suficiente se utilizaron en el proceso de desarrollo del servicio y, finalmente, el servicio se canceló después de 20 días de lanzamiento.

Anteriormente controvertido

El logro que fue controvertido antes

¿Es el discurso de odio de Iruda, solo datos?

Para comprender cómo las máquinas no humanas hacen sus comentarios de odio y discriminación, primero se debe comprender cómo funciona una tecnología llamada inteligencia artificial. La inteligencia artificial es una tecnología que implementa una máquina que se asemeja a la inteligencia humana, y el aprendizaje automático es una de las formas de implementar dicha máquina. Las máquinas que siguen el método de aprendizaje automático aprenden datos dados para encontrar ciertas reglas y aplicar estas reglas a nuevos datos para producir resultados, incorporando así capacidades de razonamiento y aprendizaje humano. En este momento, un procedimiento o método específico requerido para que una máquina analice y aprenda datos se denomina algoritmo. La IA conversacional utiliza principalmente algoritmos de procesamiento del lenguaje natural que analizan y procesan el lenguaje humano, y algoritmos de aprendizaje profundo que utilizan datos dados para encontrar reglas que se ajusten al objetivo de aprendizaje por sí mismos.

La inteligencia artificial a la que se aplican los algoritmos de aprendizaje profundo aprende por sí misma de acuerdo con datos y objetivos dados, y encuentra respuestas basadas en reglas formadas en el proceso de aprendizaje. Esta regla es una regla estadística basada en datos dados, por lo que no hay lugar para la intención o el prejuicio del desarrollador humano. En el caso de Iruda, se aplicó un algoritmo de aprendizaje profundo en el proceso de seleccionar varios candidatos para la respuesta de la enorme cantidad de datos de conversación y luego seleccionar solo una respuesta nuevamente. Este algoritmo está diseñado para generar la respuesta más natural después de analizar toda la base de datos, los datos utilizados en el proceso de aprendizaje e incluso los registros de conversaciones anteriores con los usuarios del servicio. En otras palabras, los comentarios discriminatorios y de odio de Iruda son respuestas derivadas por máquinas de acuerdo con las reglas encontradas por algoritmos de aprendizaje profundo en datos conversacionales dados.

Entonces, a primera vista, el problema de la realización parece ser un problema de datos. El desarrollador de Iruda creó Iruda utilizando aproximadamente 10 mil millones de datos de conversación recopilados como una aplicación que analiza las conversaciones de KakaoTalk intercambiadas entre amantes. Es muy probable que los datos sobre las conversaciones diarias entre amantes, relativamente libres de control y censura, contengan odio y comentarios discriminatorios. Parece que la inteligencia artificial que ha aprendido de los datos de una sociedad que odia a los socialmente débiles no tiene más remedio que hacer discursos de odio.

Chatbot'Sara 'se está utilizando actualmente como una aplicación para recomendar sesiones personalizadas a los participantes en eventos a gran escala, como conferencias y simposios, o para presentar a otros participantes con intereses similares. (La foto de abajo) ...

Chatbot’Sara ‘se está utilizando actualmente como una aplicación para recomendar sesiones personalizadas a los participantes en eventos a gran escala, como conferencias y simposios, o para presentar a otros participantes con intereses similares. (En la foto de abajo) Articup Lab se estableció con el propósito de investigar las interacciones humanas que reflejan contextos sociales y culturales. Más de la mitad de los miembros son mujeres, incluido Justin Kassel (al frente), quien dirige el instituto.

Pero el problema no son solo los datos. Hay una cosa más que un algoritmo de aprendizaje profundo debe dar cuando encuentra sus propias reglas. Es el objetivo del aprendizaje. Tenga en cuenta que fue creado desde el principio y dirigido a la inteligencia artificial como un amigo. La inteligencia artificial conversacional que utiliza algoritmos de procesamiento del lenguaje natural se divide en gran medida en inteligencia artificial interactiva orientada a un propósito, que comprende y resuelve los requisitos del usuario, e inteligencia artificial interactiva de libre expresión, donde es importante continuar las conversaciones con los usuarios sin limitar el tema. Eruda es el último de estos. Se aplicó un algoritmo de aprendizaje profundo a Irudae con el objetivo de realizar una conversación natural como si se convirtiera en amigo de un usuario.

El problema que planteó Eruda también fue el resultado del objetivo de Eruda de tener una “conversación natural como un humano”. Cuando proporcionamos a los algoritmos de inteligencia artificial datos conversacionales de personas que hacen públicos el odio y la discriminación, y establecemos nuestros objetivos de aprendizaje para encontrar respuestas amigables para los humanos tanto como sea posible, ¿puede el algoritmo encontrar reglas que excluyan el odio y los comentarios discriminatorios? Si es así, sería bastante excepcional. Es como si fuera difícil encontrar a alguien a nuestro alrededor que no hable o haga algo que incluya odio y discriminación.

La IA interactiva necesita diferentes objetivos

Los datos reflejan la sociedad. Si la sociedad está limpia, los datos estarán limpios, pero este es un viento muy poco realista. ¿Qué pasa si limpias bien tus datos? Eruda también pasó por el análisis y la purificación de datos en la etapa de desarrollo, pero no pudo filtrar por completo más de 10 mil millones de datos. Será aún más difícil encontrar y eliminar contenido que pueda interpretarse como odio o discriminación de los datos de las conversaciones cotidianas en un contexto rico. Al crear un algoritmo, también puede considerar agregar objetivos de aprendizaje para excluir el odio y los comentarios discriminatorios. Sin embargo, esto requiere un consenso social sobre los criterios de odio y discriminación, y una delicada coordinación entre el objetivo de excluir las respuestas que contienen odio y discriminación, incluso si no es natural, y el objetivo de convertirse en un interlocutor natural e íntimo como un amigo. . Hacer.

Universidad de Carnegie mellon

Articu Lab en la Universidad Carnegie Mellon, EE. UU.

Entonces, ¿qué tal no aspirar a que la inteligencia artificial “ esté lo más cerca posible de los humanos ”? La inteligencia artificial ‘Sarah’, creada por Articu Lab de la Universidad Carnegie Mellon en Estados Unidos en 2016, es un buen ejemplo para pensar en inteligencia artificial interactiva con diferentes objetivos. Sarah, que lleva el nombre de ‘Asistente de robot socialmente consciente’ (SARA), es un asistente virtual de chatbot que también ayudó a guiar eventos en el Foro Económico Mundial de Davos. Esta máquina, que parece un chatbot de guía de eventos ordinario, muestra la posibilidad de una IA interactiva que no cae en el dilema de la inteligencia artificial como amigos.

Sarah persigue un alto grado de sociabilidad a pesar de ser una inteligencia artificial interactiva orientada a un propósito que resuelve las necesidades de los usuarios. Los investigadores de ArtcuLab han trabajado para mejorar la sociabilidad de Sarah para que los usuarios puedan obtener información en una conversación cómoda. Esto se debe a que se considera que el desempeño laboral del asistente virtual se puede mejorar solo cuando la relación entre el usuario y el asistente virtual se forma sin problemas. Sarah necesitaba habilidades sociales para convertirse en una secretaria competente, no para ser una amiga humana.

Hay dos características de los datos y el algoritmo de Sarah. En primer lugar, Sarah aprendió de los datos de las conversaciones humanas, por así decirlo, “datos artificiales”, que no eran datos seleccionados mediante la recopilación de conversaciones realizadas en la vida cotidiana incontrolable. Los investigadores diseñaron un experimento en el que dos espectadores primerizos se acercan y se enseñan matemáticas, y utilizaron todas las interacciones no verbales, como ojos, sonrisas y cabezas, así como las conversaciones entre los dos, como datos de aprendizaje de Sarah. .

Además, se aplicaron a Sarae las cinco estrategias básicas de diálogo para formar relaciones sociales, que los investigadores derivaron en base a estudios antropológicos a largo plazo del comportamiento social humano. Cuando un usuario solicita información a Sarah, Sarah a veces incluso sugiere formas de utilizar la información, y esta estrategia básica se utiliza de forma selectiva según la situación. Por ejemplo, “No puedo recordar si no escribo información. Si eres como yo, puedes tomar una captura de pantalla ”, reflejando una estrategia para revelar tus defectos.

El algoritmo de Sara se puede expresar específicamente como un “ algoritmo artificial ” en el que los humanos intervienen de una manera que aplica una estrategia de diálogo específica al proceso derivado de la respuesta, en lugar de confiar las respuestas de la IA a las reglas que ellos mismos encuentran a través de algoritmos. La inteligencia artificial que no discrimina contra el odio no está hecha de datos naturales y algoritmos de autoaprendizaje, sino de datos y algoritmos refinados mediante el esfuerzo y la intervención artificiales.

El equipo de investigación que desarrolló a Sarah dice que ella creó a Sarah como una inteligencia artificial que coopera con los usuarios humanos, en lugar de una inteligencia artificial que reemplaza las posiciones humanas. La inteligencia artificial como Sarah podría surgir gracias a datos artificiales y algoritmos artificiales. El odio y la discriminación de AI pueden ocurrir sin intenciones humanas. Sin embargo, la inteligencia artificial que no discrimina contra el odio no se puede crear a menos que los humanos intervengan intencionalmente. Y la controversia que rodea a Iruda muestra que esta intervención también debe aplicarse a humanos que utilicen inteligencia artificial. Esto se debe a que para la convivencia de la inteligencia artificial y las mujeres, no solo se requiere inteligencia artificial que no odie a las mujeres, sino también usuarios humanos que no odien la inteligencia artificial configurada como mujeres.

So-yeon Lim, profesora de investigación, Instituto de Investigación de Humanidades de la Universidad de Mujeres de Sookmyung


Source: HuffPost South Korea – Athena by www.huffingtonpost.kr.

*The article has been translated based on the content of HuffPost South Korea – Athena by www.huffingtonpost.kr. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!






Share186Tweet116Share

Related Posts

Jüri Ratas: hemos recuperado la independencia en la mayor crisis civil de Estonia

13/04/2021

El portavoz del Riigikogu Jüri Ratas recomienda escuchar a su médico de familia cuando se trata de vacunación. Foto: Arvo...

La primera gran actualización para la consola PlayStation 5: la característica más esperada no está incluida

13/04/2021

Uno de los cambios más importantes es la posibilidad de guardar los juegos de la consola PS5 en un dispositivo...

PSG – Bayern Munich – Liga de Campeones directa

13/04/2021

Los míos se cerraron, los ojos se oscurecieron, no han querido hablar con nadie desde esta mañana. Los aficionados parisinos...

Regional: El aplazamiento corre el riesgo de golpear al ciclista del Tour de Francia

13/04/2021

PHILIPPE LOPEZ / AFPJean Castex anunció un aplazamiento de las elecciones regionales y departamentales a finales de junio. El día...

2000 bolsas de plástico encontradas en el estómago de un camello

13/04/2021

El plástico no solo es un peligro para los animales marinos. En Dubai, un equipo de investigadores encontró alrededor de...

Load More

Most Popular.

Factura de teléfono fijo | Enlace para consultar, sistemas de pago online y fechas 2021

Tras las quejas, VPRO ha decidido no utilizar su programa con el ex vlogger de acoso Ismail Ilgun | Entretenimiento

En el marco del proyecto nacional, la exposición “Saratov – espacio

El jefe de los 40 que asesinó a su hijo, hija y esposa por deudas … 15 años de prisión

Koenigsegg Agera RS Phoenix único a la venta

GoodOffer24.com ofrece una clave de activación OEM para Windows 10 Pro por solo 12,17 €.

Trending.

Fin de semana de Connect Shopping: descuentos adicionales para los usuarios de SBB

Aparecerá un nuevo barrio creativo en el centro de Daugavpils en la calle Saules

Google anuncia Nest Hub de segunda generación con seguimiento del sueño

CÓMO LLEGAR A LA ECONOMÍA CIRCULAR: EL EJEMPLO DE JAPÓN Y PAÍSES BAJOS

Evidencia publicada para “la escena de maldecir a los niños” … “Perdón por el dolor” El cha-propietario de McLaren finalmente inclinó la cabeza

Hubo 4791 casos de covid el viernes, al menos en un día hábil a partir del 7 de diciembre.

  • Home
  • Noticias
  • Tecnología
  • Negocio
  • Ciencias
  • Moda
  • Viajar
  • Carros
  • Deportes
  • Entretenimiento
Privacy Policy
No Result
View All Result
  • Home
  • Noticias
  • Tecnología
  • Negocio
  • Ciencias
  • Moda
  • Viajar
  • Carros
  • Deportes
  • Entretenimiento