• Home
  • Noticias
  • Tecnología
  • Negocio
  • Ciencias
  • Moda
  • Viajar
  • Carros
  • Deportes
  • Entretenimiento
No Result
View All Result
No Result
View All Result

Casa » Tecnología » Los investigadores proponen una corrección de sesgos para GPT-3 y otros modelos de lenguaje

Los investigadores proponen una corrección de sesgos para GPT-3 y otros modelos de lenguaje

23/02/2021

El aprendizaje de pocas oportunidades, o la capacidad de aprender tareas a partir de algunos ejemplos, es un aspecto clave de la inteligencia humana. Grandes modelos de lenguaje natural de IA como OpenAI GPT-3 puede realizar un aprendizaje de pocos disparos sin realizar ajustes precisos. Pero a pesar de la promesa de un aprendizaje de pocas oportunidades, nueva investigación encuentra que la precisión de los modelos de lenguaje, en particular GPT-3, puede ser “altamente inestable” sin calibración.

La investigación, que fue escrita en coautoría por científicos de UC Berkeley, UC Irvine y la Universidad de Maryland, es la última en encontrar fallas en GPT-3 y otros modelos similares. La propia OpenAI señala que GPT-3 coloca palabras como “travieso” o “chupado” cerca de pronombres femeninos y “Islam” cerca de palabras como “terrorismo”. Un papel por el Ph.D. de la Universidad de Stanford. candidato y Gradio el fundador Abubakar Abid detalló las tendencias anti-musulmanas del texto generado por GPT-3. Y el Centro sobre Terrorismo, Extremismo y Contraterrorismo del Instituto Middlebury de Estudios Internacionales afirma que GPT-3 podría generar de manera confiable texto “informativo” e “influyente” que podría “radicalizar a las personas en ideologías y comportamientos violentos de extrema derecha”.

Partiendo del supuesto de que GPT-3 es susceptible a ciertos tipos de inestabilidad, los investigadores compararon el modelo a través de la API de OpenAI usando ejemplos de entrenamiento de conjuntos de datos para clasificación de texto, recuperación de hechos y extracción de información. Los ejemplos estaban en una variedad de formatos y ordenaciones diferentes, incluidas plantillas de preguntas y respuestas, plantillas de estilo de conversación e indicaciones que se parecían a páginas web particulares.

Precisión GPT-3

En sus experimentos, los investigadores encontraron que las diferentes opciones con respecto al formato y el orden podrían conducir a fluctuaciones en la precisión. Por ejemplo, cambiar el orden de los ejemplos de entrenamiento mientras GPT-3 clasificaba su sentimiento provocó un cambio en la precisión de casi casualidad (54%) a casi de vanguardia (93%). Curiosamente, agregar más ejemplos de entrenamiento a los ejemplos de entrenamiento no necesariamente redujo la variación en la precisión, y algunos ejemplos de entrenamiento incluso perjudicaron la precisión.

Los investigadores dicen que identificaron tres escollos que llevan a modelos de lenguaje como GPT-3 a estar sesgados hacia ciertas respuestas: sesgo de etiqueta mayoritaria, sesgo de actualidad y sesgo de token común. La mayoría de los sesgos de etiquetas y actualidad llevan al modelo a predecir las respuestas que aparecen con frecuencia o cerca del final de un mensaje. Por otro lado, el sesgo de token común lleva al modelo a preferir respuestas frecuentes en sus datos previos al entrenamiento, por ejemplo, “Estados Unidos” sobre “Santa Lucía”.

Los investigadores intentaron contrarrestar estos sesgos “calibrando” la distribución de salida, estimando el sesgo del modelo hacia ciertas respuestas introduciendo entradas ficticias que no tenían contenido (por ejemplo, “N / A”). Ajustaron los parámetros de calibración para que la entrada sin contenido tuviera puntuaciones uniformes para cada respuesta, lo que, según afirman, proporcionó una buena configuración de los parámetros sin datos de entrenamiento adicionales.

Los resultados de los experimentos muestran que la calibración mejoró constantemente la precisión de GPT-3 en todos los formatos y ejemplos, al tiempo que hizo que la precisión fuera más estable. “A través de un análisis detallado, identificamos que esta volatilidad surge de sesgos en los modelos de lenguaje, por ejemplo, su tendencia a generar tokens recientes o comunes”, escribieron los coautores en un artículo que describe su trabajo. “Usamos estos conocimientos para desarrollar la calibración contextual, un procedimiento simple para ajustar las probabilidades de salida del modelo, que mejora la precisión, reduce la varianza y, en general, hace que herramientas como GPT-3 sean más efectivas para los usuarios finales”.

VentureBeat

La misión de VentureBeat es ser una plaza urbana digital para que los responsables de la toma de decisiones técnicas obtengan conocimientos sobre tecnología transformadora y realicen transacciones. Nuestro sitio ofrece información esencial sobre tecnologías y estrategias de datos para guiarlo a medida que lidera sus organizaciones. Te invitamos a convertirte en miembro de nuestra comunidad, para acceder a:

  • información actualizada sobre los temas de su interés
  • nuestros boletines
  • contenido exclusivo de líderes de opinión y acceso con descuento a nuestros preciados eventos, como Transform
  • funciones de red y más

Hazte miembro


Source: VentureBeat by feedproxy.google.com.

*The article has been translated based on the content of VentureBeat by feedproxy.google.com. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!






Share186Tweet116Share

Related Posts

Netflix está invirtiendo $ 100 millones en diversificación

09/03/2021

Tras la publicación de su primer informe sobre igualdad de género en enero, Netflix también publicó los resultados de un...

puedes recuperar hasta 15 mil coronas

09/03/2021

Philips ofrece un descuento en una combinación de TV OLED y barra de sonido. Al comprar un televisor OLED de...

SK Hynix comienza la producción en masa de LPDDR5 con 18 GB para Asus

09/03/2021

Compañía SK Hynix comenzó la producción masiva de memoria LPDDR5 para Asus y sus teléfonos para juegos de alta gama...

Monster Hunter Rise obtiene otra demostración. Conocemos la fecha de lanzamiento del spin-off.

09/03/2021

Capcom transmitió una media hora en vivo dedicada exclusivamente a la marca Monster Hunter. En el video de arriba, había...

Webinars de simulación EM y diseño de sistemas electrónicos

09/03/2021

Acepte la invitación a una serie de webinars sobre el diseño y optimización de sistemas electrónicos en las industrias aeroespacial...

Load More

Most Popular.

Nigeria puede salvar N3.7trn eliminando MDA ineficientes

Últimos informes sobre dispositivos AR / VR de Apple

Estados Unidos quiere crear un frente tecnológico común contra China

Los físicos de partículas resuelven un problema que los ha estado “atormentando” durante más de 20 años

Siete pit bulls mordieron la cara de un hombre

Comer pescado azul reduce el riesgo de infarto, por eso

Trending.

Oferta: los nuevos Galaxy Buds Pro de Samsung ya tienen un 15% de descuento

LÍDER SIN PERDÓN: Mladost es más fuerte que Sloga, la decimotercera derrota del equipo de Kraljevo

El Opel Grandland X también tiene un morro Opel Manta

La maldita tiranía del cronómetro

Ofertas: los precios bajos llegaron al iMac de 21.5 pulgadas de Apple 2020 ($ 299 de descuento) y al M1 MacBook Pro ($ 100 de descuento) [Updated]

Studio Aspyr parece estar preparando Star Wars: Republic Commando para Switch

  • Home
  • Noticias
  • Tecnología
  • Negocio
  • Ciencias
  • Moda
  • Viajar
  • Carros
  • Deportes
  • Entretenimiento
Privacy Policy
No Result
View All Result
  • Home
  • Noticias
  • Tecnología
  • Negocio
  • Ciencias
  • Moda
  • Viajar
  • Carros
  • Deportes
  • Entretenimiento