OpenAI está cambiando de abierto a cerrado

Aunque la organización que se hizo famosa con su chatbot todavía promueve la apertura en su nombre, su fundador considera que la práctica anterior es un error.

Como informamos, OpenAI anunció GPT-4, el tan esperado modelo de lenguaje de inteligencia artificial de próxima generación. Las capacidades del sistema aún se están evaluando, pero a medida que los investigadores y expertos estudiaron detenidamente los materiales adjuntos, muchos expresaron su frustración con una característica particular: GPT-4, a pesar del nombre de su empresa matriz, no es un modelo abierto de IA. OpenAI ha compartido muchos resultados de pruebas sobre GPT-4, así como algunas demostraciones interesantes, pero esencialmente ninguna información sobre los datos utilizados para entrenar el sistema, los costos de energía o el hardware específico o los métodos utilizados para crearlo.

* Muchos en la comunidad de AI han criticado esta decisión, señalando que socava los principios fundamentales de operar como una organización de investigación y dificulta que otros reproduzcan los resultados. Quizás lo más importante es que algunos dicen que hace que sea más difícil desarrollar contramedidas contra las amenazas que plantean los sistemas de IA como GPT-4. “Creo que aquí es donde terminó la IA ‘abierta’: presentando GPT-4 documento de 98 paginas afirma con orgullo que no revelan nada sobre el contenido de su conjunto de entrenamiento”, tuiteó Ben Schmidt, vicepresidente de ingeniería de la información de Nomic AI.


Aquí, Schmidt hace referencia a una sección del informe técnico de GPT-4 que dice: “Dado el panorama competitivo y las implicaciones de seguridad de los modelos de lenguaje a gran escala como GPT-4, este informe no incluye detalles sobre la arquitectura (incluidos tamaño del modelo), sobre el hardware, la estructura del conjunto de datos, el método de entrenamiento o similares. Según Ilya Sutskever, científico jefe y cofundador de OpenAI, el miedo a la competencia y las preocupaciones sobre la seguridad son “naturales”. “GPT- 4 no es fácil de desarrollar. Todo OpenAI tuvo que trabajar durante mucho tiempo para hacer esto. Y hay muchas, muchas empresas que quieren hacer lo mismo, así que, desde el punto de vista de la competencia, podemos ver esto como la madurez del campo”.

“Por el lado de la seguridad, diría que todavía no es una razón tan importante como el lado de la competitividad, pero eso cambiará porque estos modelos son muy fuertes y se volverán cada vez más poderosos. Después de cierto punto, si alguien quiere , pueden dañarlo con bastante facilidad con estos modelos. Y a medida que crecen las capacidades, la gente quiere divulgarlas cada vez menos. Cometimos un error al compartir la investigación abiertamente. Si en algún momento la IA se vuelve increíblemente, increíblemente poderosa, entonces simplemente no hay punto en código abierto. Es una mala idea. Espero que dentro de unos años quede muy claro para todos que la disponibilidad abierta de la inteligencia artificial simplemente no es sabia”.

El enfoque cerrado representa un cambio significativo para OpenAI, que fue fundada en 2015 por un pequeño grupo que incluye al actual CEO Sam Altman, el CEO de Tesla, Elon Musk (quien renunció a la junta en 2018) e Ilya Sutskever. su blog en su introducción Sutskever y otros escriben que el objetivo de la organización es “crear valor para todos, no solo para los accionistas”, y que “cooperan libremente” con otros en el campo para hacerlo. OpenAI se fundó como una organización sin fines de lucro, pero luego recibió miles de millones de dólares en capital de inversionistas de Microsoft, que ahora posee licencias comerciales exclusivas.


OpenAI está dirigido por Sam Altman, Mira Murati, Greg Brockman e Ilya Sutskever

La comunidad de IA está dividida sobre este tema. El lanzamiento de GPT-4 se produce solo unas semanas después de que un modelo de lenguaje de inteligencia artificial llamado LLaMA desarrollado por el propietario de Facebook, Meta, se filtrara en línea, lo que generó debates similares sobre los peligros y beneficios de la investigación de código abierto. Sin embargo, la mayoría de las primeras reacciones al modelo cerrado de GPT-4 son negativas. Dado que no es posible ver con qué datos se entrenó GPT-4, es difícil saber dónde es seguro usar el sistema y es difícil realizar mejoras.

“Para que las personas tomen decisiones informadas sobre dónde no funcionará este modelo, deben comprender mejor qué hace y qué suposiciones se incorporan”, dijo Ben Schmidt, vicepresidente de Nomic AI. “No confiaría en un automóvil autónomo entrenado en un clima nevado sin experiencia; es probable que haya baches u otros problemas que puedan surgir cuando se usa en situaciones del mundo real”. William Falcon, CEO de Lightning AI y creador de la herramienta de código abierto PyTorch Lightning, le dijo a VentureBeat dichoque entiende la decisión desde un punto de vista comercial. “Tienen todo el derecho de hacerlo, pero esta medida sienta un mal precedente para la comunidad en general y podría tener efectos perjudiciales”. declaró Falcón. “En caso de error, como ocurre con los errores conocidos, ¿cómo debería reaccionar la comunidad? ¿Cómo podrían los investigadores externos proponer soluciones?”

Otra razón por la que OpenAI oculta los detalles de la construcción de GPT-4 es la responsabilidad legal. Los modelos de lenguaje de IA se entrenan en grandes conjuntos de datos de texto y muchos (incluidos los sistemas GPT anteriores) descargan información de la World Wide Web. Entonces, la fuente probablemente también contenga material protegido por derechos de autor. Los generadores de imágenes de IA, también entrenados con contenido de Internet, se han enfrentado a desafíos legales por esta misma razón. Varias empresas ya han sido demandadas por artistas independientes y el sitio de fotografía Getty Images. Sutskever no respondió a una pregunta sobre si OpenAI puede decir definitivamente que sus datos de entrenamiento no contienen material pirateado.

El debate sobre el intercambio de investigación tiene lugar en un momento de cambios gigantescos en el mundo de la inteligencia artificial, cuando la competencia se intensifica en varios frentes. En el lado corporativo, los gigantes tecnológicos como Google y Microsoft se apresuran a agregar funciones de inteligencia artificial a sus productos, a menudo anulando las preocupaciones éticas anteriores. Y por el lado de la investigación, la tecnología se está desarrollando a un ritmo tan rápido que puede generar temor de que la inteligencia artificial se convierta en una amenaza social grave e inmediata.

Jess Whittlestone, jefe de inteligencia artificial en un grupo de expertos británico, dice que equilibrar estas diferentes presiones es un desafío importante para el gobierno, y dice que los reguladores externos probablemente tendrían que involucrarse. “Estas capacidades de IA están evolucionando muy rápidamente y me preocupa que estas capacidades estén evolucionando más rápido de lo que la sociedad puede adaptarse a ellas”, dijo Whittlestone. Dice que las razones de OpenAI para no compartir más detalles sobre GPT-4 son buenas, pero le preocupa la centralización del poder. “Esas decisiones no deberían depender de empresas individuales. Se deben descubrir buenas prácticas y los terceros independientes deben desempeñar un papel más importante al observar los riesgos asociados con cada modelo y si tiene sentido lanzarlos al mundo”.


Source: SG.hu Hírmagazin by sg.hu.

*The article has been translated based on the content of SG.hu Hírmagazin by sg.hu. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!