El gobierno de EE. UU. debería regular la IA si quiere liderar la gobernanza internacional de la IA


El martes 16 de mayo, el Senado de los EE. UU. celebró una audiencia sobre la regulación de la IA, con un enfoque en ChatGPT. Si EE. UU. regula ChatGPT y cómo, y la IA en general, ayudará a establecer el tono a nivel mundial para la regulación de la IA y cómo abordar los riesgos de la IA sin sofocar la innovación. Sam Altman (CEO de OpenAI, que fabrica ChatGPT4), por ejemplo, enfatizó la importancia de la cooperación internacional en temas como la concesión de licencias y la auditoría de IA. Sin embargo, se necesita más en los EE. UU. en lo que respecta a la regulación de la IA, que es un precursor de un liderazgo estadounidense más efectivo en la gobernanza internacional de la IA.

Cooperación internacional sobre la gobernanza de la IA

Ya existe una serie de foros internacionales en los que se debate la cooperación en materia de gobernanza internacional de la IA. Esto incluye el Consejo de Comercio y Tecnología (TTC) de EE. UU. y la UE, la Asociación Global en IA (GPAI), la Organización para la Cooperación y el Desarrollo Económicos (OCDE), así como el trabajo que estamos haciendo en el Foro Brookings/CEPS sobre Cooperación en IA (FCAI). El reciente Comunicado de los líderes del G-7 también subrayó la necesidad de cooperación en IA, incluido el impacto de LLM como ChatGPT. Sin embargo, la capacidad de los EE. UU. para liderar internacionalmente la gobernanza de la IA se ve obstaculizada por la ausencia de un enfoque integral para la regulación nacional de la IA. Estados Unidos está progresando en el desarrollo de la regulación nacional de IA, incluso con el Marco de gestión de riesgos de IA del Instituto Nacional de Estándares y Tecnología (NIST), el Plan para una declaración de derechos de la IAy las leyes y regulaciones existentes que se aplican a los sistemas de IA (como el escrutinio de la Comisión Federal de Comercio). Sin embargo, se necesita más. La ausencia de un enfoque más integral significa que los EE. UU. no pueden presentar un modelo sobre cómo avanzar globalmente con la gobernanza de la IA y, en cambio, a menudo se les deja responder a los enfoques de otros países sobre la regulación de la IA, siendo la Ley de IA de la UE el caso en punto.

Modelos de lenguaje grande como ChatGPT4

Cuando se le hace una pregunta, un modelo de lenguaje grande (LLM) puede generar respuestas sofisticadas que son cada vez más indistinguibles de lo que podría responder un ser humano. ChatGPT es, en esencia, una máquina de probabilidad a gran escala que predice qué palabra debe seguir a continuación en función de los datos con los que se ha entrenado. ChatGPT4 es inteligente pero no es consciente ni sensible. Dicho esto, ChatGPT y LLM son tecnologías inmensamente poderosas que tendrán impactos económicos, sociales y geopolíticos significativos.

Los LLM como ChatGPT4, así como los productos de inteligencia artificial generativa de Google, como Bard y PaLM2, han llevado a una mayor demanda en los EE. UU. para la regulación de la inteligencia artificial. Esto refleja una mayor preocupación por los riesgos de daño de los LLM, como algunos de estos riesgos son nuevos para los LLM, mientras que ChatGPT puede amplificar los riesgos de IA existentes y aumentar el daño potencial. Por ejemplo, si bien la desinformación ya es un problema en las redes sociales, ChatGPT4 y otros LLM pueden habilitar campañas de desinformación más específicas y efectivas que hacen que sea más difícil determinar la veracidad de la información. La privacidad es un problema real en línea, pero ChaptGPT4 podría facilitar la inferencia de identidades personales, reduciendo aún más la protección de la privacidad.

Aspectos destacados de la audiencia del Senado sobre la regulación de la IA

Todos los que testificaron en la audiencia pidieron alguna regulación de la IA, con diferencias importantes. Tanto Altman como Christina Montgomery (Directora de Privacidad y Confianza de IBM) enfatizaron la responsabilidad clave de las empresas que desarrollan IA para mitigar el daño. Montgomery describió los procesos de gobierno interno en IBM, como la designación de un funcionario de ética de IA líder con la responsabilidad de garantizar una IA responsable y la creación de una Junta de Ética de IA para guiar la implementación. Altman discutió cómo Open AI gestiona el riesgo potencial de daño. Esto incluye la eliminación de datos personales de los conjuntos de entrenamiento (cuando sea factible), la realización de pruebas y evaluaciones internas exhaustivas antes de lanzar un modelo y confiar en los comentarios humanos para mejorar aún más el modelo después de lanzar un modelo. Además, OpenAI no publica el código completo, los pesos y los datos de ChatGPT4, solo lo pone a disposición a través de una interfaz de programación de aplicaciones (API), aunque con posibilidades de capacitación adicional y adaptación por parte de terceros para casos de uso específicos.

Cuando se trataba de cómo el gobierno debería regular la IA, y los LLM en particular, Altman sugirió que el gobierno debería centrarse en los requisitos de seguridad antes y después de las pruebas, trabajando con otros gobiernos para acordar un enfoque común para otorgar licencias y auditar estos modelos de IA. Montgomery abogó por una regulación basada en el riesgo y enfocada en casos de uso, en lugar de regular la tecnología en sí. Esto es coherente con el enfoque de la UE en su Ley de IAdonde el caso de uso de alto riesgo, como el uso de un chatbot en entrevistas de trabajo, se regularía de manera más estricta que un chatbot que hace una reserva de vuelo. También pidió requisitos para que las personas estén informadas cuando interactúan con un sistema de IA. La propuesta de Google de poner una marca de agua en todas las imágenes generadas por Google AI podría ayudar a reducir la efectividad de la información errónea. Gary Marcus, profesor emérito de la Universidad de Nueva York, fue el más preocupado por los daños potenciales de ChatGPT4 y abogó con más fuerza por la regulación gubernamental. Sin embargo, en su testimonio, además de decir que no confíen en que las empresas se autorregulen, se centró más en la colaboración entre el gobierno y los científicos para evaluar los modelos de IA.

Por qué Estados Unidos necesita regular la IA

La regulación estadounidense de los riesgos de daño de la IA es claramente necesaria. Sin embargo, los procesos para desarrollar la regulación de la IA contrastan cada vez más con el espíritu de la época actual, donde los sistemas de IA se vuelven cada vez más poderosos y tienen un impacto mucho más rápido de lo que el gobierno puede reaccionar. Esto plantea la pregunta de si el gobierno es capaz de regular la IA de manera efectiva. Sin embargo, avanzar en la regulación de la IA será clave si EE. UU. quiere liderar la cooperación internacional en la gobernanza de la IA.


Source: Why understanding the historical purposes of modern schooling matters today by www.brookings.edu.

*The article has been translated based on the content of Why understanding the historical purposes of modern schooling matters today by www.brookings.edu. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!