Cómo California y otros estados están abordando la legislación de IA


La semana pasada, la asambleísta del estado de California, Rebecca Bauer-Kahan, presentó una factura para combatir la discriminación algorítmica en el uso de herramientas automatizadas que toman decisiones consecuentes. Y California no está sola: una nueva ola de legislación estatal está asumiendo la regulación de la inteligencia artificial (IA), lo que plantea preguntas clave sobre la mejor manera de diseñar e implementar estas leyes. En general, los proyectos de ley introducen nuevas protecciones cuando se utilizan IA u otros sistemas automatizados para ayudar a tomar decisiones consecuentes—si un trabajador recibe un bonoun estudiante ingresa a la universidad, o un adulto mayor recibe sus beneficios públicos. Estos sistemas, que a menudo funcionan de manera opaca, se utilizan cada vez más en una amplia variedad de entornos impactantes. Como motivación, la oficina del asambleísta Bauer-Kahan cita daños algorítmicos demostrados en cuidado de la salud, publicidad de viviendasy contratacióny lamentablemente ha habido muchos otros casos similares de daño.

La regulación de la IA en los Estados Unidos aún es bastante incipiente. el congreso ha pasado facturas importantes centrado en los sistemas de inteligencia artificial del gobierno. Si bien la administración Trump emitió dos importantes ejecutivo pedidosestos esfuerzos de supervisión hasta ahora han sido en gran parte ineficaz. En 2022, la administración Biden emitió una guía voluntaria a través de su Plan para una declaración de derechos de la IAque alienta a las agencias a poner en práctica los principios de la IA. Esta Casa Blanca también ha emitido dos ejecutivo pedidos pedir a las agencias que se centren en la equidad en su trabajo, incluso tomando medidas contra la discriminación algorítmica. Muchas agencias individuales han prestado atención y están haciendo progreso dentro de sus respectivas jurisdicciones. Aún así, no parece inminente ninguna legislación federal que se centre en proteger a las personas de los daños potenciales de la IA y otros sistemas automatizados.

Los estados, sin embargo, están avanzando. De California a Connecticut y de Illinois a Texaslos laboratorios de la democracia están comenzando a tomar medidas para proteger al público de los daños potenciales de estas tecnologías. Estos esfuerzos, provenientes de legisladores demócratas y republicanos, se basan en principios de buen gobierno. En términos generales, los esfuerzos legislativos estatales buscan equilibrar protecciones más sólidas para sus electores con la innovación y el uso comercial de la IA. No existe un modelo único para estos esfuerzos, pero han surgido algunas áreas importantes de consenso, tanto de los proyectos de ley como de la legislación que ya se aprobó.

Primero, la gobernanza debe centrarse en el impacto de las herramientas algorítmicas en entornos con un impacto significativo en los derechos civiles de las personas, las oportunidades de progreso y el acceso a servicios críticos. Con este fin, si bien el término ‘inteligencia artificial’ es una referencia general útil que ayuda a motivar la necesidad de una acción legislativa, es alentador que los gobiernos dejen de lado este término al definir el alcance de la supervisión y se centren en cambio en los procesos críticos que son siendo realizado o influenciado por un algoritmo. Al hacerlo, los gobiernos estatales están incluyendo cualquier tipo de algoritmo utilizado para el proceso cubierto, sin importar si es simple, basado en reglas o impulsado por aprendizaje profundo. Al centrar la atención y la carga de la gobernanza en impacto en la toma de decisiones de alto riesgo, y no en los detalles particulares de una herramienta técnica específica, se puede permitir que florezca la innovación mientras las protecciones necesarias permanecen preparadas para el futuro.

En segundo lugar, existe un amplio acuerdo en que la construcción de la transparencia es fundamental. Al usar algoritmos para decisiones importantes, las empresas y los gobiernos deben informar explícitamente a las personas afectadas (como lo exige el proyecto de ley de California). Además, la divulgación pública sobre qué herramientas automatizadas están implicadas en decisiones importantes es un paso clave para permitir una gobernanza eficaz y generar confianza pública. Los estados podrían exigir el registro de dichos sistemas (como planea hacer la UE y como proyecto de ley en Pensilvania requeriría) y solicitar más información sistémica, como detalles sobre cómo se usaron algoritmosasí como los resultados de una evaluación del sistema y una evaluación del sesgo. Estas evaluaciones utilizan la transparencia para abordar directamente la pregunta clave sobre estos sistemas: ¿Funcionan y funcionan para todos?

Haciendo partes de estos evaluaciones de impacto algorítmicas público permitiría una mayor rendición de cuentas pública y conduciría a una mejor gobernanza por parte de legisladores más informados. Las evaluaciones de impacto algorítmicas también podrían mejorar el funcionamiento de los mercados de herramientas de IA, que actualmente sufren de promesas exageradas seguido por fallas de rutina. Aquí también hay un consenso creciente entre los estados: muchos estados con proyectos de ley vigentes (incluidos California, Connecticutel Distrito de Columbia, Indiana, Kentucky, Nueva York, Vermonty Washington) incluyen las evaluaciones de impacto requeridas, aunque varían en el grado de transparencia requerido.

Hasta ahora, los legisladores estatales han tomado diferentes decisiones sobre si limitar su supervisión a los usos gubernamentales de estos sistemas o si considerar otras entidades dentro del estado, especialmente el uso comercial de algoritmos. En California, el proyecto de ley incluye usos no gubernamentales de sistemas automatizados. En Connecticut y Vermont, la atención se centra exclusivamente en el uso del gobierno. Centrarse solo en los algoritmos gubernamentales permite que el cumplimiento de los requisitos se maneje a través de procesos y guías gubernamentales internas, lo que puede facilitar el cumplimiento de alguna manera. Hacer que los usos no gubernamentales se ajusten a estándares que, por ejemplo, tienen como objetivo garantizar que los sistemas se prueben en cuanto a eficacia y no discriminación antes del despliegue, plantea la cuestión de la aplicación. El proyecto de ley de California incluye un derecho privado de acción, que permite a las personas presentar una demanda cuando se violan sus derechos y es una protección clave. pero para asegurar proactivo protecciones y orientación detallada, es necesario un enfoque regulatorio. Para muchos escenarios, los legisladores tendrán que resolver los mismos problemas de política sin importar si eligen limitar su alcance al uso gubernamental o privado. Por ejemplo, tendría sentido que los algoritmos de contratación se sometieran a los mismos estándares, independientemente de la entidad que realice la contratación.

Algunas reglas sobre las herramientas de decisión automatizadas tendrán sentido en todos los sectores, por ejemplo, la divulgación de algoritmos antes mencionada a las personas afectadas, o el derecho a corregir errores en los datos utilizados para decisiones algorítmicas importantes. Sin embargo, muchos otros pueden requerir una guía específica para la aplicación: las herramientas de decisión automatizadas que se usan en el cuidado de la salud deben seguir reglas elaboradas en función de esos riesgos particulares y las regulaciones existentes, mientras que los sistemas que se usan en el empleo enfrentan un panorama regulatorio y de riesgos diferente. Además de garantizar que las reglamentaciones sectoriales existentes se apliquen de manera efectiva a los algoritmos, es posible que sea necesario emitir nuevas directrices relacionadas con el uso de herramientas automatizadas en ese sector. Las agencias estatales existentes están en mejores condiciones para comprender el papel y el impacto de los sistemas algorítmicos en sus dominios y, en general, deberían proporcionar dicha supervisión. Cuando sea posible, una agencia de salud existente debería regular la IA relacionada con la salud, un departamento de trabajo debería regular la IA relacionada con el empleo, y así sucesivamente.

Sin embargo, esto plantea un desafío clave: las agencias estatales pueden carecer de la experiencia técnica para supervisar de manera efectiva los sistemas algorítmicos. Una solución prometedora es que las agencias existentes brinden esta supervisión específica del sector trabajando en conjunto con una oficina con experiencia técnica. Esta podría ser una nueva oficina de IA, una oficina de tecnología existente o una agencia de privacidad (tal como se propuso en Connecticut y se implementó en Vermont). Esta sería una solución efectiva a corto plazo aunque, a largo plazo, algunas agencias podrían beneficiarse de una experiencia interna significativa en el uso y la regulación de sistemas algorítmicos. Los estados también podrían considerar nuevas vías de contratación para la experiencia en inteligencia artificial y ciencia de datos, ya que el gobierno federal ha hecho. Además, las agencias estatales pueden carecer de la autoridad explícita para emitir orientación sobre el desarrollo, la implementación y el uso de herramientas de decisión automatizadas; su autoridad debe ampliarse adecuadamente para reflejar los desafíos de gobernar la IA.

Algunos estados (incluyendo Texas, Maryland, Massachusettsy Rhode Islandd) están considerando poner en marcha el proceso deliberativo creando primero comisiones para estudiar el problema y hacer recomendaciones, como lo han hecho previamente estados que incluyen Vermont, Colorado, Alabamay Washington. Esto puede causar un retraso significativo en la adaptación de las protecciones gubernamentales a un mundo ya algorítmico. En cambio, los gobiernos estatales deberían actuar en dos frentes en paralelo. Los legisladores deben conocer las preocupaciones de los ciudadanos y, al mismo tiempo, adaptar la gobernanza estatal a los desafíos algorítmicos bien entendidos, como los requisitos de transparencia y la nueva autoridad y capacidad de la agencia. Las investigaciones y la investigación pueden ayudar a determinar qué sectores el estado podría querer priorizar para inversión, capacitación y regulación. Pero estas consultas no deben distraer ni retrasar a los legisladores del importante trabajo de proteger a sus electores mediante la promulgación de leyes de gobernanza de IA que contengan políticas que ya cuentan con un amplio consenso.

Si bien los legisladores tendrán muchas consideraciones que son específicas de su estado, en general, la legislación de gobernanza de IA a nivel estatal más efectiva tendrá los siguientes elementos: 1) incluye dentro de su alcance cualquier tecnología que tome, informe o apoye la toma de decisiones críticas , 2) exige evaluaciones de impacto algorítmicas proactivas y transparencia en torno a estas evaluaciones, 3) cubre el uso tanto del gobierno como del sector privado, y 4) identifica una autoridad de aplicación clara sobre una base sectorial, incluida la consideración de un enfoque regulatorio con requisitos proactivos. Estos elementos permitirán que los legisladores estatales brinden protecciones sensibles a sus electores ahora y en el futuro, al tiempo que fomentan la innovación tecnológica.


Source: How California and other states are tackling AI legislation by www.brookings.edu.

*The article has been translated based on the content of How California and other states are tackling AI legislation by www.brookings.edu. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!