Una inteligencia artificial discriminatoria es mucho más cruel que un ser humano

La Unión Europea publicó su primer plan regulador de inteligencia artificial hace medio año. Según el Parlamento Europeo, se necesitan normas para garantizar que la decisión final siempre la tome la gente. Mientras tanto, en los Estados Unidos, los desarrollos se están introduciendo a pasos agigantados y se cree que la regulación excesiva solo está obstaculizando.

– ¿Existe una definición completa de inteligencia artificial y se puede trazar la línea divisoria entre MI y algoritmos?

– Tengo que decepcionar a quienes imaginan una especie de línea marcada entre la inteligencia artificial y los algoritmos. Digámoslo de esta manera, existen ciertos criterios por los cuales reconocemos algoritmos que ya califican como inteligencia artificial. El proyecto de reglamento de la UE busca proporcionar una definición precisa del mismo, pero esta es una interpretación más amplia, mientras que en la literatura un círculo más estrecho generalmente se considera IM.

En términos más generales, cualquier algoritmo que pueda tomar una decisión que parezca humana, autónoma, ya es MI. Como resultado de estas decisiones, como nacen de la evaluación de una cantidad increíble de datos, es casi posible sentir que la máquina tiene su propia voluntad, aunque todos los aspectos de la decisión se introduzcan en ella.

En una interpretación más restringida, solo llamamos software MI que tiene la capacidad de aprendizaje automático, es decir, no solo decide el “modo humano”, sino que imita el pensamiento humano.

Tarjeta de visita

Bernát Török se licenció en Derecho en 2003 por la Universidad Católica Pázmány Péter. Primero fue empleado de la Junta Nacional de Radio y Televisión, luego entre 2010 y 2018 fue Asesor Jefe de la Corte Constitucional. En 2016-17, trabajó como investigador visitante en la Facultad de Derecho de Yale. Se doctoró en 2018. Es profesor asociado del Departamento de Derecho Constitucional y Derecho Público Comparado de la NKE ÁNTK y director del Instituto de Investigación de la Sociedad de la Información. Sus intereses de investigación incluyen la libertad de expresión y los derechos fundamentales de la sociedad de la información.

– ¿Qué dice el borrador de la UE al respecto?

– El proyecto de reglamento establece que se debe buscar inteligencia específica entre tecnologías específicas, considerando cualquier sistema que siga de manera independiente un sistema objetivo establecido por una persona y produzca resultados que afecten su entorno. Además del aprendizaje automático, los sistemas estadísticos, por ejemplo, se consideran como tales.

“¿Podemos llamar inteligencia artificial a una máquina de ajedrez cuando los humanos le han aportado todo su conocimiento?”

– En un sentido más amplio, sí, se puede considerar que puede reproducir el conocimiento humano a un nivel muy alto. Por cierto, esto es irrelevante para la regulación de la UE, ya que tales sistemas de bajo riesgo no estarían regulados adecuadamente en el borrador.

Bernát Török (foto: József Wágner Csapó)

– Entre los sistemas de toma de decisiones ya operativos e independientes, cabe destacar los robots consultores que brindan asesoramiento de RRHH en el mercado laboral o ayudan con la evaluación crediticia bancaria. Estos sistemas ya pueden autoenseñarse basándose en algunas experiencias de los clientes. Existe una tendencia visible a integrar el aprendizaje automático en todos los sistemas, ya sean plataformas en línea o navegación.

– Esto puede plantear problemas éticos en muchas áreas.

“Así es, tomemos, por ejemplo, una ciudad cuyos semáforos son manejados por inteligencia artificial y, a partir de la imagen de las cámaras de tráfico, aprende cómo es el tráfico en cada calle. La pregunta es si le permitiremos establecer los ciclos rojo-verde por su cuenta, o simplemente puede hacer una propuesta y luego una persona tomará la decisión. Por supuesto, también se pueden pensar en casos extremos: ¿se puede introducir en un algoritmo que, por ejemplo, controle un automóvil autónomo para golpear a quién golpear cuando se encuentra en una situación de decisión? Esto incluye el hecho de que no se puede tomar una buena decisión en tal caso, incluso si podemos hablar de una buena o mala decisión a este respecto.

La cuestión fundamental es si la máquina debería decidir la vida o la muerte, o si debería ser un privilegio del pueblo con todos sus defectos.

Este también es el caso de las decisiones de la autoridad pública. Si hemos empoderado a alguien para que haga leyes, aceptamos de él que regula nuestras vidas de una forma u otra, pero ya no está seguro de una máquina.

Puedo dar un ejemplo de IM en el poder judicial de Estados Unidos, donde el llamado software para jueces ya funciona y ya existe un debate sobre cuánto depender de ellos en una decisión: cuando un juez determina quién, cuánto fianza pagar, puede defenderse en licencia o tampoco hay riesgo de reincidencia, etc.

– ¿MI no reduce el número de decisiones perjudicadas?

– Puedes reducirlo en teoría, pero la práctica puede mostrar lo contrario. Esto se debe a que los IM, habiéndose desarrollado a sí mismos a través del autoaprendizaje como resultado de decisiones individuales, pueden inclinarse a encasillar a las personas según ciertos factores, como el código de área de su lugar de residencia, y a considerarlas de mayor riesgo en términos de reincidencia o solvencia.

Puede ser un mundo mucho más cruel que el de un hombre que lucha con sus prejuicios.

Esto se debe a que, aunque MI puede decidir procesando una cantidad asombrosa de datos, no es capaz de responder a una situación única e irrepetible. Esto a menudo requiere un corazón, que la máquina no tiene.

– ¿Por qué es ahora importante para la UE una regulación global?

– Llevan mucho tiempo lidiando con este tema y no es posible posponer las cosas, estamos hablando de uno de los puntos de la agenda del presidente de la Comisión Europea. Reconociendo los beneficios de la MI, la UE clasifica la tecnología en clases de riesgo. Se centra en particular en aquellos que tienen un impacto particularmente fuerte en los derechos humanos y la sociedad. Considera la educación como un sistema como un sistema de gestión de admisiones universitarias, atención médica, justicia, infraestructuras críticas e identificación biométrica.

El miedo proviene de que MI gana terreno en más y más sistemas, tomando cada vez más decisiones sin saber qué hay dentro de la máquina mientras se enseña a sí misma. La ONU dice que hasta que haya una respuesta a cada pregunta, ya sea ética o tecnológica, esperemos.

– ¿Y esperemos?

– Hay lugares en los que vale la pena, pero no en otros. Desde el principio, creo que no hay un solo gran problema de MI, sino muchos problemas de MI en diferentes áreas. El proceso en sí, creo que imparable, en muchas áreas se ve facilitado en gran medida por estas tecnologías. En mi opinión, nunca obtendremos sistemas 100% seguros. Los coches autónomos también cometerán errores, pero mientras tanto salvarán muchos millones de vidas en las carreteras. Curiosamente, si bien es probable que miles de personas pasen por el rojo en el mundo cada minuto, en el caso de un automóvil autónomo, decimos que esto es inaceptable y, mientras ocurran tales casos, no se les debe permitir. en las carreteras. Como dije, aceptamos algo de una persona y otra de las máquinas.

Por eso me opongo a la aplicación independiente de la IM en la legislación y la justicia. ¡La gente hace leyes y juicios! No porque necesariamente estén tomando una mejor decisión, sino porque es nuestra sociedad y nuestro gobierno aquí.

– ¿Será la regulación de la UE un paso adelante?

– Es importante que demos el primer paso, pero me temo que habrá críticas similares a este borrador que al Reglamento General de Protección de Datos (RGPD), que se introdujo hace unos años. Me gustaría señalar que tengo todo el respeto por el GDPR, ya que tiene méritos inagotables para aumentar la conciencia sobre la protección de datos, pero también parece que incluso sin las reglas más específicas del sector que respondan a ciertos problemas, incluso los problemas más urgentes puede permanecer con nosotros. El objetivo principal era que las grandes empresas tecnológicas fueran más responsables de la gestión de sus datos, pero no creo que eso se hubiera cumplido. Muchas veces protegemos los datos, pero no nuestra privacidad, y esta última es la verdadera apuesta.

La regulación horizontal que no tiene en cuenta los factores específicos del sector no es suficiente. Existen riesgos bastante diferentes asociados con el IM en la atención médica y otros en las redes sociales. Este último, por ejemplo, apenas está regulado en el borrador, aunque sabemos exactamente qué impacto tiene en, por ejemplo, la libertad de expresión. Con la excusa de los legisladores: hay un paquete separado en las redes sociales, aunque no responde en sustancia a los problemas de la publicidad social.

– Hablando de regulación sectorial. ¿Es apropiado que el estado tenga voz sobre cómo una empresa privada selecciona a sus empleados? ¿Incluso con la ayuda de MI?

– Este es un tema de gran actualidad, porque si bien esperamos principalmente del Estado que respete nuestros derechos fundamentales, vemos que en nuestro miedo a las innovaciones tecnológicas, estamos imponiendo requisitos de derechos fundamentales a las empresas privadas de manera mucho más amplia. Sobre todo, los responsables de la formulación de políticas quieren asegurarse de que la MI no sea discriminatoria y, por lo tanto, transparente y responsable. Mientras tanto, está lejos de ser natural cuán ampliamente el estado le dice al sector privado qué decisiones tomar. Creo que es importante imponer requisitos de derechos fundamentales a los actores privados hasta cierto punto, pero también hacerlo con cuidado.

“No es hipócrita tener miedo a las IM mientras se subordina todo a tecnologías que, como muestra el ejemplo de Pegasus, son extremadamente vulnerables.

– El miedo a la vulnerabilidad a la tecnología y el miedo a las malas decisiones de la inteligencia artificial son similares. Cada tecnología que define nuestras vidas nos hace vulnerables.

Al mismo tiempo, existe una contradicción en la regulación: si bien los estados están ansiosos por regular las tecnologías que entrelazan nuestras vidas, como las redes sociales, también las necesitan cada vez más. Tampoco es fácil para los políticos abordar el tema, ya que la gente está ahí para los nuevos medios, que también tienen un gran potencial para la política. En pocas palabras, pocas personas todavía consideran que realmente les conviene ir duro en Facebook.

El socio colaborador de contenido de Napi.hu es la Universidad Nacional de Administración Pública.


Source: Napi.hu by www.napi.hu.

*The article has been translated based on the content of Napi.hu by www.napi.hu. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!