Los investigadores de IBM están trabajando en la transparencia y seguridad de la IA


El jueves 29 de abril, IBM organizó una mesa redonda exclusiva para los medios sobre “Uso responsable de la IA” con un científico de inteligencia artificial (IA) con el título de IBM Fellow, Aleksandra (Saška) Mojsilović. Su presentación se centró en las vulnerabilidades de la IA, como la exposición al sesgo, la falta de explicación y la susceptibilidad a los ataques rivales.

El Dr. Mojsilović enfatizó que el desempeño del sistema en sí no es suficiente como paradigma del diseño de IA, pero que las cuestiones éticas también deben ser parte de la ecuación. Por lo tanto, IBM Research está desarrollando técnicas y algoritmos para evaluar, y etiquetar, los elementos fundamentales de la confianza en los sistemas de IA: herramientas para detectar y mitigar sesgos, exponer vulnerabilidades, eliminar ataques y desenmascarar los procesos de toma de decisiones. Por lo tanto, a medida que avanza la inteligencia artificial, las personas y los sistemas de inteligencia artificial trabajan cada vez más juntos y, por lo tanto, es esencial que tengamos confianza en los resultados finales de estos sistemas para tomar una decisión bien informada.

Los expertos de la División de Investigación de IBM han identificado los principios que forman la base de los sistemas confiables de IA:

· Equidad: los sistemas de IA deben utilizar datos sobre entrenamiento y modelos sin sesgos, para evitar un trato injusto a ciertos grupos

· Fortaleza: los sistemas de inteligencia artificial deben ser seguros y protegidos, no estar sujetos a la falsificación o el compromiso de los datos en los que están capacitados

· Explicabilidad: los sistemas de IA deben proporcionar decisiones o sugerencias que sus usuarios y desarrolladores puedan comprender.

· Origen: los sistemas de IA deben contener detalles de su desarrollo, implementación y mantenimiento para que puedan ser revisados ​​a lo largo de su ciclo de vida.

Sin embargo, al igual que la estructura física, la confianza no puede basarse en un solo principio. Si el sistema de IA es bueno, pero no puede resistir el ataque, no se confiará en él. Si está seguro, pero nadie puede entender su resultado final, tampoco se confiará en él. Por lo tanto, es necesario fortalecer todos los pilares y al mismo tiempo monitorear la capacidad de medir y comunicar los niveles de desempeño del sistema en cada una de estas dimensiones. Una forma de lograr esto sería proporcionar dicha información a través de SDoC o el servicio de hojas informativas para AI. Aquí, los expertos de IBM sugieren incluir información sobre el funcionamiento del sistema, datos de entrenamiento, algoritmos básicos, configuración y resultados de pruebas, evaluaciones comparativas de rendimiento, comprobaciones de equidad y fuerza, uso previsto y mantenimiento y reentrenamiento; para obtener más detalles, visite el sitio web de IBM. de este proyecto de hoja informativa de IA.

Aleksandra Mojsilović es actualmente la directora de AI Foundation en IBM Research y una de las directoras de IBM Science for Social Good, pero también es IBM Fellow y IEEE Fellow. Es autora de más de 100 publicaciones y posee 16 patentes. Entre los últimos proyectos en los que contribuyó el Dr. Mojsilović se encuentra el sistema de inteligencia artificial de IBM Research, presentado en marzo de 2021, que utiliza tecnologías basadas en inteligencia artificial para acelerar la creación de nuevos péptidos en la lucha contra la resistencia a los antibióticos. Estos esfuerzos de IA también pueden ayudar a descubrir y crear nuevos materiales para combatir el cambio climático, crear una producción y almacenamiento de energía más inteligente, y más. El nuevo marco de IA generativa de este equipo también se aplicó a tres objetos COVID-19, generando 3000 nuevas moléculas.

Para obtener más información sobre el trabajo del Dr. Mojsilović y el equipo de investigación de IBM en el campo de la ética de la IA, puede visitar el sitio web Confiando en la IA.



Source: Personal magazin by feedproxy.google.com.

*The article has been translated based on the content of Personal magazin by feedproxy.google.com. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!