¿Quiere desarrollar una IA ética? Entonces necesitamos más voces africanas

La inteligencia artificial (IA) fue una vez materia de ciencia ficción. Pero se está generalizando. Se utiliza en tecnología de telefonía móvil y vehículos de motor. Impulsa herramientas para agricultura y cuidado de la salud.

Pero han surgido preocupaciones sobre la responsabilidad de la IA y tecnologías relacionadas como el aprendizaje automático. En diciembre de 2020, un científico informático, Timnit Gebru, fue despedido del equipo Ethical AI de Google. Anteriormente había dado la alarma sobre los efectos sociales del sesgo en las tecnologías de inteligencia artificial. Por ejemplo, en un Papel 2018 Gebru y otra investigadora, Joy Buolamwini, habían demostrado cómo el software de reconocimiento facial era menos preciso para identificar mujeres y personas de color que los hombres blancos. Los sesgos en los datos de entrenamiento pueden tener efectos no deseados y de gran alcance.

Ya existe un cuerpo sustancial de investigación sobre la ética en la IA. Esto resalta la importancia de los principios para garantizar que las tecnologías no solo empeoren los prejuicios o incluso introduzcan nuevos daños sociales. Como el Proyecto de recomendación de la UNESCO sobre la ética de la IA estados:

Necesitamos políticas y marcos regulatorios nacionales e internacionales para garantizar que estas tecnologías emergentes beneficien a la humanidad en su conjunto.

En los últimos años, muchos marcos y pautas se han creado que identifican objetivos y prioridades para la IA ética.

Sin duda, este es un paso en la dirección correcta. Pero también es fundamental para mira más allá soluciones técnicas al abordar problemas de parcialidad o inclusión. Los sesgos pueden entrar al nivel de quién enmarca los objetivos y equilibra las prioridades.

en un artículo reciente, argumentamos que la inclusión y la diversidad también deben estar al nivel de identificar valores y definir marcos de lo que cuenta como IA ética en primer lugar. Esto es especialmente pertinente cuando se considera el crecimiento de la investigación de la inteligencia artificial y el aprendizaje automático en todo el continente africano.

Contexto

La investigación y el desarrollo de tecnologías de inteligencia artificial y aprendizaje automático están creciendo en los países africanos. Programas como Ciencia de datos África, Ciencia de datos Nigeria, y el Aprendizaje profundo Indaba con su eventos satélite IndabaX, que hasta ahora se han celebrado en 27 países africanos diferentes, ilustran el interés y la inversión humana en los campos.

El potencial de la IA y las tecnologías relacionadas para promover oportunidades para crecimiento, desarrollo y democratización en África es un impulsor clave de esta investigación.

Sin embargo, hasta ahora muy pocas voces africanas han estado involucradas en los marcos éticos internacionales que tienen como objetivo guiar la investigación. Esto podría no ser un problema si los principios y valores de esos marcos tienen una aplicación universal. Pero no está claro que lo hagan.

Por ejemplo, el Marco europeo AI4People ofrece una síntesis de otros seis marcos éticos. Identifica el respeto por la autonomía como uno de sus principios clave. Este principio ha sido criticado dentro del campo ético aplicado de la bioética. Es visto como no hacer justicia a los valores comunitarios común en África. Estos se centran menos en el individuo y más en la comunidad, incluso requiriendo que las excepciones están hechos para defender tal principio para permitir intervenciones efectivas.

Desafíos como estos, o incluso el reconocimiento de que podría haber tales desafíos, están en gran parte ausentes de las discusiones y marcos para la IA ética.

Al igual que los datos de capacitación pueden afianzar las desigualdades e injusticias existentes, también lo es no reconocer la posibilidad de diversos conjuntos de valores que pueden variar en los contextos sociales, culturales y políticos.

Resultados inutilizables

Además, no tener en cuenta los contextos sociales, culturales y políticos puede significar que incluso un La solución técnica ética puede ser ineficaz o equivocada una vez implementada..

Para que el aprendizaje automático sea eficaz a la hora de realizar predicciones útiles, cualquier sistema de aprendizaje necesita acceso a los datos de entrenamiento. Esto involucra muestras de los datos de interés: entradas en forma de múltiples características o medidas, y salidas que son las etiquetas que los científicos quieren predecir. En la mayoría de los casos, tanto estas características como las etiquetas requieren un conocimiento humano del problema. Pero no tener en cuenta correctamente el contexto local podría resultar en sistemas de bajo rendimiento.

Por ejemplo, los registros de llamadas de teléfonos móviles tienen ha sido usado estimar el tamaño de la población antes y después de los desastres. Sin embargo, es menos probable que las poblaciones vulnerables tengan acceso a dispositivos móviles. Entonces, este tipo de enfoque podría producir resultados que no son útiles.

De manera similar, las tecnologías de visión por computadora para identificar diferentes tipos de estructuras en un área probablemente tendrán un rendimiento inferior cuando se utilicen diferentes materiales de construcción. En ambos casos, como nosotros y otros colegas discutimos en otro artículo reciente, no tener en cuenta las diferencias regionales puede tener efectos profundos en cualquier cosa, desde la entrega de ayuda para desastres hasta el desempeño de los sistemas autónomos.

Avanzando

Las tecnologías de IA no deben simplemente empeorar o incorporar los aspectos problemáticos de las sociedades humanas actuales.

Ser sensible e inclusivo en diferentes contextos es vital para diseñar soluciones técnicas efectivas. Es igualmente importante no asumir que los valores son universales. Aquellos que desarrollan IA deben comenzar a incluir personas de diferentes orígenes: no solo en los aspectos técnicos del diseño de conjuntos de datos y similares, sino también en la definición de los valores a los que se puede recurrir para enmarcar y establecer objetivos y prioridades.

Este artículo de María Carman, Profesor de Filosofía, Universidad de Witwatersrand y Benjamín Rosman, Profesor Asociado de la Facultad de Ciencias de la Computación y Matemática Aplicada, Universidad de Witwatersrand, se vuelve a publicar desde La conversación bajo una licencia Creative Commons. Leer el artículo original.


Source: The Next Web by thenextweb.com.

*The article has been translated based on the content of The Next Web by thenextweb.com. If there is any problem regarding the content, copyright, please leave a report below the article. We will try to process as quickly as possible to protect the rights of the author. Thank you very much!

*We just want readers to access information more quickly and easily with other multilingual content, instead of information only available in a certain language.

*We always respect the copyright of the content of the author and always include the original link of the source article.If the author disagrees, just leave the report below the article, the article will be edited or deleted at the request of the author. Thanks very much! Best regards!