¿Pueden las inteligencias artificiales ser del todo imparciales?

Table of Contents

Los sistemas de inteligencia artificial, que suelen ser implementados empleando aprendizaje de máquinas, un subapartado de la IA-, representan una parte cada vez más importante de nuestras sociedades y, nos demos cuenta o no, de nuestras vidas diarias. Por eso, dada su creciente influencia, surgen preocupaciones acerca de cómo lograr que la inteligencia artificial sea más inclusiva y accesible.


Para construir un futuro más seguro para todos, minimizar el sesgo o los prejuicios en las inteligencias artificiales es crucial. Los algoritmos para el aprendizaje de máquinas se apoyan en datos y diseños que, a su vez, están definidos por equipos que construyen estos sistemas y toman decisiones sobre cómo deben ser entrenados.

¿Hasta qué punto es importante el sesgo en el aprendizaje de máquinas?


Felicity Hanley, vicepresidenta del Comité de Race & Ethnicity Steering, nos da algunos ejemplos personajes de cómo ha experimentado el sesgo en los sistemas de aprendizaje de máquinas: “la inteligencia artificial se supone que debe hacernos la vida más fácil a todos. Aunque puede hacerlo, también puede amplificar los prejuicios sexistas y racistas del mundo real. Algunas de mis experiencias personales con la inteligencia artificial incluyen filtros de las redes sociales que hacen que mi piel aparezca más blanca. Otro ejemplo fue con un viejo móvil que no activaba el reconocimiento facial biométrico si la sala estaba oscura, aunque sí lo activaba para un amigo con la piel más clara en las mismas condiciones”.


Dado que la inteligencia artificial se vuelve ubicua en nuestras vidas, el potencial para los prejuicios se vuelve mayor. Matt Lewis, director de investigación comercial de NCC Group, comenta: “hay muchos casos en los que la inteligencia artificial es usada y probablemente no nos damos cuenta. El uso de biométricas faciales es bien conocido y está pasando en numerosos escenarios -no solo para la autenticación de nuestros teléfonos móviles, sino también para los sistemas de vigilancia”.


El análisis del gobierno británico sobre los sesgos en la toma de decisiones a partir de algoritmos destaca la importancia de esta cuestión, puesto que el informe manifiesta que “se ha vuelto claro que no podemos separar la cuestión de los sesgos en los algoritmos de la cuestión de los sesgos en las tomas de decisiones en general”. Kat Sommer, líder de asuntos públicos de NCC, añade: “el informe se fijó en los servicios financieros y el ejemplo que menciona es la calificación para los créditos. La injusticia se produce cuando la gente que no se adhiere a las trayectorias financieras estándar es tratada de manera injusta porque no hay datos disponibles para entrenar a esos modelos”.

Imagen de Emprender&Mas

Emprender&Mas

El portal integral para emprendedores y profesionales