La consultora española en negocios digitales Biko realizó hace poco un experimento interesante: puso a prueba los algoritmos de reconocimiento de imágenes de Amazon y Google y encontró sesgos machistas en la clasificación de fotografías. Al solicitarse que identifique un taladro que una mujer sostiene en una mano, el sistema pensó que se trataba de un secador de cabello. Acto seguido, casi misma foto, pero en lugar de una mujer portando el taladro había un hombre, y el algoritmo esta vez no falló.
Ocurre todo el tiempo. En 2019 la tarjeta de crédito de Apple fue noticia porque concedía diez veces más créditos a hombres que a mujeres, y un periodista norteamericano realizó un sonado experimento. Ante solicitudes de un hombre y una mujer, con iguales condiciones salariales, de experiencia crediticia y aun conviviendo bajo el mismo techo, el algoritmo aprobó la solicitud masculina y rechazó la femenina.
La cantante española Rosalía acusó los sesgos de género en los algoritmos que utilizan las plataformas de streaming. «Me llama la atención que cuando una mujer hace una colaboración, aunque su participación dure más tiempo en la canción, su nombre aparezca en el segundo o tercer lugar. Esto hace que el algoritmo no la tome en cuenta y que sea más difícil que nuevos oyentes la descubran«. Ella ha colaborado en grabaciones con Daddy Yankee, Farruko y J Balvin, entre otros,
Desde luego, el machismo del código no nace por generación espontánea. Los algoritmos lo heredan de sus creadores, en su mayoría hombres blancos de clase media alta. Es un antiguo problema ya detectado (leer, por ejemplo, «Armas de destrucción matemática» de Cathy O’Neal, versión en español por editorial Capitan Swing), y una buena cantidad de artículos en medios de todo el mundo examinan esta situación.
No se trata de una intencionalidad masculina consciente o deliberada. En muchos casos la sociedad en su conjunto – y no los programadores de software – transmiten los prejuicios dominantes. Es el caso de las fotografías en el descomunal banco de imágenes que es Internet. Allí hay menos fotos de personas de raza negra, debido a las desigualdades en el acceso a la red y las brechas de conectividad tanto en el continente africano como en Latinoamérica, en relación con Europa y Estados Unidos. Así que los algoritmos de Machine Learning se nutren de bases de datos que ya contienen sesgos en la representación de datos universales.
La búsqueda en Google del término «colegial», arrojará fotos de jóvenes o niños con uniformes estudiantiles. Pero la búsqueda del término «colegiala» arrojará fotos de mujeres sexys con faldas cortas.
Un celebrado documento de Unesco liberado a comienzos del presente año contiene recomendaciones a los Estados asociados para incorporar políticas acerca de los riesgos éticos de la Inteligencia Artificial. Señala en particular algunas tecnologías que están en el ojo del huracán, como el reconocimiento facial y los sistemas inteligentes que formulan recomendaciones, por ejemplo, los que recomiendan quién debe ser contratado en una empresa, o los que recomiendan contenidos en los buscadores y en las redes sociales. “Un motor de búsqueda puede convertirse en una cámara de resonancia que mantiene los prejuicios del mundo real y afianza aún más estos prejuicios“, advierte Unesco.
Todos los grupos de población subrepresentados en las bases de datos digitales sufren el impacto de los sesgos; desde los músicos independientes, hasta la población afro, las mujeres o las minorías étnicas. La industria realiza esfuerzos que no pueden ser desestimados. Amazon eliminó un algoritmo utilizado en su sistema de selección de personal, el cual mostraba un inaceptable sesgo en favor de los hombres.
Bing, el motor de búsquedas de Microsoft, arrojaba más fotos de mujeres en los resultados de búsquedas sobre sentimientos o emociones, y más fotos de hombres en las búsquedas sobre inteligencia o racionalidad, como demostró un estudio realizado por la Universidad de Sheffield. Las grandes compañías tecnológicas suelen reaccionar positivamente antes estas investigaciones y corrigen los casos específicos, pero la fuente de la que brota el caudal de sesgos de género no ha sido cerrada. “Solo el 22% de los profesionales que se dedican a la IA son mujeres. Debido a que están subrepresentados en la industria, los prejuicios y estereotipos de género se están reproduciendo en las tecnologías”, señala el documento de Unesco.
La solución definitiva al problema pasa por alcanzar la equidad de género en la industria TI global. Más mujeres en la innovación, el diseño de productos y en el desarrollo de software lograrían reducir o eliminar los sesgos de género actuales. Entre tanto, el marco ético propuesto por Unesco ayudará en aquellas sociedades en donde sea adoptado. Colombia es uno de los primeros países que lo hizo, con la definición del Marco ético para guiar la implementación de proyectos de Inteligencia Artificial en el sector público, publicada en febrero del presente año. La presidencia de la República, bajo el liderazgo de Víctor Muñoz, director general del Dapre, y con asesoría de la Corporación Andina de Fomento (CAF), estableció diez principios rectores, entre los que se establece la no discriminación sobre grupos de población por razones de sexo, raza, religión u orientación sexual y se indica específicamente que «los sistemas deben adoptar un enfoque de neutralidad de género y se debe garantizar que el parámetro de género no sea utilizado como factor discriminador«.
Entre las estrategias de solución al problema se debe incluir también la formación en ética y diversidad en las escuelas y facultades de ingeniería y en los centros de formación de programadores y desarrolladores de tecnologías. Los expertos consideran que un esfuerzo desde la formación del talento humano contribuirá a disminuir los sesgos de todo tipo en la sociedad digital.