Ver anuncios de hace unas décadas es un ejercicio sociológico que nos permite ver los prejuicios de la época. El rol de las mujeres, en los anuncios de detergentes, de coches o de juguetes, los estereotipos de razas, o la ausencia de ellas, los estándares de belleza...
Los algoritmos que se empiezan a utilizar, de forma masiva, sin que nos demos cuenta, también sufren de nuestros prejuicios. Los algoritmos son en principio neutrales, pero si los "entrenamos" con la realidad que nos rodea, una realidad desequilibrada e injusta, los resultados reflejarán la sociedad en la que vivimos. Esto es lo que demuestran estudios que analizan los inteligencia artificial que utiliza Google para clasificar imágenes, en los que los "tags" para mujeres hacen más referencia a su aspecto físico o profesiones "menos sofisticadas" que los "tags" que son asignados a los hombres.
En defensa de los programadores de Google, las imágenes que hay ahí fuera, las que utilizan para entrenar sus algoritmos, muestran la realidad de nuestra sociedad. Reconocer este problema es el primer paso para encontrar soluciones y llegar a algoritmos que no sean tan injustos como nosotros.
No hay comentarios:
Publicar un comentario