Un grupo de científicos de la Universidad de Princeton (EE.UU.) y de Bath (Reino Unido) elaboró un método para medir el sesgo en estos sistemas similar al test de asociación implícita que se usa para evaluar el de los humanos.
En ese test, se pide a la persona que empareje dos conceptos que considera similares, en contraste con dos que considera diferentes.
Las personas suelen asociar, por ejemplo, “flores” con “agradable” mientras que “insectos” lo relacionan a menudo con “desagradable”.
Los científicos, liderados por Aylin Caliskan de la Universidad de Princeton (Nueva Jersey, EE.UU.), analizaron estadísticamente el número de asociaciones entre palabras de los sistemas de inteligencia artificial, con un total de aproximadamente 2,2 millones de palabras en total.
Los resultados demostraron que los sistemas de inteligencia artificial retienen el sesgo visto en los humanos.
Inteligencia artificial y racismo
Por ejemplo, los estudios de comportamiento humano muestran que el mismo currículum tiene un 50 % más de posibilidades de conducir a una oportunidad laboral si el nombre del candidato es de origen europeo que de origen africano.
Del mismo modo, los sistemas de inteligencia artificial mostraron tendencia a asociar más a menudo los nombres de origen europeo con estímulos agradables como “regalo” o “feliz”.
Los sistemas también mostraron sesgo de género, ya que palabras como “mujer” o “chica” las asociaron con las artes más que “hombre” o “chico”.
Los autores del estudio sostienen que estos resultados son una herramienta para estudiar los prejuicios y el comportamiento humano, al tiempo que subrayan cómo el lenguaje está ligado íntimamente al sesgo histórico y los estereotipos culturales. Efefuturo
La entrada Los sistemas de inteligencia artificial copian el sesgo de los humanos aparece primero en EFE futuro.
Origén: Tecnologia