Es posible que dentro de un año, el bombardeo de información sobre lo que hace o deja de hacer una IA ya no nos preocupe tanto, pero por ahora resulta fascinante. Un usuario llamado entrendre_entendre En Reddit, subió un revelador vídeo bajo el título de “Cómo cree Midjourney que son los profesores, según su departamento”.
Lo más interesante de las imágenes, cazadas en origen por PetaPixel es observar de qué forma se ha entrenado a una de las IAs más populares para identificar profesores. Dicho de otra forma, somos partícipes de los sesgos inherentes que tiene uno de los generadores de imágenes de IA más populares.
El siguiente vídeo, de apenas 40 segundos, nos muestra una sucesión de imágenes individuales que se generaron a partir del mensaje “Una foto de perfil de un profesor de[insertar departamento]”.
Entre los comentarios había de todo, desde aquellos usuarios que decían que la IA había “clavado” a los profesores según su experiencia, hasta aquellos que se mostraban desencantados por el uso generalizado del término “profesor blanco”. Según el Centro Nacional de Estadísticas de Educación, el 25% del profesorado estadounidense no es blanco. Sin embargo, ese porcentaje ha resultado ser demasiado pequeño para que MidJourney lo tuviera en cuenta, lo que ha resultado en un sesgo racial.
Obviamente, los posibles sesgos pueden llegar de diferentes formas a una IA. Por ejemplo, cuando se entrena en un conjunto de datos de imágenes que presenta de manera desproporcionada a ciertos grupos de personas. Además, si los datos de entrenamiento contienen estereotipos u otros sesgos, el generador de imágenes de IA puede aprender a reproducir esos sesgos, e incluso si los datos no están sesgados, puede aprender sesgos en función de la forma en que se etiquetan o anotan los datos.