Main Menu

¿Cómo aprovechar la inteligencia artificial sin perpetuar sesgos de género?

Read Carefully

Por Monserrat Bustelo y Agustina Suaya (*)

La tecnología es un fiel reflejo de los sesgos presentes en la sociedad. Por eso, el lenguaje y otros datos en general cobran especial relevancia a la hora de contribuir a mantener brechas de género. Un análisis del mercado laboral, como caso testigo.

Recientemente se difundió la noticia de que el algoritmo de inteligencia artificial (IA) utilizado por Amazon para procesar y evaluar los currículums de los solicitantes de empleo e identificar los mejores talentos, producía sesgos sistemáticos en contra de las mujeres. Tiempo atrás también se difundió la noticia de que el algoritmo de Google tendía a mostrar más anuncios de empleos ejecutivos con mayores salarios a los hombres que buscaban trabajo respecto a sus pares mujeres. Por su parte, el testeo realizado por una investigadora del M.I.T. Media Lab sobre softwares de IA de reconocimiento facial utilizados por las compañías Microsoft, IBM y Face++, reveló que estos clasificaban correctamente el género de los hombres blancos, pero tenían un mayor grado de error con mujeres y con hombres de tez más oscura.

Una vez detectados los sesgos, estas grandes compañías han buscado corregir sus algoritmos. Pero, dado el acelerado avance de la tecnología que estamos transitando, la gran pregunta es: ¿Cómo aprovechar estas tecnologías sin generar sesgos de género?

Todos los aspectos de nuestras vidas pronto serán transformados por la IA y el aprendizaje automático, a través de innovaciones como los autos que se conducen solos y el reconocimiento facial. Estas transformaciones también presentan una gran oportunidad para optimizar nuestros procesos de toma de decisión en el mercado laboral. Un ejemplo de ello son los algoritmos de aprendizaje automático que muchas de las grandes compañías están comenzando a incorporar en sus procesos de reclutamiento de personal. Estos softwares permiten compilar una gran cantidad de datos a una alta velocidad con el fin de mejorar las decisiones de contratación de personal. Y en base a los datos recopilados, las plataformas de IA tienen la capacidad de detectar los candidatos con alto potencial y predecir quién tendrá éxito en una posición.

Es oportuno tomar un paso atrás en el proceso y pensar en la información base que alimentará a estas plataformas. La IA extrae conclusiones a partir de los datos que se le presentan. Y si estos datos tienen, por ejemplo, estereotipos de género, el software simplemente reproducirá los mismos y perpetuará este sesgo.

Cuando palabras como líder, competitivo, y dominante son incluidas en los anuncios de empleo las mujeres las asocian con estereotipos masculinos, lo que produce un mayor desinterés en aplicar a estos puestos.

Para ilustrar este punto sigamos con el ejemplo de Amazon. Su algoritmo de IA evaluaba a los candidatos a puestos de trabajo de desarrollador de software observando patrones en los currículos enviados a la compañía durante un período histórico de 10 años. Puesto que la mayoría de los CVs eran de hombres —reflejo del dominio masculino en la industria de la tecnología— el mismo penalizaba los CVs que incluían la palabra mujer. Es decir, el algoritmo interpretaba esa distribución desigual no como un resultado de la segregación ocupacional existente en el mercado laboral, sino más bien, como una diferencia en capacidades, discriminando sistemáticamente a las mujeres.

Las herramientas de IA también nos han permitido aprender acerca de los sesgos existentes en el lenguaje en los anuncios de empleo. Con el avance de la tecnología, las bolsas de trabajo en línea se están convirtiendo en una de las principales herramientas de búsqueda de empleo. Estudios realizados en una serie de países desarrollados indican que la forma en la que están escritos los anuncios de empleo importa. El lenguaje utilizado puede contribuir a mantener las brechas de género observadas en el mercado laboral, limitando la participación de las mujeres en sectores de mayor productividad y puestos de liderazgo.

Durante el diseño de los algoritmos, el quién, el cómo y el para qué, son aspectos relevantes para crear tecnologías inclusivas.

Estos estudios encuentran que cuando palabras como líder, competitivo, y dominante son incluidas en los anuncios de empleo las mujeres las asocian con estereotipos masculinos, lo que produce un mayor desinterés en aplicar a estos puestos. Por el contrario, palabras como salario negociable, apoyo, y comprensión se asocian con estereotipos más bien femeninos.

Es importante estar consciente de que la tecnología es un fiel reflejo de los sesgos presentes en la sociedad. Durante el diseño de los algoritmos, el quién, el cómo y el para qué, son aspectos relevantes para crear tecnologías inclusivas. Entonces, retornemos a nuestra pregunta inicial: ¿Cómo podemos capturar los beneficios y atenuar los riesgos asociados al uso de IA para avanzar en la igualdad de género en el mercado laboral?

Planteamos dos campos de acción (entre otros) relevantes:

    • Invertir en el aprendizaje continuo de las mujeres para cerrar la brecha de habilidades en áreas de Ciencia, Tecnología, y Matemática (STEM, por sus siglas en ingles). Necesitamos más mujeres que participen activamente en el proceso de diseño de la robótica e inteligencia artificial para que estas tecnologías reflejen toda su diversidad.
    • Apoyar las transiciones de las mujeres en sus carreras, con procesos de reclutamiento inclusivos. Un lenguaje que no sea neutral al género en los anuncios de trabajo puede “clasificar” a los solicitantes de empleo antes de que hayan aplicado.

*Agustina Suaya es consultora en la División de Género y Diversidad del BID y Monserrat Bustelo es Especialista Senior en la misma area y entidad.  

Este articulo ha sido originalmente publicado en el Blog “Y si hablamos de género” del Banco Interamericano de Desarrollo (blogs.iadb.org)

 

 

Top