Buscar
Capital Humano

Lectura 5:00 min

IA en reclutamiento: ¿reduce o reproduce los sesgos de género?

El uso de inteligencia artificial para revisar currículums puede agilizar la contratación, pero también amplificar sesgos humanos y discriminar talento, especialmente a mujeres.

La tecnología en sí misma no tienen sesgos, sin embargo reproduce patrones de prejuicios debido a las instrucciones que le dan los humanos.FOTO: SHUTTERSTOCK.

Revisar el currículum con tecnología puede discriminar y dejar perfiles valiosos fuera. Aunque herramientas como la inteligencia artificial (IA) reducen los tiempos de contratación al identificar mejor al talento, quienes dan las instrucciones son humanos, y debido a su contexto y desarrollo, no es un secreto que en sus indicaciones se pueden esconder sesgos que impactan en las acciones de los algoritmos. 

El estudio Tendencias de HR 2026 de Buk advierte que la IA puede amplificar sesgos y discriminar, aunque no hay una intención directa para hacerlo, esto porque quienes entrenan a los algoritmos pueden tener ciertos prejuicios presentes en los datos con los que nutren a la tecnología, y en consecuencia, esta replica la información.

En Europa, por ejemplo, hasta un 60% de las personas trabajadoras teme que los sistemas de IA no sean auditables ni imparciales al evaluar el desempeño o la productividad. La investigación señala el caso emblemático de Amazon, cuando en 2018 se encontró que penalizaba a las mujeres por la configuración que tenía.

Zinnya del Villar, directora de la unidad de Datos, Tecnología e Innovación de Data-Pop Alliance, recordó a ONU Mujeres que el caso de Amazon, donde se favorecía a los currículums de hombres sobre los de las mujeres, es un ejemplo de los prejuicios con los que se adiestra a la tecnología.

“A medida que las empresas delegan decisiones críticas a sistemas automatizados, la distancia entre quien diseña el algoritmo y a quien se le aplica aumenta”, señala el estudio de Buk.

Brechas de género se pueden perpetuar con IA

Jacinta Girardi, líder del área de investigación de Buk, reconoce que los humanos están llenos de sesgos, pero eso no significa que la tecnología esté exenta. “Si yo tuve un mal día y me pongo a revisar currículums, es bastante probable que también influya en mis decisiones”, no obstante reconoce que la IA puede ser una herramienta de apoyo.

“No porque sea inteligencia artificial va a tener más sesgos que nosotros; es un buen ejercicio para cuestionarnos qué sesgos están operando dentro de nuestros mismos procesos de selección”, puntualiza.

Recuerda el caso donde se implementaron algoritmos en los procesos de selección, pero con el tiempo, la organización se dio cuenta de que la tecnología solo elegía hombres. “Era un espejo de sus propios problemas más que un problema de la tecnología”, subraya.

La experta detalla que el resultado hablaba más de los problemas que tenía la compañía, y es que hay que recordar que quienes daban instrucciones a la tecnología eran los propios trabajadores de la empresa. Entonces el problema no es la inteligencia artificial, sino los ojos que buscan y perfilan a los candidatos.

En esa línea, la experta en IA responsable, Zinnya del Villar afirma que los sesgos con los que están nutridos los algoritmos limitan oportunidades y la diversidad en la toma de decisiones y contrataciones donde hay mujeres, por ello, enfatiza en que los sistemas de inteligencia artificial deberían ser creados por equipos de desarrollo diversos formados por personas de distintos géneros, razas y culturas.

“De esta manera, el proceso se nutre de distintas perspectivas y se reducen los puntos ciegos que pueden causar sistemas de IA sesgados”, explica. Esto implica seleccionar activamente la información que refleje distintos contextos sociales y culturales para que, a su vez, se eliminen sesgos históricos como los que relacionan a un género con un empleo.

“En áreas fundamentales como la salud, la IA puede enfocarse en los síntomas de los hombres, lo que puede causar diagnósticos erróneos o tratamientos inadecuados para las mujeres”, y agrega que emplear voces femeninas en asistentes de voz refuerza el estereotipo de que las mujeres están más capacitadas para funciones de servicio.

Uso responsable de la IA para reclutar personal

El uso de algoritmos para selección de personal en América Latina corre el riesgo de reproducir patrones de discriminación por género, edad y nivel socioeconómico, afectando principalmente a mujeres y trabajadores del sector informal. En la región, solo 18% de las empresas que usan IA cuentan con mecanismos formales de revisión ética o participación de los empleados para supervisar estas decisiones.

No obstante, el estudio de Buk resalta que una implementación ética de la IA tiene el potencial de reducir los prejuicios humanos tradicionales en procesos como la selección y evaluación de personal. En ese sentido, recomienda asegurar el cumplimiento de estándares éticos y regulatorios mediante comités de ética, auditorías de sesgos o políticas internas sobre uso responsable.

Asimismo, incorporar la voz de las personas trabajadoras en el diseño, prueba y revisión de sistemas con tecnología, de forma que se codiseñe y se realicen consultas periódicas sobre los resultados; además de contar con protocolos que permitan conocer cómo funcionan los algoritmos y apelar a decisiones en caso de ser necesario.

Por su parte, Zinnya del Villar recomienda usar conjuntos de datos más diversos y que representen realmente a la sociedad, mejorar la transparencia de los algoritmos, garantizar la diversidad e inclusión de quienes se encargan de investigar y desarrollar la tecnología en las empresas, adoptar marcos éticos sólidos e integrar políticas con perspectiva de género.

En un mercado laboral cada vez más dinámico, el reto no es solo adoptar tecnología, sino revisar los criterios con los que se define el talento y cuestionar los sesgos.

Periodista con enfoque jurídico especializada en derechos y políticas laborales, bienestar y salud mental organizacional; egresada de la Maestría en Periodismo Político por la Carlos Septién García.

Únete infórmate descubre

Suscríbete a nuestros
Newsletters

Ve a nuestros Newslettersregístrate aquí

Últimas noticias

Noticias Recomendadas