Cada vez más empresas usan sistemas de IA para facilitar tareas rutinarias en Recursos Humanos. En los procesos de selección puede facilitar mucho la vida a los responsables de encontrar el talento pero, ¿puede la IA garantizar la no discriminación por razones de género, raza o edad? Human Resource Executive Magazine recopila la opinión de los expertos y recomienda no fiarse de un proveedor de IA que afirme rotundamente que su solución está libre de sesgos.

La Inteligencia Artificial (IA) ya ha sobrepasado el punto de inflexión para convertirse en una herramienta clave para las empresas en la búsqueda de más y mejores candidatos y en la decisión sobre a quién seleccionar o promover. Sin embargo, la aparición de la IA ha traído también un debate apasionante y crucial: ¿Las máquinas que toman decisiones que una vez fueron tomadas por los humanos reducen y eliminan la discriminación o, en realidad, la incrementan?

Para Kate Bischoff y Heather Bussing, abogados especialistas en temas de sesgo en el ámbito laboral, el quid de esta complicada cuestión se puede explicar con el siguiente ejemplo: si una empresa tecnológica estadounidense programa un ordenador para que mediante la Inteligencia Artificial identifique y recopile imágenes de bodas, es probable que consiga fotografías de decenas de novias radiantes vestidas de blanco y con velos transparentes. Pero es muy poco probable que la misma máquina seleccione alguna foto de una boda tradicional india, en las que el rojo es el color preferido por las novias, las cuales usan saris o lehengas (vestidos típicos de la India) coloridos y muchas joyas. “Las empresas están incorporando la IA muy rápidamente, pero necesitamos ir con más cuidado y hacer preguntas más difíciles a nuestros proveedores,” anota Bischoff. Para Bussing, la respuesta es sencilla: la IA puede tanto disminuir como aumentar el sesgo.

En este sentido, ambos abogados advierten que los responsables de Recursos Humanos deben probar y evaluar sus nuevos sistemas basados en la IA para comprobar que no existe discriminación, pues al fin y al cabo son los seres humanos, no las máquinas, los responsables de los resultados. “RH se está convirtiendo en el guardián de los datos de las personas, y esa es una posición poderosa que puede dar pie a cualquier tipo de influencia excesiva sobre toda la organización,” explica Bussing. “Se vuelve fundamental para los responsables de RH controlar los nuevos sistemas de Inteligencia Artificial en lugar de dejar que sean los ordenadores quienes lo hagan. Es necesario entender que los algoritmos informáticos no son buenos encontrando y corrigiendo sus propios errores y no pueden sustituir algunos de los valores característicos de los humanos, como el cuidado, la empatía y la toma responsable de decisiones.”

El problema ‘igual-igual’

Los rápidos avances en IA han impulsado la creación de nuevas start-ups en el campo de los Recursos Humanos que se dedican a comercializar sistemas de aprendizaje automático para seleccionar o valorar el potencial de los demandantes de empleo según su voz o sus expresiones faciales. Según un estudio realizado por Bersin (Deloitte), casi el 40% de las empresas usa ya algún tipo de IA para desarrollar funciones de RH, un porcentaje que aumentará en los próximos dos años.

Pero aunque muchos ven la Inteligencia Artificial como la tendencia de futuro para los ejecutivos de RH que buscan reclutar y retener candidatos diversos y talentosos así como tomar mejores decisiones en la gestión del talento, continúa existiendo bastante escepticismo. Uno de los motivos puede ser la creciente preocupación sobre si esta tecnología puede cumplir con una de sus promesas principales: reducir el sesgo subjetivo del ser humano. Precisamente los abusos de la IA y el consiguiente aumento de la discriminación fueron temas de portada en los medios el pasado otoño con la noticia de que Amazon se había visto obligado a abandonar un programa secreto de contratación basado en la IA en el que había estado trabajando desde 2015 porque discriminaba a las mujeres.

Este proyecto tenía como objetivo ayudar a los reclutadores a llevar a cabo la selección de personal otorgando a los distintos candidatos una puntuación de 1 a 5 estrellas, del mismo modo que sucede con los productos que la compañía vende en su página web. Pero dichas puntuaciones se basaban en gran medida en currículums de candidatos anteriores, los cuales habían sido sobre todo hombres.  Como comentaron personas con conocimiento del proyecto a Reuters, se penalizaba los currículums que incluían la palabra ‘femenino’ y se rebajaba la calificación a las personas graduadas en dos universidades predominantemente femeninas.

Bischoff explica que a este problema lo denomina ‘igual-igual.’ “Si indicas quién es un buen manager y después tratas de conseguir algo exactamente idéntico a lo que ya tienes, estás renunciando a tener una plantilla diversa y, por lo tanto, a tener diferentes puntos de vista en tu empresa, no solamente en términos de diversidad de género y raza, sino también a nivel de experiencias vitales diferentes.”

Bussing y Bischoff subrayan una serie de puntos en los que los humanos pueden cometer errores y mandar a los algoritmos de Inteligencia Artificial por el camino equivocado, tanto en lo que se enseña a los dispositivos de aprendizaje automático a hacer como en las decisiones sobre qué datos se utilizan para predecir resultados futuros. A pesar de sus ventajas en cuanto a velocidad y capacidad para tomar decisiones racionales sin dejarse llevar por las emociones humanas y la subjetividad, los dos expertos puntualizan que la IA funciona como si fuera un niño, con experiencia limitada y con un razonamiento basado en una perspectiva sesgada a partir de lo que se le ha enseñado.

Ampliar el kit de herramientas del reclutador

Los Departamentos de RH de algunas de las principales compañías de Estados Unidos se encuentran sumergidos de lleno en un nuevo mundo impulsado por algoritmos. La industria hotelera es considerada líder en la adopción de la IA para la gestión de personas, como también lo fue en el uso de herramientas de aprendizaje automático para mejorar las experiencias de los huéspedes.

Los Hoteles Hilton, que cuentan con establecimientos en 106 países y alrededor de 400.000 empleados y bajo la premisa de desarrollar herramientas avanzadas de Inteligencia Artificial, han creado recientemente Ally, un chatbot que empareja los distintos candidatos con los trabajos disponibles, acelerando así el proceso de contratación.

“Nos permite ver rápidamente si una persona tiene el talento o las habilidades necesarias para una de nuestras posiciones,” aclara Sarah Smart, Vicepresidenta de Reclutamiento Global en Hilton. El objetivo es ahorrar tiempo a los reclutadores de la empresa y al mismo tiempo atraer a un mayor número de solicitantes de empleo. “Creemos que la Inteligencia Artificial es una de las herramientas que debería formar parte del ‘kit básico de contratación’,” explica Smart, quien aclara que no es una manera de reemplazar a los reclutadores, sino una forma de facilitar su trabajo.

El éxito de Ally ha hecho que Hilton se convierta en una del puñado de firmas que ya usa el software HireVue para obtener evaluaciones previas a la selección mediante el uso de herramientas de reconocimiento facial y de voz, las cuales valoran las cualidades personales de cada candidato, como la empatía, la motivación y el compromiso. HireVue se publicita como especializado en eliminar cualquier tipo sesgo, ya sea de género, edad o raza. Por su parte, los candidatos han reportado buenas experiencias con los procesos de selección basados en IA de Hilton.

Precauciones por parte de los compradores

La proliferación de la Inteligencia Artificial en organizaciones como Hilton, Marriott International o IBM ha llevado a algunos consultores y firmas de abogados a ofrecer asesoramiento sobre cómo dichas organizaciones pueden evitar la discriminación.

Zev Eigen es un abogado formado en el MIT especializado en datos y legislación laboral que fundó y dirige el área científica de Syndio, una start-up que gracias a la IA identifica y resuelve problemas relacionados con la equidad salarial. Eigen explica que cuando las empresas diseñan programas de Inteligencia Artificial en base a los anteriores demandantes de empleo, la información de la que estas disponen puede dar una imagen sesgada, ya que solo contempla a candidatos ya contratados. “Muchos sistemas nunca tienen en cuenta a los candidatos rechazados,” lo que crea el riesgo de caer en una discriminación racial o de género.

Eigen aconseja a las compañías que apuesten por ir más allá en los sistemas de aprendizaje automático, que conozcan cómo la IA mejora, o no mejora, decisiones similares tomadas por los humanos. Es por ello que, para establecer una base más sólida, recomienda a las organizaciones que evalúen los sistemas de IA comparándolos con los resultados obtenidos por otro grupo de control fundamentado en la toma de decisiones humanas.

Bussing y Bischoff coinciden en que la responsabilidad es de los ejecutivos de RH, quienes compran e implementan los nuevos sistemas de Inteligencia Artificial. Deberían preguntar a los proveedores de estos servicios qué es lo que hacen realmente sus algoritmos, para luego monitorizar y evaluar los resultados, trabajando si es necesario junto con los abogados o consultores de la compañía. La responsabilidad final de cualquier discriminación recaerá en la empresa, no en su proveedor, reconoce Bussing. Como explica ella misma junto a Bischoff, la clave es comprender que los algoritmos de IA no producen hechos sino opiniones informadas y, en ocasiones, estas últimas parten de información incompleta.

Este otoño, la multinacional estadounidense de tecnología y consultoría IBM lanzó lo que denomina como Adverse Impact Analysis (“Análisis de Impacto Adverso”), un recurso que forma parte de su nuevo conjunto de herramientas de Inteligencia Artificial: el IBM Watson Recruitment. Este sistema, que IBM describe como un ‘detector de sesgo,’ revisa todo el histórico de datos de contratación de una organización para identificar potenciales sesgos inconscientes de género, raza, edad o formación.

Cuando Frida Polli, neurocientífica formada en Harvard y en el MIT, dejó la universidad para cursar un MBA, se vio asediada por reclutadores y cazatalentos. Decidió entonces que la IA podía mejorar el proceso de selección y en 2013 fundó la empresa Pymetrics. Para acabar con la posible discriminación, la firma cuenta con una base de datos de 50.000 demandantes de empleo, cuya raza y género están especificados: una información que se usa para probar el funcionamiento de los algoritmos en relación al sesgo.

Polli tiene un mensaje para los líderes de RH: como compradores de sistemas de Inteligencia Artificial deben ir con cuidado con la gran cantidad de start-ups dedicadas al tema. “Recomiendo a los consumidores que se acerquen a la IA con un escepticismo saludable. Si un proveedor afirma que está libre de sesgos, pide la documentación que lo demuestre.”

 

* Bunch, Will. “AI is not a Quick-Fix Solution for Discrimination”. Human Resource Executive Magazine, 07/11/2018 (Artículo consultado el 16/11/2018).

Acceso a la noticia: http://hrexecutive.com/ai-is-not-a-quick-fix-solution-for-discrimination/

Articles relacionats / Artículos relacionados

Subscriu-te gratuïtament als nostres butlletins

Rep notícies i idees en Recursos Humans.
Subscripció

Utilitzem cookies per oferir a les nostres visites una millor experiència de navegació pel nostre web.
Si continues navegant, considerem que acceptes la seva utilització.