Varias compañías están empezando a utilizar tecnologías de procesamiento del lenguaje y de las imágenes para detectar cosas que los humanos no somos capaces de ver. Según Fast Company, la Inteligencia Artificial empieza a abrirse camino en el mundo laboral, facilitando cosas insospechadas como, por ejemplo, descubrir la discriminación de género en el lenguaje usado en los procesos de selección o en las evaluaciones de desempeño.

 

California acaba de promulgar una estricta legislación sobre igualdad de género, la Fair Pay Act (Ley de Salario Justo), que invierte la carga de la prueba en la empresa para que demuestre que no paga más o menos a los empleados según su género. Es una herramienta poderosa para abordar un error que ya se ha cometido. ¿Pero se puede prevenir la discriminación antes de que ocurra? Incluso los directivos que piensan que son imparciales podrían no serlo, y solamente con una selección de sus palabras ya se puede tener un indicio. Una nueva ola de compañías dedicadas a la Inteligencia Artificial pretende detectar matices de discriminación en el lenguaje y comportamiento laborales para poderlos cortar de raíz.

Kanjoya, una empresa de San Francisco, está aplicando un procesamiento de lenguaje natural (esencialmente algoritmos informáticos que pueden captar el tono y el contexto) para destapar qué piensan realmente las personas cuando completan una encuesta de empleados. Como otras compañías que utilizan la Inteligencia Artificial (IA) en el ámbito laboral, el foco de Kanjoya va más allá de los sesgos de género, pero la discriminación es uno de los problemas que puede revelar la tecnología. “Si entrevisto a Moritz Sudhof, Analista Jefe de datos de Kanjoya, y a su hermana, puedo aplicarles diferentes categorías y diferentes previsiones sobre qué atributos les harían convertirse en un buen empleado,” afirma Armen Berjikly, CEO de Kanjoya.

Kanjoya surgió a partir de Experience Project, una red social que une a personas que tienen situaciones de vida y problemas similares, de modo que puedan encontrar a alguien que les entienda. Los usuarios han escrito cientos de millones de entradas desde que Experience Project arrancó en 2006, las han etiquetado con emociones -preocupado, estresado, seguro, excitado, confundido, enfadado- y eso ha proporcionado a Kanjoya la base para empezar a comprender los sentimientos que hay detrás del lenguaje.

Kanjoya se puso en marcha con Twitter como su primer cliente importante. (Microsoft, Salesforce y Nvidia son algunos de sus otros grandes clientes de renombre.)

Sudhof da el siguiente ejemplo de cómo puede funcionar el proceso: “Les preguntas, ‘Ey, ¿en qué estás pensando?’ Si mencionan el equilibrio entre vida laboral y personal y otras cosas del entorno laboral inmediato, y si los mencionan negativamente, se puede predecir en gran medida su poca predisposición a quedarse en un trabajo.”

Después Kanjoya agrupa los sentimientos percibidos de las encuestas de los empleados y los cruza con información rigurosa sobre demografía, permitiendo a RH separar los datos según diferentes criterios, incluyendo también el de género.

“Si muchas mujeres mencionan temas como el liderazgo y el aprendizaje de forma negativa, es una señal de que la empresa no está dando a las mujeres las mismas oportunidades que a los hombres,” declara Sudhof. Otra señal de alarma: cuando temas como la actitud y las habilidades para trabajar en equipo aparecen más en las encuestas de las mujeres, mientras que las habilidades en liderazgo se muestran más en las encuestas masculinas.

Cambiar la ecuación

Todo lo que se asume sobre las mujeres hace que ni siquiera lleguen a la empresa. Ellas, además, se pueden sentir poco alentadas a solicitar determinados puestos, dice Kieran Snyder, Fundadora y CEO de Textio, que aplica el procesamiento del lenguaje natural al proceso de selección. Snyder, que tiene un Doctorado en Lingüística y Ciencia Cognitiva, ha publicado recientemente varios artículos sobre discriminación de género en el lenguaje. Su artículo “La trampa de la abrasión” publicado en Forbes en 2014 describe un estudio en el que unas evaluaciones de desempeño de las mujeres recibieron más feedback negativo solamente por el tono utilizado que las de los hombres. En dichas evaluaciones aparecían a menudo palabras que las describían como mandonas, abrasivas, estridentes y agresivas. (Sin embargo, los resultados objetivos fueron similares tanto si era un hombre o una mujer a quien realizaba la evaluación.)

Snyder utilizó más tarde procesamiento de lenguaje natural para analizar casi 90.000 tweets de hombres y mujeres con nivel de cualificación similar en el mundo de la tecnología. En un artículo para Re/code, relató que los tweets sobre tecnología de los hombres eran cinco veces más populares. Al igual que Kanjoya, Textio también cuenta con la empresa Twitter como cliente. Otros clientes que tienen son Microsoft (donde Snyder trabajó anteriormente), Barclays y Broadbridge Financial.

Del mismo modo que el corrector de texto subraya en rojo las palabras o frases sospechosas cuando las estás escribiendo, el compositor de texto web de Textio señala fragmentos problemáticos que perjudican la descripción de una oferta de trabajo como la gastada palabra ‘sinergia’ y propone alternativas. También destaca textos positivos como “diseño pensado para móviles,” para desarrolladores de software, o “amante de la diversión,” para cualquiera. El análisis de Textio se basa en ingerir descripciones de ofertas de trabajo y comparar su redacción y estructura con el éxito que tienen a  la hora de atraer a solicitantes cualificados.

Textio también señala partes del texto que se inclinan demasiado hacia uno de los dos géneros. Un trabajo que ofrece una experiencia de “primera categoría” apela más a los hombres, mientras que la palabra “premium” se asocia menos con un género en concreto, opina Snyder. Los hombres tienden a preferir contenido listado mientras que las mujeres prefieren texto narrativo. Si Snyder está en lo cierto, existe una discriminación inadvertida que se remonta incluso a antes de plantear una promoción o de una oferta de empleo. Las mujeres pueden sentir que el trabajo no es para ellas y ni tan siquiera optar al mismo.

Superar esa discriminación de fondo es también una cuestión central para HireVue. La empresa comenzó en 2004 como un servicio web para grabar entrevistas de trabajo, dando a los solicitantes la capacidad para aplicar de forma remota y a los entrevistadores la flexibilidad de verla cuando les fuera conveniente. Pero HireVue pronto buscó maneras de automatizar el proceso para reducir el pool de candidatos, explica Jeff Barson, Director del Departamento de Investigación y Desarrollo de la empresa, HireVue Labs. “En general, lo que nuestros clientes buscan es: ‘Bueno, tengo 100 vídeos, ¿cuáles son los 10 primeros que tengo que ver?’,” reconoce Barson.

HireVue afirma que puede encontrar a los mejores candidatos basándose no sólo en lo que dicen, sino en cómo lo dicen. Mediante el aprendizaje automático y la tecnología IA que discierne patrones de grandes conjuntos de datos, HireVue analiza frases e incluso gestos físicos que los candidatos usan en las entrevistas. HireVue compara luego las entrevistas de la gente que fue contratada con lo que bien que desempeñan actualmente su trabajo. Los ordenadores no contratan a gente, pero ayudan a afinar la selección.

“Cuando llega alguien nuevo, podemos observar su vídeo de manera cada vez más integral,” dice Barson. Eso incluye el análisis del lenguaje, como las estructuras de las oraciones que utiliza, la tasa de intervención durante la conversación y su uso de la voz activa o pasiva. Pero HireVue va aún más allá, teniendo en cuenta, por ejemplo, las fluctuaciones de temperatura en la cara de la persona entrevistada o la dilatación de las pupilas; cosas que muestran su respuesta emocional.

Todo esto puede sonar espeluznante: quise probar una entrevista rápida de muestra y me sentí bastante cohibido. Pero el beneficio que Barson proclama es que el proceso elimina el sesgo humano y permite a las compañías tener en cuenta a personas que de otro modo podrían haberles pasado por alto.

Por ejemplo, los Hoteles Hilton empezaron a utilizar HireVue como parte de su programa de compromiso para contratar a 50.000 veteranos militares durante los próximos años. Barson dice que es difícil para los veteranos conseguir un trabajo, porque su experiencia laboral se ve muy diferente desde el punto de vista de la terminología utilizada en un currículum civil. Otros grandes clientes de HireVue son Urban Outfitters, GE y el editor Houghton Mifflin Harcourt.

“Cada candidato dispone de la misma cantidad de tiempo, se le preguntan exactamente las mismas cuestiones de la misma manera y es tratado (por el sistema) exactamente de la misma forma,” escribe Barson en un e-mail.

La tecnología de HireVue puede evaluar también a los entrevistadores, observando lo bien que lo hacen en su trabajo las personas que han seleccionado. “Hemos detectado que algunos de nuestros clientes tienen evaluadores que toman la decisión correcta el 80% de las veces. Y otros que lo hacen bien sólo el 20% del tiempo,” escribe Barson.

Armen Berjikly de Kanjoya se encuentra con el mismo problema en la experiencia de su empresa con los clientes. “La gente que no está muy bien formada para hacer entrevistas hace solamente entrevistas, y vierte sus prejuicios y pensamientos a dicho contenido.”

Y aquí es precisamente donde la tecnología puede ser más constructiva y no únicamente punitiva. No se trata sólo de detectar a las personas culpables de discriminar, sino de enseñarles a no hacerlo. “Así que si tengo un problema puedo descubrirlo de forma inmediata y gestionarlo,” anota Barson. Finalmente, y más importante aún teniendo en cuenta la nueva legislación de California, añade: “Si no tengo ningún problema de discriminación en la promoción o en la selección, puedo demostrarlo.”

 

*Captain, Sean. “How Artificial Intelligence is Finding Gender Bias At Work”. Fast Company, 10/10/2015 (Artículo consultado on line el 29/10/2015).

Acceso a la noticia: http://www.fastcompany.com/3052053/elasticity/how-artificial-intelligence-is-finding-gender-bias-at-work

Suscríbete gratuitamente a nuestros boletines

Recibe noticias e ideas en Recursos Humanos.
Suscripción

Utilizamos cookies para ofrecer a nuestras visitas una mejor experiencia de navegación por nuestra web.
Si continúas navegando, consideramos que aceptas su utilización.