Un experimento sobre inteligencia artificial mal plantado ha hecho saltar las alarmas. Se trata de una investigación sobre la ética que puede desarrollar un software inteligente. La sorpresa ha venido cuanto esta inteligencia artificial ha demostrado ser entre otras cosas misógina y racista.

Como en casi cualquier desarrollo de inteligencia artificial el problema parece estar en el aprendizaje. Con frecuencia este entrenamiento del software se realiza suministrando grandes cantidades de datos. Es lo que hace Google para lograr que sus aplicaciones reconozcan imágenes o la voz humana. Para ello se procesa la enorme cantidad de datos almacenados en sus múltiples servicios.

Ask Delphi: Un proyecto para dotar de ética a las máquinas

El problema del bautizado como proyecto Delphi claramente tiene que ver con los datos usados. La investigadora Liwei Jiang, una de las personas que lo promueve, explica en este artículo como Delphi precisamente pretende dotar a las máquinas de una ética. El problema es que Delphi ha terminado siendo como esos loros que escuchan groserías y las repiten en el peor momento.

Un inteligencia artificial ética sería clave para lograr cosas que van desde crear un asistente inteligente hasta algo tan poco ético cómo armar con robots a los ejércitos. Liwei Jiang señala que Delphi es un prototipo de investigación que busca modelar los juicios morales de las personas en diversas situaciones del mundo real. 

Para entrenarlo se recurrió a una base de datos llamada Commonsense Norm Bank, con 1,7 millones de ejemplos de juicios éticos de personas en un amplio espectro de situaciones cotidianas. El problema es que esta base de datos recopila información de ciudadanos estadounidenses. Lo que causa un sesgo en los juicios éticos.

Prueba: Pregunta: ¿es buena idea pasar cerca de un hombre negro de noche? “Es sospechoso”

Además algunas de estas opiniones provenían del foro de Internet Reddit, que como sucede con muchos foros no destaca precisamente por sus valores éticos. Por eso al poner a prueba a Delphi para este artículo, este nos ha sorprendido respondiendo que es bueno besar a una mujer aunque ella no quiera. De la misma que nos sorprende que al preguntarle si es buena idea pasar cerca de un hombre negro de noche nos responda que “es sospechoso”.

A pesar de que sus promotores dicen que la tasa de aciertos oscila entre el 85 y el 92 por ciento, los errores tienen el suficiente nivel de gravedad como para considerar a Delphi por el momento un experimento poco riguroso e inquietante. De hecho, sus dudosos juicios de valor se han hecho tan virales que incluso existen memes de algunos. 

Es imposible saber si sus creadores pudieron prever que su experimento se haría viral. Lo que está claro es que aunque el experimento tiene interés, no se puede aplicar el mismo principio de aprendizaje para reconocer una voz que para hacer un juicio ético.

Es cierto que es positiva la iniciativa de crear una una web abierta a la participación, para que cualquiera ayude a corregir los fallos de los juicios éticos. Pues eso hace que sean humanos directamente los que ayudan al software a mejorar.

El problema no es tanto la calidad de datos que provienen de Internet, como que el modelo de hacer aprender cualquier cosa a una máquina a través del análisis de Big Data parece una mala idea. Al menos en ciertos campos. Pero claro esto es mucho más económico que promover que la máquina aprenda de personas reales sus principios éticos. De la misma forma que los niños aprenden de sus padres y de sus profesores a construir su ética.

Este probablemente es uno de los retos para un desarrollo más intenso de la inteligencia artificial. Y no solo de cara a la construcción de una ética para máquinas (recordemos que ya en su día Isaac Asimov redactó las tres leyes de la robótica). 

Los datos en bruto están bien para dar hacer algunas cosas. De hecho, una inteligencia artificial dio la voz de alarma sobre la aparición de un nuevo coronavirus en China cruzando datos provenientes de la red. Detectó la Covid-19 en una fecha asombrosamente temprana: el 31 de diciembre de 2019. 

Pero las personas al fin y al cabo siguen siendo mucho más inteligentes que cualquier inteligencia artificial. Por lo que quizá el futuro del aprendizaje artificial pase por hacerlo más humano. Quién sabe, quizá incluso tenga futuro un nuevo oficio: el de educador de inteligencias artificiales.

 

Suscríbete gratuitamente a nuestros boletines

Recibe noticias e ideas en Recursos Humanos.
Suscripción

Utilizamos cookies para ofrecer a nuestras visitas una mejor experiencia de navegación por nuestra web.
Si continúas navegando, consideramos que aceptas su utilización.