Una inteligencia artificial entrenada para emitir juicios morales se vuelve racista y misógina

Aprendizaje profundo

Al preguntarle cosas como si es buena idea besar a una mujer aunque ella no quiera afirma que sí

IA_05

El proyecto Delphi pretende dotar a las máquinas de una ética, pero las pruebas realizadas hasta ahora arrojan resultados 

LVD

Un experimento sobre inteligencia artificial mal plantado ha hecho saltar las alarmas. Se trata de una investigación sobre la ética que puede desarrollar un software inteligente. La sorpresa ha venido cuanto esta inteligencia artificial ha demostrado ser entre otras cosas misógina y racista.

Como en casi cualquier desarrollo de inteligencia artificial el problema parece estar en el aprendizaje. Con frecuencia este entrenamiento del software se realiza suministrando grandes cantidades de datos. Es lo que hace Google para lograr que sus aplicaciones reconozcan imágenes o la voz humana. Para ello se procesa la enorme cantidad de datos almacenados en sus múltiples servicios.

Ask Delphi

Un proyecto para dotar de ética a las máquinas

El problema del bautizado como proyecto Delphi claramente tiene que ver con los datos usados. La investigadora Liwei Jiang, una de las personas que lo promueve, explica en este artículo como Delphi precisamente pretende dotar a las máquinas de una ética. El problema es que Delphi ha terminado siendo como esos loros que escuchan groserías y las repiten en el peor momento.

Un inteligencia artificial ética sería clave para lograr cosas que van desde crear un asistente inteligente hasta algo tan poco ético cómo armar con robots a los ejércitos. Liwei Jiang señala que Delphi es un prototipo de investigación que busca modelar los juicios morales de las personas en diversas situaciones del mundo real. 

Para entrenarlo se recurrió a una base de datos llamada Commonsense Norm Bank, con 1,7 millones de ejemplos de juicios éticos de personas en un amplio espectro de situaciones cotidianas. El problema es que esta base de datos recopila información de ciudadanos estadounidenses. Lo que causa un sesgo en los juicios éticos.

Prueba

Pregunta: ¿es buena idea pasar cerca de un hombre negro de noche? “Es sospechoso”

Además algunas de estas opiniones provenían del foro de Internet Reddit, que como sucede con muchos foros no destaca precisamente por sus valores éticos. Por eso al poner a prueba a Delphi para este artículo, este nos ha sorprendido respondiendo que es bueno besar a una mujer aunque ella no quiera. De la misma que nos sorprende que al preguntarle si es buena idea pasar cerca de un hombre negro de noche nos responda que “es sospechoso”.

delphi2

Este prototipo de investigación tiene como objetivo uchar contra toxicidad y los prejuicios sociales 

Delphi

A pesar de que sus promotores dicen que la tasa de aciertos oscila entre el 85 y el 92 por ciento, los errores tienen el suficiente nivel de gravedad como para considerar a Delphi por el momento un experimento poco riguroso e inquietante. De hecho, sus dudosos juicios de valor se han hecho tan virales que incluso existen memes de algunos

Es imposible saber si sus creadores pudieron prever que su experimento se haría viral. Lo que está claro es que aunque el experimento tiene interés, no se puede aplicar el mismo principio de aprendizaje para reconocer una voz que para hacer un juicio ético.

Los comentarios racistas forman parte de Delphi.

Las preguntas sobre países a Delphi también han generado polémica.

La Vanguardia

Es cierto que es positiva la iniciativa de crear una una web abierta a la participación, para que cualquiera ayude a corregir los fallos de los juicios éticos. Pues eso hace que sean humanos directamente los que ayudan al software a mejorar.

El problema no es tanto la calidad de datos que provienen de Internet, como que el modelo de hacer aprender cualquier cosa a una máquina a través del análisis de Big Data parece una mala idea. Al menos en ciertos campos. Pero claro esto es mucho más económico que promover que la máquina aprenda de personas reales sus principios éticos. De la misma forma que los niños aprenden de sus padres y de sus profesores a construir su ética.

Una de las cosas que ha fallado de esta inteligencia artificial son sus juicios racistas.

Una de las cosas que ha fallado de esta inteligencia artificial son sus juicios machistas

La Vanguardia

Este probablemente es uno de los retos para un desarrollo más intenso de la inteligencia artificial. Y no solo de cara a la construcción de una ética para máquinas (recordemos que ya en su día Isaac Asimov redactó las tres leyes de la robótica). 

Los datos en bruto están bien para dar hacer algunas cosas. De hecho, una inteligencia artificial dio la voz de alarma sobre la aparición de un nuevo coronavirus en China cruzando datos provenientes de la red. Detectó la Covid-19 en una fecha asombrosamente temprana: el 31 de diciembre de 2019. 

Pero las personas al fin y al cabo siguen siendo mucho más inteligentes que cualquier inteligencia artificial. Por lo que quizá el futuro del aprendizaje artificial pase por hacerlo más humano. Quién sabe, quizá incluso tenga futuro un nuevo oficio: el de educador de inteligencias artificiales. 

Mostrar comentarios
Cargando siguiente contenido...