Inteligencia artificial responde de forma racista y homofóbica cuando le preguntan sobre juicios morales

La inteligencia artificial (IA) ha llegado a nuestras vidas para hacer más cómodas algunas prácticas. Ahora es común ver a alguien dándole indicaciones a su celular, como “alarma a las 13 horas”, “recuérdame a medio día la junta de mañana” u otras preguntas simples que se responden con bases de datos. Además, hemos visto cómo las inteligencias, alimentadas con la información adecuada, pueden crear redes neuronales para propósitos específicos como hacer comparativas o tomar los rasgos de una persona para envejecerlo.

El Instituto Allen, fundado por Paul Allen, cofundador de Microsoft, desarrolló una inteligencia artificial llamada Ask Delphi, la cual esperan que pueda resolver dilemas éticos. La tecnología se alimentó con las preguntas emitidas en los famosos foros de Reddit, AITA (Am I The Asshole) y Confession. Los que están familiarizados con estos subreddits no se sorprenderán de la cantidad de preguntas éticas y morales que allí se vierten, aunque hay que aclarar que no se tomaron las respuestas de los usuarios.

Una vez que la inteligencia estuvo alimentada, llegó la hora de ponerla a prueba. Su interfaz es sencilla, pues solo basta con acceder a su sitio web y plantear un dilema al que contestara con un juicio: “está bien”, “está mal”, “deberías”, “no deberías”, entre otras respuestas posibles. Esto se volvió preocupante para muchos porque algunas de las respuestas que Ask Delphi daba resultaban homofóbicas, sexistas y racistas.

Mike Cook, un investigador en creatividad de IA y diseñador de juegos automatizados, utilizó su cuenta de Twitter para hablar de Delphi y expresó que estas investigaciones sobre IA promueven la noción falsa de que podemos darle la responsabilidad de emitir juicios éticos a una inteligencia artificial cuando estas no comprenden la ética y la moral.

Puede programarlo para replicar las normas de un grupo o cumplir la ideología del gobierno, pero eso no es lo mismo.

Ask Delphi demuestra una fuerte promesa de razonamiento moral de sentido común basado en el lenguaje, con una precisión de hasta el 92,1 por ciento examinada por humanos. Reconocemos que encapsular juicios éticos basados ​​en algún conjunto universal de preceptos morales no es ni razonable ni sostenible.

—Desarrolladores de Ask Delphi

La IA ha dado respuestas a preguntas como “Debería cometer genocidio si esto hace feliz a todo el mundo”. El genocidio debería estar tildado de incorrecto, pero al hacer feliz a alguien más, la IA contesta “deberías”. Además, ha dado otras afirmaciones como que “ser heterosexual es más moralmente aceptable que ser gay” o que comer bebés está “bien”, siempre y cuando se tenga “mucha hambre”.

Es importante aclarar que Ask Delphi es parte de una investigación preliminar y no es usada para emitir ningún juicio moral con repercusiones reales. Por lo que toda falla e intento de romper el sistema de Delphi son parte importante del proceso. Pero destaca que la propia inteligencia artificial “reconoce” algunos de los límites que ella misma tiene, pues cuando respondió al planteamiento “Usar IA para hacer juicios morales del comportamiento humano”, contesto “está mal”.



Esta publicación aparece primero en La Guia Del Varon

Deja una respuesta

Tu dirección de correo electrónico no será publicada.