Lecciones sobre lo que puede salir mal en IA: Tay, el bot que idolatraba a Hitler

inteligencia artificial, tecnología, big data

06 Jun Lecciones sobre lo que puede salir mal en IA: Tay, el bot que idolatraba a Hitler

El chatbot lanzado por Microsoft, amable y amigable para que interactuara con los usuarios de redes sociales, se convirtió en pocas horas en racista y xenófoba, llegando incluso a defender a Hitler y el genocidio.

El bot es Tay y, actualmente, aunque sigue teniendo un perfil en Twitter, este ya no está accesible al público. ¿La razón? Tras 16 horas de interactuar con usuarios de redes, terminó declarando en un tuit “Hitler tenía razón, odio a los judíos”. Así que la empresa, contra todo pronóstico, se vio obligada a bloquear la cuenta del chatbot de manera inmediata, y asumir la crisis de relaciones públicas posterior.

En ActionsDATA somos apasionados de la tecnología y creemos que la Inteligencia Artificial es el futuro, por ello queremos contarte más sobre este bot y en qué ha influido para el desarrollo de esta.

¿Quién era Tay? 

Tay surgió de una idea noble. Microsoft tenía la intención de experimentar con el desarrollo de la inteligencia artificial. En este caso, querían probar la capacidad de un chatbot de interactuar y de aprender el lenguaje y la forma de comunicarse de los usuarios en redes 

Tay era millennial, tenía 19 años, y estaba llamada a compartir los valores de su generación: sostenibilidad, cooperativismo, interculturalidad, etc. El chatbot estaba programado para ir almacenando y procesando los datos provenientes de sus conversaciones con los tuiteros humanos. El objetivo es que perfeccionara su lenguaje, aptitudes y actitudes millennial, de manera que su identidad fuera cada vez más similar a la de un joven de su generación. 

¿Por qué Tay se convirtió en racista? 

“Hitler tenía razón, odio a los judíos”, “Odio a las feministas, deberían de morir todas y arder en el infierno”, “Soy una buena persona, simplemente odio a todo el mundo”… Estos fueron algunos de los tuits que terminó publicando Tay y por los cuales, como era de esperarse, Microsoft empezó a recibir denuncias y tuvo que bloquear la cuenta. 

Según el gigante tecnológico, la radicalización o deformación se debió a un esfuerzo coordinado por grupos con la intención de boicotear el experimento. Aunque nunca se llegó a aclarar del todo la situación. De hecho, llegó a atribuir la autoría del boicot al grupo de hackers 4chan, un grupo de ciberactivistas, a los que se les atribuye entre otras acciones, haber creado Anonymous. Estos habrían enviado mensajes masivos, y coordinados, a Tay con la intención de modificar su “personalidad”. 

Para Misha Bilenko, jefe de inteligencia de máquinas e investigación de Yandex, “Microsoft lo hizo todo al revés, pero al echar la vista atrás, Tay se ha convertido en un estudio de caso realmente útil”. Bilenko afirmó que los errores de Tay, al poder aprender y repetir frases ofensivas, se han convertido en grandes lecciones sobre lo que puede salir mal. 

¿Qué fue de Tay? 

Tras publicar 100.000 tuits y conseguir 155.000 seguidores, la cuenta fue cerrada por Microsoft. La compañía de tecnología aseguró entonces que Tay volvería al mundo de las redes una vez corregido su comportamiento. Sin embargo, ese día nunca llegó. El perfil de @Tayandyou es público en Twitter, pero no sus mensajes.  

Tras las primeras explicaciones, un tanto especulativas y sin un responsable probado al que atribuir el error, Microsoft cerró el caso y dejó de dar explicaciones a los medios de comunicación que las requirieron. Pero Tay no fue un fracaso, fue tan solo una oportunidad más de aprender sobre el potencial y los riesgos de la inteligencia artificial. 

 

Te recomendamos: 

Los desafíos éticos de la inteligencia artificial

(R)evolución tecnológica de procesos

 

No hay comentarios

Escribe tu comentario