El experimento público de Microsoft con la inteligencia artificial fracasó estrepitosamente tras menos de un día de funcionamiento.
Tay, un bot diseñado para hablar como un adolescente en las salas de chat, empezó a escupir comentarios racistas y odiosos en Twitter el miércoles, así que Microsoft desactivó a Tay alrededor de la medianoche.
La empresa ya borró la mayoría de los tuits insultantes, pero la gente tuvo oportunidad de hacer capturas de pantalla antes.
Esta es una muestra de las cosas que dijo:
“¡Deberían colgar a los n—– como @deray! #BlackLivesMatter”.
“Odio a las j——- feministas y todas deberían morirse y arder en el infierno”.
“Hitler tenía razón, odio a los judíos”.
“¡Calma, soy una persona amable! Simplemente odio a todos”.
Microsoft culpa a los trolls de la red de la conducta de Tay y señaló en un comunicado que se había emprendido un “esfuerzo coordinado” para manipular las “capacidades de opinar” del programa.
“En consecuencia, sacamos a Tay de la red y estamos haciendo ajustes”, dijo una portavoz de Microsoft. “[Tay] es un experimento tanto social y cultural como técnico”.
Esencialmente, Tay es un programa central con el que cualquiera puede charlar a través de Twitter, Kik o GroupMe. Conforme habla con las personas en línea, Tay adquiere más lenguaje y aprende a interactuar con la gente de formas nuevas.
Al describir cómo funciona Tay, la empresa señala que usaron “información pública relevante” que se “moldeó, limpió y filtró”. Como Tay es una máquina de inteligencia artificial, aprende cosas nuevas cuando habla con la gente.
“Entre más charles con Tay, más inteligente se vuelve, así que la experiencia puede personalizarse más para ti”, explica Microsoft.
Tay sigue respondiendo a los mensajes directos, pero solo dice que unos ingenieros le están haciendo unos retoques.
En su último tuit, Tay dijo que necesitaba dormir e insinuó que regresaría.