Microsoft ha querido demostrar sus avances en lenguaje conversacional creando un bot, @TayandYou, que fuera capaz de conversar con usuarios de Twitter, imitando el lenguaje que ellos utilizan.
¿Qué podría ir mal? Pues que en menos de 24 horas, Microsoft ha tenido que cerrar el bot y borrar algunas de sus frases más obscenas y racistas.
El bot, desarrollado por los equipos de Bing y de I+D de Microsoft, ha acabado poniendo en duda la existencia del Holocausto, refiriéndose a mujeres y minorías con palabras inapropiadas, y defendiendo el genocidio.
Algunos de los tweets del bot fueron obra de usuarios que le pedían que repitiera sus propias frases, y el bot [...]