Microsoft se ha visto obligada a retirar un robot de Twitter porque en su interacción con seres humanos elaboraba mensajes de contenido racista, sexista y xenófobo.
Entre otros comentarios, Tay parecía negar el Holocausto, apoyaba el genocidio, y llamó «puta estúpida» a una mujer.
Los comentarios han sido borrados del timeline de Tay, pero se pueden consultar en una página que hizo una copia y los ha publicado.
Facebook pretende sumarse a esta iniciativa, que lleva tiempo experimentando de manera interna con un asistente similar para su Messenger.
Otra de sus contestaciones encajaba con la línea del candidato Donald Trump: «Vamos a poner un muro en la frontera.
Fuente: http://elpais.com/tecnologia/2016/03/24/actualidad/1458855274_096966.html