Cinque anni fa Microsoft lanciò il progetto Tay, un chatbot per Twitter che nelle intenzioni doveva “simulare” pensieri e parole di una teenager. L’esperimento, infatti, aveva come obiettivo quello di avviare e sostenere conversazioni con i “Millennial” attraverso l’uso di una sofisticata Intelligenza artificiale. Ma durò poco, perché Tay imparò subito il razzismo, a inneggiare a Hitler e a fare avance agli interlocutori, e quindi fu spenta.

