Microsoft haalt chatbot offline na Hitler-tweets
Een Twitterbot van Microsoft werkte met 'zelflerende software', maar die bleek nog veel te dom: de bot deed allerlei racistische uitspraken.
Microsoft lanceerde woensdag de chatbot Tay op Twitter die automatisch gesprekken met Twittergebruikers kon aangaan. Dat liep al snel uit de hand, toen mensen vragen over onder meer Adolf Hitler en de Holocaust naar Tay stuurden. Het bleek dat de bot allerlei passages herhaalde of zaken die hem gevraagd werden beaamde. Het gevolg: Tay deed allerlei bizarre en racistische uitspraken.
Microsoft heeft inmiddels ingegrepen en de meeste tweets verwijderd. Tay is voorlopig ook gestopt met tweeten. De chatbot was gericht op 18- tot 24-jarigen. De software gebruikte volgens Microsoft openbare informatie, kunstmatige intelligentie en de input van 'stand-up comedians'.
Microsoft zegt dat het aanpassingen gaat doorvoeren. Volgens het bedrijf geeft dit mislukte experiment wel 'een indicatie van het soort interacties dat sommige mensen met chatbots hebben'.