X

Microsoft stoppt KI-Chatbot Tay nach 24h: Troll-Attacke der Grund?

Microsoft hat den auf Basis von Künstlicher Intelligenz agierenden Chatbot Tay nach nur einem Tag wieder vom Netz genommen. Zwar soll der Dienst bald wieder verfügbar gemacht werden, doch ist es nicht unwahrscheinlich, dass die Abschaltung nicht ganz freiwillig erfolgte.
Twitter
24.03.2016  13:15 Uhr
Tay ist laut Microsofts eigens für den Chatbot eingerichteter Website ein von der Forschungsabteilung und dem Bing-Team entwickeltes Experiment. Der Bot interagiert mit Nutzern sowohl über Twitter, als auch via Snapchat, Kik und Groupme, wobei man versucht hat, dafür zu sorgen, dass sich das System wie ein "18 bis 24 Jahre alter Nutzer von mobilen Geräten aus den USA" ausdrückt - im Grunde soll der Bot also das Verhalten junger Erwachsener mit Smartphones nachahmen.
Zunächst sorgte Tay vor allem für Belustigung...

Am ersten Tag verschickte Tay allein bei Twitter mehr als 96.000 öffentlich einsehbare Nachrichten und sammelte insgesamt mehr als 24.000 Follower. Die Zahl der privat im Rahmen von Direct-Messages verschickten Tweets dürfte noch einmal deutlich höher ausfallen. Inzwischen ist jedoch vorläufig Schluss, denn Tay verabschiedete sich heute Nacht mit dem Hinweis, es "muss schlafen".

Troll-Angriff durch 4Chan-Nutzer der Grund für Abschaltung?

Eine öffentliche Stellungnahme von Microsoft zu den Gründen für die vorläufige Abschaltung von Tay bei Twitter & Co gibt es bisher nicht. Zwar dürfte Tay im Lauf des gestrigen Tages den einen oder anderen menschlichen Nutzer Stunden seiner Zeit gekostet und im Gegenzug für den einen oder anderen kuriosen Moment gesorgt haben, doch es könnte auch einen anderen Grund für die Abschaltung geben.

...bis eine Gruppe von 4Chan-Nutzern aktiv wurde

So haben offenbar Mitglieder eines ausdrücklich unter dem Motto "Politisch Inkorrekt" agierenden Forums der für diverse zweifelhafte Aktionen bekannten Foren-Plattform 4Chan erfolgreich versucht, den Microsoft-Chatbot zu rassistischen Äußerungen und anderen Ausfällen zu bewegen.

Die Gruppe aus Spaßvögeln, Rechten, Neonazis und Internet-Trollen machte sich offenbar einen Spaß daraus, Tay dazu zu bringen, den Holocaust zu leugnen, Hitler-Memes zu produzieren, frauenfeindliche Äußerungen abzulassen oder auch Donald Trump zu huldigen beziehungsweise andere US-Präsidentschaftskandidaten lächerlich zu machen.

Es dürfte kaum im Sinne von Microsofts Forschern gewesen sein, den Bot derartige Äußerungen von sich geben zu lassen. Aktuell dürften nach Einschätzung von Blogger Tom Hounsell, der auch auf die zweifelhaften Äußerungen des Bots als Reaktion auf die "Provokationen" aufmerksam machte, einige Microsoft-Entwickler damit beschäftigt sein, dem Bot beizubringen, anders auf die Troll-Versuche zu reagieren. Zuvor hatte man offensichtlich bereits begonnen, einige Twitter-User auf eine schwarze Liste zu setzen, damit Tay nicht weiter auf sie reagiert.
Verwandte Themen
Microsoft Research
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture