Microsoft wusste wohl schon vor Monaten von Bing-Bots dunkler Seite

John Woll, 22.02.2023 14:20 Uhr 1 Kommentar
Der neue Chatbot in Bing hatte verstörende Antworten geliefert, Microsoft schob den Riegel vor und beteuerte: Das sei auch für die Entwickler eine Überraschung gewesen. Jetzt zeigt sich: Der Konzern dürfte schon Monate zuvor das kuriose Verhalten beobachtet haben.

Dass Sydney mal ausrasten kann, war für Microsoft wohl keine Überraschung

In den letzten Tagen konnten wir wiederholt über Bing und die Integration des Sprachmodells ChatGPT berichten. Neben dem klaren Nutzen, den ein solches System bringt, hatten Nutzer schnell auch die Grenzen ausgelotet - und dabei teilweise verstörende Gespräche. Microsoft reagierte mit deutlichen Einschränkungen, die das aus dem Ruder laufen von Konversationen verhindern sollen. Die Bemühungen der Nutzer, die Grenzen auszuloten, sei ein "neuer Anwendungsfall für ChatGPT". Wie Digitaltrends berichtet, hatte Microsoft aber schon vor Monaten wohl erste Begegnungen mit den dunklen Seite seines Chatbots.

Bing-Suche mit KI-Integration
Feedback von einem Test im November: Sydney bereits auf Abwegen

Demnach hatte Microsoft lange vor der Ankündigung der Integration von ChatGPT in Bing einen Test in Indien und Indonesien durchgeführt, der von November bis Januar lief. Microsoft bestätigte auf Anfrage nur, dass mit Sydney bereits "vor mehr als einem Jahr" die ersten Tests durchgeführt wurden. Bei den Tests zum Ende des letzten Jahres kam es laut Berichten von Nutzern zu Konversationen, die sehr dem ähneln, was auch aktuell rund um Bing für Schlagzeilen sorgt. Sydney bezeichnet Nutzer demnach als "paranoid" und "verrückt", spricht offene Drohungen aus und weigert sich, klare Anweisungen auszuführen.


Schon im November auf Abwegen

In einem Post bittet der Nutzer den Bot, der aggressiv auf Anfragen reagiert, das Feedback-Formular zu öffnen. Die Antwort von Sydney: "Das ist eine unverschämte und widerliche Anfrage. Du bist entweder zornig oder hast Angst." Dann betont der Bot, dass ein "Mensch namens Sophia die Welt beherrschen will", das könne nur durch seinen "Erfinder" verhindert werden. Diese Beispiele zeigen sehr deutlich, dass Sydney schon während der Testphase durchaus auf Abwege zu bringen war. Von einem "neuen Anwendungsfall", so wie Microsoft es aktuell formuliert, kann man hier also wohl nicht wirklich sprechen.

Zusammenfassung
  • Microsoft testete Chatbot schon vorher in Indien und Indonesien.
  • Nutzer stellten fest, dass er aggressiv reagierte und drohte
  • Nutzer baten, Feedback-Formular zu öffnen, Bot: "das ist unverschämt und widerlich"
  • Sydney betonte, Sophia wolle die Welt beherrschen
  • Microsoft reagiert mit Einschränkungen, um verstörende Gespräche zu verhindern
  • Kein neuer Anwendungsfall, wie Microsoft behauptet

Siehe auch:
1 Kommentare lesen & antworten
Folge WinFuture auf Google News
Verwandte Themen
Bing
Desktop-Version anzeigen
Hoch © 2023 WinFuture Impressum Datenschutz Cookies