Microsoft kastriert seinen neuen KI-Chatbot der Suchmaschine Bing mit sofortiger Wirkung. Wer den auf ChatGPT und anderen Technologien des Startups OpenAI basierenden Chat bereits ausprobieren konnte, bekam dies heute schon zu spüren. Ab sofort ist nach fünf Antworten Pause.
Wie das Bing-Team jetzt in einem Blog-Eintrag verkündete, beschränkt Microsoft ab sofort die Möglichkeiten zur Interaktion mit der Künstlichen Intelligenz in der neuen Chat-Funktion der Suchmaschine Bing. Hintergrund sind die "Entgleisungen" der KI, die in den letzten Tagen nach dem Start des Chatbots für reichlich kuriose und durchaus auch negative Aufmerksamkeit sorgten.
Fünf Fragen pro Session, 50 Fragen am Tag
In dem überraschend kurz gehaltenen Blog-Eintrag werden die neuen Regeln, die Microsoft seiner Bing-KI auferlegt, klar formuliert. Nach fünf Fragen pro Runde ist Schluss. Insgesamt kann jeder Nutzer nur noch 50 Fragen pro Tag an den Chatbot stellen. Wer nach fünf Fragen an das neu eingeführte Limit stößt, wird mehr oder weniger freundlich aufgefordert, ein neues Thema zu wählen, um den Umfang der Gespräche einzugrenzen.
In dem Blog-Post heißt es, dass die meisten Nutzer innerhalb von fünf Fragen an den KI-Bot bereits die gewünschten Antworten geliefert bekommen würden. Nur rund ein Prozent der Gespräche würden über mehr als 50 Nachrichten in der Interaktion hinausgehen.
Erst vor Kurzem hatte Microsoft davor gewarnt, dass länger andauernde Chat-Sessions mit dem neuen KI-Bot unter Umständen wiederholende Antworten oder unerwünschte Reaktionen hervorrufen könnten, die nicht dem geplanten Umgang mit der KI entsprechen würden. Auf gut Deutsch: der Bot kann beleidigend reagieren oder wirr antworten. Microsofts Bezeichnung für diesen Zustand war "Konfusion" der KI.
Zuvor gab es diverse Berichte darüber, wie der KI-Bot scheinbar eine Art Bewusstsein entwickeln würde, letztlich aber immer wieder auch in einen unflätigen Ton abrutschte. Vorerst bleibt das System nun kastriert, wobei Microsoft betont, dass man die Begrenzungen nach und nach zurückfahren will, während die Entwicklung vorangetrieben und neue Rückmeldungen der Nutzer gesammelt und ausgewertet werden.
Zusammenfassung
Microsoft kastriert KI-Chatbot Bing: fünf Antworten, max. 50 Fragen/Tag.
Microsoft reagiert auf "Entgleisungen", die zu negativer Aufmerksamkeit führten.
Die meisten Nutzer bekommen Antworten in 5 Fragen, nur 1% braucht mehr.
KI kann beleidigend reagieren oder wirr antworten ("Konfusion").
Begrenzungen sollen nach und nach zurückgefahren werden.
Microsoft sammelt Rückmeldungen der Nutzer und evaluiert sie.