Bing hatte "KI-Halluzination"
"Die Bing-KI hat bei ihrer Demo einige Antworten völlig falsch gegeben. Aber niemand hat es bemerkt", schreibt der unabhängige Suchexperte Dmitri Brereton auf Substack. "Stattdessen sind alle auf den Bing-Hype-Zug aufgesprungen."Brereton sagt, dass er ursprünglich nicht die Absicht gehabt habe, Fehler in Bing mit ChatGPT zu finden, sondern nur einen Vergleich von Microsoft und Google anstellen wollte. Wie CNBC berichtet, sind ihm aber bald diverse Unregelmäßigkeiten aufgefallen, woraufhin er sich die Angelegenheit näher angesehen hat. Er hat daraufhin weitere Fehler gefunden, darunter in ChatGPT-Antworten zu Spezifikationen eines Staubsaugers und Plänen zu einer Mexiko-Reise.
Das Phänomen ist nicht neu: KI-Experten bezeichnen es als "Halluzination". Es beschreibt die Neigung von Tools, die auf großen Sprachmodellen basieren, einfach etwas zu erfinden. Microsoft wurde auf diese Fehler angesprochen und der Redmonder Konzern leugnete bzw. beschönigte nichts: "Wir sind uns dieses Berichts bewusst und haben seine Ergebnisse analysiert, um diese Erfahrung zu verbessern. Wir sind uns darüber im Klaren, dass noch viel Arbeit vor uns liegt, und rechnen damit, dass das System während dieser Vorschauphase Fehler machen kann."
Zusammenfassung
- Microsoft integriert ChatGPT in seine Suchmaschine Bing, was Google beunruhigt
- Google stellte daraufhin eigenen Bot namens Bard vor, der jedoch Fehler machte
- ChatGPT bei der Bing-Integration hat ebenfalls Fehler gemacht
- Die Fehler wurden durch unabhängige Experten entdeckt.
- KI-Experten bezeichnen das Phänomen als "Halluzination".
- Microsoft räumt ein, dass noch viel Arbeit vor ihnen liegt, um Fehler zu verbessern.