X

Bing mit ChatGPT machte bei der Vorstellung gleich mehrere Fehler

KI-Bots wie OpenAIs ChatGPT und Googles Bard sind derzeit in aller Munde und faszinieren durch die Natürlichkeit ihrer Antworten und Ergebnisse. Doch sie sind auch in einem anderen Punkt "menschlich", da sie sich immer wieder irren - auch bei der Bing-Integration.
15.02.2023  09:09 Uhr
Microsoft hat vor ein paar Wochen die Integration von ChatGPT in seine Suchmaschine Bing bekannt gegeben und das hat bereits vor der offiziellen Vorstellung für Panik bzw. Roten Alarm bei Konkurrent und Marktführer Google gesorgt. Der Suchmaschinenriese stellte daraufhin - etwas übereilt - seinen eigenen Chatbot namens Bard vor, doch schnell wurde dieser bei einem peinlichen Fehler ertappt. Mittlerweile steht aber fest, dass auch Bing mit ChatGPT alles andere als perfekt ist. Denn bei einer Demonstration vor Reportern hat Bing Geschäftsberichte der Bekleidungsunternehmen Gap und Lululemon analysiert und zusammengefasst. Doch Experten haben sich die ChatGPT-generierten Ergebnisse näher angesehen und verglichen diese mit echten Berichten. Ihr Fazit war alles andere als schmeichelhaft für den Bot, denn diverse Finanzwerte fehlten, einige waren sogar frei erfunden.

Bing mit ChatGPT: Microsoft stellt seinen "Kopilot fürs Netz" vor
videoplayer01:36

Bing hatte "KI-Halluzination"

"Die Bing-KI hat bei ihrer Demo einige Antworten völlig falsch gegeben. Aber niemand hat es bemerkt", schreibt der unabhängige Suchexperte Dmitri Brereton auf Substack. "Stattdessen sind alle auf den Bing-Hype-Zug aufgesprungen."

Brereton sagt, dass er ursprünglich nicht die Absicht gehabt habe, Fehler in Bing mit ChatGPT zu finden, sondern nur einen Vergleich von Microsoft und Google anstellen wollte. Wie CNBC berichtet, sind ihm aber bald diverse Unregelmäßigkeiten aufgefallen, woraufhin er sich die Angelegenheit näher angesehen hat. Er hat daraufhin weitere Fehler gefunden, darunter in ChatGPT-Antworten zu Spezifikationen eines Staubsaugers und Plänen zu einer Mexiko-Reise.

Das Phänomen ist nicht neu: KI-Experten bezeichnen es als "Halluzination". Es beschreibt die Neigung von Tools, die auf großen Sprachmodellen basieren, einfach etwas zu erfinden. Microsoft wurde auf diese Fehler angesprochen und der Redmonder Konzern leugnete bzw. beschönigte nichts: "Wir sind uns dieses Berichts bewusst und haben seine Ergebnisse analysiert, um diese Erfahrung zu verbessern. Wir sind uns darüber im Klaren, dass noch viel Arbeit vor uns liegt, und rechnen damit, dass das System während dieser Vorschauphase Fehler machen kann."

Zusammenfassung
  • Microsoft integriert ChatGPT in seine Suchmaschine Bing, was Google beunruhigt
  • Google stellte daraufhin eigenen Bot namens Bard vor, der jedoch Fehler machte
  • ChatGPT bei der Bing-Integration hat ebenfalls Fehler gemacht
  • Die Fehler wurden durch unabhängige Experten entdeckt.
  • KI-Experten bezeichnen das Phänomen als "Halluzination".
  • Microsoft räumt ein, dass noch viel Arbeit vor ihnen liegt, um Fehler zu verbessern.
Verwandte Themen
Bing
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture