Falsche Antworten könnten zu Verletzungen oder Tod führen, warnten Kritiker
Ein anderer Google-Tester nannte den Dienst peinlich. Von anderen waren schon damals eindringliche Warnungen vor den Gefahren falscher Antworten zu hören, heißt es. So habe Bard auf Fragen zum Thema Tauchen Antworten geliefert, die "wahrscheinlich zu schweren Verletzungen oder dem Tod" von Tauchern geführt hätten, wenn ein Nutzer sich an sie gehalten hätte.Die interne Kritik, bei der es angeblich oft auch um Fragen der Ethik und Sicherheit von Google Bard ging, tat das Management offenbar in vielen Fällen einfach ab. Den Mitarbeitern sei erklärt worden, sie sollten sich der Entwicklung nicht in den Weg stellen oder versuchen, die Arbeit an "generativer Künstlicher Intelligenz" zu stoppen, so der Bericht.
Google entschied sich laut den Angaben der früheren und aktuellen Mitarbeiter, seinen ersten KI-Dienst möglichst schnell einzuführen. Hintergrund war der häufig zitierte "Rote Alarm", den Microsoft mit seinem überraschenden Erfolg rund um ChatGPT und den Chatbot von Bing verzeichnen konnte. Die Redmonder agieren dabei bisher allerdings ebenfalls weitestgehend rücksichtslos, erhoffen sie sich doch, mithilfe der KI Google nicht nur massiv unter Druck zu setzen, sondern mittelfristig auch viele Marktanteile abzuknöpfen.
Zusammenfassung
- Microsoft & OpenAI generieren mit ChatGPT Aufmerksamkeit.
- Google stellte Bard vor, intern aber schlecht angesehen.
- Mitarbeiter kritisierten Bard als "nutzlos" und "peinlich".
- Warnungen vor falschen Antworten & Gefahren.
- Management ignorierte Kritik & wollte den Dienst schnell einführen.