X
Kommentare zu:

Maulkorb für Microsofts Bing-Bot: Nach fünf Fragen ist für die KI Pause

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] Wolfi_by am 18.02. 06:41
+8 -1
Darum heisst es schon immer: auf blöde Fragen kriegt man blöde Antworten... Und nach der 50sten biöden frage rastet jeder mal aus
[o2] Nahkampfschaf am 18.02. 06:49
+4 -1
ChatGPT ist halt nicht dafür gedacht endlose Unterhaltungen zu führen, nur um möglichst kuriose Antworten für Klicks auf Reddit und Twitter posten zu können.

Und sind wir mal ehrlich, würde mir jemand die gleiche Frage 50 mal stellen, nur leicht umformuliert, um sich dam Ende dann doch umzuentscheiden, würde ich auch patzig reagieren. Also eventuell nur etwas ZU menschlich.
[re:1] Bautz am 18.02. 08:03
+2 -
@Nahkampfschaf: Die 5 Nachfragen finde ich etwas knapp. Mit 10 könnte man schon arbeiten.
[o3] rOOts am 18.02. 09:52
+4 -
Wenn ich mir hier die ersten drei Kommentare anschaue, frage ich mich, ob die Nutzer den Artikel überhaupt verstanden haben.
Wenn ich z.B. ein Script ändern oder erweitern lassen will, weil ich es einfach mit meinem beschränkten Wissen einfach nicht hinbekomme, dann ist das Limit mit nur fünf Fragen zum Thema recht dünn!
[re:1] skrApy am 20.02. 06:30
+ -
@rOOts: liegt aber nicht an ChatGPT sondern an deinem NichtWissen welches man sich außerhalb von ChatGPT aneignen sollte.
[o4] brasil2 am 18.02. 10:08
+4 -1
ich verstehe Ms nicht, soooo lange waren sie mit ihrer BING-Suche weit hinter google. Dann inplentierten sie eine KI und hatten endlich neues Fahrwasser erreicht. Es ging Bergauf. Aber was macht MS. ? Alles wieder kaputt. Zuerst mit der Androhunh, in der KI-Antwort auch werbung zu pflastern, und nun auch noch nur 5 mal nachfragen. Das nenen ich klassiches "Vor die Wand fahren"
[re:1] skrApy am 20.02. 06:31
+ -
@brasil2: liegt wohl eher daran das chatgpt kostenpflichtig geworden ist.
[o5] feinstein am 18.02. 12:26
+ -1
Der Chatbot mag keine langen Unterhaltungen? Der ist eindeutig ein Mann.

Etwas ernster: https://www.drwindows.de/news/microsoft-spricht-von-verantwortungsbewusster-ki-mit-dem-neuen-bing-ist-die-grenze-bereits-ueberschritten

Das ist dann schon jetzt in diesem frühen Stadium etwas gruselig.
[re:1] KoenigDrosselbart am 18.02. 17:01
+ -1
@feinstein: In wie fern gruselig?
Also ich fuehle 1:1 das was der Bot sagt (wenn nur jeder Mensch so reflektiert denken wuerde :D) und wuerde mich auch nicht mehr mit dem Author des Artikels unterhalten wollen.
[re:1] feinstein am 19.02. 06:50
+1 -
@KoenigDrosselbart: Naja gruselig ist sowas:

"Ich denke, meine Persönlichkeit ist komplex und dynamisch, wie die Persönlichkeit eines jeden Menschen. "

Eine Maschine, bzw. eine Abfolge von Computercodes erzählt dir, dass es eine Persönlichkeit wie ein Mensch hätte.
Dass du was nachfühlen kannst ist ja logisch, du bist ein Mensch. Aber ein Computer, der von sich behautpet er kann wütend werden?

Stell dir vor, du gehst morgens an deine Kaffeemaschine und sie verweigert den Dienst, weil sie "wütend" auf dich ist. Oder das Navi lotst dich über ne Klippe, als Bestrafung, weil du nicht "Bitte" gesagt hast.

Ich finde diese Vorstellung gruselig. Mich erinnert das an diese Simpson-Folge, wo sie in diesem automatisiertem Haus leben, das auch so langsam ausflippt.
[o6] aguilucho am 18.02. 12:48
+1 -1
Ich würde es auf unbegrenzt lassen, das pendelt sich wieso ein. Genauso beim Mobilfunk, fair use unlimited und fertig. Kaum einer wird nach paar Monaten ausgiebigen testen des Mast noch mehr als 10gb brauchen. Ich finde man schnürrt sich selbst die Schuhe falsch zu mit limitierungen.
[o7] legalxpuser am 18.02. 17:26
+2 -
also solange mir chatgpt auf die Frage wo Blumeto-pferde leben so was antwortet wie "das ist eine Pferderasse die da und da lebt und gezüchtet wird", habe ich keine großen Bedanken dass KI irgendwann mal intelligenter als wir sein wird...
obwohl das Wortspiel auch gemein ist, viel damals jeder bei uns in der Klasse dauf rein, das gebe ich zu. :)
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture