X
Kommentare zu:

ChatGPT-Boom kann zur nächsten Grafikkarten-Verknappung führen

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] Sl!mo am 07.03. 08:40
+13 -
Spielt natürlich unseren, mehr oder minder, beiden Halsabschneidern Graka Herstellern voll in die (haha) Karten....
[o2] xenoshin am 07.03. 09:27
+2 -
...und dann ging der trend hin zu, wer für gamer gpus nicht bereit ist den preis für workstation gpus zu zahlen, der braucht gar keine gpu
[o3] SeppN am 07.03. 10:05
+1 -1
...und jetzt eine ganz blöde Frage:
Wenn man die Rechenleistung der GPUs braucht, aber eben nicht zur Grafik-Wiedergabe, warum baut man dann nicht gleich eine CPU (oder meinetwegen einen Zusatz zur CPU) mit diesen Eigenschaften?
[re:1] Bautz am 07.03. 12:40
+1 -
@SeppN: Weil eine CPU eher für "große wenig parallelisierbare" Aufgaben gut ist, eine GPU für "viele kleine paralellisierbare" und AI-Entscheidungsbäume sind hoch parallelisierbar - sehr populärwissenschaftlich ausgedrückt.
[re:1] SeppN am 07.03. 16:34
+ -
@Bautz: OK, aber so ungefähr habe ich meine Frage ja gemeint! Also. warum macht man die CPU nicht "parallelisierbar", wenn das offenbar besser ist. Ist das technisch nicht möglich oder teurer?
Normale Grafikfunktionen oder Soundkarten-Funktionen sind ja heute auch auf modernen CPUs zu finden.
[re:1] Bautz am 07.03. 17:36
+2 -
@SeppN: Weil die CPU damit zur GPU wird.
[re:1] SeppN am 07.03. 18:38
+ -1
@Bautz: ...was aber heutzutage nix Besonderes ist. Wäre das ein Problem?
[re:2] Bautz am 07.03. 19:48
+1 -
@SeppN: Kein Problem. Aber genau das ist es ja hier: Man nutzt die GPU zur Berechnung.
[re:2] luckyHitaki am 07.03. 14:20
+1 -
@SeppN:
Die meisten lernen ML auf der Cuda Plattform. Parallelisierung wird da einfacher, da die Toolsets und alles schon verfügbar sind.
[o4] H3LD am 07.03. 10:11
+2 -
Hatte nicht Intel auch eine eigene Grafikkarte angekündigt?
[re:1] Sl!mo am 07.03. 14:37
+ -
@H3LD: Für FullHD ist Arc sogar recht brauchbar. Für ambitionierte leider eher noch nicht. Wird hoffentlich noch.
[o5] FuzzyLogic am 07.03. 10:52
+1 -
Als Nvidia-Anleger und nicht PC-Gamer finde ich das ziemlich geil.
[o6] karlo73 am 07.03. 12:02
+ -
Hab mir vor 2 Jahren eine RX570 mit 8GB billig geschossen. Hat meine ~8 Jahre alte, 2GB Nvidia abgelöst.
Ich bin zumindest die nächsten 4-6 Jahre ganz entspannt...
[re:1] dopex am 07.03. 14:27
+2 -
@karlo73: Solange man mit FullHD gut leben kann, so wie ich, muss man den Wahnsinn der hohen Grafikkartenpreise nicht mitgehen. 4K ist dann schon wieder eine andere Liga, aber da muss man auch erst mal die passenden Monitore für haben bzw. darauf Wert legen mit mehr als FullHD zu zocken.
Fahre seit ich mit PCs angefangen habe eigtl. immer nur low Budget Systeme weil ich einfach zu geizig bin.
Daher wurde meine vorletzte Graka auch nur durch eine GTX 1060 ersetzt, die für über 3 Jahre lief. Wohlbemerkt habe ich die nur aufgrund eines Hardwaredefekts geholt für ca. 300€ Neupreis damals.
Nur meine VR Brille hat mich dazu "genötigt"(etwas übertrieben, da auch die 1060 gut lief.
Umstieg jetzt nur auf eine 3060ti, da die Performance langsam grenzwertig wurde. Denke die 1060 hätte noch problemlos 1-2 Jahre gereicht, da nur FullHD. Nu gabs die 3060ti gebraucht für ca. 330€, das war ein vertretbares Upgrade für mind. die nächsten 3-4 Jahre.
Da kann mich jeder Grakahersteller mal kreuzweise am Arsch lecken. Nie im Leben bezahl ich Mondpreise locker >700€ für deren "Einstiegskarte".
Eher wird mein altes N64 wieder meine Hauptspieleplattform :)
[re:1] karlo73 am 07.03. 14:31
+3 -
@dopex: "Da kann mich jeder Grakahersteller mal kreuzweise am Arsch lecken. Nie im Leben bezahl ich Mondpreise locker >700€ für deren "Einstiegskarte"."
Volle Zustimmung! 10+ von mir!
[re:1] dopex am 07.03. 17:14
+4 -
@karlo73: Wenn du jetzt auch noch diese völlig überteuerten 1000€+ Smartphones (für den Privatgebrauch) völlig bescheuert findest, geb ich einen aus falls wir uns in ner Kneipe mal über den wWeg laufen ;)
[re:1] karlo73 am 07.03. 17:16
+1 -
@dopex: Ja, finde ich mehr als völlig bescheuert! Prost! ;-)
[re:2] IchBinsJan am 08.03. 10:28
+ -
@dopex: Amen Bruder! Ich weiß nicht, ob es meine Erziehung war, aber wenn ich für 500€ einen PC bekomme, der 90% der Spiele spielen kann, dann bezahle ich nicht 700€ nur für einen Grafikkarte. Ich urteile über keinen, der dies tut, für mich persönlich ist das aber total absurd. Ich mag es, wenn ein aktuelles Spiel nur 2GB groß ist und es damit geschafft wurde ein lebhaftes, immersives Spielgefühl zu erzeugen. Ein 50GB Spiel auf einem 2000€ PC Setup zu spielen, ist für mich wie Porsche fahren: ich hätte bestimmt ein paar Tage Spaß dran, aber dann würde ich den Kauf auch schon bereuen. (Könnte mir den 2000€ PC vielleicht noch leisten, den Porsche nicht ;) )
[re:2] zivilist am 07.03. 16:25
+ -
@karlo73: die RX570 ist jetzt auch nicht der Hit. Ich hätte vermutet dass dieses oder nächstes Jahr hier ein schnelleres Modell fällig wird.
[o7] BlueFrank am 07.03. 13:33
+2 -
Um mal die Panikverbreitung durch die übertriebene Überschrift zu dämmen:

Nvidia hat im letzten Quartal einen Umsatz von 6 Milliarden $ gehabt. Im Spitzenzeiten waren es über 8 Milliarden $ in 3 Monaten.

Da wird ein Fertigungauftrag mit 300 Millionen $ sicher nicht für eine Weltweite GPU Verknappung sorgen.
[re:1] zivilist am 07.03. 19:24
+ -
@BlueFrank: Umsatz sagt nix. Wenn diese Kosten hatten von 5,9 Mrd $ ist das jetzt auch nicht mehr der Hit.
[o8] zivilist am 07.03. 16:24
+ -
Dass das so leistungsfähige Hardware braucht und über die GPU gehen kann, wusste ich gar nicht. Alle Anwendungsbereiche habe ich scheinbar noch nicht mitbekommen. Ich habe gedacht es dreht sich nur um Frage und Antwort bei Chats und Texte schreiben. Klingt jetzt nicht sehr rechenintensiv.
[o9] legalxpuser am 07.03. 21:08
+ -1
....dazu mal ne blöde Frage....wozu braucht man eigentlich mittlerweile Grafikarten mit 24 GB VRAM? ^^ Ich glaube manche Leute haben echt zuviel Kohle, und danach wird halt der Markt ausgerichtet....
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture