Nvidia GeForce RTX 4090: Insider rechnet mit enormem Stromverbrauch

[o1] MichaW am 04.11. 10:02
+18 -
Solange die Chipkrise anhält und diese Karten dann zu maximalen Mondpreisen in homöopatischer Menge verfügbar sind... wird das wieder nichts für mich.
[re:1] DON666 am 04.11. 10:05
+7 -
@MichaW: Wenn dann irgendwann Modellbezeichnung und Preis identisch sind...
[re:2] pcfan am 04.11. 12:07
+5 -1
@MichaW: Wenn dann die 30 er Karten billig zu haben sind, solls mir recht sein.

Ne 3070 oder 3070Ti würde mich glücklich machen zu einem ordentlichen Preis.
[re:1] MichaW am 04.11. 12:50
+2 -1
@pcfan: Haben die nicht jetzt schon für manche Spiele zu wenig Speicher?
[re:1] pcfan am 04.11. 12:56
+3 -1
@MichaW: Mit 8 GB kommt man schon hin, wenn mans nicht übertreibt mit der Auflösung.

Wäre zumindest kein Rückschritt zu meiner 1070 (nicht ti) die ich aktuell habe.
[re:1] scootiewolff22 am 07.11. 19:28
+1 -2
@pcfan: so so ne Geforce 3070 kaufen aber sich zusammenreißen wegen der Auflösung, dann reicht auch ne Nummer kleiner
[re:2] pcfan am 07.11. 21:19
+1 -
@scootiewolff22: nicht wenn man voll Details will ;)
[re:2] PatrickH am 04.11. 15:18
+1 -
@pcfan: Nur werden die nicht günstiger. Sieht man doch an den aktuellen 30xx Karten zu den alten 20xx. Die 20er Serie ist kein stück günstiger geworden und deren Gebrauchtpreise kannste in die Tonne kicken. Das wird dann mit der 40er und der 30er Serie nicht anders laufen.
[re:1] pcfan am 04.11. 16:14
+1 -
@PatrickH: Noch, aber früher oder später wird sich mining nicht mehr lohnen und chips wieder besser verfügbar sein.
Hoffe es dauert nicht mehr als 1-3 Jahre.
[re:1] GTX1060User am 04.11. 16:38
+ -
@pcfan: Wird eher noch schlimmer
[re:2] DerLars86 am 08.11. 11:36
+ -
@GTX1060User: Da die Preise immer höher gehen in Sachen Krypto glaube ich nicht das dort ein abriss stattfinden wird. Die Prognosen für Bitcoin und Co sehen für die nächsten Monate auch eher Steigend aus. Sei den es kommt wieder irgendeine Botschaft :)
[o2] zivilist am 04.11. 10:08
+6 -
Hohe Stromkosten in Deutschland kommen neben der Chipknappheit hinzu, also werden die Karten wieder teuer über den Ladentisch gehen. Mir macht es dann nicht mehr so viel Spaß extrem viel für die Karte auszugeben und aufgrund Zeit mittelmäßig oft damit zu zocken. Und wenn ich dann damit zocken würde müsste ich massiv in Kühlung (entsprechende Lautstärke) investieren und der Stromzähler wird sich auch freuen. Also sprechen solche Karten nur Hardcore Fans an, die ja eine kleine Gruppe sind, sieht man ja auch an dem Erfolg der Switch (eher Casual). Bin mal gespannt wo die Reise hingeht und was die Konkurrenz macht. Wenn dann würde ich die kleineren Modelle wie 4060 favorisieren, gibt's halt nur WQHD statt 4K Gaming.
[re:1] Raistlin666 am 04.11. 13:01
+ -
@zivilist: einfach per Solarpanel betreiben das Ding. Kannste halt nur im Sommer zocken xD
[re:2] vSphere am 05.11. 12:19
+1 -
@zivilist: Wird wohl mittelfristig auf Clouddienste hinauslaufen, wenn die Stromkosten für den Betrieb den monatlichen Abopreis übersteigen
[o3] laforma am 04.11. 10:13
+7 -2
scheinbar ist optimieren nicht mehr gefragt. einfach noch dickere netzteile und kuehlloesungen und sich dann wieder mit der performancekrone bruesten. schon verrueckt was hier aufm grafikkartenmarkt abgeht.
[re:1] Link am 04.11. 10:19
+3 -1
@laforma: Natürlich wird auch optimiert, jede neue Generation bietet mehr FLOPS/Watt.
[re:1] Mitsch79 am 08.11. 07:36
+ -
@Link: Doppelte Leistung bei doppeltem Stromverbrauch. Klingt jetzt nicht nach mehr FLOPS/Watt ;)
[re:1] Link am 08.11. 09:43
+ -
@Mitsch79: Die genauen technischen Deteils kennen wir nicht, alles, was da oben steht, hat sich nur ein Insider aus den Fingern gesaugt. Schau dir einfach die bisherige Entwicklung an, es war eigentlich immer so, mal mehr, mal weniger (keine Ahnung, obs da mal irgendwelche Ausreißer gab, das ist aber langfristig betrachtet auch völlig egal und doppelte Rechenleichtung bei doppeltem Verbrauch ist auch OK).
[re:2] Raistlin666 am 04.11. 13:02
+1 -
@laforma: ich glaube auch, dass da optimiert wird. Evtl sind aber jetzt erst WEGEN der Optimierung solch große Karten möglich? Kannst dir ja wie ich dann n kleines Modell mit "nur" maximal 200 Watt Verbrauch anschaffen :)
[o4] bigspid am 04.11. 10:16
+6 -
Das ist doch absurd...die aktuelle Gen verbraucht schon unvernünftig viel Strom. Falls sich die Gerüchte bewahrheiten, schließt sich Nvidia bei mir in der nächsten Gen allein dadurch schon aus. egal wie hoch die Leistung dann am Ende auch wird, das ganze muss irgendwo vernünftig betreibbar bleiben. und wie @zivilist in [o2] schon schrieb, je höher der Stromverbrauch, desto höher die Abwarme und aufwendiger die Kühlung. Eine Lüfterkühlung wird dann auch einfach sehr laut. Und wie groß soll so ein Monster dann noch werden? Die RTX 3090 passt doch jetzt schon nur noch in entsprechend große Gehäuse (bei mir passt auch die 3080 schon nicht mehr rein). Soll die dann in einem externen Gehöuse daher kommen?

Leistungssteigerung hart über den Stromverbrauch zu erkaufen ist keine gute Architektur. Mal hoffen, dass AMD hier etwas besseres bieten kann. Von Intel erwarte ich nicht, dass sie über Mainstreamkartrn anbieten können, also Mid-Range Segment.
[re:1] Link am 04.11. 10:26
+4 -2
@bigspid: "bei mir passt auch die 3080 schon nicht mehr rein"
Wenn dein Gehäuse nicht den Spezifikationen entspricht und keine Karten mit voller Länge aufnehmen kann, dann sind High-End-Karten schon lange nichts für dich.
[re:1] bigspid am 04.11. 13:25
+ -
@Link: Stimmt, hab ein (recht großes) Mediagehäuse und keinen Miditower. Aber bis zu ner 1080/Ti hat alles rein gepasst. High-End im Consumerbereich ist aber normalerweise auch nicht so ne Semi-Professionelle Workstation mit eigenem Diesel-Generator und Klimaanlage...
[re:1] Link am 04.11. 15:30
+1 -1
@bigspid: Das hat nichts mit "Semi-Professionelle Workstation mit eigenem Diesel-Generator und Klimaanlage" zu tun. Gibt genug 0815 Midi/Big-Tower-Gehäuse, die problemlos solche Karten aufnehmen können. Karten solcher Länge sind nichts neues, auch für den privaten Bereich, selbst meine Soundkarte im 486er war nicht viel kürzer als so ne Graka (wenn auch nicht ganz full-length), nur halt ohne Kühler.
Man muss halt beim Gehäusekauf einfach nicht nur aufs Design schauen oder falls es doch wichtiger als die Funktionalität ist, dann sich hinterher nicht darüber beschweren, dass nicht alles reinpasst, denn dafür hat man sich bewusst entschieden. Die Karten sind jedenfalls standardkonform.
[re:1] bigspid am 04.11. 15:51
+ -2
@Link: Klar, ich kann mir auch einen handelsüblichen Kühlschrank ins Zimmer stellen und den PC im High-Tower da einbauen...ist nur eben nicht mehr ganz zeitgemäß. Man kann es sich auch schön reden, aber naja. Meiner Meinung nach sind Größe, Gewicht und Leistungsaufnahme der GPUs jenseits von dem, was einem Consumer zuzumuten ist. Dass sich manche eben semi-professionelles Equipment daheim hinstellen wollen und da dann schön alle Specs ausreizen bis zum letzten Millimeter ist ne andere Sache. Ich kenne zumindest keinen normalen Menschen mehr, der sich einen High-Tower noch irgendwo hinstellt. Der Trend (und technisch machbar) sind Mini/Midi-Gehäuse. Selbst bei den normal gedämpften Gehäusen vieler Hersteller stößt man bei den Karten an seine Grenzen. Mein Kumpel mit der WC 3090 hat das Gehäuse gleich customized, weils nicht mehr ins normale gepasst hat. Und mein Kollege hat eine Extrahalterung am Gehäuse verschraubt, dass die schwere 3090 dort auch sicher Halt findet. Ich verstehe nicht, wie man sowas krampfhaft als normal bezeichnen kann...
Verstehe auch nicht, warum du dich davon so angegriffen fühlst, wenn dieser Brummer, der von Nvidia selbst ja als Nachfolger im semi-professional Segment beworben wird, als consumer unfreundlich (zu groß, zu schwer, zu hoher Verbrauch) bezeichnet wird. Das spiegelt lediglich die heutige Realität wieder, völlig egal, ob es früher normal war einen ganzen Raum mit einem PC zu füllen.

Edit: Tippfehler korrigiert.
[re:2] Link am 04.11. 16:30
+ -
@bigspid: "Ich verstehe nicht, wie man sowas krampfhaft als normal bezeichnen kann"
Es entspricht einfach dem Standard. Es muss auch kein BigTower sein, gibt mehr als genug MicroATX-Gehäuse, die auch solche Karten völlig problemlos aufnehmen können, wenn man es gerne etwas kompakter haben möchte, selbst manche Mini-ITX-Gehäuse können das, auch wenn da der Kühler bei den meisten max zwei Slots hoch sein darf, bei 3 slots wird die Auswahl etwas kleiner, aber unmöglich ist das nicht. Also "einen ganzen Raum mit einem PC" füllen oder das Gehäuse verändern muss man auch wegen dieser Karte nicht, man muss nur vorausschauend kaufen, passende und kleine Gehäuse gibts inzwischen wie ich sehe mehr als ich erwartet habe:
https://geizhals.de/?cat=gehatx&xf=2634_340%7E9691_bis+Mini-ITX

"Meiner Meinung nach sind Größe, Gewicht und Leistungsaufnahme der GPUs jenseits von dem, was einem Consumer zuzumuten ist"
Gewicht ist doch egal, ist für stationäre PCs, den Rest muss halt jeder selber wissen. Ich finde es gut, dass es Auswahl gibt und man sowohl Karten mit wenig Verbrauch (und Leistung) und auch mit viel oder was dazwischen kaufen kann. Ohne die High-End-Modelle wären die Low-End auch nicht da, wo sie sind, weder was den Preis noch die Effizienz betrifft.

Und nein, ich fühle mich nicht angegriffen, ich sehe aber auch keinen Sinn darin über Nvidia (oder auch AMD) zu meckern, dass sie standardkonforme Komponenten entwickeln, zumal das nur das High-End-Modell betrifft und es auch kleinere Karten aus der Serie geben wird für diejenigen, die das gerne kleiner und stromsparender haben wollen. Deswegen müssen aber die High-End-Liebhaber nicht auf ihre Monströsitäten verzichten. ;-)
[re:2] P-A-O am 04.11. 13:08
+1 -
@bigspid: es wohnt nicht jeder im Weltmeisterland des Strompreises ;)
[re:1] bigspid am 04.11. 13:26
+1 -
@P-A-O: True, aber das machts nicht weniger vernünftig ;) Von den Kosten her könnt ichs mir schon leiten, aber die Frage ist, ob man das will. Der Mehrwert besteht nämlich nur in ein bisschen mehr Raytracing.
[re:1] P-A-O am 04.11. 14:00
+ -
@bigspid: kommt drauf an was die Karte leistet und wo es in der (nahen) Zukunft hin geht. RT ist mir persönlich ziemlich egal, empfand es bei Cyberpunk jetzt nicht unbedingt als irgendwas das ich gegen Frames tauschen würde. Allerdings werden seit einiger Zeit die Bildwiederholfrequenzen und endlich auch wieder die Auflösungen höher und die brauchen Leistung.
[re:1] bigspid am 04.11. 15:15
+ -
@P-A-O: Stimmt schon, nur wenn ich zB die Grafikpracht einer aktuellen Konsole (bspw. Series X) mit nem voll hochgezüchteten PC vergleiche (i7 10th Gen, 3090 OC, watercooled) vom Kumpel, dann ist zwar ein Unterschied meist sichtbar, fällt aber lange nicht so stark aus, dass der 4x-5x Preis gerechtfertigt wäre. Ich sehe den PC aktuell nur noch in Sachen VR vorne. Für normale Games muss man schon wirklich auf 120+fps stark fokussiert sein, dass sich das Setup lohnt. In den meisten Fällen aber verpufft sehr viel Leistung an den High-End-PCs für kaum sichtbare Dinge, wie bspw. Raytracing und Lichtberechnungen, die dann im Vergleichsbildern mit Hinweistext gut kommen, aber vom normalen Zocker nicht wahrgenommen werden. Das fängt auch schon bei Dingen wie native 4k Auflösung vs. DLSS vs. FSR vs. Checkerboard an. Klar, nativ oder DLSS sehen am besten aus, aber selbst Checkerboard ist ohne genaue Frame to Frame Analyse manchmal schon nicht von nativ unterscheidbar. (Vorausgesetzt es ist nicht stümperhaft umgesetzt, oder mit einer dynamischen Auflösung runter auf 720p konfiguriert)
[re:3] FatEric am 04.11. 14:08
+ -
@bigspid: Naja, man muss die Karten ja nicht mit voller Leistung betreiben und dennoch dürften sie schneller sein als die Vorgänger. Alles eine Frage der Einstellung. Wenn es rein um Leistung pro Watt geht, wird immer die neuste Generation die beste sein. Es bleibt bei jedem einzelnen, die Leistung zum Beispiel auf 3090 Niveau zu drosseln, was mit diversen Tools geht um weniger Strom mit einer echten 3090 zu verbrauchen. Werden aber nicht so viele machen, warum nur...
[re:1] bigspid am 04.11. 15:18
+ -
@FatEric: Auf der anderen Seite liegt die 3080 selbst auch kaum unter der Leistung einer 3090 (<9%), verbraucht spürbar weniger und kostetnin der Anschaffung auch deutlich weniger. Warum also die semiprofessilnelle Karte für Workstations in einen Gaming-PC packen? Ich glaub bei der Fraktion der Gaming-PC-x090-Käufer braucht man nicht nach Vernunft zu dem GPU Kauf fragen. Da ist die größte Motivation der Haben-Will-Faktor.
[re:1] Link am 08.11. 09:57
+ -
@bigspid: Laut Datenblatt verbraucht die so um die 9-10% weniger, wenn das "spürbar" ist, warum ist das bei der Leistung nicht genauso "spürbar"?
[re:4] Mitsch79 am 08.11. 07:39
+1 -
@bigspid: Es gibt einen Standard für PCI/Isa/PCIe-Karten, der eine maximale Länge vorschreibt. Wenn full length Karten bei dir nicht reinpassen, dann erfüllt deine Gehäuse einfach den Standard nicht. Da hilft kein weinen, sondern ein ordentliches und standardkonformes Gehäuse.
[re:1] Link am 08.11. 10:18
+1 -
@Mitsch79: Ich verstehe nicht, warum es diese Diskussion bei jeder neuen Graka-Generation immer wieder gibt und zwar seit über einem Jahrzehnt und auch nicht erst seit es die Full-lenth Karten gibt, sondern seit sie länger als das Mainboard sind, weil irgendwelche Schlaumeier damals die großartige Idee hatten HDD-Käfige dorthin zu bauen, wo sie nichts zu suchen haben. Inzwischen müsste doch der letzte verstanden haben, dass wenn man sich für ein kleineres bzw. schlicht nicht standardkonformes Gehäuse entscheidet, man dann nicht erwarten kann, dass da jede erdenkliche Hardware hineinpassen wird. Das fängt doch schon mit Micro-ATX-Gehäusen an. Wenn man sowas kauft, dann kann man doch sich hinterher nicht ständig darüber beschweren, dass da nicht alle Mainboards reinpassen, die man beim Kauf bewusst ausgeschlossen hat und auch noch von den Herstellern fordern sowas grundsätzlich nicht mehr anzubieten, weil man es persönlich für "nicht mehr zeitgemäß" hält.
Das jetzt mal ganz davon abgesehen, dass es selbst Mini-ITX-Gehäuse gibt, in die solche Grakas reinpassen.
[o5] zivilist am 04.11. 10:19
+ -1
Bietet Nvidia eigentlich Gehäuse, Netzteil und Kühlung passend dazu an? Wenn nicht: vielleicht will Nvidia so ein weiteres Standbein aufbauen.
[re:1] Link am 04.11. 10:30
+1 -
@zivilist: Nun ja, Kühlkörper wird üblicherweise mit der Karte mitgeliefert, den Rest gibts seit mehr als einem Jahrzehnt von vielen verschiedenen Herstellern, Multi-GPU-Setups haben früher noch mehr Strom und noch mehr Kühlung benötigt. Die 550W sind schon fast langweilig. Netzteile gibts bis 2kW, irgendwelche abenteuerlichen Konstruktionen mit mehreren PSUs wie früher sind also nicht nötig, ein 850W Netzteil reicht locker für so ein System, die gibts von jedem besseren Hersteller.
[re:1] zivilist am 04.11. 11:02
+ -
@Link: schon klar, aber (1) solche Grafikkarten passen nicht mehr in jedes Gehäuse und (2) kann ich mir vorstellen dass manche an einer Komplettlösung von meinen genannten auch Interesse hätten und (3) Branding: fett Nvidia Logo auf dem Gehäuse/Netzteil.
[re:1] Link am 04.11. 12:07
+1 -
@zivilist: "solche Grafikkarten passen nicht mehr in jedes Gehäuse"
Die Diskussion gibts seit über 10 Jahren und nicht erst jetzt wegen dieser Karte und sie betreffen nur nicht standardkonforme Gehäuse. Die Karten werden sicherlich auch nur "full-length" sein, an der erlaubten Länge hat sich seit den PCI-Karten (bzw. sogar ISA) nichts geändert: 312mm, die meisten vernünftigen Gehäuse schaffen auch 338mm (ISA bzw. PCI-Karte mit Haltebügel, 312mm ist ohne).
Wenn man sich für ein Gehäuse entschieden hat, welches nicht für full-length geeignet ist, dann hatte man das Problem eigentlich schon immer und nicht nur bei Grafikkarten, es gibt auch seit Jahrzehnten andere Karten in diesem Format.
[re:2] pcfan am 04.11. 12:12
+ -
@Link: 850 Watt wird knapp, falls die Karte so Spitzen hat wie die 30 er Generation aktuell.

Rechnen wir mal 250 Watt für ne gute CPU (12th Gen Core braucht auch ordentlich) in Spitze und kurtze Lastspitzen der GPU mit 600-650 Watt, wird nen 850 er schon allein dadurch ausgelastet.
Dazu kommt Mainboard, Festplatte, RGB, RAM (DDR5 wird auch mehr brauchen) und die (Wasser)Kühlung.

ich würde eher in die 1000 Watt Region gehen.

Aber mehr als 1200 braucht man nur, wenn man heftig übertaktet, oder ne RGB Sonne einbaut ;)

Ich nehme an, dass man mit 850 Watt aber für alle kleinere Karten hinkommt, also 4080 und darunter, vor allem, wenn man gleichzeitig nicht auch noch ne Ultra High End CPU drin hat.
[re:1] Link am 04.11. 12:16
+ -
@pcfan: Ja, dann von mir aus 1kW, das war nur schnell über den Daumen gepeilt mit nicht unbedingt der hungrigsten CPU, die man finden kann. ;-)
Aktuelle Netzteile verkraften aber solche kurzen Peaks auch besser als früher.
[re:1] pcfan am 04.11. 12:17
+ -
@Link: Schon, aber die Effizienz und lebensdauer eines Netzteils ist nunmal am besten im bereich um 60 % Last.
[re:2] Link am 04.11. 12:41
+ -
@pcfan: Ja, richtig, nur wird man in "haushaltsüblichen" Anwendungsszenarien eher selten dauerhaft bei 100% Last bzw. Stromaufnahme fahren. Und idlen bei 10% ist dann auch nicht effizient. Aber wie gasagt, das war jetzt nicht genau durchgerechnet, abhängig von restlichen Komponenten und auch von geplanten Nutzungsszenarien (BOINC?) kann alles von 850-1200W im Rahmen des Vernünftigen sein.
[re:3] take1 am 04.11. 12:12
+ -
@Link: die RTX 3070 Ti benötigt laut nVidia min ein. 750w Netzteil. Ansonsten lassen die bei RMAs gar nicht mit sich sprechen, wenn man das nicht nachweist. Ich finds heftig mit so großen NTs und für mich wäre es die maximale Aufbaustufe von Corsair in der SFX reihe. Gehäuse: Lian Li PC-O5S.
[re:1] Link am 04.11. 12:48
+ -
@take1: Eventuell brauchst du eben ein Gehäuse, in welche auch ATX-Netzteile passen. Leistungsstarke Hardware in irgendwelche Mini-Gehäuse zu stecken ist nun mal nicht immer möglich, das ist die gleiche Diskussion wie mit Gehäusen, die keine full-length Karten erlauben.
[o6] Fanta4all am 04.11. 11:14
+4 -
Alle Welt erzählt was von Strom ist teuer und wir müssen sparen.
auf der anderen Seite werden PCs Leistungsfähiger durch noch mehr Stromverbrauch.
Intel mit der 12. Gen die bis zu 240W dauerhaft ziehen dürfen.
Nvidia nun auch noch mit 550W?
Also brauchen Leistungsfähige PCs demnächst 1KW Netzeile.
[re:1] Link am 04.11. 12:11
+ -
@Fanta4all: Was (bei mehr Rechenleistung) weniger ist als so manches Multi-GPU-System von vor paar Jahren, für die es Netzteile mit bis zu 2kW gibt.
[re:2] take1 am 04.11. 12:16
+3 -
@Fanta4all: Demnächst muss das Arbeitszimmer mit min 4mm²-Kabel und 32A abgesichert und verdratet sein. Sonst zahlt gar keine Versicherung mehr im Falle eines Brandes :D

THE WAY IT'S MEANT TO BE PLAYED
[re:1] Fanta4all am 04.11. 12:55
+ -
@take1: Ist ja kein Problem, denächst wird ja jeder Hausbesitzer verpflichtet auf sein Dach eine PV-Anlage drauf zu setzen.
Also ist das nur wegen uns Zockern :)
[o7] happy_dogshit am 04.11. 12:05
+ -1
neuer Paperlaunch
[re:1] pcfan am 04.11. 12:13
+ -
@happy_dogshit: Es wurde noch gar nichts gelauncht.
[re:1] happy_dogshit am 04.11. 12:17
+ -
@pcfan: Aber wenn, dann wird ein Paperlaunch
[re:1] pcfan am 04.11. 12:17
+ -
@happy_dogshit: Möglich, aber in einem Jahr kann auch noch was passieren.
[re:1] DerLars86 am 04.11. 13:39
+ -
@pcfan: und wer glaub dran? also ich glaube nicht an einer ausreichenden Verfügbarkeit zum Start. Man kann mich gerne eines besseren belehren... wir werden sehen
[re:2] pcfan am 04.11. 15:07
+ -
@DerLars86: Es ist wahrscheinlich, aber eben nicht sicher. Daher ist eine definitive Aussage falsch.
[o8] LinuxPast am 04.11. 12:48
+ -3
Meine Grafikkarten: noname VGA, 3dfx Voodoo 1, Geforce 1, ATI 5800XT oder so, Geforce 8800 Ultra, Geforce 680, Geforce 780, GTX 1080, RTX 3090 (aktuell).

Während ich bis zu der Geforce 8800 Ultra noch jedes Mal eine signifikante Steigerung gemerkt habe, weil ich einfach neue Spiele plötzlich gut zocken konnte, so nehme ich ab der 680 wahr, dass dies nicht mehr so ist. Die 780 war ein Musskauf. Ich habe gemerkt, dass der Sprung von 1080 auf 3090 nur wegen Cyberpunk nötig war und weil ich einen neuen 32x9 Bildschirm mit 5k*1.4k Auflösung hab.

Rechne ich das hoch, werde ich wohl vermutlich erst eine 6090 wieder brauchen. Solange keine neuen coolen Games kommen, die die 3090 nicht darstellen kann oder nicht effizient genug ist, oder irgendwelche bahnbrechenden coolen neuen Features, dann muss meine 3090 noch länger aushalten :)
[o9] El_Chicano am 04.11. 13:47
+1 -
hashrate? :)
[10] xenoshin am 04.11. 16:25
+ -
journalisten und community suggerieren hier die höhe des verbrauchs einer chip generation, die als unmittelbare leistung dargstellt wird.. dass der maximale verbrauch nur notfallreserven und maximal last sein könnte, die mit üblicher verwendung unter homecooling leistung niemals erreichbar wird und sonst noch viel sparsamer als vorgänger gen laufen könnte, scheint sich hier niemand zu überlegen..
[11] Windows 10 User am 04.11. 17:24
+ -
Wenn man mal bedenkt, vor geraumer Zeit dienten die Computer nur dazu, Menschen bei komplexen Berechnungen zu unterstützen.... :D
[re:1] xenoshin am 04.11. 18:51
+1 -
@Windows 10 User:

tun sie auch heute noch, mit supercomputer, die sich an leistung und ausstattung jedoch zu unterhaltungselektronik wieder ganz wesentlich unterscheiden
[12] berry13 am 04.11. 19:31
+1 -
Überall wird von Stromsparen, Co2 Fuß usw. gesprochen und dann soll sowas kommen, SORRY irgendwie passt das nicht mehr in die Zeit... Eigentlich sollte es Heißen, mehr Leistung mit deutlich weniger Stromaufnahme..........da soll einer noch Schlau werden...........Sorry für mich der Falsche weg in meinen Augen.
[13] upLinK|noW am 04.11. 19:33
+1 -
Genauso gut hätte der News-Titel lauten können:
1) Nvidia GeForce RTX 4090: Insider rechnet mit enormem Verkaufspreis
2) Nvidia GeForce RTX 4090: Insider rechnet mit Paperlaunch

Läuft faktisch alles auf das selbe hinaus...
[14] opoderoso am 07.11. 19:11
+ -
Einfach nicht mehr mitmachen und fertig. Die Spiele werden eh immer langweiliger und vorhersehbarer. Alles schreit nur noch nach besserer Grafik, an dynamische Inhalte, Physik usw. was wirklich interessant ist und Spiele lebendiger oder weniger generisch wirken lässt das interessiert keine Sau.

Wieso brauche ich 500w Grafikkarten? Wieso brauche ich 500ps E-Autos?

Ich hoffe die Scheiße geht wirklich vor die Hunde.
[15] Synapsis am 07.11. 21:25
+ -
Unbediengt reservieren, die 4090 Unobtanium Edition
[16] PrinzPersia am 11.11. 13:13
+ -
Krass. In Zukunft werden alle Gaming PC genau so viel Strom fressen wie ein Herdplatte.
oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
Desktop-Version anzeigen
Hoch © 2022 WinFuture Impressum Datenschutz Cookies