X
Kommentare zu:

Nvidia GeForce RTX 3080: Erste Tests belegen hohe Raytracing-Power

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] bigspid am 16.09. 21:03
+4 -
Also entgegen der im Vorfeld so stark propagierten 60-80% Mehrleistung. Insgesamt scheint die Karte schon ein ein guter Deal zu sein, aber bei dem Stromverbrauch wär mir das schon etwas zu viel. Schade dass Nvidia von der einstigen sehr effizienten Bauweise abgerückt ist und sich die rohe Leistung über den sehr hohen Stromverbrauch erkauft. Das war eigentlich immer der Minuspunkt von AMD. Jetzt mal noch abwarten was die Konkurrenz bringt und ob sie die Werte auch erreichen kann.
[re:1] ger_brian am 16.09. 22:35
+1 -
@bigspid: What? Man hat doch genau von 60-80% mehrleistung gegenüber der RTX2080 gesprochen. Und laut dem Computerbase testparkour schafft sie 64% im Durchschnitt. Das ist doch genau wie erwartet.
[re:1] bigspid am 16.09. 22:54
+ -2
@ger_brian: Ich beziehe mich auf die Vergleiche von DF und Co. Es war immer von der Ti dabei die Rede. Ist ja auch egal, die Karte ist schnell, verbraucht sehr viel und die Konkurrenz hätte theoretisch eine Lücke, in der sie sich positionieren kann. Mal schauen ob es AMD auch schafft. Von Intel erwarte ich da eher nicht viel, auch wenn sie von "High-End Gaming" GraKas für nächstes Jahr sprechen.
[re:1] ger_brian am 17.09. 09:21
+1 -
@bigspid: Nein, auch das erste Video von DF war ein Vergleich mit der 2080. Warum glaubt jeder, dass das die TI war?
[re:2] Kennbo am 17.09. 11:00
+2 -
@bigspid: Auch mal den ausführlichen Test z.B. von Computerbase gelesen? Ja die Karte zieht viel, ist aber von Nvidia ans Limit gefahren worden. Undervolting kann hier von Interesse sein, denn z.B. auf 280W limitiert sinkt die Leistung nur leicht.
[re:1] bigspid am 17.09. 11:05
+ -1
@Kennbo: joa mag sein, aber die Zeiten in denen ich an der Hardware rumtune sind vorbei ;) ist auch eine Garantiefrage.

Ich warte lieber bis das passende Produkt angeboten wird. Sooo eilig hab ichs nicht.
[re:2] DerLars86 am 17.09. 14:15
+1 -
@bigspid: Das mit dem Strom stimmt so nicht ganz da du die Karte ja nicht zu 100% auslastest. Dafür gibt es mittlerweile auch tests zu der 3080 das die in Vielen Spielen Weniger Strom verbraucht als eine 2080 ti
[re:1] bigspid am 17.09. 14:53
+1 -
@DerLars86: Ja das stimmt, aber die 2080Ti war auch schon keine besonders effiziente Karte :D
Meine 1080 OC liegt bei einer TDP von 180W, DAS ist Effizienz. Eine GraKa die jenseits der 200W liegt, ist schon eine mit hohem Verbrach...wir sprechen hier sogar noch von mehr als 300W! Für mich persönlich ist das zu viel.
[re:1] DerLars86 am 18.09. 14:23
+ -
@bigspid: Gut dafür muss aber auch die Leistung mit berechnet werden. Da du mit der 1080 bei z.B. Warzone gerade mal 80 FPS Schaffst wenn überhaupt (WQHD) Ich habe mit meiner 1080ti Schwankungen von 40-110 fps in dem Spiel. Wenn ich jetzt mit der 3080 konstante 144 oder 165 FPS hinbekomme, die karte dabei aber nicht wirklich ausgelastet ist wird sie Weniger an Strom Verbrauchen. Da Sie für den eigentlichen Standard derzeit also WQHD in 144 hz nicht voll ausgelastet ist. Schau dir mal den Test auf Igors Lab auf Youtube an. Du wirst verwundert sein wie Effizient die ist.
[re:1] bigspid am 18.09. 14:45
+ -
@DerLars86: Ja wird ich machen. Auf den Test hat mich ein Kollege heute auch hingewiesen.

Nichtsdestotrotz spiele ich auf einem 4k Beamer und reize meine Geräte entsprechend aus. Zwar nur in HDMI 2.0b Spec (4k@60fps), aber spätestens an der VR Brille kommt der PC ins Schwitzen.

Ich warte trotzdem noch auf Testberichte und Vergleiche zwischen AMD und Nvidia, und da ich sowieso erst nächstes Jahr aufrüste, vermutlich auch auf Testberichte der 3080 Ti :D
[re:2] DerLars86 am 22.09. 11:11
+ -
@bigspid: Ich denke da werden wir nicht lange drauf warten müssen. Ich gehe davon aus, dass Nvidia spätestens kurz nach dem AMD Event die Karten in die (LEAK) Phase eingeleitet wird. :D Ich denke wir werden noch dieses Jahr genügend infos bekommen. Eine 3090 Erweiterung wird wohl dann im Jahresanfang erwartet werden können. Ich warte auch Definitiv auf eine Ti Variante mit mindestens 16 bis 20 Gb. Da die derzeitige 10 GB im laufe des nächsten, spätestens aber übernächstes Jahr zu wenig sein wird.
[re:3] bigspid am 22.09. 11:54
+ -
@DerLars86: Nachdem die Leistung der 3090 ja jetzt nicht so pralle ausfällt, könnt ich mir gut vorstellen, dass die Ti Vorstellung doch etwas länger auf sich warten lassen wird. Vermutlich wird sie auch bei der gleichen Leistung liegen, nur mehr Speicher bieten. Anders kann Nvidia die Karte auch nicht positionieren, da sonst die 3090 für die Leistung völlig überteuert ist.
[re:4] DerLars86 am 22.09. 13:06
+ -
@bigspid: Ich kann nur hoffen, dass Nvidia daran gedacht hat und noch eine Lösung bzw. einen richtigen Klopper in der Hinterhand hat. Wie eine 3090 Ti die dann wirklich alles derzeitige Rasiert.
[re:5] bigspid am 22.09. 13:32
+ -
@DerLars86: Glaub ich nicht, da die 3090 den Vollausbau des Chips darstellt. Dh mit der Architektur ist nicht mehr möglich. Sie können nur noch über Peripherie wie den Speicher etc. anpassen. Höchstens mit einem genialen Kühlkonzept könnten sie mit gesteigertem Takt dienLeistung erhöhen. Aber dann liegt die Karte irgendwo bei 400W :D
[re:6] DerLars86 am 22.09. 14:32
+1 -
@bigspid: Kein Problem. :D Kannst ja dann die Heizkosten senken :D
[o2] mgfirewater am 16.09. 21:07
+1 -
Ich warte noch bis die Varianten mit doppeltem Speicherausbau kommen. Vermeer ist für mich derzeit viel interessanter um meinen 6600k in Rente zu schicken.
[o3] Schildbrecher am 17.09. 03:15
+ -1
Bin enttäuscht, dass in der FE so ein Lappenspeicher von Micron verbaut ist. Computerbase hatte geschrieben, dass OC so gut wie gar nicht möglich ist.
Dabei ist die 2080 Ti ein OC-Wunder und man kann problem +1000 auf den Speicher knallen...
[re:1] Shadi am 17.09. 07:17
+1 -
@Schildbrecher: Bei der Karte mach OC aber auch keinen Sinn. CB hatte testweise das Powertarget mal abgesenkt (auf 270w) mit dem Ergebnis, das man gerade einmal 5% Leistung verliert im Schnitt, dafür aber einen stark gesenkten Verbrauch hat.

Die Karten sind also eher dafür predistiniert den Stromhunger zu begrenzen anstatt ihn weiter in die Höhe zu treiben (was laut CB nun mal so gut wie nichts bringt).

Außerdem hast du da falsch gelesen: Der Micron Speicher lies sich im Test um 1251MHz übertakten und damit letztlich genauso gut wie die 2080 TI. Einzig der Chip lässt praktisch kein OC zu...aber das ist, wie gesagt, auch unnötig.
[re:1] Schildbrecher am 17.09. 09:09
+ -
@Shadi: hast Recht, habe den Test nur überflogen, da zu wenig Leistung von einer 2080 Ti.
Aber eine 2080 Ti verbraucht 0 Watt mehr, wenn du den Speicher um +1000 erhöhst.
Hatte ich selbst nachgemessen.

Dazu habe ich die GPU um 100mv gesenkt auf 0.944v -> läuft mit 1900 MHz und spart 40w (30-50 je nach Anwendung).

Dennoch hoffe ich, dass bei der 3090 mehr geht...
[o4] softwarejunkie am 17.09. 07:55
+ -
Das beste Preis- Leistungsverhältnis wird wahrscheinlich die RTX 3070TI mit 16GB VRAM bieten, wenn sie denn tatsächlich so rauskommt wie Lenovo prophezeit.
[o5] shawn777 am 17.09. 10:55
+1 -1
Da warte ich lieber auf die 4080, und wenn die erscheint, warte ich auf die 5080.
[re:1] bigspid am 18.09. 14:46
+ -1
@shawn777: Geheimtipp, nur 6 Monate später kommt die 5080 Ti, wobei dann der Preis der 3070 auf 200€ sinkt ;)
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2023 WinFuture