Nvidia stellt GeForce RTX 3000-Serie mit brachialer Leistung vor

[o1] lalanunu am 01.09. 23:14
+5 -1
Wow.. wenn man ersten Test glaubt, ist die 3080 im Schnitt 70% schneller als eine 2080.

Eigentlich wollte ich auf AMD warten, aber da Nvidia die Preisgestaltung unerwartet "Kundenfreundlich" gemacht hat, komm ich schon ins grübeln meine 1080 mit einer 3080 zu ersetzen. AMD könntet ihr euch bitte beeilen ;)

2080TI Leistung für ca. 500€... damit hat sicher keiner gerechnet. Schade für alle die sich vor kurzem eine neue Grafikkarte gekauft haben.
[re:1] Black._.Sheep am 01.09. 23:24
+ -
@lalanunu: Jap, habe mir erst vor kurzem einen Rechner komplett neu mit einer 2060 zusammengestellt, weil ich dachte wenn die neuen Karten kommen, sind die so teuer das ich mir die eh erst in zwei Jahren oder so leiste.

Aber jetzt diese Preisansage, schon krass
[re:2] xxMSIxx am 01.09. 23:29
+1 -2
@lalanunu: naja wer sich vor kurzem eine neue Grafikkarte gekauft hat, ist auch ein bisschen selber Schuld. Immer auf die neue Generation warten. Auch wenn man nicht die neue Generation will oder braucht, wird die alte günstiger.
[re:1] NewRaven am 01.09. 23:53
+1 -1
@xxMSIxx: Oder schnell vom Markt genommen bevor der Preis sinken kann. Ich weiß nicht, wie es jetzt bei den 20xxer Karten ist, aber bei den 1070er Karten hattest du nach Release der 2070 bestenfalls nur noch ein winziges Zeitfenster, um da ein "Schnäppchen" zu machen - das auch nicht so Schnäppchenhaft war, wie man meinen sollte. Die Alternative ist hier natürlich der Gebrauchtmarkt, der hat dann natürlich vermehrt solche Karten.
[re:3] dpazra am 02.09. 07:48
+7 -1
@lalanunu: "Schnitt 70% schneller wie eine 2080." Es heißt "schneller ALS".
[re:1] lalanunu am 02.09. 09:10
+ -1
@dpazra: ich dachte beim Vergleichen wird wie genommen, aber du hast Recht, es muss ein als hin. Habs korrigiert.
[re:1] cvzone am 02.09. 14:55
+ -
@lalanunu: Stimmt auch, aber bei Vergleichen zweier ungleichen Sachen "als", bei gleichen "wie". (Die gleiche Farbe wie mein Haus / Eine andere Farbe als mein Haus)
[re:2] taiskorgon am 02.09. 09:17
+ -
@dpazra: Auch falsch, es heißt "schneller als"
[re:3] wunidso am 02.09. 10:34
+ -
@dpazra: Im süddeutschen Raum ist das grammatikalisch falsche "wie" im Sprachgebrauch üblich. Obwohl ich das genau weiss, mach ich es doch immer wieder falsch und merke es erst hinterher. Verständlich ist es trotzdem.
[o2] Tiranon am 01.09. 23:51
+1 -
passt eine PCI Express 4.0-Grafikkarte in PCI Express 3.0?
[re:1] NewRaven am 01.09. 23:54
+ -
@Tiranon: ja, hat dann natürlich nicht die theoretisch maximale Bandbreite zur Verfügung.
[re:1] Tiranon am 01.09. 23:55
+1 -
@NewRaven: ok und die PCI-Express-Version gibt das Mainboard vor?
[re:1] NewRaven am 02.09. 00:03
+3 -
@Tiranon: Genau... wobei meines Wissens nach - derzeit ausschließlich AMDs AM4 Chipsätze ab b550 (also b550 und b570) PCIe 4.0 unterstützen.
[re:1] DerLars86 am 02.09. 12:49
+ -
@NewRaven: Genau das habe ich mir auch gedacht. Habe dazu aber widersprüchliche aussagen gesehen. Zum einen das die karte zu 98/99% genutzt werden kann mit aktuellen Intel PCIe 3.0. Andere sagen, dass die Karte extrem eingeschränkt wird. Ich selber bin auch am überlegen. Ich habe ein ASUS ROG Maximus XI Hero mit PCIe 3.0 soweit ich weiß und bin hin und her gerissen.
[re:2] NewRaven am 02.09. 18:11
+ -
@DerLars86: Also ich persönlich glaube, dass sich in der Praxis dadurch kaum spürbare Einschnitte bemerkbar machen. Allerdings müssen das am Ende Praxistests der Karten zeigen. Bei einer M.2 SSD ist, wenn man da eine 4.0er an einem PCIe Port mit 3.0er Anbindung betreibt vermutlich die Beschränkung viel höher. Aber bei einer Grafikkarte? Ich wills jetzt bei der 3090, wenn sie vielleicht tatsächlich in 8K betrieben wird, natürlich nicht ausschließen, aber so "vom Gefühl her" erscheint mir da erstmal ein extrem einschränkender Flaschenhals eher unwahrscheinlich.
[re:2] kadda67 am 02.09. 13:04
+ -
@Tiranon: CPU und Mainboard. Momentan unterstützen nur AMD Prozessoren PCIe4.0 im Zusammenhang mit dem X570 und B550 Chipsatz.
[o3] happy_dogshit am 02.09. 00:26
+ -5
1500 EUR... Alles klar
Aber mal schauen was AMD jetzt liefert. Hoffentlich wird BigNavi nicht eine ganz so große Lachnummer.
[re:1] DON666 am 02.09. 07:45
+1 -
@happy_dogshit: 1500 für das fetteste Modell.
[re:2] bigspid am 02.09. 08:44
+3 -1
@happy_dogshit: 1.500€ für den Nachfolger der rpofessionellen Karte Titan, die vorher >2.500€ gekostet hat. Die ist nicht für den heimischen PC zum Zocken gedacht. Wer die sich trotzdem holt, kauft sich auch professionelles und entsprechend teures Werkzeug, nur um Bilder daheim aufzuhängen :D
[re:1] fatherswatch am 02.09. 11:09
+ -
@bigspid: Kann man mmn. nicht ganz mit einer Titan vergleichen da die Titan bisher immer den Vollausbau dargestellt hat und die 3090 das eben nicht ist.
[re:1] bigspid am 02.09. 12:08
+ -
@fatherswatch: Quelle? Ich hatte das nämlich so verstanden + Extraspeicher.
[re:2] floerido am 02.09. 14:13
+1 -
@fatherswatch: Was fehlt bei der 3090 zum Vollausbau? Man hat der Titan jetzt einfach eine Nummer verpasst, damit auch Laien die Hierarchie besser verstehen.
[o4] bebe1231 am 02.09. 04:22
+3 -
Also ich warte erstmal auf ein paar Tests. Die können bei so einer Präsentation das blaue vom Himmel erzählen.
[re:1] Sl!mo am 02.09. 07:49
+2 -
@bebe1231: Nvidia hat da allerdings im Gegensatz zu Team Rot bis jetzt immer geliefert und nicht nur Kirschen gepickt.Einzig die 10k Cuda Kerne machen mich grübelnd bei der 3090.Das will ich erst glauben wenn ich die Benchs sehe.
Jetzt noch ne 3080 mit 20 GB Vram....ein Traum.Mal gespannt was meine 2080Ti noch real an Wert hat dann...xD
[re:1] ThreeM am 02.09. 09:39
+1 -
@Sl!mo: Deine (und meine) würden mit der Präsentation gestern auf unter 400Eur gedrückt. Das ist schon bitter ^^
[re:1] Sl!mo am 02.09. 10:29
+ -
@ThreeM: Ganz so pessimistisch bin ich nicht,ich schätze mit Wasserkühler und Backplate werden die bei etwa 650 landen.Möglicherweise langen da eher Miner dann zu,ältere Spiele ohne DLSS und RT werden, so schätze ich, noch ein gutes Stück schneller sein auf der 2080Ti als auf der 3070.Müssen halt mal abwarten, mal gucken was BN so bringt und eben der Speicherausbau bei der 3080.Sofern die 3090 aber auch ohne DLSS und RT dermaßen auftrumpft wie im DF Video....,dann werde ich ohne zu zögern ne 3090 kaufen.
[re:1] ThreeM am 02.09. 11:52
+ -
@Sl!mo: Die 3070 schlägt die 2080Ti bereits in jeder Disziplin, egal ob RT oder nicht. Und die soll halt eben 499$ kosten. Da bleibt wenig Luft für einen Mehrpreis (Bis auf den Speicherausbau). Auf der Habenseite der 3070 sind: Gleiche Leistung, geringere Lautstärke, volle Garantie. Da kann die 2080Ti nicht mehr viel bieten um Gebraucht attraktiv zu sein. Dazu kommt, das es wohl noch Ti Varianten der 3000 Serie kommen werden. Bei Ebay Kleinanzeigen gibt es bereits erste Modelle der 2080Ti um die 400Eur rum :(
[re:2] bigspid am 02.09. 12:10
+1 -
@Sl!mo: Um "Team Red" etwas in Schutz zu nehmen, die können nichts dafür, dass die Leaks in den letzten Jahren immer das Blaue vom Himmel versprochen haben. Da sollte man schon fair bleiben und die offiziellen Aussagen berücksichtigen. Dieses Jahr ist das erste Mal seit Langem, dass AMD selbst was für das High-End Segment liefern will. Wer blind kauft, ohne noch die Vergleichstests abzuwarten, ist eh selber Schuld.
[o5] pcfan am 02.09. 06:45
+1 -
Was so ein bisschen Konkurrenz von Amd am Ende doch bewirken kann.

Wobei 350 Watt schon auch ne Hausnummer sind für ne Grafikkarte.

Mein ganzer PC mit ner 1070 und nem i5 8600k braucht etwa so viel...
[re:1] bigspid am 02.09. 08:52
+1 -3
@pcfan: Warum überlesen das so viele? Das ist der Nachfolger der Titan RTX, die für professionelle Anwendungen konzipiert ist. Die dient innerster Linie dazu grafikintensive Programme zu befeuern, die zum Arbeiten verwendet werden. Natürlich kann man die sich auch für den heimischen Rechner kaufen, das wäre dann aber so, wie sich zuhause eine Küche mit riesigen Töpfen und 25 Herdplatten zu leisten.

Deswegen wird die RTX 3080 auch explizit als Flaggschiff bezeichnet.
[re:1] wunidso am 02.09. 10:38
+ -
@bigspid: Die 3080 liegt mit 320W ja kaum darunter und damit immer noch deutlich über der Vorgängergeneration. Finde ich jetzt auch nicht so toll, aber da ich die wegen VR haben möchte...
[re:2] James8349 am 02.09. 13:26
+2 -
@bigspid: Die Titan RTX ist nicht für professionelle Anwendungen konzipiert. Das ist die Highest End Gaming Card gewesen. Die Quadros sind NVIDIAs Profi-Karten.
[re:1] bigspid am 02.09. 13:33
+ -
@James8349: Die Wahrheit liegt irgendwo dazwischen ;)

" Die NVIDIA Titan RTX ist in erster Linie eine Grafikkarte für semi-professionelle Content-Creator und das Bindeglied zwischen den Gaming- und professionellen Workstation-Grafikkarten von NVIDIA. Auch wenn sie offiziell keine "GeForce"-Gaming-Grafikkarte ist, bietet die NVIDIA Titan RTX aber dennoch eine großartige Spiele-Performance."
[re:1] floerido am 02.09. 14:16
+ -
@bigspid: Also für Pro Gamer die in maximalen Details streamen wollen.
[re:2] bigspid am 02.09. 14:27
+ -
@floerido: Ich kenne einen Streamer der das semiprofessionell macht, aber bei dem steht jetzt eher der Kauf eines Ryzen 9 an, da die Aufnahme und das Streamen von der CPU berechnet wird. Daher auch die Extra-Kerne. Ich kann das aber selbst nicht beurteilen, was da mehr Sinn macht. Die Titan-Karten hatten wir immer an der Uni in den CAD PCs verbaut und den Simulations-Rechnern. Da waren die Quadro Workstations schon überdimensioniert/zu teuer, aber die Titan hat genau das Segment beliefert.
[re:3] floerido am 02.09. 15:02
+ -
@bigspid: Die Titan hat u.a. mehr Tensorkerne für das schnelle Kodieren eines Livestreams.
[re:4] bigspid am 02.09. 16:04
+ -
@floerido: stimmt, hab das vorhin mal nachgelesen. Joa wird für den normalen Gamer eher uninteressant sein vom P/L Verhältnis.
[re:3] pcfan am 02.09. 14:06
+1 -
@bigspid: Die Titan RTX liegt bei einer TDP von 280 Watt.

70 Watt mehr mit einer neuen Generation sind schon saftig.
Und die 3080 braucht damit MEHR Strom als die titan RTX. Ganze 40 Watt mehr.

Meine Vermutung ist, dass das anfangs anders geplant war mit 7nm Process von TSMC.
Da es aber damit Probleme gab (AMD hat das meiste davon wohl gekauft^^) mussten die auf 8nm Samsung ausweichen und das ist nciht so effizient.

Daher nun mehr Stromverbrauch und die mörder Kühlung.

Kann sein, dass es dann in 1-2 Jahren ne Revision gibt, die das dann verbessert, sobald genug von den 7nm Chips lieferbar sind.
[re:1] bigspid am 02.09. 14:32
+ -
@pcfan: Ja klingt plausibel. Der Verbrauch ist schon eine Hausnummer, genau aus dem Grund, den du auch ansprichst: die Kühlung. Auch wenn diese Gen günstiger ist als erwartet, sind 700€ immer noch verdammt viel Geld. Meine teuerste GraKa war die GTX1080 für 430€ und viel mehr bin ich auch nicht bereit auszugeben. Und dann will ich aber auch eine langlebige Karte, die nicht übermäßig laut wird und nochmal so viel an Stromkosten verursacht. Viele wehren das nur ab mit "ach die paar Euro im Jahr", aber entweder nutzen sie den PC dann nur selten, oder haben nicht rechnen gelernt :D
[o6] ger_brian am 02.09. 08:23
+ -1
wenn die Benchmarks stimmen wird es wohl eine 3090, ich freue mich :)
[re:1] pcfan am 02.09. 13:52
+ -
@ger_brian: Und nicht vergessen ein neues Netzteil mit Spezialstecker noch dazu. Unbedingt ins Budget mit einplanen.
[re:1] floerido am 02.09. 14:17
+ -
@pcfan: Adapter liegt bei und in der Preisklasse wird fast jeder ein modulares Netzteil haben und kann somit die Kabel tauschen.
[re:1] ger_brian am 02.09. 16:12
+ -
@floerido: Genau :) Das ist das kleinste Problem.
[o7] Niclas am 02.09. 08:44
+ -
Das ist doch mal 'ne Ansage. Ich überlegte als eine 2070 anzuschaffen, aber das hat sich mit den angekündigten Preisen wohl erledigt. Dann wird's eine 3070. Vor allem, weil die Hersteller vielleicht noch ein paar Euro unter der UVP liegen.
[o8] P-A-O am 02.09. 08:48
+1 -
Wow, hätte ich nicht damit gerechnet. Dass die 3090 in der Preisregion und drüber zu finden ist war klar, die 80er ist, entsprechend der Leistung vergleichsweise "günstig".
Ich wollte auf AMD warten weil ich einen FreeSync Monitor besitze aber wenn die nichts bis zur Verfügbarkeit zeigen dann wird es bei mir eine 3080 werden. Das mich Nvidia mal positiv überrascht....hab ich jetzt auch nicht wirklich erwartet.
[re:1] Conos am 02.09. 08:56
+1 -
@P-A-O: gsync funktioniert ja auch mit den meisten freesync monitoren. meiner kann angeblich auch nur freesync. klappt aber auch mit der nvidia
[re:1] P-A-O am 02.09. 09:11
+ -
@Conos: meiner ist da leider ziemlich wählerisch aber das macht nichts. Funktioniert auch ohne.
[o9] FatEric am 02.09. 09:12
+1 -
Was das wohl für die Xbox und PS5 bedeutet? Bisher war es ja so, dass die jeweiligen Konsolen zum Start den PC in Sachen Grafik meist überboten haben. Stelle ich mir jetzt mit einer 3080 schwer vor. Von der 3090 brauchen wir nicht reden.
[re:1] bigspid am 02.09. 09:43
+2 -2
@FatEric: Das ändert nichts, da die Konsolen trotzdem "den Ton angeben". Dh bis zu der Leistung die über Konsolen geboten wird, optimieren die Studios typischerweise. Alles darüber wird meist über rohe Rechenleistung gestemmt. Dh kaum ein Multiplattform Spiel wird eine Engine mitbringen, die die 3080 sinnvoll ausreizt. Die sichtbaren Änderungen zu den Konsolen wird sich in Grenzen halten. War ja bisher auch so, beim Direktvergleich findet sich was, mehr fps und das wars.

Wer mit mehr als 60fps spielen will oder eine neue VR Brille nutzt, für den lohnt sich der Kauf in jedem Fall! Für mich sind die neuen GraKas erst dann interessant, wenn ich eine neue VR Brille kaufen sollte. Der PC hängt sonst über einen Receiver am Beamer. Sowohl Receiver als auch Beamer haben nur HDMI2.0b Ports, mehr als 4k@60fps geht da sowieso nicht durch. Es sind auch nicht wenige Haushalte die davon betroffen sind. Ist zwar schön und gut wenn der PC mir die Spiele in 4k@200 fps berechnet, hilft mir aber am Ende nichts.

Neue GraKa alleine ist eben nicht alles, auch was die SSDs der neuen Konsolen angeht, kommen wir erst in 1-2 Jahren am PC in den Genuss. Das Gesamtpaket der Next Gen stimmt diesmal einfach. Dass sie für 500€ nicht mehr rohe Rechenleistung als ein 2.000€ PC mitbringen, ist ja auch klar. Aber ein 1.000€ PC wird locker geschlagen.
[10] bigspid am 02.09. 09:12
+1 -1
Das Ergebnis der präsentation hat mich positiv überrascht! Nach den Apothekenpreisen der RTX20xx hat Nvidia bei AMD so viel Konkurrenz gewittert, dass wieder "normale" Preise angeboten werden, find ich toll!

jetzt noch schauen was AMD bietet und wie die Karten tatsächlich abschneiden. Ich traue keinem Benchmark im Stil von "doppelt so schnell, getestet in diesen Spielen bei hohen Einstellungen". Hohe Einstellungen wären auch wenn alles auf Hoch/Max steht, die Schatten aber abgeschaltet werden. Solche "Tricks" lässt nie ein Hersteller aus. Ich freue mich auf die unabhängigen Tests, und wenns so läuft wie bei der GTX1080, auf die Ankündigung der 3080 Ti in 2-3 Monaten :D

Ich warte in jedem Fall mit dem Kauf bis März nächsten Jahres. Die RTX20xx Karten erster Generation hatten ja auch ihre Macken.
[re:1] floerido am 02.09. 14:19
+1 -
@bigspid: Die Konkurrenz sind hier eher die neuen Konsolen, deshalb ist der Einstiegspreis für die 3070 auch relativ niedrig und der Starttermin passt auch.
[re:1] bigspid am 02.09. 14:23
+ -
@floerido: Eher nicht, wir sind dann immer noch bei den etwa doppelt so hohen Kosten, auch mit den neuen Karten. Ich tippe stark auf AMD und dass Nvidia verstanden hat, dass die Hardware der neuen Konsolen zeigt, dass diesmal tatsächlich was konkurrenzfähiges bei den Oberklassemodellen kommen kann. Aber wir können uns das Spekulieren ja einfach sparen und noch ein wenig warten, bis die Präsentation von AMD war :)
[11] MiezMau am 02.09. 10:45
+ -
Fehler im Text? Dollarpreise für das Topmodell und Europreise für die übrigen? Sind es nun Dollar oder Euro?
[re:1] Breaker am 02.09. 11:10
+1 -
@MiezMau: Danke für deinen Hinweis - es sind Euro, da hat der Redakteur einen Vertippsler reingebracht :)
[re:1] ThreeM am 02.09. 11:53
+ -
@Breaker: Woher kommen die Europreise? Aus der Präsentation gestern wurde von Dollar gesprochen. Diese sind ohne mwst. Mich wundert das der Europreis gleich sein soll und hier in der Regel Preise MIT MwSt angegeben wird.
[re:1] Breaker am 02.09. 11:59
+1 -
@ThreeM: Die kommen von der deutschen Nvidia-Seite, https://www.nvidia.com/de-de/geforce/graphics-cards/30-series/, (fast) ganz runterscrollen.
[re:1] ThreeM am 02.09. 17:31
+ -
@Breaker: Ahh nice! Dann wird das 1:1 einfach umgerechnet. Good Guy Nvidia :)

Danke für die Quelle!
[12] Smilleey am 02.09. 17:09
+ -
Um das doppelte? Über Rohleistung weiß man gar nichts und hat nichts gesehen. Nur viel Marketing Geschwätz. Unabhängige Tests werden uns erleuchten.
oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
Desktop-Version anzeigen
Hoch © 2023 WinFuture Impressum Datenschutz Cookies