X
Kommentare zu:

AMD vs. Nvidia:
Radeon RX 7000 mit DisplayPort 2.1 um Meilen voraus

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] Stefan1200 am 14.10. 10:43
+4 -
Mich überrascht die Entscheidung von Nvidia, so ist die RTX 4090 bei den meisten Spielen doch in der Lage mehr als 4k 120 FPS zu schaffen. Ich weiß jetzt allerdings nicht, wie es auf dem Monitor Markt aussieht. Gibt es überhaupt schnellere Monitore mit solch einer Auflösung?
[re:1] jackii am 14.10. 12:26
+2 -1
@Stefan1200: Die meisten sind 144Hz, paar um die 160 und auch 240 wie der Samsung Odyssey.
[re:1] Stefan1200 am 14.10. 13:18
+2 -
@jackii: danke dir für die Info. Dann verstehe ich Nvidia noch weniger. Selbst ohne DLSS würde die RTX 4090 bei den meisten Games in 4k locker einen 144 Hz Monitor am Limit befeuern können, je nach Spiel und CPU sogar mehr. Mag ja sein, dass das noch nicht der Massenmarkt ist (zumal 4k Bildschirme über 120 Hz sicherlich sehr teuer sind), aber der Massenmarkt dürfte die RTX 4090 in seiner Preisklasse auch nicht sein. Und in "weiter Ferne" ist da doch stark übertrieben.
[re:2] Smilleey am 15.10. 07:03
+3 -
@jackii: die meisten kaufen sich keine RTX 4090 für über 2000€. Hab die Karte auch schon für über 3000€ gesehen. Was hat das noch mit Gaming zu tun?
[re:1] divStar am 16.10. 01:53
+ -
@Smilleey: ich hatte mir letztes Jahr im Februar einen neuen Rechnergekauft. Die RTX3090 lag bei 2000€... Ich bin sicher kein Maß, aber es kommt sicher öfter vor.
[re:2] Shavanna am 16.10. 08:34
+ -
@Smilleey: Ich kann diese Zweifel voll verstehen. Es geht letztlich aber auch darum, wieviel Geld man für eine Erweiterung seines PCs aufwenden will. Manche wollen das Beste vom Besten und andere wollen ein gutes Preis-Leistungs-Verhältnis.

Ich selbst spiele noch in FHD und bin damit vollkommen zufrieden. Andere träumen schon von 4k in fps-Klassen, die man vermutlich nicht einmal mit bloßem Auge unterscheiden kann oder 8k, auch wenn ich selbst da bei den Spielen, die ich spiele (wie ONI oder Stellaris), kaum einen Mehrwert von einer sehr guten Grafikkarte sehe. Da wäre allerhöchstens ein neuer CPU fällig :P
[re:2] Jon2050 am 14.10. 14:03
+1 -
@Stefan1200: Ich hab mal ganz oberflächlich ein paar aktuelle UHD/120+ Hz Monitore angeschaut, die scheinen alle nur DP1.4 bzw. 1.4a zu können. Hier liegt NVIDIA also vielleicht richtig, dass es kaum Monitor Unterstützung gibt. Dennoch wäre es natürlich schöner, DP2 schon zu haben, so eine Grafikkarte hat man ja auch ein paar Jahre.

Weiß jemand, wie es mit einer Möglichkeit aussieht, die Unterstützung seitens NVIDIA softwareseitig später nachliefern zu können? Oder ist das ausgeschlossen?
[re:1] MaitreManta am 14.10. 16:21
+1 -
@Jon2050: Ja gut, Monitore mit DP2.0 gibt es nicht, aber was ist das für eine Begründung eine Technik nicht zu verbauen, nur weil es noch nicht den Nutzen hat. Dann könnten Monitorhersteller ja auch damit aufhören neue Techniken zu verbauen, gibt schließlich noch keine Grafikkarten, die dies verbaut haben. Dann kommt man nie voran. Monitore mit DP2.0 werden kommen, zeitgleich sagt NVidia es sei in naher Zukunft noch nicht von Belang. Als würde DP2.0 noch min. 5 Jahre brauchen, um in Monitoren verbaut zu werden.

Das Nachreichen von DP2.0 über ein Softwareupdate ist sehr unwahrscheinlich, da NVidia die Karten wohl nur für 1.4a getestet hat und nicht für die Bandbreite von 2.0. Hätten sie es bereits getestet hätte es keinen Sinn gemacht es nicht direkt zu liefern.
[re:3] der_heinzy am 14.10. 21:58
+ -1
@Stefan1200:

Das ist eine Henne-Ei Problem. Warum sollte man Monitore produzieren, wenn es keine Grafikkarten mit DisplayPort 2.0 respektive 2.1 gibt? Deswegen überlege ich auch nach gefühlt 20 Jahren Nvidia zu Gunsten von AMD genau wegen DisplayPort 2.0 den Rücken zu kehren, weil ich höher auflösende Displays nutzen möchte. 4K auf 27" ist einfach nur für den Pöbel. Ich will mindestens 6k oder 8k auf 32" und mit mehr als 120Hz!
[re:1] Stefan1200 am 15.10. 11:03
+1 -
@der_heinzy: da komme ich mir jetzt ja mit 1440p auf 32" (144 Hz, aber auf 120 Hz per Monitor Einstellungen festgesetzt) wie ein Pöbel vor :D ;)

Ich hätte zwar das Geld, um mir eine 2000 EUR GPU mit fetten Monitor hinzustellen, aber irgendwie versuche ich mein Hobby "zocken" finanziell im gesunden Mittelmaß zu halten. 1440p auf 32" ist zum Arbeiten "geil" genug, und beim Zocken ist es auch wesentlich cooler als meine alten 23" 1080p Bildschirme. Halt irgendwie so in der Mitte des Möglichen (zumindest noch vor einigen Jahren, als ich mich dazu entschieden habe).

Aber ja, die Entscheidung von Nvidia ist dämlich. Wenigstens DP 2.0 hätten die auf Hardware Basis einbauen können. Die Aktivierung hätte dann ja per Treiber im kommenden Jahr sein können, falls da noch irgendwas spannendes getestet werden muss.
[re:1] divStar am 16.10. 01:57
+ -
@Stefan1200: stimmt, so sehe ich das auch. Habe mir letztes Jahr einen neuen Rechner mit RTX3090 geleistet - der wird nun erstmal halten müssen. Trotzdem wäre DP2.0 schon toll, weil selbst die 3090 hin und wieder über 120hz bei 4k schafft und ich einen guten Monitor zu schätzen weiß
[o2] Islander am 14.10. 10:45
Ist ja schön und gut, aber was nützt die Unterstützung solcher Auflösungen, wenn die Grafikkarte viele Generationen davon entfernt ist, diese auch zu stemmen? Ich würde sagen, da haben beide Hersteller versagt. Von wegen Meilen voraus.
[re:1] Stamfy am 14.10. 10:58
+3 -
@Islander: Gerade die 4090 läuft doch sauber in 4k/"5K"? Ich versteh die Frage nicht.
Zumal Hz /= FPS...
[re:1] Islander am 14.10. 11:00
+ -4
@Stamfy: Da war dann wohl doch nicht so klar formuliert. Selbstverständlich meine ich Auflösung in Kombination mit der Bildfrequenz. nVidia könnte es, verzichtet aber auf den Port. AMD kann es nicht, baut den Port aber ein. So war das gemeint.
[re:1] Stamfy am 14.10. 11:02
+1 -
@Islander: Vielleicht kann AMD das ja durchaus schaffen? Bislang gibt es ja nur Gerüchte über RDNA3, aber die meisten davon wirken recht positiv.
[re:2] bigspid am 14.10. 11:45
+6 -
@Islander: AMD kann das locker schaffen. FSR 2.1 ist qualitativ um einiges besser als die erste Version und selbst wenn die 7900XT/7950XT "nur" einen Leistungssprung von 30% macht, sind die Werte schon erreicht. Und es geht ja nicht immer um grafisch sehr anspruchsvolle Spiele wie Cyberpunk 2077. Weniger anspruchsvolle Spiele (wie das meiste Mainstreamzeug) können auch heute schon gut mit >100fps gespielt werden.

Und dann gibts da noch die Fraktion der Spieler denen die Grafik egal ist, die aber möglichst hohe fps möchten. Dass Nvidia bei der 3000er Gen nicht schon auf den neueren Port gegangen ist, war schon peinlich. Die Entscheidung selbst bei der 2022er Generation noch beim uralt DP zu bleiben ist lächerlich. Bei dem Preis wäre das locker drin gewesen.
[re:3] GTX1060User am 15.10. 10:55
+ -1
@Islander: Woher kennst du die Daten der Kommenden RX7000er ? Quelle der Benchmarks? Oder nur Dummes Fanboy gelaber?
[re:1] Islander am 15.10. 14:54
+ -1
@GTX1060User: Was für eine dumme Frage. Ich bin selbstverständlich WinFuture-Leser: https://winfuture.de/news,132411.html
[re:2] GTX1060User am 15.10. 15:45
+ -1
@Islander: Und wo waren ja jetzt die Benchmarks? Gerüchte und Vermutungen sind nix haltbares.
[re:3] Shavanna am 16.10. 08:42
+ -1
@GTX1060User: Jetzt mal ganz ehrlich: In all meinen PCs der letzten 20 Jahre hat eine Nvidia GPU ihren Dienst verrichtet. In der Regel sogar störungsfrei. Ich finde es aber schwachsinnig, wenn man jegliche Hoffnung auf eine gute Alternative von AMD, die anscheinend auch begründet ist, zerreißt und als 'Fanboy-Gelaber' abtut. Wenn ich mir das ansehe, was Nvidia mit der 4000-Generation liefern will, überlege ich es mir wirklich zu AMD zu wechseln. Nvidia ist dekadent geworden und versucht viel zu teure Preise mit viel zu stromhungrigen Grafikkarten durchzudrücken, ohne die Probleme unserer Zeit - wie viel zu teure Stromkosten - zu beachten.
[re:4] GTX1060User am 16.10. 10:52
+ -
@Shavanna: Das mit den Hohen Preisen funktioniert doch nur so gut weil der Kunde dumm genug ist das zu akzeptieren, solange der Kunde Nvidia die Karten aus der Hand reißt als ob es morgen keine mehr gäbe, bleiben die Preise natürlich oben und werden immer weiter nach oben angepasst.

Nochmal, Nvidia, Intel, AMD, etc sind keine Wohlfahrtsorganisationen, sondern gewinnorientierte unternehmen denen gehst du, und allen anderen am arsch vorbei, die Interessieren sich nur für deine Kohle, nur leider begreift das niemand ;-)
[re:5] Shavanna am 16.10. 15:56
+ -
@GTX1060User: Daran zweifele ich nicht. Aber ich habe eine grobe Vorstellung, wie der Wettbewerb in der Wirtschaft läuft, daher gehe ich davon aus, dass es vorteilhaft ist, wenn AMD oder irgenwann vielleicht auch Intel Grafikkarten herstellen, die mit Nvidia konkurrieren können. Und genau DAS erwarte ich bei den neuen AMD-Karten auch.
[re:2] Kondar am 14.10. 12:59
+ -
@Stamfy:
Stimmt. Aber auch abgesehen davon.
a.) es gibt neben DLSS auch AMDs FSR (?). Gibt ein Ordenlichen Schub an FPS.
b.) 4K wird bei uns schon seit der GTX 1080 genuzt.
Nicht jeder zockt COD / Bf oder was auch immer und nicht jedes Spiel profitiert auch von mehr FPS. Wenn man sich mit ~langsammen MP ala World of Warships oder sogar Rundenstrategie zufrieden gibt ist 4K (vorallem wenn man auf die Idee kommt nicht alles auf Ultra-max. zu stellen) ist 4K @ HDR @ ~100Hz schon lange möglich.
Mit der RTX 4090 würde ich sogar eher 5K+ angehen wollen; nur wüste ich hier kein TFT für.
[re:1] nemesis1337 am 14.10. 13:08
+ -
@Kondar: Genau, an meiner 970gtx haengen 4x 4k60 dran (dp1.2 und hdmi 2.0). Und zumindest beim Filme schauen kann man die auch erreichen. Haette also nix gegen mehr. Fuers zocken auf dem Level ist die Graka natuerlich schwer ueberfordert.

Die Grakas muessten nur mal wieder in sinnvolle Preisklassen fallen. Meine 970gtx hat irgendwas um die 300 gekostet 2015/16...
[re:1] droL am 14.10. 22:59
+ -
@nemesis1337: Hab bei ebay ne 3060 für 280€geschossen vor paar monaten. Klar ist nicht Highend. Und meine alte 1050 hab ich für knapp 100€ verkauft. Also so teuer find ich es nicht mehr
[re:2] nemesis1337 am 15.10. 10:19
+ -
@droL: das kannst du gerne nicht teuer finden wenn du eine 2 Jahre alte gebrauchte low end Grafikkarte der 3000er Serie 15% unter uvp ergatterst. Ich finde es aber weiterhin überteuert.
[re:2] Conos am 14.10. 11:02
+2 -
@Islander: die 4090 kann 4k mit über 120fps darstellen. selbst bei höchsten details. natürlich nicht in allen games aber in den competiv games wo man eh die details runterstellt bekommt man damit dann locker 166fps+
[re:1] KarstenS am 14.10. 11:38
+ -
@Conos: Gerendert oder auch auf dem Bildschirm? Um letzteres geht es hier.
[o3] Screenzocker13 am 14.10. 11:46
+5 -
Geht ja nicht nur um 8k und 5,69 Millionen Hertz: aber mit DisplayPort 2.0/2.1 ist halt generell mehr Bandbreite da. Stichwort: Daisychain.
[re:1] davidsung am 14.10. 15:57
+ -
@Screenzocker13: Sehr gutes Argument! Die Monitore per Daisychain zu verbinden und dann nur ein einzelnes Thunderbolt/USB4-Kabel am Notebook zu haben ... unglaublich sexy (wenn es stabil funktioniert)!
[o4] ExtremCooleMaus am 14.10. 12:05
+3 -
Nvidia macht eindeutig die besten Karten und ist zurecht Marktführer.

Dennoch muss man klar sagen, dass es sich hier um geplante Obsoleszenz handelt und sonst nichts.
Die Karte (kann) von der Leistung her einige Jahre genutzt werden, insofern sie nicht kaputt geht, daher muss man sie irgendwie so einschränken, dass die Leute, auch wenn sie in 4-5 Jahren nicht mehr die höchsten Grafikeinstellungen brauchen, einen anderen Grund haben, um sich eine neue Karte zu kaufen. Zb weil man einen zukünftigen Monitor betreiben will, der eine DP 2.1 Verbindung erfordert, um alles raus zu holen.

Ein altes bekanntes Beispiel sind zb die 970er Karten, die offiziell mit 4GB ankamen, aber nur 3,5GB davon "schnell" angebunden waren. Das hat lange keine Probleme gemacht, schon gar nicht auf 1080p. Heutzutage kann man die Karte immer noch für viele Spiele gut nutzen, obwohl sie 2014 auf den Markt kam, selbst für 1440p, zumindest von der reinen GPU Leistung, aber nun machen sich auch die langsamen angebundenen 500mb bemerkt.
[re:1] Kondar am 14.10. 13:07
+ -1
@ExtremCooleMaus:
äh ne.
Die GTX 970 hat zwar nur schnelle 3,5 GB Speicher aber das sind 0,5 GB mehr als die GTX 780 TI.
Die GTX 780 TI war vorher die schnellste Karte.
Wäre so als ob heute die RTX 4070 (ok die RTX 4080 12GB) 28GB Speicher haben müsste... Würde sagen das man damals mit der GTX 970 deutlich besser dastand als heute.
NATÜRLICH war das damals alles andere als cool / fair / toll was NV da abgezogen hatte.
[re:1] ExtremCooleMaus am 14.10. 13:50
+1 -
@Kondar: ???
Ich hab die Karte doch gar nicht mit anderen Karten verglichen, weiß gar nicht wie du auf die 780 ti kommst. Auch wenn sie 0,5GB mehr hat, sobald die Karte diese 0,5GB nutzt, weil der Rest voll ist, kommt es zu spürbaren Leistungsverlust und nachlade Rucklern.

Die 3070 hatte auch nur 8GB, was sicher auch irgendwann zu Problemen führen kann in paar Jahren, aber von den 8GB sind wenigstens alle gleich schnell angebunden und eben nicht nur nur zb 7 von 8GB, womit man dann noch viel früher schon Probleme bekommen würde.

Mit meinem Kommentar ging mir nur um die Praktiken von Nvidia und das sowas immer mal wieder passiert, wie nun mit DP 2.1. Das mit der 970 und dem Speicher, ist mir nur als erstes Beispiel eingefallen. Geplante Obsoleszenz.
[re:1] UKSheep am 14.10. 22:40
+ -
@ExtremCooleMaus: Also ich nutze noch eine GTX 970 und stelle in den jeweiligen Games alles so ein, das ich max 3,5 GB des Speichers nutze... ist ab und an ein wenig gefummel... aber die meisten Spiele kann ich nativ in 1440p zocken... mit FSR auch vieles in 4K... man muss halt ein wenig mit den Einstellungen spielen und meist sieht es sehr gut aus. Wenn man sich mal vergleiche zwischen Low und High in einigen Games anschaut, fallen viele dinge nicht so sehr auf... weswegen man vieles auch in Low spielen kann... ohne das es kacke aussieht.
Dennoch hätte ich gerne eine modernere Grafikkarte... das ich an einem 55 Zoll 4K Gerät sitze... ;)
[o5] cooltekki am 15.10. 12:18
+ -
Die wenigsten Monitore haben den richtigen DP 2.1 und wenn die Graka das auch wirklich unterstützt wäre es toll.
[o6] Texer am 15.10. 12:46
+ -4
Naja, Monitore ala 4k ala 120Hz und bestenfalls OLED sind noch nicht verfügbar. Heißt wohl für AMD, am Ziel vorbeigeschossen. Warten wir noch 1? 2? Jahre, dann sind die Anzeiger evtl. verfügbar, aber nVidia wird dann wieder mit dem passenden Schritt aufwarten.

AMD wirkt wie nen kleines Kind, Weitsicht fehlt.
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2023 WinFuture