X
Kommentare zu:

PlayStation 5:
Grafikchip von AMD lässt auf viel Leistung hoffen

oder

Zugangsdaten vergessen?

Jetzt kostenlos Registrieren!
[o1] cvzone am 22.03. 11:02
Leider wird dann vermutlich nur wieder die Leistung in der werbewirksamen nativen 4K Auflösung verheizt, sodass am Ende wieder nur 30 FPS bei mittleren Details für AAA Spiele dabei rumkommen.
[re:1] bigspid am 22.03. 11:09
+4 -7
@cvzone: Das Problem bei der Auflösung von 4k ist weniger die rohe Rechenleistung, sondern viel mehr die bisher fehlende Optimierung der Grafikengines auf die hohe Auflösung. Bei FullHD waren die Engines mittlerweile schon so stark optimiert, dass mit vergleichsweise geringem Rechenaufwand die Auflösung mit hoher fps gewährleistet werden konnte. Ohne Optimierungen die Auflösungen hoch schrauben zehrt enorm an der Rechenleistung. zB muss nicht jedes decal oder spray mit 4k berechnet werden. Deutlich niedrigere Auflösungen für einzelne Effekte, die nur klein auf dem Bildschirm dargestellt werden, sind auch schon zielführend und sparen Leistung. Mit den aktuellen Versionen der Unreal Engine, Unity oder auch CryEngine (siehe letztes Raytracing Video) ist schon ein großer Schritt in die Richtung getan. Ich bin schon sehr gespannt auf die E3 ;)
[re:1] smart- am 22.03. 13:46
+2 -5
@bigspid:
Bitte nicht über etwas diskutieren, von dem man scheinbar wenig Praxiswissen hat.
Rein auf die Auflösung bezogen ist es abenteuerlich davon zu sprechen 4k sei weniger optimiert als FullHD
Dir ist schon klar, was der technische Unterschied ist? Es werden exakt so und so viel Pixel mehr oder weniger berechnet, sonst gar nichts...
Es ist eher so, dass du andere Settings aktuell massiv runter drehen musst, da 4k eben massiv mehr Performance frisst und andersrum.
Das hat mit optimiert nichts zu tun, jedenfalls nicht mit der Auflösung.

Alte Games werden so oder so irgendwann nicht mehr optimiert auf neue Grakkas, sprich es gibt dann eben keine aktuelle Hardware die das Maximum in alten Games erreichen kann, aber das ist kein Problem der Auflösung für sich, sondern wie du selber schreibst an der Engine und wie das Game programmiert ist. Da gibt es einige Dinge die dann einfach nicht mehr gut laufen.
[re:1] bigspid am 22.03. 16:54
+1 -
@smart-: Ich spreche nicht von Optimierungen auf einzelne Grafikkarten, sondern über die Art wie das Gesamtbild aus den einzelnen Komponenten zusammengefügt und gerendert wird. Jede Rauchwolke, jeder Schatten etc. wird einzeln berechnet und am Schluss in das Gesamtbild zusammengefügt. Dass aber nicht jede kleine Rauchwolke eine 4k Berechnung benötigt, ist klar. Wenn du nur stupide die Ausgangsauflösung hoch schraubst, ohne die entsprechenden Zwischenberechnungen anzupassen, ist das einfach sehr leistungsintensiv. Ich bin kein Experte in Sachen Grafikberechnungen, hab aber einiges dazu gelesen, was u.A. in der Unreal Engine 4 oder Snowdrop eingesetzt wird. Da wird auch explizit diese Thematik angesprochen.

Du beziehst die Optimierungen einer Grafikengine auf einzelne Komponenten und deren nativen Rechenoperationen. Das wird schon lang nicht mehr gemacht. Die einzigen Optimierungen die es hier noch gibt, sind in Richtung größere Libs, wie DirectX und Co. Da ist auch der Vorteil der Konsolen flöten gegangen, seit dort nur angepasste Desktopkomponenten im Einsatz sind.
[re:1] Menschenhasser am 24.03. 10:35
+2 -
@bigspid: Das was du ansprichst ist doch schon immer so. Diese Optimierung gibt es schon so lange wie es Computer gibt und wurden bis heute immer wieder verfeinert.
[re:2] smart- am 22.04. 22:18
+ -
@bigspid: aha, dann spiel mal mit der selben Hardwareleistung der Konsolen auf deinem PC. Abenteuerlich zu behaupten, es hätte keine gravierenden Vorteile auf eine einzige Plattform zu optimieren. Diese sind gravierend und werden es auch immer bleiben. Aktuelle Grafikkarten werden nicht annähernd so genutzt, wie es technisch möglich wäre.
Und was du sonst so meinst mit Rauch, etc... geht hier zu sehr ins Detail, denn das kommt schließlich auf die Engine an was / wann überhaupt berechnet wird. Manche Engines berechnen nur den sichtbaren Bereich, andere die komplette Welt und so weiter. Keine Ahnung auf was du hinaus willst, hat mit den Punkten nichts zu tun.
[re:3] bigspid am 24.04. 00:47
+ -
@smart-: 1. du bist recht spät dran :D
2. Genau das gleiche hab ich oben auch schon geschrieben.

Tollstes Beispiel: Crysis mit der Cryengine. Die Cryengine 2 und 3 bringen kaum optische Verbesserungen mit sich, beseitigen dafür aber viele Performanceprobleme und optimieren wo es geht. Deswegen sehen Crysis 2 und 3 auch nur unwesentlich besser aus, sind aber deutlich performanter. Wenn der Aufwand jetzt nur für eine Plattform betrieben würde....puh.
Nicht unsonst sehen Halo4 auf der X360, oder TLoU, Beyond Two Souls auf der PS3 so wahnsinnig gut aus. Ein PC mit vergleichbarer Leistung hätte am Ende seines Lebenszyklus so etwas nicht leisten können.
[re:2] Knuffig am 22.03. 14:21
+1 -5
@bigspid: Selten so ein Mist gelesen. Du hast wirklich keine Ahnung vom 3D Rendering.
[re:1] Laggy am 22.03. 16:52
+3 -1
@Knuffig: Nein, das stimmt so nicht. Es gibt diverse Grafikeffekte, die in 4K unverhältnismäßig viel Leistung fressen, und die Leistung daher stärker drücken, als sie es in der Auflösung eigentlich sollten.
Dadurch kann es in 4K z.B. auch zu Engpässen bei der Speicherbandbreite usw kommen. Gerade Effekte mit viel alpha Blending sind empfindlich für sowas, wenn sie nicht effizient implementiert sind. In hohen Auflösungen können dann einzelne Effekte die Performance komplett in den Keller drücken.

In modernen Engines ist das alles meistens kein großes Problem mehr, da ja auch auf Konsolen hohe Auflösungen erreicht werden sollen. Aber es gibt durchaus einige Games aus den letzten Jahren, die in 4K ungewöhnlich schlecht performen. Da ist der prozentuale performanceeinbruch beim Wechseln von 1080p auf 4K eben deutlich größer, als in modernen Spielen.

So kanns halt sein, dass du in 1080p durch das herunterstellen einer Grafikoption von Ultra auf High 10% mehr Performance herausholen kannst, unter 4K aber dagegen 20 oder 30%. (und nein, CPU limit und voller VRAM lasse ich hier bewusst aussen vor, es geht hier rein um die GPU Performance, die unter 4K von einzelnen Grafikeffekten unverhältnissmäßig stärker beeinflusst werden kann, als unter 1080p).

Ich würde zwar nicht sagen, dass aktuelle Spiele nicht für "4K optimiert" sind, aber grundsätzlich ist an der Sache schon ein bisschen was dran. Ein Entwickler muss heutzutage immer schauen, ob manche Grafikeffekte unter 4K bzw. generell in hohen Auflösungen nicht plötzlich zum Flaschenhals werden und die Performance total ruinieren.
[re:3] Razor2049 am 22.03. 15:31
+1 -8
@bigspid: wohl konsolero, bei dem unwissen was du hier von dir läßt
[re:1] Matico am 22.03. 16:26
+4 -1
@Razor2049: Ah ein Experte. Ich bin Experte! Wieso? Ich habe einen PC. Den kann man aufschrauben. Guck mal ;)
[re:2] bigspid am 22.03. 16:58
+4 -1
@Razor2049: Nö, nutze zwar auch Konsolen, hab aber auch meinen Gaming PC und verfolge seit meiner Atari die Welt der Videospiele. Ich bin aber auch kein Experte in Sachen Rendering und Grafikberechnungen, das ist nur ein Hobby. Ich lasse mich gerne auch korrigieren, wenn du es denn besser weißt und auch darlegen kannst. Aber von wildem Minusklicken und so unnützen Kommentaren wie von dir, bin ich nicht beeindruckt.
[re:1] Matico am 23.03. 08:58
+ -3
@bigspid: Mein Ziel war nie, dich zu beeindrucken. Ich habe auch nicht geklickt. Wenn du Ahnung hast woher kommt dann dieses "wohl Konsolero" - in wie weit ist das eine Referenz für Ahnung? Das war einfach unnötig und doof. Egal wer du bist oder was du weißt.
[re:2] ExusAnimus am 23.03. 10:10
+ -2
@Matico: Schau mal genauer hin wer was gesagt hat ;) dein Minus ist nicht von mir ^^
[re:3] bigspid am 23.03. 10:18
+ -1
@Matico: Ich hab auch nicht auf deinen Beitrag geantwortet, sondern auf Razor. Und beeindrucken in diesem Kontext bedeutet anders gesagt, dass mich solche Kommentare kalt lassen.
[re:4] Matico am 23.03. 13:29
+1 -
@bigspid: Du hast natürlich recht. Ich möchte mich entschuldigen. War wohl noch zu früh.
[re:2] DARK-THREAT am 22.03. 12:26
+3 -1
@cvzone: In welchen AAA-Spielen hast du auf der XBOX One X bitte "mittlere Details"? Eher sind das immer "High"... auch weil man diese ganzen "Ultra" Einstellungen nicht wirklich braucht, was bei den PCs immer zu viel Leistung zieht.
[re:1] cvzone am 22.03. 12:32
+5 -1
@DARK-THREAT: Nehmen wir mal The Divsion 2. Hier sind manche Einstellungen noch unterhalb von den PC Low Einstellungen laut Digital Foundry. Aber hey, natives 4K... Gleiches gilt ebenso für Tomb Raider. Hier entsprechen viele Settings auf der Xbox One X PC Medium, auch wieder mit nativem 4K.
[re:1] jackii am 22.03. 13:24
+1 -
@cvzone: Wie gut auf den heutigen Konsolen 4k und HDR bereits läuft kann ich nicht wirklich beurteilen, aber da die Neuen ja mehr als doppelt so viel Leistung haben werden.. kann ich nicht dafür sein in ca. den Jahren 2022 bis 2030 noch auf FullHD zu setzten und auf 65"+ zu stretchen.
[re:2] Razor2049 am 22.03. 15:33
+2 -6
@DARK-THREAT: hui der xbox fan himself, merkt man jedoch auch an deinen aussagen. Beim so gut wie allen xbox one x games stehen schatten, aliasing, und anisotropischer filter allein schonmal auf low
[re:3] mgutt am 22.03. 14:42
+1 -
@cvzone:
Lösung: Schließ die Konsole an einen 1080p TV oder rechnet die dann immer noch in 4K und skaliert runter?!
[re:1] ExusAnimus am 22.03. 16:14
+1 -
@mgutt: letzteres.
[re:4] cathal am 22.03. 15:43
+1 -
@cvzone: Auch 10TF Reichen nicht um aktuelle Spiele bei Maximalen Details (Alles andere ist langweilig wenn man von High End spricht).

Ich habe meine 1080 TI so weit übertaktet das sie ca 13,5 TF bringt und damit läuft Witcher 3 gerade so stabil mit 60FPS in 4K mit Ultra Settings.

Wenn ich 60FPS schreibe dann meine ich Minimal, denn natürlich gibt es stellen bei denen es weit drüber liegt. Da ich aber mit VSync und 60Hz spiele will ich eben nicht eine einzige Stelle haben die unter 60FPS fällt da das sofort als störendes zucken auffällt.
[re:1] ExusAnimus am 22.03. 16:19
+1 -
@cathal: wie misst du die Leistung in TF? Gibt es da mittlerweile ein Tool dafür? Hab mich mit dem Thema PC die letzten 5 Jahre kaum beschäftigt, aber das interessiert mich dann doch noch ^^
[re:1] cathal am 22.03. 17:10
+2 -
@ExusAnimus: Mit dem GPU Benchmark von AIDA64. Komme da aktuell auf 13,7 Terraflops mit der auf etwas über 2Ghz getakteten GTX 1080 TI
[re:1] ExusAnimus am 22.03. 17:16
+1 -
@cathal: Danke :)
[o2] Andre Passut am 22.03. 11:14
+8 -1
Wird bei der neuen Xbox nicht anders sein aber wieso gibts hier nur news über die neue Playstation und nicht Xbox?
[re:1] Bautz am 22.03. 11:40
+3 -1
@Andre Passut: Weil MS da bisher noch nix hat durchsickern lassen.
[re:1] Andre Passut am 22.03. 11:47
+6 -1
@Bautz: Achso ja gut. Dann muss ich als einer der Xbox bevorzugt halt noch warten.
[re:1] bigspid am 22.03. 17:03
+2 -
@Andre Passut: Die E3 ist ja zum Glück nicht mehr weit :)
[re:1] Andre Passut am 22.03. 19:33
+1 -
@bigspid: Ja dass stimmt. :)
[re:2] ExusAnimus am 22.03. 11:50
+2 -1
@Bautz: Von Sony ist doch genauso wenig offiziell? Bei MS sind zumindest die Codenamen bekannt und dass es mehrere Konsolen werden, bei Sony nichtmal das
[re:1] Bautz am 22.03. 20:34
+1 -
@ExusAnimus: … siehe diese News. Also echt jetzt ...
[o3] pcfan am 22.03. 11:25
+3 -
So viel ist das gar nicht, wie man jetzt denkt.
Ne rtx2080 hat auch 10,6 TFlops, also eigentlich genau wie Stadia, ne 2080Ti 14,2, also im Bereich der PS5.

Bis also die PS5 dann 2020 oder 21 erscheint sind 15 TFlops schon nicht mehr High End, denn die nächste Generation wird sicher mehr Richtung 18-20 TFlops gehen.

Und eine 2080Ti reicht wohl kaum um in 8k akzeptable Frameraten mit allen Details zu erhalten (ganz zu schweigen vom Sinn hinter 8k Gaming - 4k ist ausreichend bei dem Abstand, den man vom TV hat)
Lieber 4k mit allen Details und sauberen 60 FPS, als ne 8k Angeber Sparvariante, die am Ende wohl wieder nur hochskaliert ist.

Auch wird man bei so hohen Auflösungen ein Speicherproblem bekommen, wenn man nur 12-16 GB für alles zusammen hat (und das Betriebssystem wird sicher auch noch 1-2 Gb reservieren). Das reicht dann wohl kaum für alle Texturen, außer man komprimiert sie extrem, was dann wieder dem Vorteil der Auflösung entgegen wirkt.
[re:1] bigspid am 22.03. 11:42
+8 -2
@pcfanich bin mir nicht mal sicher, ob 8k überhaupt jemals nötig sein wird im Einsatz zuhause. Für den Mainstream dürften 4k@60fps für fie nächsten 10-15Jahre locker ausreichen. Ich glaube eher, dass wenn mehr Rechenleistung gebraucht wird, das für eine VR Berechnung drauf geht.
[re:1] UKSheep am 22.03. 12:04
+4 -
@bigspid: Aber warum wird deiner Meinung nach 4K@60FPS nur für die nächsten 10-15 Jahre reichen? Meinst du durch Evolution wird sich die Körpergröße von Menschen so verändern das sie weitaus Größere Wohnungen/Häuser haben werden? Oder meinst du die Augen werden sich in einem Maße verändern, das wir plötzlich noch viel mehr Details erkennen können?

Ich bin bei dir mit deiner Meinung... nur denke ich das 4K@144 / 4K@240 eher die Zukunft sein sollten als 8K@60... ;)

Das was die Hersteller machen ist das was schon immer passiert... immer mehr, größer, besser... nur ob es Sinn macht, ist egal... Hauptsache es gibt Profit, dass die Aktionäre am Quartalsende zufrieden sind...

Ich bin gespannt wo das alles noch hinführen wird... denn die Löhne sinken... die Preise steigen... und irgendwie müssen sich die Leute die das Zeug kaufen sollen, den ganzen shice auch bezahlen können... nur wie wenn es immer mehr Leute gibt die mit ihrem Lohn gerade so über die Runden kommen... ;)
[re:1] bigspid am 22.03. 12:52
+2 -
@UKSheep: Haha lustiger erster Absatz ;)
Ich sehe es wie du, die Framerate wird danach wichtiger werden. 8k und Co sind nur im VR-Segment spürbar, daher für die breite Masse uninteressant. Mein 4k@60fps ist für die nächsten Jahre nur aufgrund der "@60fps" dann veraltet.

Für die Wahrnehmung ist es aber tatsächlich so, dass ein Bewegtbild mit >4k oder 8k zwar nicht direkt gesehen wird, aber vom Hirn anders wahrgenommen wird. Das Gefühl auf ein reales Bild zu blicken wird deutlich stärker. Der Sprung von SD@24fps auf HD@30fps hat schon bei vielen dazu geführt, dass sie das Gefühl hatten ein Theaterstück zu sehen, anstatt eines Films. Ich erinnere mich noch dran wie deshalb mein Onkel alle Bildverbesserer abgeschaltet hat, um den Film wieder genießen zu können.
[re:1] DARK-THREAT am 22.03. 19:11
+1 -
@bigspid: Ja, der Soap-Effekt stört in klassische Filme aber wirklich, wenn man sie eben in 24Hz kennt.
[re:2] smart- am 22.03. 13:42
+ -5
@pcfan:
Uiiii.. da ist mal wieder einer "Hellseher"

Mal zur Info:
Es ist völlig normal das im Compute Bereich schneller Chips am Start sind als die jeweiligen Konsolen, dennoch werden diese bei der Kompaktheit und Preis bei Release absolutes High End sein, zeig mir einen PC der zu der Zeit günstiger und schneller ist... wirst du wie immer nicht finden!

Ohh... 12-16 GB sollen nicht genug sein? Komisch... Nvidia Fanboys sagen das die 4-6 in den Modellen die Nvidia 2019 releaset noch Jahre ausreichen und nicht mehr benötigt wird... 12-16 GB angeblich totale Spinnerei seien... hm... sind btw Original-Aussagen dieser Leute.... die Speichermenge 12-16 wird ein großer Sprung sein, insbesondere wenn man den Speed bedenkt und reicht für 4k locker, das kannst du bereits mit aktuellen High-End Chips wie den von dir benannten Testen. Wohl nicht so viel Praxiswissen?

8k wird (zumindest nativ) bei Gaming die nächsten Jahre keine Rolle spielen. Mit der Next-Gen wird sich aber 4k nativ etablieren, genauso wie es am PC immer mehr zunimmt. Die Leistung ist jetzt langsam da, am PC muss man dafür aktuell aber noch sehr viel Geld auf den Tisch legen und der Mainstream wird es wieder wie die Konsolen haben.... also das mit dem voraus sein betrifft immer nur die Enthusiasts die viel Geld bezahlen.
[re:3] mgutt am 22.03. 14:46
+1 -
@pcfan:
8K wird eh erstmal eine Todgeburt im TV Bereich. Da stürzen sich dann auch keine Entwickler mehr drauf. Wie soll das auch gehen. Man bräuchte 4x mehr Leistung. Bei 30% mehr Leistung pro GPU Generation ist 8K erst was für die Enkel.
[re:1] tommy1977 am 23.03. 10:35
+2 -
@mgutt: Nicht zu vergessen, dass 4K-TV erst in den letzten 2 Jahren in breiter Masse den Weg in die Privathaushalte gefunden haben. Ich habe meinen seit reichlich 3 Jahren und habe nicht vor, diesen durch ein neueres Modell zu ersetzen, zumal so gut wie kein 4K-Content nativ vorhanden ist.
[o4] BufferOverflow am 22.03. 11:40
+4 -
Eigentlich ist der Trend eher dahin den Formatfaktor zu verändern, als die Auflösung zu erhöhen. Wenn die Leute für Gaming den 21+/9 Standard haben, dann kann man wieder über Auflösung sprechen.

Es hat beim Gaming einfach zu viele Vorteile wenn ich die Umgebung komplett einsehen kann, als 16/9 mit 8K nur einen Ausschnitt meiner Umgebung.

Auch beim online-gaming und Battle Royal habe ich den Gegner schon längst mit 21/9 entdeckt, ohne das ich mich ständig und fortwährend immer drehen muss um alle Seiten beobachten zu können. Da bin ich mit einem breiteren Sichtfeld auch immer im Vorteil gegenüber dem der mit mehr Frames als ich spielt.

Ich möchte auch bei Kino Filmen keine schwarzen Balken unten und oben mehr haben, ich will die Landschaft komplett einsehen können, ohne dass sich mein Bild zwangsläufig auf 16/9 verkleinert.
[re:1] mh0001 am 23.03. 02:32
+ -3
@BufferOverflow: Man könnte auch einfach einen 16:9 Monitor kaufen, der so groß ist, dass er die gleiche Breite wie der 21:9 hat. Quasi dein 21:9 Monitor so wie er jetzt ist, mit zusätzlicher Displayfläche oben und unten. Dann hast du keinen Nachteil in der Breite, und zusätzlich noch mehr Blickfeld oben und unten. Also eigtl kein Grund, das Format zu wechseln.

Hab mir bei Filmen auch schon immer gedacht, dass das Argument "bei Cinemascope sieht man mehr in der Breite" völliger Quatsch ist. Nein tut man nicht, es gibt keinen Grund die gleich breite Leinwand nicht einfach höher zu machen, und mit der Kamera genauso Weitwinkel wie bisher aufzunehmen, nur eben auch noch nach oben und unten mehr zu öffnen.
[o5] Warhead am 22.03. 13:46
+3 -
ich halte den quatsch einfach nicht für zukunftstauglich...instabile leitungen, fehlerkorrekturen oder schwnakende bandbreiten mal nur als große kritikpunkte herausgegriffen...vom lag ganz zu schweigen

geht dann der trend wohl auch dahin für eine einzelne, ansonsten ungenutzte internetleitung pro gamer? schwachsinnig sowas...

ich hör den kleinen klaus schon schreien: "papa, papa, ich bi nschon wieder gestorben und weiß nicht warum" "entschuldige sohn, eins unserer handys oder eins unserer sonstigen "smarten" geräte musste gerade ein update einspielen"
[re:1] mh0001 am 23.03. 02:41
+1 -
@Warhead: Deutschland muss ja dafür nicht der Maßstab sein. Wenn die Japaner das mit ihrer 1 Gbit/s, 1-2ms Ping Mindestversorgung zuhause nutzen wollen, dann funktioniert das auch recht gut denke ich.
[re:2] Sterneneisen am 23.03. 11:02
+1 -
@Warhead: Ich halte es sogar für sehr zukunftstauglich. Schon der Dienst Shadow zeigt wie gut Spiele-Streaming funktionieren kann. Und Google hat da noch wesentlich mehr Kapazitäten und Möglichkeiten das Maximale heraus zu holen.

Auch ist es für den Großteil der Spieler uninteressant, ob man nun 10 ms oder 20 ms Verzögerung hat. Das hängt natürlich auch von der Leitung ab. Aber Deutschland ist nun mal nicht das Maß der Dinge, wenn man so einen Dienst startet.

Außerdem schätze ich, das man mit so einem Dienst zunächst erstmal Konsolen angreift. Statt 200 bis 400 Euro für ne Konsole auszugeben und dann zusätzlich 50 bis 70 Euro pro Spiel, habe ich demnächst halt ein Abo, starte mein Android TV und kann direkt loslegen.

Ich denke es steht und fällt mit der Spieleauswahl. Ziehen die Piblisher mit, dann hat Google wie kein zweites Unternehmen die Möglichleiten etwas ganz großes aufzuziehen. Die einzigen die eine Bedrohung darstellen könnten, sind Amazon mit Twitch und der AWS Cloud.
[o6] hamad138 am 22.03. 13:48
+ -5
Glaubt ihr die PS5 schafft 8k 30fps?
[re:1] Chris Sedlmair am 24.03. 13:36
+1 -
@hamad138: Nope... Auch wenn man die Pixelanzahl nicht 1:1 übertragen kann auf Grund andere Faktoren, die das Ergebnis beeinflussen, ist sie dennoch ein guter ungefährer Richtwert. 4K@60 Performance bedeutet in absoluten Pixeln umgemünzt auf 8K 15 fps, nicht 30, da native 8K eine Verdoppelung der Pixel auf beiden Achsen bedeutet, also eine Vervierfachung ihrer Anzahl insgesamt. Für 4K Gaming in medium bis Ultra mit 4K Texturen braucht man 8 GB VRAM Minimum, sonst stottert das Spiel, weil nachgeladen werden muß. Flüssiges 8K mit 8K Texturen in medium bis Ultra braucht mindestens 16 GB VRAM. Auf der XBox One X wird teilweise getrickst, da nur 9 GB shared RAM zur Verfügung stehen... für GPU und CPU. Nicht alle Spiele erreichen natives 4K mit 4K Texturen und oft sind die Grafikeinstellungen auf Medium und nur in einzelnen Einstellungen auf High bis Ultra. In Division 2 wurden die meisten Effekte auf ein Niveau unter low gedrückt, um natives 4K zu ermöglichen. Das ist kein XBox Bashing... Die XBox One X ist meine primäre Gaming Plattform und für ihre jetzt 400 Euro, ist das Ergebnis atemberaubend, das sie in vielen Spielen auf den Bildschirm zaubert.
[o7] Alexmitter am 22.03. 14:00
+ -3
bedekt das diese radeon GPU allen Anschein nach eine modifizierte Vega 64 ist, nichts besonderes.
[re:1] Marius87 am 23.03. 02:46
+1 -
@Alexmitter: Um genau zu sein ist's eigentlich sogar nur ne Vega 56, wie schon die 56 CUs verraten, nur vermutlich im Navi Gewand dann etwas energieeffizienter und +0,2 TF = 10,7 statt 10,5 TF...
Wenn bei Navi schon die CUs kaum an Leistung zulegen, dann ist hoffentlich die Leistungsaufnahme runter auf Nvidia Niveau, sonst sehe ich schwarz für AMD im GPU Bereich außerhalb der Konsolen... :(
[re:1] Alexmitter am 23.03. 20:00
+1 -
@Marius87: Ja ich muss mich korrigieren, es ist ein Vega 56 basierter chip mit leicht höherem clock speed im instinct Gehäuse.
Navi wird es wohl nicht sein, Google geht hier den günstigen weg.
[o8] buckliger am 22.03. 15:30
+ -2
Was man auch erwähnen sollte ist, das die Vulkan API, genau wie bei der Nintendo Switch, out of the Box unterstützt werden wird. Fehlt eigentlich nur noch der OpenXR Standard für VR und AR um den Fragmentierungswahnsinn in Griff zu bekommen. Für Linuxgamer jedenfalls sieht es für die Zukunft, oder schon jetzt ziemlich gut aus. DX10 und DX11 ist dank DXVK kein Problem mehr, ausser die Sache mit DRM und Anticheat. Sonst ist bereist jetzt schon fast alles spielbar :)
[o9] ThreeM am 22.03. 16:19
+1 -
Stadia ist also AMD Navi. Jedenfalls wenn man bedenkt das AMD sagte das man mit NAVI der 2080 Konkurrenz machen will. Vielleicht war es doch etwas verfrüht für mich die 2080TI gekauft zu haben.
[10] Chris Sedlmair am 22.03. 19:20
+1 -
15 TF Konsole für 400? Ich lach dann, wenn sie rauskommt. Realistischere Schätzungen gehen von 9,2 TF aus.
[re:1] mh0001 am 23.03. 02:37
+1 -
@Chris Sedlmair: Wenn die in drei Jahren erst kommt ist das doch kein Problem. Da ist das bei PC Grafikkarten dann nur noch untere Mittelklasse.
[re:1] Chris Sedlmair am 24.03. 13:46
+1 -
@mh0001: Die nächste XBox kommt aller Voraussicht im Herbst 2020... Sony kann es sich nicht erlauben, MS das Feld zu überlassen für 6 oder gar 12 Monate oder noch länger.
[re:1] mh0001 am 24.03. 14:39
+1 -
@Chris Sedlmair: Ja gut, schon 2020 geb ich dir recht, da ist das sehr unwahrscheinlich...Es sei denn sie lassen sich auf ein Verlustmodell ein. Aber dass das keine so gute Idee ist, hat Sony mit der PS3 und dem auf Teufel komm raus durchgedrücktem Blu-ray-Laufwerk ja gezeigt.
[11] gucki51 am 22.03. 20:55
+1 -
Egal die Ps5 wird wieder nicht richtig Abwärtskombatibel...
[12] lurchie am 22.03. 21:54
+1 -
Meines erachtens wird gerade bei Konsolen die tflop Leistung stark überschätzt. Der Flaschenhals ist diese Generation ganz klar die Jaguar CPU.

Wenn ich mir das so zusammen rechne sollten 10-12 tflop + eine aktuelle AMD CPU in Form von Zen+ oder Zen 2 vollkommen ausreichen um 4k 60fps mit high Einstellungen zu zocken.

Mit der Kmbi sollte man auch preislich im Rahmen bleiben der bei Konsolen ja immer bei 400-500 Euro liegt.
[re:1] Chris Sedlmair am 23.03. 02:54
+2 -
@lurchie: Das mit der Jaguar CPU stimmt, allerdings gibt es weitere... in der base XBO der langsame DDR3 Speicher, in der PS4 Pro die mangelnde Bandbreite der Speicheranbindung. Die PS4 Pro käme trotz 1,8 TF Unterschied deutlich häufiger näher an die XBO X ran als jetzt, wenn sie die gleiche Speicheranbindung hätte.
Das CPU-Problem wird kommende Generation (2020) gelöst. Die Annäherung an den PC in Architektur und GPU Leistung in dieser Generation ist schon geschehen durch die Pro und X. Das alles wird wichtig für die Spieleentwicklung und wird komplexere AAA Titel mit besserer KI ermöglichen, PC-Versionen werden nicht mehr im bisherigen Maße von Konsolenbeschränkungen gebremst und Konsolen werden CPU-lastigere Spiele und Genres bekommen.
[re:1] lurchie am 24.03. 12:30
+2 -
@Chris Sedlmair: In der Base XBO sowie XBOS ist es eher der esram der hier noch das größte Hindernis für Entwickler darstellt. Er ist einfach zu klein und mit deinem angemerkten DDR3 RAM einfach nicht vernünftig nutzbar. Da bringen auch die Theoretischen 218 Gbit/s nicht.

Es gehen/gingen ja in der letzten Zeit einige Gerüchte rum das Ms die Physikberechnung/KI auf einen separaten Chip unterbringen will. Darauf bin ich sehr gespannt. Vielleicht wird uns ja so etwas wie Raytraicing begrüßen nachdem DX12 ja eine eigene Schnittstelle hierfür erhalten hat. Auch die Implementierung von Variable Rate Shading ist sehr interessant.

Der Zeitpunkt der Implementierung lässt zumindest darauf schließen was uns erwarten könnte, da DX12 ja mehr oder weniger das Zugpferd der Xbox ist und auf dem PC eher ein Nieschendasein fristet.
[re:1] Chris Sedlmair am 24.03. 13:19
+1 -
@lurchie: Hardwarenahe Programmierung ist am PC auf Grund der Vielzahl an unterschiedlicher Hardware auch nicht das simpelste. DX 11 hat vieles einfach den Treibern überlassen. Viele Devs waren einerseits zu faul DX12 anzufassen, andererseits fehlte auch die Erfahrung, wie man an niedrigeren frameraten unter DX12 sieht in einigen Spielen, die beide APIs unterstützen. Das kommt erst jetzt so richtig in Fahrt. Darin liegt auch das ganze Geheimnis dieser DX12 auf Win 7 Geschichte. Da Win 7 auch nach Supportende noch auf vielen Kisten laufen wird, hat MS die Implementierung etlicher DX12 Features auf Spielebene ermöglicht. So werden Spiele, die nur für DX12 entwickelt werden interessanter für die Studios, da sie auch auf Win 7 lauffähig sein werden. Der Hauptkampfplatz ist nicht Vulkan vs DX12... es geht um Vulkan + DX12 vs DX11. Das Ende von DX11 alleine wird Nvidia die Hälfte seines Performance-Vorsprungs im Gaming gegenüber AMD kosten. Darum gibt es in der Gaming-Industrie eine starke Lobby für DX11. Sehr viele Spieleentwickler haben ein ungesund enges Verhältnis zu Nvidia.
[13] AlexKeller am 23.03. 09:06
+1 -
ich möchte nur darauf hinweisen, sony hat vor einiger Zeit Gaikai aufgekauft (damalige Konkurrenz zu OneLive) denke daher eher, Sony braucht keine Google Technologie.
[14] G7 am 23.03. 09:25
+1 -
8K ernsthaft? in DE hat sich bis jetzt noch nicht mal FHD vollständig etabliert, und die reden von 8K. Die Tech Konzerne haben doch nicht mehr alle latten am Zaun.
[15] UlrichS3 am 23.03. 13:46
+1 -
wer hat denn gesagt, dass in den Data Centern Navi GPU eingesetzt werden.
Hab mir nicht alles angeschaut, der Google-Moderator sprach davon, dass die Leistung 10,x TFLOPS beträgt.
Wie die generiert werden war keine Rede von.
Und glaub tatsächlich irgend jemand das PS5 oder Xboxone2 ein Leistng von 15 TFlops haben wird, ich nicht.
[16] legalxpuser am 23.03. 15:38
+ -3
naja am Ende ist es eh wieder das gleich Spiel wie immer....eine aktuelle High-End-Grafikkarte eines PC's wird doch mehr Leistung besitzen....dazu muss man kein Hellseher sein.
[17] SvenL am 25.03. 00:33
+ -3
Und alle vergessen wieder, dass es nicht um die Leistung sondern um die Exklusiv-Spiele geht. Die Randgruppe, denen es um Terraflops geht, interessiert doch niemanden, es geht darum, ob man The Last of Us 2, Horizon Zero Dawn 2, Spider-Man 2 spielen kann oder ob man... eh... mir fällt gerade nichts ein, ach ja, Crackdown 3 spielen kann.
[re:1] darius_ am 25.03. 08:05
+1 -
@SvenL: du sagst es, und zugleich bestätigst du es: Exclusive Spiele sind wichtig, "aber" als Marketinginstrument. Eine gute Wertung, entsprechend viel virales Marketing, das eine oder andere gut platzierte Interview.... Deine genannten Titel haben nur für den harten Kern der Foren Diskutanten und Plattform Verteidiger einen Wert. Stell dir vor: FIFA 20 käme nicht mehr für die Playstation, oder call of duty, oder Fortnite..... Diese Titel haben echten Impact. Diese Titel entscheiden wirklich über Verkäufe. Ob ein Last of US, Spiderman usw. für Konsole X oder y verfügbar ist, das ist Nebensache.
☀ Tag- / 🌙 Nacht-Modus
Desktop-Version anzeigen
Impressum
Datenschutz
Cookies
© 2024 WinFuture