Thema:
Re:NVIDIA diktiert Reviews zu RTX 30-Series EDIT flat
Autor: MH
Datum:15.12.20 19:48
Antwort auf:Re:NVIDIA diktiert Reviews zu RTX 30-Series EDIT von suicuique

>>>>Ich schau mir das meiste von HU an und finde die Unaufgeregtheit und Sachlichkeit super. RT mag die Zukunft sein, aber bis zum Release von Cyberpunk war das ein totales Nischenfeature, da hatte HU völlig recht.
>>>
>>>Ich finde nicht dass die in dem Bezug Recht hatten.
>>>Rasterizer Performance auf den neuen Karten sieht so aus dass die Mehrzahl der Spiele aus der Testsuite weit mehr als 100 Frames rendern. Selbst auf den kleinsten Vertretern der Ampere und RDNA2 Generation.
>>>Was soll da das Gewichse ob die Karte nun 120 oder 124 oder (so in einem Test gesehen) in einem CSGO 600+ fps oder was auch immer schafft?
>>>
>>>Die aktuell interessanten Spiele sind allesamt entweder CPU bound (hello Flight Sim!) oder aber brechen erst ein wenn man RT dazu schaltet.
>>>Ich kapier bis heute nicht was die Fixierung der Testsuites auf Rasterizer (damit impliziere ich auch Shader) Performance sollte.
>>>Ja, ganz beliebtes Argument, nur ne Handvoll Spiele nutzen RT und DLSS.
>>>Big deal!!
>>>
>>>Kommt vielleicht daher dass der große Rest eh mit 100+ Frames läuft (weil old tech) oder darunter all die Spiele fallen die eh keine Grafikleistung benötigen (Tetris und Co).
>>>Von den neuen, Hardware hungrigen Spielen unterstützen ein guter Anteil entweder RT, DLSS oder beides.
>>>Aber hey, ignorieren wir doch den kleinen Umstand und benchen uns an CS GO oder Anno zu Tode ...
>>>
>>>Ne leuchtet mir nicht ein.
>>
>>4k60 schafft ja scheinbar nicht mal die 3090 in allen Spielen
>
>Ich habe nie geschrieben dass 4K60 in allen Spielen möglich ist.
>:)
>
>EDIT: Aber darum ging es mir auch nicht per se.
>Es geht mir um Grafikbenchmarks in denen AMD Produkte mit dme NVidia Pendant verglichen werden. Wenn man dann in etwa in der selben Preiskategorie
>bleibt kann man sich an diesen Benchmarks abarbeiten und stellt hier und da mal Abweichungen im einstelligen Prozentbereich fest. Mal gewinnt der eine, mal der andere. Im Prinzip vergleichbar.


Das "Abarbeiten an Rasterizer Benchmarks" wird ja für nVidia scheinbar erst jetzt zum Problem wo AMD in dieser Disziplin wieder auf Augenhöhe ist.



>
>Das alles wenn man RT und DLSS ausser Acht lässt. Vergleicht man Produkte die das nutzen ergeben sich Unterschiede die um eine Größenordnung höher sind. Zugunsten NVidia. Aber hey, man kann diese Fälle natürlich zur Nische erklären weil es ja nur wenige Spiele betrifft.


Es IST halt eine Nische. Hardware Unboxed beschreibt es ja auch so schön. 98% der Spiele nutzen kein RT oder es bringt so gut wie nichts (Shadow of the Tomb Raider).
Sie gehen sogar soweit daß es bis auf Control und Cyberpunk praktisch kein Spiel gibt wo RT wirklich den Performance Hit wert ist. Und bei einer der DLSS Showcases greift Dein voriges Argument ganz gut: DLSS ist spitze bei Death Stranding. Es ist nur wurscht weil auf auf nativem 4k die Karten locker 60fps stemmen.


>
>Jetzt muss man mir als Konsumenten nur erklären warum ich ein in etwa gleichwertiges Produkt von AMD (Rasterizer) kaufen soll, wenn es in der Technologie die ganz offensichtlich die Zukunft bestimmen wird deutlich zurück hängt.


Weil das was Du heute kaufen kannst (max. eine RTX 3090) für die Zukunft in Raytracing ebenso zu langsam sein wird wie alles was es von AMD gibt. Bei den ganz dicken RT-Dingern deutet Cyberpunk außerdem jetzt schon an daß die 10GB einer 3080 problematisch werden könnten. "Zukunftsfähig" war eine Grafikkarte noch nie. Das ist ein Stück weit auch gut so. Mein alter PC hat 3 Grafikkarten erlebt.




>WArum wird dieser Punkt nicht deutlich herausgearbeitet? Statt dessen werden aller Orten Wattzahlen verglichen und selbst da bleibt es oft beim Äpfel mit Birnen Vergleich.
>
>Egal. Offensichtlich haben sie ihre Entscheidung diesbezüglich zurückgezogen, also können sich die Interessierten an Miniunterschieden in Rasterizer-Tests weiter abarbeiten und sich damit trösten dass Super Resolution auch bei AMD in der Mache ist. Ich bin sehr gespannt wie das funktionieren soll wenn man dafür Shaderperformance opfern muss, weil man in der GPU keine Einheiten dafür verbaut hat die das übernehmen. :)


Ja, wird sehr interessant. Ich für meinen Teil bin froh daß es wieder ernsthafte Konkurrenz gibt. Ich würde jetzt mal AMD kaufen wenn ich nicht einen G-Sync Monitor hier hätte. Weil es am Ende des Tages vermutlich egal sein wird. 2 Jahre werden beide Karten super laufen und danach braucht man sowieso einen Nachfolger.


< antworten >