ATi Radeon 9800XT vs. nVidia GeForceFX 5950 Ultra Review
19. März 2004 / von Leonidas / Seite 5 von 22 / Update vom 28. März 2004
Shader-Performance
Ein gewichtiger Punkt ist heutzutage die Shader-Performance von Mainstream- und HighEnd-Grafikkarten geworden, will man mittels dieser doch in die Zukunft schauen und möglicherweise erkennen, welche Performance die Karten in zukünftigen Spielen mit heftigem Shader-Einsatz erzielen werden.
Ob die dabei erzielten Ergebnisse wirklich einen Hinweis auf die Performance zukünftiger Spiele geben können, ist allerdings umstritten, da zur Rechenaufgabe einer kompletten Game-Engine eben weit mehr gehört als nur die Berechnung von Shadern. Auch wird sicherlich auch in der Spiele-Zukunft nicht jedes Pixel durch komplizierte Shader laufen, womöglich bestimmen sogar weiterhin äußerst einfache Shader oder gar fixed Funktionen den Alltag.
Nichts desto trotz darf die Shader-Performance aktueller Grafikkarten durchaus als Hinweis auf deren zukünftige Möglichkeiten verstanden werden. Ein gutes Ergebnis in dieser Disziplin ist nicht mit einem automatischen Zukunfts-Vorteil gleichzusetzen, wohl aber mit einer besseren Ausgangslage für die Spiele-Zukunft.
Wir haben nachfolgend beide Grafikkarten durch den Standard-Durchlauf des ShaderMark 2.0 gejagt und dabei zusätzlich auch die entsprechenden Screenshots aller Einzel-Shader getätigt. Bei ATi wurde hierbei das "2_0" Profil gewählt, bei nVidia das den nVidia-Karten besser entgegenkommende "2_a" Profil. Zusätzlich wurden bei nVidia alle Benchmarks noch einmal mit partitieller Genauigkeit (aka 16 Bit pro Farbe) getätigt.
Tests mit dem Antidetect-Mode des ShaderMark 2.0 brachten im übrigen keine - durch den ShaderMark 2.0 erkennbaren - Treibercheats zu Tage. Wir haben in nachfolgender Tabelle zudem - da es rein um den Vergleich ging - diese Shader weggelassen, welche die nVidia-Hardware derzeit nicht darstellen kann (Shader 4, 8, 19, 20, 21, 22 und 23).
Bezüglich der Bilder ist es schwer, zu einem Urteil zu kommen. Einige Screenshots differieren prinzipiell, ohne daß dabei aber klar ersichtlich wäre, ob der eine oder andere Hersteller generell etwas weggelassen hätte. Die nVidia-Bilder mit partieller Genauigkeit (16 Bit pro Farbe) unterscheiden sich im übrigen von nVidia-Bilder mit voller Genauigkeit (32 Bit pro Farbe) eigentlich überhaupt nicht.
Bezüglich der gemessenen Performance kann jedoch ein eindeutiges Urteil gefällt werden: ATi liegt hier nach wie vor um Längen vorn. Alle nVidia-Verbesserungen mittels des in den Treiber integrierten Shader Compilers haben nur den Abstand verringern, nicht aber das prinzipielle Ergebnis verändern können. Faktisch erreicht ATi in diesem Benchmark die 2fache bis 3fache Performance von nVidia. Der Einsatz der partieller Genauigkeit (16 Bit pro Farbe) ändert daran nichts entscheidendes - vielmehr ist der Zugewinn bei partieller Genauigkeit sogar erstaunlich gering.
Mit den jeweiligen neueren Treibern ändert sich an diesem generellen Bild auch nichts mehr: Während der Catalyst 4.2 gegenüber dem hier benutzten Catalyst 4.1 Treiber keine Verbesserungen in diesem Punkt bringt, werden dem aktuellen Catalyst 4.3 Leistungssteigerungen im ShaderMark 2.0 von 5-15 Prozent bescheinigt. Bei nVidia bringt dagegen der aktuelle Treiber 56.64 im ShaderMark 2.0 noch einmal eine Leistungssteigerung von 10-25 Prozent auf die Waage. Am generellen Bild, daß ATi hier sehr deutlich vorn liegt, ändert dies damit nichts.
Inwiefern dieser massive Unterschied in der Shader-Performance den NV3x-Karten mittel- und langfristig zu einem handfesten Nachteil erwachsen könnte, bleibt jedoch abzuwarten. In einigen der aktuellen Spiele mit höherem Shader-Einsatz ist jedenfalls kein so deutlicher Vorteil für ATi wie in diesem theoretischen Benchmark festzustellen. Was eigentlich kaum verwunderlich ist, weil Spiele - wie vorab schon erwähnt - schließlich nicht nur aus Shader-Berechnungen bestehen.
Zudem ist es eher zu vermuten, daß der Performance-Wettstreit zwischen ATi und nVidia in den kommenden Spielen mit hohem Shader-Einsatz womöglich gar nicht einmal so maßgeblich von der (zweifelsfrei bei nVidia niedrigeren) Shader-Rohleistung dominiert, sondern von den Grafikchip-Entwicklern eher maßgeblich über ihre Abteilungen für die Unterstützung von Spieleentwicklern ausgetragen werden wird. Ein gutes Beispiel hierfür ist Halo, wo nVidia letztlich selber die Routinen zur besseren Unterstützung für nVidia-Grafikkarten und deren Shader-Fähigkeiten geschrieben haben soll, um die ersten Performance-Messungen unter Halo, wo noch ATi deutlich vorn lag, ausgleichen zu können.
Insofern kann man davon ausgehen, daß alle wichtigen Game-Engines von den Grafikchip-Entwicklern wohl so lange "umsorgt" werden, bis der Support für deren Grafikkarten vernünftig genug ist bzw. in Härtefällen wenigstens nicht mehr elementar hinter der Konkurrenz zurückhängt. Auf den kommenden Spiele-Highlights wird womöglich gar ein Kampf der Optimierungen entbrennen, schließlich wird die Performance eines Half-Life 2, Doom III oder Stalker: Shadow of Chernobyl ein gewichtiges Kaufargument bilden.
Allerdings wird es diese Optimierungen und diese Unterstützung der Spieleentwickler nicht für jedes Spiel geben. Die breite Masse, und dabei vor allem diese Spiele, für welche keinerlei Benchmarks existieren, wird mit vorgenannter Shader-Rohleistung auskommen müssen. Sofern der Shader-Einsatz nicht zu massiv ist, dürfte dies bei der letztlichen Spiel-Performance keine Unterschiede ergeben, doch bei größerem Shader-Einsatz steigt das Potential, daß die niedrige Shader-Rohleistung der nVidia-Grafikkarten diese letztlich limitiert.
Dies soll im Endeffekt sagen, daß ATi nichts desto trotz die weitaus solidere Shader-Lösung vorzuweisen hat. nVidia wird die deutlich überlegene Shader-Rohleistung von ATi teilweise dadurch ausgleichen können, daß die Shader-Performance nur ein Teil der Gleichung ist, welche zur letztlichen Spiel-Performance führt, und daß man für alle wichtigen Engines wohl eng genug mit den Spieleentwicklern zusammenarbeiten wird, um nicht deutlich hintenzuliegen. Die besseren Voraussetzungen für die Zukunft der Spiele hat aber derzeit ATi.
Note:
In der ursprünglichen Fassung des Artikels war auf dieser Seite ein schwerer Fehler, da die Benchmarks und Screenshots bei der GeForceFX 5950 Ultra ausversehen mit Anti-Aliasing durchgeführt wurden. Für die Screenshots hat dies keine große Auswirkung, allerhöchstens verschwindet mit den inzwischen richtigen Screenshots der vorher bei den falschen Screenshots festgestellte minimale Schärfe-Unterschied zwischen ATi und nVidia. Die Benchmarks der GeForceFX 5950 Ultra waren hier jedoch um 20 Prozent zu niedrig (mal mehr, mal weniger), was zwar nichts am generellen Urteil ändert, aber doch ein erheblicher Unterschied ist. Dieser Fehler wurde am 28. März um ca. 16:40 korrigiert. Wir bitten diesen Fehler zu entschuldigen und danken denjenigen, welche uns darauf hingewiesen haben, für ihre Aufmerksamkeit.