Zum 3DCenter Forum
Inhalt




ATI Radeon X1900 XT/XTX Review

2. März 2006 / von Madkiller (Benchmarks) & Leonidas (Text) / Seite 10 von 11


   HDR-Rendering Benchmarks

High Dynamic Range ist sicherlich eines der Buzz-Wörter im aktuellen Grafikkarten-Gechäft, wirklich durchgesetzt hat es sich jedoch bei weitem noch nicht. Dies hängt jedoch auch an dem mangelhaften Support durch die beiden großen Grafikchip-Entwickler, die HDR-Rendering in erster Linie zu Marketing-Zwecken genutzt haben, anstatt das Feature wirklich voranzutreiben. Ein für HDR-Rendering taugliches Format steht zwar schon seit dem Shader Model 2.0 in der DirectX-Spezifikation, die darauf aufbauenden Grafikchips unterstützen das Feature jedoch nur mit eher mäßiger Performance. Erst die Shader-3.0-Grafikchips beider Hersteller bieten einen Support von HDR-Rendering mit auch entsprechend vernünftiger Performance (obwohl das Shader Model 3.0 ansonsten keine Bedingung für HDR-Rendering darstellt).

Nachteiligerweise für HDR-Rendering gibt es Shader-3.0-Grafikchips von ATI erst seit einigen Monaten - und die schon deutlich länger im Markt befindlichen Shader 3.0 Grafikchips von nVidia haben dafür ein anderes Problem mit HDR-Rendering: Denn auf der GeForce6-Serie kann HDR-Rendering nicht zusammen mit Anti-Aliasing genutzt werden. Man bekommt also das eine Bildqualitäts-verbessernde Feature - und muß dafür auf ein anderes, inzwischen liebgewonnenes verzichten.

Dies wäre wohl verschmerzbar, wenn nVidia den Problempunkt Anti-Aliasing unter HDR-Rendering mit dem neuen G70-Chip nun endlich angegangen wäre - hat man aber nicht. Und so ergibt sich derzeit die Situation, daß nur ATI mit den brandneuen im Oktober vorgestellten Radeon X1000 Grafikchips HDR-Rendering so unterstützt, daß es nutzbar wäre. Was aber sicherlich zu wenig für die Spielehersteller ist, um uns plötzlich mit einer Flut an HDR-Rendering-Titeln zu überschütten. Das Thema HDR-Rendering wird somit wohl erst mit der nächsten Grafikkarten-Generation um ATI R600 und nVidia G80 richtig interessant werden, derzeit handelt es sich eher nur um ein Vorgeplänkel an ausgesuchten Spiele-Titeln.

Für unseren Test haben wir uns mit Far Cry einen HDR-Veteranen herausgesucht. Als große Ausnahme dieses Tests haben wir hier auch kein Savegame, sondern das im Spiel integrierte Regulator-Timedemo eingesetzt. Allerdings funktionieren Timedemos in Far Cry genauso wie Savegames, sprich alle üblicherweise bei Timedemos abgeschalteten Berechnungen sind hier aktiv - von der technischen Ansetzung her entspricht dieses Timedemos einem Savegame, es ist halt nur länger.

Durch das Fehlen von Anti-Aliasing unter HDR-Rendering auf der nVidia-Hardware konnten wir diese Tests allein unter der Zuschaltung des anisotropen Filters durchführen, was auch die für diesen Test ungewöhnlich hohen Frameraten erklärt. Die ATI-Harwdare wäre natürlich in der Lage, HDR-Rendering unter Far Cry auch unter Zuschaltung von Anti-Aliasing ableisten zu können, nur läßt dieses Setting eben keinen Vergleich zur nVidia-Hardware zu. Wie üblich wurde bei der ATI-Hardware das höherwertige Area-AF gewählt, für welches es bei der nVidia-Hardware derzeit keine Entsprechung gibt.


Far Cry

Pentium 4 Prescott @ 3.67 GHz, FSB864 + 1 GB DDR2/432
    Radeon X1900 XT (512MB, PCIe)
    Radeon X1900 XTX (512MB, PCIe)
    GeForce 7800 GTX (512MB, PCIe)

Regulator-Timedemo
1280x1024
HDR=off 16xAF

75,21 fps (±0%)

75,34 fps

74,82 fps (-1%)

Regulator-Timedemo
1280x1024
HDR=on 16xAF

60,98 fps (-3%)

62,95 fps

61,74 fps (-2%)

Regulator-Timedemo
1600x1200
HDR=off 16xAF

71,26 fps (-1%)

71,97 fps

70,58 fps (-2%)

Regulator-Timedemo
1600x1200
HDR=on 16xAF

49,03 fps (-5%)

50,28 fps (-2%)

51,44 fps

12 fps

24 fps

36 fps

48 fps

60 fps

72 fps

84 fps

96 fps

 

Die stark ähnlichen Ergebnisse sind womöglich auf die relativ geringe anliegende Grafikchip-Belastung zurückzuführen, schließlich fehlte hier das Anti-Aliasing komplett. Eine besondere Aussage, ob die eine Hardware unter HDR-Rendering schneller ist als die andere, läßt sich aus diesen Messungen jedenfalls nicht ableiten.


   Taktnormierter Spiele-Vergleich R520 vs. R580

Im letzten Test dieses Benchmark-Parcours wollen wir uns noch den natürlich eher theoretischen Takt-normierten Vergleich zwischen R520- und R580-Chip ansehen. Für die RealWorld-Performance beider Chips bzw. der darauf basierenden Grafikkarten sind diese Messungen zwar nicht relevant, allerdings kann man sich dieserart gut ansehen, was die verdreifachte Shader-Power des R580-Chips als primäre Änderung des R580 gegenüber dem R520 momentan an Leistungsgewinn bringt. Für den R520-Chip ging dabei die Radeon X1800 XT auf default-Taktraten von 625/750 MHz ins Rennen, während die Radeon X1900 XTX den R580-Chip vertrat, welche für diesen Test geringfügig auf die vorgenannten Taktraten von 625/750 MHz heruntergetaktet wurde.


Call of Duty 2

Pentium 4 Prescott @ 3.67 GHz, FSB864 + 1 GB DDR2/432
    R520-Chip @ 625/750 MHz
    R580-Chip @ 625/750 MHz

Worstcase-Savegame
1280x1024
4xAA 16xAF

28,68 fps (-15%)

33,60 fps

"normales" Savegame
1280x1024
4xAA 16xAF

33,75 fps (-13%)

38,64 fps

Worstcase-Savegame
1600x1200
4xAA 16xAF

22,48 fps (-24%)

29,44 fps

"normales" Savegame
1600x1200
4xAA 16xAF

26,93 fps (-19%)

33,30 fps

Worstcase-Savegame
1920x1440
4xAA 16xAF

17,16 fps (-24%)

22,56 fps

"normales" Savegame
1920x1440
4xAA 16xAF

21,15 fps (-17%)

25,60 fps

6 fps

12 fps

18 fps

24 fps

30 fps

36 fps

42 fps

48 fps

 

Unter Call of Duty 2 stehen im Schnitt 19 Prozent mehr Performance für den R580-Chip an. Dabei ergibt sich beim Worstcase-Savegame ein kleiner Vorteil von 21 zu 16 Prozent gegenüber dem "normalen" Savegame, gleichfalls fällt auf, daß die Unterschiede unter 1600x1200 und 1920x1440 generell mit 21 zu 14 Prozent erheblicher sind als unter der Auflösung von 1280x1024.


Quake 4

Pentium 4 Prescott @ 3.67 GHz, FSB864 + 1 GB DDR2/432
    R520-Chip @ 625/750 MHz
    R580-Chip @ 625/750 MHz

Worstcase-Savegame
1280x1024
4xAA 16xAF

20,20 fps (-1%)

20,33 fps

"normales" Savegame
1280x1024
4xAA 16xAF

28,27 fps

28,27 fps

Worstcase-Savegame
1600x1200
4xAA 16xAF

14,53 fps (-10%)

16,13 fps

"normales" Savegame
1600x1200
4xAA 16xAF

21,33 fps (-3%)

21,93 fps

Worstcase-Savegame
1920x1440
4xAA 16xAF

10,40 fps (-10%)

11,60 fps

"normales" Savegame
1920x1440
4xAA 16xAF

15,67 fps (-7%)

16,93 fps

4 fps

8 fps

12 fps

16 fps

20 fps

24 fps

28 fps

32 fps

 

Unter Quake 4 ergibt sich dagegen ein deutlich abweichendes Bild: Hier bringt die verdreifachte Shader-Power des R580-Chips nur geringe Zuwächse an Performance, unter der Auflösung von 1280x1024 bewegt sich sogar gar nichts. Unter 1600x1200 und 1920x1440 sind es dann im Schnitt 8 Prozent, wieder mit einem etwas höheren Vorteil unter dem Worstcase-Savegame.

In der Zusammenfassung dieser beiden Benchmarks läßt sich sagen, daß der Unterschied zwischen R520- und R580-Chip auf gleichem Taktniveau zwischen runden 10 und 20 beträgt, was aber auf jeden Fall von Spiel zu Spiel sehr verschieden aussehen kann. Bei Spielen mit hohem Einsatz der Pixelshader-Rechenwerke - welche für die Zukunft in steigender Anzahl zu erwarten sind - kann man auf jeden Fall vom oberen Ende dieser genannten Skala und teilweise sogar noch darüber ausgehen. Wie schon im in den ersten Kapiteln dieses Artikels erwähnt, dürfte der R580-Chip mit steigenden Anforderungen vernünftig mitwachsen, momentan ist allerdings der Unterschied zum Vorgänger R520 noch nicht als wesentlich zu bezeichnen (und wird im Praxisvergleich zu Radeon X1800 XT zu Radeon X1900 XTX zum Teil auch durch den Taktunterschied gebildet).






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Zurück / Back Weiter / Next

Shortcuts
nach oben