nVidia GeForce 8800 GTX Review
30. April 2007 / von Madkiller (Benchmarks) & Leonidas (Text) / Seite 4 von 15
Testumgebung und -settings
Mit diesem Test kamen von unseren beiden Teststationen diesesmal nur das Intel-System zum Einsatz - zum zum einen, weil der dort benutzte Core 2 Duo Prozessor erst einmal schon eine deutlich höhere Pro/MHz-Leistung unter Spielen aufweist und sich zum anderen auch deutlich besser übertakten lies. So wurden die Grafikkarten-Tests dieses Artikels dann auf 3200 MHz CPU-Takt durchgeführt, bei einem FSB1600 und einem Speichertakt von DDR2/800.
Intel-Testsystem | |
Prozessor | Intel Core 2 Duo E6400, Allendale-Core mit zwei Kernen (DualCore), 2133 MHz, Sockel 775, 2 MB Level2 Cache (shared), FSB1066 |
benutzte Taktfrequenzen | für die eigentlichen Grafikkarten-Tests: 3200 MHz (8x400), FSB1600, DDR2/800 (Niveau ca. "E7000") für Vergleiche zur CPU-Limitierung: 2133 MHz (8x266), FSB1066, DDR2/533 (Niveau original E6400) |
Mainboard | Asus P5W DH Deluxe, Sockel 775, Intel 975X + ICH7-R, unterstützt einzelne Grafikkarten mit 1x16 PCI Express Lanes und CrossFire mit 2x8 PCI Express Lanes |
Speicher | 2x 1 GB OCZ "Platinum XTC Revision 2" DDR2/800, Ratings: 4-4-4-15 @ DDR2/800 |
Soundkarte | Creative SoundBlaster Audigy2 ZS |
Festplatte | Maxtor DiamondMax Plus 9, 160 GB, SATA1 |
Laufwerke | MSI D16 DVD-Laufwerk |
Netzteil | Tagan TG480-U01, nominell 480 Watt, 12-Volt-Leitung: 28A |
Peripherie | an einem Monitor/Maus/Tastatur-Umschalter: Samsung Syncmaster 957p 19" Röhrenmonitor, maximale Auflösung: 2048x1536 + Logitech M-BE58 First / Pilot Wheel Mouse + No-name Keyboard |
Software | Microsoft Windows XP Home, Service Pack 2 (inklusive DirectX 9.0c) |
Grafikkarten | Sapphire Radeon X1900 XT 512MB @ XTX, 650/775 MHz, Catalyst 6.12 (A.I. low) Sapphire Radeon X1950 XTX 512MB, 650/1000 MHz, Catalyst 6.12 (A.I. low) nVidia GeForce 7900 GTX 512MB, 650/800 MHz, nVidia 93.71 ("High Quality") Asus GeForce 8800 GTX 512MB, 575/1350/900 MHz, nVidia 97.44 ("Quality") |
Bei der Radeon X1950 XTX wurde bezüglich der Filtersettings "A.I. low" (die default-Einstellung) gewählt, zusätzlich war zudem das bessere, weil weitestgehend winkelunabhängige Area-AF aktiv. Bei der GeForce 7900 GTX wurde bezüglich der Filtersettings "High Quality" unter Deaktivierung aller angebotenen Filter-"Optimierungen" gewählt. Bei der GeForce 8800 GTX wurde hingegen das Filtersetting "Quality" gewählt, weil diesen den Filterqualitäten der Vergleichskarten am nähesten kommt.
Als Testsettings wurden generell folgende Settings gewählt, welche die benutzten Grafikkarten sowohl nach unten (Radeon X1950 XTX und GeForce 7900 GTX) als auch nach oben (GeForce 8800 GTX) möglichst gut auslasten sollten:
- 1280x1024, 4x Anti-Aliasing, Adaptive/Transparenz Anti-Aliasing, 16x anisotroper Filter
- 1600x1200, 4x Anti-Aliasing, 16x anisotroper Filter
- 1600x1200, 4x Anti-Aliasing, Adaptive/Transparenz Anti-Aliasing, 16x anisotroper Filter
- 1920x1440, 16x anisotroper Filter
- 1920x1440, 4x Anti-Aliasing, 16x anisotroper Filter
- 1920x1440, 4x Anti-Aliasing, Adaptive/Transparenz Anti-Aliasing, 16x anisotroper Filter
Zusätzlich wurden noch extra Tests unter 1280x1024 mit den höheren Anti-Aliasing Modi 8x, 8xQ, 16x und 16xQ angestellt, um deren Leistungshunger einschätzen zu können. Weitere extra Tests beschäftigen sich mit dem Einfluß der Filtersettings auf die Radeon X1950 XTX (A.I. low vs. A.I. off) und GeForce 8800 GTX ("Quality" vs. "High Quality"). Zudem gibt es noch Vergleiche zur CPU-Limitierung, bei welchen die Auflösung auf 800x600 heruntergedreht und auf Anti-Aliasing wie anisotropen Filter verzichtet wurde, die Filtersettings der einzelnen Grafikkarten blieben aber auch dort identisch.
Bezüglich des Sounds wurden die Creative-Soundkarte üblicherweise mit maximaler Qualität und wenn möglich auf EAX 5.1 betrieben. In den Benchmark-Spielen selber wurde fast ausschließlich die maximal mögliche Bildqualität gewählt - mit den nachfolgend beschriebenen Ausnahmen:
- Anno 1701
Version: 1.01, Settings: alles auf maximum - Gothic 3
Version: 1.12, alles auf maximum - GTR 2
Version: 1.1.0.0, Settings: alles auf maximum bis auf: Schatten auf hoch & mittlere Scheinwerferdetails - Need for Speed: Carbon
Version: 1.3, Settings: alles auf maximum - Prey
Version: 1.2, Settings: alles auf maximum - The Elder Scrolls IV: Oblivion
Version: 1.5.11, Settings: alles auf maximum, aber kein HDR-Rendering (nur Blur)
Wie mittlerweile bei uns üblich, haben wir zur Performance-Ermittlung wieder auf Savegames anstatt auf Timedemos zurückgegriffen. Dies ermöglichte uns, auch aufgrund der Kürze der Savegames, speziell nur jene Szenen herauszusuchen, welche wir auch wirklich vermessen wollten - während bei einem Timedemo meistens mehrere Szenen (und viel Leerlauf) auf einmal vermessen werden, welche aber jeweils unterschiedliche Performance-Charakteristiken aufweisen können. Ein Timedemo-Durchlauf verwischt diese unterschiedlichen Szenen und deren unterschiedliche Performance-Charakteristik aber immer zu einer einzelnen Performance-Aussage, was die Aussagekraft einer solchen Messung dann doch erheblich einschränkt.
Anstatt Messungen des eher durchschnittlichen Gameflusses mittels Timedemos stellen unsere Messungen ausgewählter kurzer Szenen über den Weg der Savegames somit eher Worstcase-Benchmarks dar: Wir messen dann, wenn die Hardware wirklich unter Stress gerät - und eben auch nur die jeweilige Szene und nicht noch jede Menge Leerlauf oder gleich eine andere Szene mit hinzu. Konkret können wir sogar behaupten, daß die für die jeweiligen Test-Spiele von uns verwendeten Szenen mit zu den stressigsten des gesamten jeweiligen Spiels gehören und demzufolge sicherlich sehr realitätsnah sind.
Dies bezieht sich jedoch rein nur auf den Singleplayer-Part der jeweiligen Spiele. Denn der Multiplayer-Modus der meisten Spiele unterscheidet sich oft gravierend in Sachen Anzahl der im Einsatz befindlichen Einheiten und darzustellender Effekte, wodurch sich die CPU- und GPU-Last deutlich vom "üblichen" Singleplayer-Gameplay unterscheiden kann. Natürlich ist bekannt, daß im Multiplayer-Modus üblicherweise zuerst die CPU deutlich mehr belastet wird, dennoch wollen wir unsere Benchmark-Ergebnisse sicherheitshalber nur auf den Singleplayer-Modus der jeweiligen Spiele bezogen wissen.
Von den benutzten Savegames wurden jeweils immer die ersten drei bis fünf Sekunden zur Messung benutzt, welche dabei immer mittels Fraps durchgeführt wurden. Dabei wurde jedes Savegame mehrfach ausgeführt wie gemessen und dann der Durchschnitt dieser Messungen als Ergebnis genommen. Die einzelnen Savegames wurden im übrigen nicht bewußt nach einer Grafikkarten- oder CPU-Limitierung ausgesucht, sondern es wurde nach ausgiebigem Spielen des jeweiligen Titels diese vier Szenen ausgewählt, welche uns am allgemeingültigsten und Hardware-fordernsten erschienen. Screenshots der verwendeten Savegames zur besseren Verdeutlichung der jeweils ausgemessenen Szene befinden sich dann in den einzelnen Benchmark-Kapiteln.