Grafikkarten-Treiber: CPU-Last und DualCore-Optimierung
25. September 2007 / von Madkiller (Benchmarks) & warmachine79 (Text) / Seite 1 von 3
Genug Zeit ist mittlerweile seit dem Launch der Direct3D10 HighEnd-Grafikchips G80 (GeForce 8800 Serie) und R600 (Radeon HD 2900 Serie) vergangen - was den großen Rahmen angeht, ist die Bestandsaufnahme bezüglich Leistungsfähigkeit, Bildqualität und Kompatibilität wohl abgeschlossen. Auch DualCore-Prozessoren haben sich bei der Zielgruppe dieses Artikels inzwischen weitestgehend durchgesetzt, ihre Auswirkungen auf die Leistungsfähigkeit in Spielen wurden bis zum jetzigen Zeitpunkt ebenfalls hinreichend untersucht und insgesamt kann man für den folgenden Test davon ausgehen, dass Spiele umso mehr von DualCore, teils in erheblichem Maße, profitieren, je neuer sie sind.
Die Erkenntnisse, die aus den vorgenannten Testberichten gewonnen wurden, gilt es jetzt zu verdichten und zusammenzuführen. Schließlich sind beide neuen Technologien wie beschrieben ausreichend lange im Markt, sollten sich die Grafikchip-Entwickler und die jeweiligen Treiberteams inzwischen darauf eingestellt haben können. Es gibt also zwei Fragen, die dieser Testbericht beantworten soll:
- Welcher Grafikchip-Entwickler und welche Grafikkarten-Generation skaliert besser mit der Erweiterung von SingleCore auf DualCore?
- Welcher Treiber verursacht die höhere CPU-Last?
Wobei die erste Frage des Testberichts zwangsläufig zu einer weiteren - hier und heute jedoch kaum beantwortbaren - Frage führen wird: Liegt die bessere DualCore-Skalierung von Hersteller A an einem besseren Treiber - oder an der zu hohen Komplexität des Designs von Hersteller B?
Für die hierfür angestellten Benchmarks gelten folgende Rahmenbedingungen:
- Es werden vier Grafikkarten von zwei Herstellern getestet - je zwei aus der aktuellen Generation, zwei Karten aus der Vorgängergeneration: Es sind die (Club3D) GeForce 8800 GTS 640MB und die (Sapphire) Radeon HD 2900 XT sowie die (nVidia) GeForce 7950 GT und die (Sapphire) Radeon X1900 XT.
- Die Testplattform ist ein Core 2 Duo 6400 mit 4GB RAM, genauere Daten zum System sind hier zu finden.
- Als Treiber kamen seitens ATI der Catalyst 7.7 und seitens nVidia die ForceWare-Versionen 94.24 (GeForce 7950 GT) sowie 158.22 und 162.18 (GeForce 8800 GTS) zum Einsatz.
- Jede Karte wird einem Testdurchlauf mit einer SingleCore-CPU und einem Testdurchlauf mit einer DualCore-CPU unterzogen. Die SingleCore-CPU wird hierbei künstlich über den Parameter "/numproc 1" in der "boot.ini" von Windows erzeugt.
- Um die Ergebnisse und ihre Aussagen besser erkennbar zu machen, wird durch niedrige Auflösungen sichergestellt, daß ein möglichst einwandfreies CPU-limitiertes Szenario vorliegt.
- Es werden ausschließlich Savegames zum testen verwendet.
- Jedes Spiel wird in vier verschiedenen Szenarien getestet, um eine möglichst große Allgemeingültigkeit der Ergebnisse für das jeweilige Spiel zu erreichen.
Vorab sei an dieser Stelle den Firmen Club3D, Intel, nVidia und Sapphire für die unkomplizierte Stellung von Testsamples für unsere neuen Teststationen gedankt, womit auch dieser Artikel wieder ermöglicht wurde.
Zuerst wollen wir der Frage nachgehen, wie gut die vorgenannten Grafikkarten unter heutigen Treibern von DualCore-Prozessoren profitieren. Der erste Test hierzu beschäftigt sich mit der Aufbausimulation Anno 1701:
Anno 1701 macht seinen Ruf als CPU-limitiertes Spiel alle Ehre: Keine Grafikkarte profitiert im Durchschnitt weniger als 35 Prozent von einer DualCore-CPU (bei der GeForce 7950 GT sind es sogar 40 Prozent) - das ist bereits ein Wert, der den Unterschied zwischen "spielbar" und "unspielbar" ausmachen kann. Da der Unterschied zwischen den Karten aber im Durchschnitt lediglich 5 Prozent beträgt, ist dieser Test keine große Hilfe, Skalierungsunterschiede zwischen den Grafikchip-Herstellern auszumachen, viel mehr unterstreicht dieser Test lediglich die Aussage, dass Anno 1701 massiv von DualCore-CPUs profitiert. Bei allen Grafikkarten ist die CPU-Last ähnlich hoch, lediglich die GeForce 8800 GTS kommt auf minimal bessere Werte.
Kommen wir nun zum zweiten Test, hier dient Stalker: Shadow of Chernobyl als Grundlage. Das Spiel fordert CPU und Grafikkarte gleichermaßen, ist jedoch nicht so CPU-lastig wie Anno 1701.
Bei Stalker sind die Testergebnisse deutlich unterschiedlich. Während die "Startszene" generell Grafikkarten-limitiert ist - die Radeon HD 2900 XT ist hier die Ausnahme - belohnt die Szene "Schweres Gefecht" den Einsatz von DualCore-CPUs mit einem Leistungsschub von durchschnittlich 40 Prozent, was nicht verwunderlich ist, zehren die Partikeleffekte in Gefechtsszenen hauptsächlich von der CPU-Power. Eine klar erkennbare Tendenz ist jedoch, dass mit zunehmender CPU-Lastigkeit einer Szene die GeForce 8800 GTS mehr von DualCore-CPUs profitiert als die Radeon HD 2900 XT - das Bild, was wir im Durchschnitt erhalten, täuscht über diese Tatsache hinweg, man muss sich schon die einzelnen Testergebnisse ansehen, um diese Tendenz erkennen zu können. Bei der Vorgängergeneration verhält es sich umgekehrt, hier scheint mit steigender CPU-Last die Radeon X1900 XT leicht im Vorteil gegenüber der GeForce 7950 GT zu sein.
Die Startszene offenbart aber noch einen interessanten Aspekt: Die Radeon HD 2900 XT ist hier die einzige Karte, welche einen Gewinn aus DualCore zieht - was ein Hinweis auf eine bessere DualCore-Optimierung im ATI-Treiber sein könnte oder auch, daß der R600-Chip architekturbedingt weniger CPU-Last erzeugt. Ob sich diese Vermutung bewahrheitet, werden die folgenden Tests noch zeigen.