nVidia GeForce 7900 GT/GTX Review
14. September 2006 / von Madkiller (Benchmarks) & Leonidas (Text) / Seite 17 von 17
Fazit
Im seinerzeitigen Review der Radeon X1900 XT/XTX Karten konnte noch recht eindeutig das seinerzeitige ATI-Topmodell zum klaren Sieger erklärt werden - mußte es sich schließlich "nur" gegenüber der GeForce 7800 GTX 512MB beweisen. Mit diesem Artikel bringen wir nun aber den eigentlichen Counterpart zur Radeon X1900 XTX ins Rennen, die GeForce 7900 GTX: Mit primär günstigeren Taktraten ausgestattet, bittet diese Karte die Radeon X1900 XTX erneut zum Tanz.
Zu Launch-Zeiten konnte man jedenfalls noch einen ungefähren Gleichstand zwischen diesen beiden Karten ermitteln - wenn auch auf einem anderen, möglicherweise gar übertriebenem Preispunkt. Heuer nun hat sich generell nichts wesentliches an der Situation geändert, doch in der Detail-Betrachtung offenbart die Radeon X1900 XTX dann doch einige Vorteile. Im einzelnen läßt sich sagen:
Bei der allgemeinen Performance wie auch bei den Messungen unter den superhohen Auflösungen liegen Radeon X1900 XTX und GeForce 7900 GTX generell irgendwie gleichauf bzw. schwanken die Ergebnisse je nach Spiel. Bei entsprechender Anzahl der Benchmarks könnte man eventuell auf einen geringfügigen Vorteil zugunsten der einen oder anderen Seite ermitteln, Unterschiede im Bereich von unter 5 Prozent sollten aber eigentlich keinen erheblichen Einfluß auf die Kaufentscheidung nehmen.
Bei den Messungen unter den superhohen Anti-Aliasing Modi liegt die Radeon X1900 XTX prinzipbedingt erheblich vor der GeForce 7900 GTX, auch wenn nVidia hier gegenüber der GeForce 7800 GTX doch um einiges aufholen hat können. Vor allem kann die Radeon X1900 XTX hier aber mit den absoluten Werten unter 6x Anti-Aliasing punkten, welche in den allermeisten Fällen noch im spielbaren Bereich liegen, während nVidias 8xS Anti-Aliasing selbst auf der GeForce 7900 GTX teilweise im unspielbaren Bereich unterhalb von 25 oder gar unterhalb von 20 fps liegt.
Bei den Bildqualitätsfeatures ist allerdings die Radeon X1900 XTX dann doch wertbar vor der GeForce 7900 GTX zu sehen. Das mit dem R520-Chip eingeführte winkel-unabhängige Area-AF kann sowohl bezüglich der Bildqualität als auch der Performance voll überzeugen, nVidia hat hierzu derzeit kein Gegenangebot. Gleichzeitig erscheint ATIs 6x Anti-Aliasing als der "rundere" Kompromiß zwischen Leistungsanforderungen und Zugewinn an Bildqualität überhalb von 4x Anti-Aliasing zu sein: nVidias 8xS Anti-Aliasing hat zwar auch seine Vorteile, ist aber aufgrund seiner enormen Performanceanforderungen keinesfalls so breitflächig einsetzbar.
Und letztlich ermöglicht eben derzeit nur ATI Anti-Aliasing auch unter HDR-Rendering (selbst wenn es in Ausnahmen auch bei nVidia funktioniert). Dies mag derzeit noch keine erheblichen Auswirkungen haben, ist aber eben dennoch erwähnenswert, weil den (aktuellen) nVidia-Grafikkarten dieses Feature in zukünftigen Spielen möglicherweise schmerzlich fehlen wird.
Insofern erscheint uns derzeit die Radeon X1900 XTX im Vergleich zur GeForce 7900 GTX als das etwas rundere Angebot, schwingt unser Pendel trotz des fast totalen Performance-Gleichstandes in diesem Artikel in ATI-Richtung. Dabei möchten wir mit dieser Wertung die GeForce 7900 GTX keinesfalls schlecht machen, die Karte liefert nach wie vor das, was sie verspricht. Nur ist eben derzeit die Radeon X1900 XTX ein paar Nuancen vor der GeForce 7900 GTX zu sehen - auf keinen Fall mit großem Abstand, aber eben dennoch mit sicht- und wertbarer Differenz.
Hier fließt natürlich auch mit ein, daß die Radeon X1900 XTX derzeit gar das geringfügig bessere Angebot bezüglich des Preises macht: Die Karte ist derzeit ab 360 Euro zu haben, während die GeForce 7900 GTX mit ab 380 Euro minimal teurer kommt. Möglicherweise mag diese Preissituation aber auch damit zusammenhängen, daß ATI vor kurzem die Preise der bisherigen HighEnd-Grafikkarten erheblich gesenkt hat, um Platz für die Radeon X1950 XTX zu schaffen.
Insofern könnte es auch sein, daß nVidia hier über kurz oder lang nachzieht und auch der GeForce 7900 GTX eine entsprechende Preissenkung angedeihen läßt. Prinzipiell wäre dieser Schritt anzuraten, denn mit einem nur geringfügig besserem Preis kann die GeForce 7900 GTX die aufgezählten und letztlich doch nur geringfügigen Nachteile gegenüber der Radeon X1900 XTX problemlos überdecken. Das letzte Wort zwischen Radeon X1900 XTX und GeForce 7900 GTX scheint also noch lange nicht gesprochen zu sein, vielmehr dürften sich diese beiden Kontrahenten noch einige Zeit im mittleren und eines Tages auch im unteren HighEnd-Segment beharken.
Im übrigen lassen sich die Erkenntnisse dieses Tests, welcher ja eigentlich nur Radeon X1900 XTX vs. GeForce 7900 GTX lautete, auch durchaus auf die weiteren HighEnd- und Mainstream-Grafikkarten von ATIs Radeon X1000 Serie sowie nVidias GeForce7-Serie umlegen: Sofern hier zwei in etwa gleich schnelle Kontrahenten aufeinandertreffen, sehen wir derzeit ATI einfach etwas vorn. nVidia muß dies aktuell mit entweder dem besserem Preis oder der besserem Performance kontern - wobei es persönliche Präferenz ist, wie hoch diese Punkte ausfallen sollten. Bei einem Performance-Gleichstand wäre aber derzeit in jedem Fall ATI die Grafikkarte unserer Wahl.
Neben dem Fazit zum eigentlichen Thema dieses Artikels wären aber noch ein paar weitere bemerkenswerte Punkte zu erwähnen:
Die von uns zur Performance-Ermittlung benutzten Savegames neigen generell zu etwas niedrigeren Frameraten als herkömmliche Timedemos, was aber im Sinne einer besseren Beurteilung der Performance im Gamer-Alltag durchaus sinnvoll ist, schließlich zählen für den Spieler generell die Frameraten während Action-reicher Sequenzen - und nicht während Leerlaufs. Zudem ergibt sich mit speziellen Worstcase-Savegames die Möglichkeit, auch absolute Tiefstpunkte aufzuzeigen. Nichts desto trotz reichen die verwendeten HighEnd-Grafikkarte von ATI und nVidia noch aus, um selbst unter 1600x1200 samt 4xAA und 16xAF noch in den allermeisten Fällen mindestens 25 fps selbst in Worstcase-Messungen zu erreichen.
Die heutigen HighEnd-Grafikkarten sind (im Gegensatz zu manchen früheren Versuchen) absolut in der Lage, superhohe Auflösungen mit noch anständigen Frameraten fahren zu können. Auf 1920x1440 erscheint dabei sogar noch 4xAA samt 16xAF möglich, bei 2048x1536 dürfte man dagegen zumindestens mit den aktuellen SingleChip-Grafikkarten aus Performance-Gründen noch auf 2xAA samt 4xAF limitiert sein. Dualchip-Grafikkarten sowie CrossFire/SLI-Kombinationen auf Basis von HighEnd-Grafikkarten sollten dann aber auch diese Hürde überspringen können.
Die HighEnd-Grafikkarten von ATI sind durchaus auch zu 6x Anti-Aliasing mit zumeist noch anständigen Frameraten in der Lage. Im Gegensatz dazu ist das 8xS Anti-Aliasing von nVidia zumindestens bei aktuellen Spielen zu Hardware-fressend und bleibt damit auf einen Einsatz zur Verschönerung älterer Spiele limitiert.
Die Radeon X1800 XT hat inzwischen einiges von ihrer einstigen Attraktivität verloren, primär resultierend aus den Preissenkungen bei der Radeon X1900 XT: So liegen die Preise bei der Version mit 512 MB Grafikkartenspeicher inzwischen gleichauf, ist in diesem Fall natürlich die Radeon X1900 XT vorzuziehen, da letztgenannte Karte den erheblichen Vorteil der dreifach ausgelegten Pixelshader-Einheiten innehat. Bei der 256-MB-Version liegt die Radeon X1800 XT zwar noch etwas günstiger, allerdings wäre auch hier angesichts des doch nicht mehr bedeutenden Preisunterschiedes zu überlegen, ob man nicht besser zur zukunftsträchtigeren Lösung in Form der Radeon X1900 XT greift.
Davon abgesehen konnte der schon früher festgestellte geringe Performance-Unterschied zwischen Radeon X1900 XT 512MB und Radeon X1900 XTX auch von uns bestätigt werden. Bei nur runden 5 Prozent Leistungsdifferenz zwischen diesen Karten sollte man sich durchaus prüfen, ob die erheblich teurere Radeon X1900 XTX wirklich sein muß, wenn die Radeon X1900 XT 512MB schon für derzeit rund 25 Prozent günstiger zu haben ist.
Unter erklärt CPU-limitierten Spielen kann eine HighEnd-Grafikkarten trotzdem manchmal Vorteile zeigen: Wenn man die Auflösung bzw. die Bildqualitäts-Settings nur weit genug aufdreht, ergeben sich je nach Spiel durchaus manchmal Vorteile gegenüber leistungsschwächeren Grafikkarten - und natürlich, ohne daß man dabei (mit der HighEnd-Grafikkarte) an Performance gegenüber niedrigeren Auflösungen bzw. Bildqualitätssettings verliert.
Adaptive und Transparenz Anti-Aliasing kosten mit grob 30 Prozent deutlich mehr Performance als frühere Tests ausgewiesen haben, wobei dies natürlich unserer abweichenden Meßmethodik geschuldet ist. Dafür kostete ATIs Area-AF mit rund 5 und nVidias "High Quality" Modus mit rund 10 Prozent einigermaßen weniger Performance, als dies frühere Tests ausgewiesen haben.
Insbesondere letzterer Punkt verdient nochmal eine gesondere Betrachtung, hängt dieser dort stark mit der von uns angesetzten Meßmethode mittels Savegames zusammen. Wie wir mittels der vorstehenden Tests feststellen konnten, ergeben diese teilweise ganz andere Anforderungen an die Hardware als Messungen unter der Benutzung üblicher Timedemos - und dabei haben die Savegames immer den Vorteil auf ihrer Seite, im Gegensatz zu den Timedemos die volle Realität abzubilden.
Nichts desto trotz ist es erstaunlich, wie stark sich zwischen Timedemos und Savegames die Vorzeichen ändern: Während bei Timedemos noch Filteroptimierungen erheblichen Einfluß auf die gemessene Performance nehmen und Adaptive/Transparenz Anti-Aliasing im gewöhnlichen "im Vorübergehen" erledigt wird, drehten unsere Savegames diese Weisheiten komplett um: In der Spiele-Realität fressen Adaptive/Transparenz Anti-Aliasing richtig Leistung - und nicht die diversen Filtersettings.
Dabei hat diese Erkenntnis sogar eine ganz praktische Auswirkung: Wenn Filteroptimierungen so richtig nur in Timedemos, jedoch nicht in der realtitätsnahen Szenarik eines Savegames zum tragen kommen, dann werden diese Filteroptimierungen seitens der Grafikchip-Entwickler eigentlich nur zum Gewinnen von Benchmarks erstellt. Ok, daß wussten wir prinzipiell auch schon vorher, doch als neues Element kommt hier eben die Erkenntnis hinzu, daß die Filteroptimierungen auch in der Gamer-Realität nicht zu erheblich mehr Performance führen, sondern allein nur in synthetischen Tests mittels Timedemos.
Womit man andererseits schlußfolgern kann: Rein aus der Sicht der Performance in der Gamer-Praxis könnten die Grafikchip-Entwickler locker auf all ihre Filteroptimierungen verzichten, da diese doch letztlich in der Gamer-Praxis keinen erheblichen Performance-Einfluß haben. Aber dies wird natürlich nicht passieren, so lange Aussagen zur Performance vorwiegend aus Timedemos gewonnen werden und die Grafikchip-Entwickler sich aus dieser Faktenlage heraus zu ihren "Optimierungen" regelrecht gezwungen sehen ;).
Und somit sind wir letztlich heilfroh, diesen Test unter dem fast ausschließlichen Einsatz von Savegames anstatt von Timedemos angetreten zu haben, auch wenn dies eine erhebliche Mehrarbeit (das Benchmarken mittels Savegames ist deutlich zeitaufweniger als mit Timedemos) mit sich brachte. Aber ansonsten hätten wir diese neuen Erkenntnisse nie aufstellen können, welche zukünftig möglicherweise zu einer allgemein genaueren Betrachtung von Grafik-Hardware führen könnte.
Links zu weiteren Tests
Wie üblich geben wir an dieser Stelle noch einen Querschnitt neuerer Tests anderer Webseiten zum besten, um das Thema vertiefen oder aber sich weitere Meinungen einholen zu können: