Zum 3DCenter Forum
Inhalt




Detonator 52.14 Test & 52.10 Re-Test

8. Oktober 2003 / von Leonidas / Seite 7 von 7


   Fazit

Damit kommen wir nun endlich zur abschließenden Zusammenfassung der Aussagen dieses Artikels. Zuerst ein Blick auf die festgestellten "Optimierungen" der Treiber 45.23 und 52.10/14, bezogen wie schon erwähnt jeweils auf nur die Grafikchips der GeForceFX-Serie:

  • Der Detonator 45.23 hat unter OpenGL wie auch unter Direct3D scheinbar eine lehrbuchhafte Filterqualität. Es konnte jedoch eine Applikations-spezifische "Optimierung" von Unreal Tournament 2003 festgestellt werden, welche auch im Application-Modus greift.

  • Die Detonatoren 52.10 und 52.14 weisen dagegen eine Vielzahl an allgemeinen "Optimierungen" unter Direct3D auf, dafür scheinbar keine Applikations-spezifischen Optimierungen und keine Optimierungen unter OpenGL. Generell werden unter Direct3D alle Texturenstufen nur noch pseudo-trilinear gefiltert, völlig unabhängig der Treiber- oder Applikations-Einstellung. Zusätzlich gibt es weitere "Optimierungen" im Control Panel Modus (nicht aber im Application-Modus), in welchem die Texturenstufen 1-7 nur noch maximal 2x anisotrop gefiltert werden.

Wir haben also auf der Haben-Seite eine deutlich höhere Shader-Performance der beiden neuen Treiber, auf der Soll-Seite jedoch die frühere Unreal-Tournament-2003-"Optimierung" nun in allen Spielen, welche über keine eigene Einstellung des anisotropen Filters verfügen und zudem die generelle Aufgabe des trilinearen Filters zugunsten eines pseudo-trilinearen Filters - und zwar völlig unabhängig der Treiber- oder Spiel-Einstellungen.

Einen wirklichen Performance-Sprung sehen wir damit durch diese neuen "Optimierungen" mitnichten (außerhalb der höheren Shader-Leistung selbstverständlich). Die paar Prozent Leistungs-Plus rechtfertigen die "Optimierungen" in unseren Augen eigentlich überhaupt nicht. "Sinn" macht die Sache nur bei der Betrachtung von Unreal Tournament 2003 Flyby-Benchmarks: Hier läßt sich durch "Optimierungen" an der Filterqualität probemlos eine um 50 Prozent höhere Performance erreichen.

Doch was hat der Anwender letztlich davon? Gar nichts, denn im realen Gameplay unter Unreal Tournament 2003 kommen klar unterhalb von 10 Prozent Performance-Vorteil durch die neuen und alten "Optimierungen" heraus, was in kaum spürbaren 2-5 fps Mehrperformance mündet. Die Flyby-Werte sind und bleiben reine Theorie-Messungen, welche zwar gut die Roh-Performance einer Grafikkarte zeigen können, jedoch rein gar nichts über die im Spiel Unreal Tournament 2003 zu erwartenden Leistungen aussagen.

Hier liegt dann auch der Grund für die ganzen "Optimierungens"-Bestrebungen seitens nVidia (und ATi) begraben: Die leider viel zu große und völlig ungerechtfertigte Bedeutung von Unreal Tournament 2003 Flyby-Benchmarks. Allein, weil diese heutzutage so häufig eingesetzt werden und damit enorm über die Leistungsbeurteilung einer Grafikkarte entscheiden, wird überhaupt so stark auf Unreal Tournament 2003 "optimiert". Sollten sich die Hardware-Tester des Internets endlich einmal dazu aufschwingen und sich zukünftig die Flyby-Messungen schenken (alternativ tut es ein Timedemo genauso), so würde der Anreiz für ATi und nVidia verschwinden, auf eben diese Flyby-Benchmarks so enorm zu "optimieren".

Dies entschuldigt natürlich nicht das Vorgehen von nVidia bei den Detonatoren 52.10 und 52.14, wo nun plötzlich die alte "Optimierung" auf Unreal Tournament 2003 für alle Spiele gilt. Der dabei erzielte Performance-Gewinn ist viel zu gering, um diese Maßnahme selbst aus Leistungserwägungen heraus rechtfertigen zu können - und gleichzeitig diktiert nVidia dem Anwender damit in der übergroßen Mehrzahl der Spiele seinen Zwangsfilter auf. Denn wer ein Spiel ohne eigene Einstellung des anisotropen Filter spielen will, hat nur den Weg über das Control Panel - und bekommt dort eben eine Zwangs-"Optimierung" vorgesetzt. nVidia bietet damit de facto bei der Mehrzahl der heutigen Spiele dem GeForceFX-Nutzer keinen vollständigen anisotropen Filter mehr an!


Als Feigenblatt für diese "Optimierung" des anisotropen Filters, welche leider auch bei ATi vorzufinden ist, bietet nVidia nun auch ein (halbwegs) funktionierendes Application-Setting an, mit welchem man diese "Optimierungen" des Control Panel Modus umgehen kann. Es sei hier aber nochmal angemerkt, daß derzeit nur die wenigstens Spiele über eine eigene Steuerung bezüglich des anisotropen Filters verfügen - und nur mit diesen ist der Application-Modus dann sinnvoll nutzbar.

Doch leider ist der Application-Modus der Detonatoren 52.10 und 52.14 auch nicht das, was er eigenlich sein sollte: Denn nicht die Applikationen (Spiele) entscheiden letztlich über den trilinearen Filter, sondern der nVidia-Treiber, welcher dem Anwender generell und in jeder Einstellung anstatt des normalen trilinearen Filters nur noch einen pseudo-trilinearen Filter vorsetzt.

Dies stellt insofern eine neue Stufe in der Geschichte der Treiber-"Optimierungen" dar, als daß nVidia damit einen eindeutigen und festgeschriebenen Standard verletzt. Denn im Gegensatz zum anisotropen Filter, welcher bislang keine exakte Definition besitzt, wird ein trilinearer Filter auf Basis einer exakten Definition erzeugt - welche nVidia hiermit klar bricht. Sollten diese Treiber oder ein Treiber mit ähnlichem Filterverhalten offiziell veröffentlicht werden, dürfte nVidia nach allen Konventionen nicht mehr die trilineare Filterung auf den Feature-Checkliste ihrer GeForceFX-Grafikchips führen.

Es bleibt natürlich immer noch die Möglichkeit offen, daß dieses Verhalten der Detonatoren 52.10 und 52.14 ein reiner Fehler ist, welcher mit späteren Treiber gefixt werden wird. Die nachfolgenden Treiber werden letztlich zeigen, wie ernst es nVidia mit dem pseudo-trilinearen Zwangs-Filter der Detonatoren 52.10 und 52.14 meint.


Wir sind an dieser Stelle ehrlicherweise regelrecht gespannt, was nVidia nun tun wird. Würde ein Treiber mit dem Filterverhalten der Detonatoren 52.10 und 52.14 tatsächlich veröffentlicht werden, dürfte dies von der Konkurrenz auf dem Grafikchip-Markt wohl weidlich ausgeschlachtet werden. Allerdings hoffentlich nur zum Zwecke diverser Schmäh-Schriften und hoffentlich nicht in dieser Form, als dann bei ATi oder XGI in den Treibern dieselben "Optimierungen" des trilinearen Filters auftauchen wie bei den nVidia-Treibern 52.10 und 52.14. Wir wollen hoffen, daß diese "Optimierungen" der nVidia-Treiber 52.10 und 52.14 nicht die anderen Grafikchip-Hersteller dazu veranlassen, mit eigenen "Optimierungen" entsprechend nachzuziehen.

Allerdings können wir uns auch wirklich nicht vorstellen, daß nVidia einen solchen Treiber mit solch vielfältigen "Optimierungen", welcher sogar vor so einer absolut feststehenden Sache wie dem trilinearen Filter nicht halt macht, wirklicht offiziell releasen will. Der User-Aufschrei schon auf diesen Artikel, welcher schließlich nur halb-interne Beta-Treiber zum Inhalt hat, dürfte schon groß genug sein - nicht auszudenken wäre die Reaktion auf den News-Seiten und in den Foren des Internets, wenn ein solcher Treiber offiziell von den nVidia-Servern angeboten werden würde.

Insofern wollen wir derzeit den Teufel nicht an die Wand malen und gehen erst einmal davon aus, daß der kommende offizielle Detonator 50 zumindestens die Zwangs-"Optimierung" durch den pseudo-trilinearen Filter nicht mehr aufweisen wird. Alles andere würde uns schon sehr stark verwundern - denn nVidia liest diese Seiten auch mit und wird sich an der User-Reaktion auf diesen Artikel an zwei Fingern ausrechnen können, wie "herzlich" ein Treiber á 52.10 oder 52.14 aufgenommen werden würde, wenn man diesen offiziell releast.

Womit wir fast am Ende dieses Artikels angekommen sind. Wir wollen den Artikel beschließen mit unserer Forderung aus dem Artikel zu den "Optimierungen" des Detonator 51.75, welche immer noch vollkommen Bestand haben und deshalb hier 1:1 Wiederholung finden:


Zwangs-"Optimierungen", welche alle Spiele auf Kosten der Bildqualität beschleunigen und damit in den allermeisten Fällen sowieso schon ausreichend schnelle Spiele unsinnigerweise noch schneller machen (dafür aber "häßlicher"), sind definitiv nicht wünschenswert. Deshalb fordern wir im Namen eines großen Teils der Gamer-Gemeinde die Grafikchip-Hersteller ATi und nVidia hiermit auf, in zukünftigen Treibern wieder Modi anzubieten, welche eine von "Optimierungen" freie Lehrbuch-Qualität bieten! Diese Modi müssen nicht unbedingt die Standard-Einstellung des Treibers sein - wenn ATi und nVidia ihren "Optimierungs"-Wettlauf weiter bestreiten wollen, sollen sie dies gerne tun.

Doch für diejenigen, welche auf vollste Bildqualität setzen, sollten beide Hersteller endlich einen von jeglichen "Optimierungen" befreiten optionalen "Super HighQuality" Modus in ihre Treiber einbauen. In diesem Modus sollte der Anwender zudem in der Lage sein, auch anisotropen Filter und Anti-Aliasing zuzuschalten können, ohne daß der Treiber wieder irgendwelche Zwangsoptimierungen ins Spiel bringt. Technisch ist ein solcher "Super HighQuality" Modus sicherlich problemlos machbar und verbraucht wohl deutlich weniger Programmierer-Arbeitszeit als all die optimierten Modi. Insofern sollten sich beide Hersteller endlich einmal aufraffen und ihren Kunden wieder die bestmögliche Bildqualität (optional) anbieten, mit welcher bei ATi und nVidia sowieso schon jederzeit geworben wird.




Nachtrag vom 9. Oktober 2003:

Bei AnandTech hat man einen äußerst umfangreichen Artikel zur den Leistungen und zur Bildqualität der aktuellen HighEnd-Grafikkarten um Radeon 9800XT und GeForceFX 5950 Ultra (NV38) online gestellt. Neben den ausführlichen Spiele-Benchmarks mit 18 Spielen auf jedenfall erwähnenswert sind die Bildqualitäts-Test, welche zu jedem dieser Spiele durchgeführt wurden. AnandTech haben hierzu auf ATi-Seite mit dem Calalyst 3.7 und auf nVidia-Seite mit dem Detonator 52.14 gemessen und die Bildqualität verglichen. Im Gegensatz zu den Aussagen unseres jüngsten Treibervergleichs hat man bei AnandTech jedoch keine generellen Bildqualitäts-Unterschiede beim Detonator 52.14 im Gegensatz zum früheren Treiber 45.23 feststellen können und lobt deshalb den neuen Treiber etwas in den Himmel.

Was sich jedoch nicht einmal unbedingt mit unseren Erkenntnissen widerspricht: Die nVidia-"Optimierung" des anisotropen Filters auf den Texturenstufen 1-7 im Control Panel Modus (es wird nur maximal 2x anisotroper Filter dargestellt, egal ob mehr eingestellt wird) sind nur bei regelrechtem Suchen danach zu finden, zudem wurden die meisten Bildqualitäts-Vergleiche bei AnandTech ohne den anisotropen Filter angegangen, auf diesen Bildern kann dann unmöglich ein Unterschied zu finden sein. Die generelle Zwangs-"Optimierung" des trilinearen Filters zu einem pseudo-trilinearen Filter durch den Detonator 52.14 ist zudem fast unmöglich auf Standbildern realer Spiele zu sehen, denn der trilineare Filter wurde dafür geschaffen, um das fast nur in Bewegung zu sehende MIP-Banding zu unterbinden.

Somit läßt sich konstatieren, daß die festgestellten "Optimierungen" des Detonator 52.14 bei der Betrachtung von Screenshots und wenn man nicht explizit nach diesen sucht, nicht wirklich auffallen (wieso allerdings AnandTech dem Treiber 52.14 eine bessere Filterqualität als dem Treiber 51.75 zusprechen, ist schleierhaft, der einzige Unterschied ist der funktionierende Application-Modus beim 52.14er Treiber). Die "Optimierungen" von nVidia sind somit nicht wirklich zu sehen - wobei es hier auch klare Ausnahmen gibt wie beispielsweise Tron 2.0. Ob dies nun ein Grund ist, die "Optimierungen" von nVidia zu entschuldigen, darüber kann man sicherlich trefflich streiten.

Fakt ist, daß jede neue "Optimierung" den "Optimierungs"-Wettlauf zwischen ATi, nVidia und zukünftig womöglich auch XGI (mal schauen, ob S3/VIA mit dem DeltaChrome wirklich noch dieses Jahr dazukommt) weiter anheizen wird, auf eine "Optimierung" von Hersteller A also eine neue, noch stärkere "Optimierung" von Hersteller B folgen wird. Alle diese "Optimierungen" werden - wie aus dem AnandTech-Artikel zu erkennen - im Gegensatz zu den jeweils direkt vorherigen Treibern kaum auf realen Screenshots zu sehen sein. Doch addiert man mehrere "Optimierungs"-Stufen mehrerer Treiber, wird sich mit der Zeit ein sofort erkenntlicher Bildqualitäts-Unterschied einstellen. Wir werden, sollte sich diese Spirale fortsetzen, also irgendwann einmal mit einer GeForceFX III und einer Radeon 20000 dastehen und alle Spiele unter einem bilinearen Zwangsfilter bewundern dürfen ;-)).

Dabei gewinnt an den "Optimierungen", so gering sie derzeit auch die feststellbare Bildqualität beeinflußen, eigentlich niemand, zumindestens nicht auf der Anwender-Seite. Die von uns festgestellten Performance-Gewinne durch die neuen "Optimierungen" liegen klar unterhalb von 10 Prozent. Damit werden sie eine langsame Karte wie eine GeForceFX 5200, welche man mit einer schwierigen Aufgabe wie Unreal Tournament 2003 unter 8x anisotropen Filter (16,7 fps) konfrontiert, auch nicht in den spielbaren Bereich beschleunigen können, denn 16,7 fps + 10 Prozent bedeuten trotzdem nur 18,4 fps, was das Urteil "untauglich" nicht ändern würde. Das Lieblingsargument der Grafikchip-Hersteller zu Treiber-Optimierungen, daß man damit die kleineren Karten schneller machen wolle, zieht einfach nicht, denn dann müssten diese Optimierungen im Rahmen von 30 Prozent Performance-Plus ausfallen und nicht klar unterhalb von 10 Prozent.

Somit bleibt als einzige Erklärung für die festgestellten "Optimierungen" des Detonator 52.14 (und auch die ATi-Treiber weisen bekanntlich eine "Optimierung" auf!), daß es bei den geringen dadurch erzielten Performance-Gewinnen allein um das Gewinnen von Benchmarks bei den Hardware-Testern geht. In einer Situation wie der aktuellen, wo die Kontrahenten in den einzelnen Marktsegmenten jeweils so eng beieinander liegen, reichen durchaus die paar Prozent "Optimierungs"-Gewinn aus, um aus einer Niederlage einen Sieg bei den Leistungsmessungen zu machen. Daß letzterer nur mit äußerst geringer Differenz erzielt wurde, spielt dabei eine untergeordnete Rolle, wichtig ist hier der psychologische Vorteil, einfach "vorn" zu liegen.

Und spätestens an dieser Stelle finden wir wieder zu unserer festen Meinung gegen all diese "Optimierungen": Für die Besitzer von LowCost-Karten wird keine Anwendung so beschleunigt, auf daß diese Hardware damit in eine neue Performance-Klasse erhoben wird (sprich, daß es sinnvoll wäre), für die Besitzer von Mainstream- und HighEnd-Karten sind die Performance-Zuwächse dagegen zumeist nicht relevant, da diese Karten sowieso schnell genug sind. Die von den Grafikchip-Herstellern mittels ihrer "Optimierungen" aufgegebene Bildqualität dient allein dem Performance-Wettstreit der Hersteller untereinander, dem Anwender bringt die Sache letztlich überhaupt nichts (außer einer schlechteren Bildqualität). Wollten die Grafikchip-Hersteller sich wirklich um "Customer satisfaction" kümmern, welches erklärtes Ziel aller beteiligten Firmen ist, wäre die gesamte "Optimierungs"-Arbeit komplett unnötig.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Zurück / Back 3DCenter-Artikel - Index Home

Shortcuts
nach oben