ATi Radeon 64MB DDR Bulk / Retail Review
18. Juni 2001 / von Leonidas / Seite 9 von 33
ATi´s Treiber-Tricks
Die Überschrift ist nun reichlich provokant - aber wir glauben, dies nachfolgend auch passabel belegen zu können. Doch der Reihe nach ...
In vorstehender Seite zu den OpenGL-Optionen haben wir eine Option ausgelassen und auf diese Seite hier verwiesen. Es handelt sich um die Option "Convert 32 bit textures to 16 bit". Was aber macht diese nun aber so gefährliches, daß wir hier zu einer solchen Behauptung kommen? |
Nun, diese Option forciert, das alle Texturen nur mit einer Farbtiefe von 16 Bit vom Grafikchip verarbeitet werden, egal ob sie eigentlich im 32Bit-Format vorliegen. Damit ist diese Option ergo nur für neuere Spiele ala Quake III Arena, MDK2 und Engine-gleiche Spiele interessant, welche überhaupt 32bittige Texturen anbieten. Bei diesen neuen Spielen mit 32bittigen Texturen treffen wir meistens auch auf ein Grafiksetting, welches diese Farbtiefe der Texturen regelt - und dies unabhängig der eigentlichen Renderingtiefe. Im gewöhnlichen setzt man jedoch für Benchmarks die Farbtiefe des Spiels (Renderingtiefe) und die der Texturen auf den gleichen Wert. Ganz besonders unter 32 Bit Renderingtiefe würde es ja kaum Sinn machen, mit nur 16bittigen Texturen anzutreten - dies torpediert den Sinn der höheren 32Bit-Qualität.
Aber genau dieses erzeugt obige Option - sie wirft in der Default-Einstellung die 32Bit-Texturen über Bord und arbeitet mit nur 16bittigen Texturwerten - während das Spiel im eigentlichen aber weiterhin mit 32 Bit rendert. Dies spart natürlich Speicherbandbreite und erhöht die Performance - aber dies zuungunsten der Optik, denn an dieser wird mit der genannten Methode natürlich genauso gespart.
So weit - so gut. All dies vorgesagte kann man noch als ungefährlich einordnen - schließlich sind Tweak-Optionen zur Leistungsverbesserung (die immer irgendwo etwas Darstellungsqualität kosten) eigentlich meistens recht willkommen. Gefährlich wird diese Sache dadurch, daß dies im ATi-Treiber ein Standard ist: Alle Texturen im 32Bit-Render-Modus fließen mit nur ungenauen 16 Bit in die Berechnung ein. Hier hat ATi knallhart einkalkuliert, daß die meisten diese Option nicht entsprechend deuten können, sie dementsprechend auf dem Standard-Wert lassen und damit an eine höhere Leistung der ATi-Karte glauben - welche letztlich nicht da ist!
Denn bei aller Liebe zum Tweaking und dem nicht von der Hand zu weisenden Einwand, daß der Verlust von Bildqualität durch diese Option nicht all zu hoch ausfällt, ist doch eines klar: Einen fairen Vergleich zum Beispiel zur GeForce2 ermöglicht diese Option nicht! Die GeForce2 rechnet nunmal im 32Bit-Modus auch mit 32Bit-Texturen und nicht mit nur 16bittigen Texturen. Aber auf genau diesen halbseidenen Vergleich hat ATi wohl spekuliert, als man diese Option im Treiber so gesetzt hat. Denn sehr vieles ist heutzutage (leider) alleinig von Q3A-Tests abhängig - und genau bei diesem Spiel greift dieses Setting.
Dem kann man entgegenwirken, indem man die in Q3A unter Setup/System/Graphics vorhandene Option Texture Quality je nach Test auf "16 bit" oder "32 bit" setzt und prinzipiell nicht das Setting "Default" benutzt. Leider arbeitet aber erfahrungsgemäß nur ein kleiner Teil von Hardware-Reviewern so exakt bzw. kennt sich so genau mit allen Benchmark-Feinheiten der jeweiligen Spiele und Grafikkarten aus. Auch begünstigt der Umstand, daß eine "Default"-Einstellung der Texturentiefe-Option von den Treiber der meisten Grafikkarten (z.B. der GeForce 1/2/3) gleich der Renderingtiefe gesetzt wird und somit diese "Default"-Einstellung oftmals als (fälschlicherweise) "ungefährlich" eingestuft wird, hier Meßfehler bei Radeon-Benchmarks.
Um zu verdeutlichen, daß man die Auswirkungen dieser "kleinen" Option nicht auf die leichte Schulter nehmen sollte, haben wir folgende Benchmarks getätigt. Das Testsystem und die Benchmark-Settings entsprechen dabei den nachfolgend noch erläuterten Einstellungen für das komplette Review. D.h. - um nur die Unterschiede zwischen beiden Zahlen anzusprechen - beim ersten Wert ist in Q3A eine Texturentiefe von 32 Bit eingestellt wurden und beim zweiten Wert wurde in Q3A die Texturentiefe auf "Default" eingestellt. Die bewußte Option im Treiber war in beiden Fällen aktiviert - was im Prinzip darin resultiert, daß in der Default-Variante Q3A mit nur 16bittigen Texturen arbeitet.
|
Dies sieht erst einmal nach nicht all zu viel aus - aber der ATi-Treiber schummelt sich hier mit immerhin 8 Prozent (1024*768) bzw. 9 Prozent (1280*1024) nach vorn. Und ja - "schummeln" ist das richtige Wort, denn nVidia´s GeForce2 bestreitet denselben Test eben nicht mit 16 Bit Texturen unter der 32bittigen Auflösung, sondern setzt zu dieser auch richtige 32 Bit Texturen an.
ATi ist hier natürlich zumindestens bei den Benchmarkern fein raus: Immerhin kann man argumentieren, daß sich ein entsprechender Benchmarking-Fehler wie oben zu sehen nur dann einstellt, wenn der Benchmarker beim Spiel entsprechend "unperfekte" Einstellungen ansetzt. Trotzdem stehen wir zu der Behauptung, daß diese Option wohl nur in den Treiber integriert wurde, um hier und da in den Benchmarks besser dazustehen - und dies dürfte ATi auch durchaus in einigen Fällen gelungen sein. Wer diese Treiber-Option unbeachtet läßt und dann die Texturentiefe im Spiel - weil man dies von nVidia-Tests ja so gewohnt ist - auf "Default" stehen läßt, erzeugt automatisch falsche Werte.
Lange Rede, kurzer Sinn. Wir haben natürlich die Treiber-Optionen für unsere Tests entsprechend korrigiert, was in folgenden bei den nachfolgenden Benchmarks zur Anwendung kommenden OpenGL-Settings resultierte:
OpenGL-Settings: 3DCenter Einstellungen
Einleitung | Technik | Treiber | Setup | Benchmarks | Fazit |