Zum 3DCenter Forum
Inhalt




nVidia: Neue (und alte) Filtertricks

16. Februar 2006 / von Mr. Lolman / Seite 3 von 3


   Was will nVidia damit bezwecken?

An die Mär von sich unabsichtlich einschleichenden Bugs glauben wir diesmal nicht. Der augenscheinliche Sinn dieser Eigenheiten ist es, Hardware-Redakteure hinters Licht zu führen. Denn den Bugs im Controlpanel ist eins gemein: Sie wirken sich alle in Richtung schlechterer Bildqualität bei gleichzeitig höheren fps-Zahlen aus. So haben manche unserer Kollegen schon Bilder von Grafikkartentests in Netz gestellt, an denen eindeutig ein MIP-Band erkennbar war. Paradoxerweise wurde die durch Unterfilterung (und dementsprechendem Texturflimmern) erkaufte höhere Bildschärfe als Kriterium für eine vermeintlich bessere Bildqualität herangezogen.

Noch paradoxer ist, dass die meisten unserer Kollegen weiterhin mit den default-Einstellungen des nVidia-Treibers testen. Jeder an Bildqualität interessierte Spieler (und damit praktisch jeder, der mit den Begriffen AA und AF etwas anfangen kann) wird sich jedoch nicht mit der default-Einstellungen des nVidia-Treibers zufrieden geben (können). Der erste Tip bei Beschwerden über flimmerige Bildqualität lautet auch immer, den Treiber auf "High Quality" zu stellen. Doch viele Reviewer scheinen das Flimmern im Standard-Modus nicht wahrzunehmen - das sehen wir als Problem. Bei einem Benchmarkvergleich muss schließlich auch vergleichbare Bildqualität gewährleistet werden - und die Texturen auf Radeon-Karten flimmern in der Regel nicht, sind aber trotzdem schön scharf.

Also kauft sich der Leser solcher Benchmarks womöglich zuerst eine Karte, die mit Systemleistung auf "Qualität" und schlechter Filterung eine gewisse, für die Kaufentscheidung nicht unwesentliche Ausschlag gebende fps-Zahl erreicht. Dann bekommt man erklärt, dass die Karte so schnell ist, dass man ohne weiteres auf "High Quality" stellen kann. Wenn man sich dabei über einen unter Umständen erschreckenden Leistungseinbruch wundert (der kann in Extremfällen wie bei Quake 4 auch 30 Prozent betragen), heißt es, dass sogar angesehene Zeitschriften nur 2-3 Prozent gemessen haben wollen.


Benchmarks   1280x1024 + 4xAA & 16xAF

AMD Athlon 64 3700+ @ 2.4 GHz  -  Asus K8N4-E Deluxe (nVidia nForce4-4X)
1024 MB MDT @ 210 MHz 2.5-3-3-6-1T
Asus N7800 GTX Extreme (nVidia GeForce 7800 GTX 256 MB PCIe)
  default (Quality)             HighQuality
  HighQuality + restliche Optimierungen deaktiviert

Quake 4
(OpenGL)

60,7 fps

52,6 fps (-13,3%;)

42,6 fps (-29,8%)

rFactor
(Direct3D)

57,6 fps

51,3 fps (-12,4%)

Serious Sam 2
(Direct3D, 1280x960)

81,9 fps (min. fps: 27,1)

65,3 fps (-20,2%; min. fps: 23,9)

Serious Sam 2
(OpenGL, 1280x960)

108,9 fps (min. fps: 26,7)

95,0 fps (-12,8%; min. fps: 26,4)

71,0 fps (-34,8%; min. fps: 27,1)

20 fps

40 fps

60 fps

80 fps

100 fps

120 fps

140 fps

160 fps

 

Dabei wäre es doch einfach: Jeder, der einen Test für eine Grafikkarte zu schreiben plant, spielt zuerst jedes Spiel wenigstens eine halbe Stunde lang und achtet dabei besonders auf die Darstellungsqualität. Dann wählt man eine Szene mit möglichst scharfen Texturen und macht ein verlustfrei komprimiertes Bild davon, natürlich von jeder Karte. Hat man das Gefühl, dass die Bildqualitäts-Unterschiede zwischen den Karten zu groß sind, überprüft man nochmal die Treibereinstellungen und versucht, mittels Anpassen der Optionen eine möglichst gleiche Bildqualität zu erreichen - wobei natürlich das Ziel ist, eine insgesamt möglichst hohe Qualität zu erreichen. Ist das geschafft, fertigt man neue Screenshots an und dann erst macht man sich ans Benchen.


   Warum die Aufregung, wenn bei mir ohnehin nichts flimmert?

Da die objektive Bewertung eines subjektives Kriteriums wie "3D-Bildqualität auf dem Monitor" den Reviewer vor viele Hürden stellt, wollen wir uns gar nicht anmaßen, die Standardbildqualität der nVidia NV40- und G70-Chips als unzureichend zu erklären. Insbesondere auf Röhrenmonitoren unterschiedlicher Marken hat die Röhre manchmal einen größeren Einfluss auf das angezeigte Bild als bestimmte Texturfilter-"Optimierungen". Die Sinnhaftigkeit der Texturfilteroptimierungen präsentieren außerdem Grafikkracher wie Serious Sam 2 und Quake 4, wo die Stufe "Qualität" mit aktivierten "Optimierungen" verglichen mit "Hoher Qualität" teilweise mehr als eine 50prozentige fps-Steigerung bringt.

Trotzdem ist und bleibt es eine gezielte Verschlechterung der Darstellungsqualität, zugunsten der Framerate und zu Ungunsten der Vergleichbarkeit. Außerdem kauft sich niemand gerne eine 500-€-Grafikkarte, die in Vergleichstests bei (nach obenhin) angepasster Bildqualität plötzlich deutlich langsamer ist, als in allen anderen Tests, wo mit GeForce-Standardqualität gebencht wurde. Dementsprechend liegt es neben dem Qualitätsbewußtsein der PC-Spieler auch an uns Hardwaretestern, dass wir auf möglichst gute und vor allem vergleichbare Bildqualität achten.


   Wie kam es dazu?

Die Problematik besteht nicht erst seit dem G70. Mit dem G70-Chip hatte nVidia den Optimierungswahn jedoch so weit übertrieben, dass es viele User auf Anhieb sahen. Es dauerte bis zu dem 78.03er Treiber, bis man bei nVidia die Problem wenigstens auf der HighQuality-Stufe abgestellt hatte - das Flimmern beim Treiberstandard, dem "Quality"-Settiung wurde jedoch nicht behoben. Den Anstoß zu den Filter-"Optimierungen" dürfte ATI gegeben haben, denn das AF einer R200-Karte (Radeon 8500) bot eine deutliche Qualitätsverschlechterung bei Texturen, die um 45° gedreht dargestellt wurden, und wurde zudem nur bilinear gefiltert.

nVidias NV20 (GeForce3) bot dagegen nicht nur weitgehende Winkelunabhängigkeit, sondern auch eine einwandfreie trilineare Filterung. Trotzdem wurden beide Settings teilweise ohne jegliche Vorbehalte miteinander verglichen und ATI hätte auch überall die fps-Duelle gewonnen, wenn man im R200-Chip nicht auf eine Logik für Multisampling-Antialiasing verzichtet hätten. So musste ATI aber auf Supersampling-Antialiasing setzten, während nVidia damals schon mit 2x RGMSAA aufwarten konnte. Und so glich sich der unterschiedliche Aufwand fürs AF wieder mehr oder weniger aus - die Bildqualität war damit jedoch noch lange nicht vergleichbar geworden.

Bis ATI mit dem R300 (Radeon 9700) die Fachwelt in Erstaunen versetzte und mit AA/AF die damalige Konkurrenz (GeForce Ti4600) in einigen Fällen sogar um den Faktor 3 hinter sich lassen konnte. Der R300-Chip war zwar schon auf dem Papier dem NV25 überlegen (Shader Model 2.0, 6x sparse MSAA), das letzte Quäntchen Performance holte man sich abermals aus den Filteroptimierungen. Die Winkelabhängigkeit beim AF wurde reduziert und der trilineare Filter konnte auch in Kombination mit AF genutzt werden. Trotzdem war die LOD-Bestimmung immer noch ungenauer als bei der Konkurrenz. Ab dem Catalyst 3.2 führte man eine (mittlerweile wieder entfernte) Texturstage-"Optimierung" ein, welche die Filterung bei Texture Stages >0 auf bilinear reduzierte.

Dennoch war die Bildqualität - wenigstens auf Screenshots - meist nicht von der Konkurrenz zu unterscheiden. Das reichte den Testern, um abermals unterschiedliche Bildqualität vorbehaltlos in Benchmarks zu vergleichen. nVidias NV3x bot zwar auch noch ein weitgehend winkelunabhängiges AF, jedoch war nVidia im Zugzwang und baute in den Treiber nach und nach diverse "Optimierungen" ein, welche die Leistung anheben sollten - wofür notwendigerweise Bildqualität geopfert werden musste. Trotzdem reichte es bekanntermaßen nicht, um mit dem R300 gleichzuziehen.

Mit dem NV40 hatte nVidia neben dem größeren Featureset (Shader Model 3.0) nun endlich auch ein rotated grid MSAA bis zu 4x, dafür aber auch die vom R300 adaptierte Winkelabhängigkeit im anisotropen Filter. Und da es ATI mit dem R420 immer noch schaffte, teilweise deutlich schneller zu sein (auch verursacht durch ATIs A.I., welches sogar R300-Karten mit bis zu 40prozentigen fps-Steigerungen noch zu einem zweiten Frühling verhalf), orientierte man sich am Vorbild der Konkurrenz und baute ebenfalls all deren Filteroptimierungen ein.

Nun hat man bei ATI mit der Einführung des Catalyst Control Centers die Texture-Stage-Optimierung wieder entfernt und mit dem R520 (Radeon X1800) die Option auf größtenteils winkelunabhängige Filterung hingefügt, welche im 8x-AF-Modus praktisch schon einwandfreie GeForce3-Qualität bietet. Dennoch ist der anisotrope Filter schneller, als man erwarten würde - und dies ohne, dass man bisher konkret mit dem Finger auf die dafür verantwortliche Optimierung deuten könnte. Wir sind gespannt, ob dies bei nVidia eventuell als Anlaß genommen werden mag, ebenfalls zukünftig auf mehr Bildqualität anstatt auf mehr "Optimierungen" zu setzen.


   Fazit

Anscheinend betreiben also beide Hersteller nach wie vor intensive Forschungsarbeit in der Effizienzsteigerung des anisotropen Filters. Nach unseren Einschätzungen hat nVidia zwar hierbei momentan die Nase vorne, jedoch macht die, durch deren GPU-Design verursachte, mangelnde Parallelisierbarkeit von Sample- und ALU-Takten diesen Vorteil wieder zunichte. So kann bei nVidia-Karten eine mehrere Sample-Takte benötigende anistrope Filterung schon einmal die restlichen Rechenwerke blockieren. ATI hat aufgrund der entkoppelten ALUs dieses Problem nicht und macht so ein paar zusätzlich vorhandene Sample-Takte für eine, durch deren AF-Logik zwangsläufig entstehende, Überfilterung zu Nutze, ohne dass davon die Rechengeschwindigkeit negativ beeinträchtigt wäre.

Auch wenn der HighQuality-Filter von nVidia mit dem 78.03er Treiber an Qualität zulegen konnte, so ist in gewissen Situatiom der fps-Einbruch immer noch enorm, ohne dass die Bildqualität dafür einwandfrei wäre. Andererseits missfällt es uns bei ATI, dass es keine Trennung zwischen filter- und applikationsspezifischen Optimierungen gibt. So sind entweder alle nützlichen Optimierungen für die Applikation deaktiviert, wenn man einmal ein Spiel mit bestmöglicher Filterqualität nutzen will - oder aber man schaltet die performancebringenden Filteroptimierungen ab, wenn man einen applikationsspezifischen Bug vom A. I. umgehen will.

nVidia hat zwar mit dem G70-Chip ein schnelles Stück Hardware vorgelegt, jedoch konnte man hinsichtlich Texturqualität nicht jeden überzeugen. ATI hingegen erworb sich durch das so genannte "Area-AF" der Chips R520 und R580 einen derartigen optischen Vorteil, dass die Wahl für jeden Bildqualitäts-bewussten Spieler eigentlich eindeutig sein müsste. Natürlich spielen gerade für die nVidia SLI-Nutzer die Hybridmodi eine wichtige Rolle, denn mit einem Supersampling-Anteil lassen sich auch einige Unzulänglichkeiten in der Texturfilterung ausgleichen. MIP-Banding wird mittels Supersampling zwar nicht unterdrückt, dafür nimmt bei Supersampling generell die Flimmeranfällgkeit ab. Zwar ist die Vorgehensweise einerseits nicht besonders wirtschaftlich, andererseits sind dies HighEnd-Grafikkarten in Anbetracht des im Durchschnitt hohen Wertverlustes ohnehin kaum.

Was bleibt also übrig: Auf der einen Seite bieten beide Hersteller enorm schnelle HighEnd-Hardware, die trotz erheblicher Architektur-Unterschiede sehr ähnliche Leistung erreichen. Auf der anderen Seite bencht fast jedes Hardware-Blatt immer noch mit performanceverzerrenden Standard-Treibereinstellungen, die wie bereits mehrfach deutlich gemacht, optisch nicht vergleichbar sind (siehe dazu auch unseren Artikel über das Texturenflimmern des G70-Chips). Als lobende Ausnahmen seien die ComputerBase (seit ein paar Monaten) und die PC Games Hardware (seit der Ausgabe 02/06) erwähnt - sowie all jene Nutzer unseres Forums, welche die interessierte Community mit Benchmarks versorgen.

Deswegen appellieren wir an dieser Stelle nochmals an unsere Kollegen, dass die Qualität ihrer Reviews nur gesteigert wird, wenn sie (zugegebenermaßen zeitintensive) Bildqualitätsvergleiche anstellen und deren Erkenntnisse in künftigen Hardwaretests mit verarbeiten.


Danksagung: Herzlichen Dank an aths für diverse Korrekturen und Anregungen, an xfire für die Bereitstellung der Benchmarkergebnisse, sowie an diverse Mitglieder unseres Forums, durch deren Hilfe dieser Artikel erst möglich wurde.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Zurück / Back 3DCenter-Artikel - Index Home

Shortcuts
nach oben