nVidia NV40, NV41, NV45 & Co. Informationen
27. Januar 2004 / von aths & Leonidas / Seite 1 von 2
Um den NextGen-Grafikchip NV40 von nVidia rankt sich so manches Gerücht, wovon allerdings bis dato natürlich rein gar nichts offiziell bestätigt wurde. Leider machen auch Spekulationen die Runde, die in den Status eines Gerüchtes erhoben wurden - obwohl diesbezüglich nie eine Aussage zu hören war, nicht einmal inoffiziell. Wir wollen heute an dieser Stelle unser bisheriges Wissen über den nVidia NV40 zusammenfassen, gewürzt auch mit einer Reihe von brandneuen Informationen, welche bisher noch nirgendwo zu lesen waren.
Zur Einordnung des nVidia NV40 Projekts: Die Null im Codenamen deutet auf eine gänzlich neue Architektur bezüglich der Featurepalette, so wie dies bisher eigentlich immer bei nVidia der Fall war (NV10 = GeForce1 mit DirectX7-Featurepalette, NV20 = GeForce3 mit DirectX8-Featurepalette, NV30 = GeForceFX mit DirectX9 Shader 2.0 Featurepalette). Der NV40-Chip wird zwar weiterhin DirectX 9.0 sein (und nicht DirectX 9.1), dafür aber die Shader-Fähigkeiten auf Stufe 3.0 anheben.
Gemäß der eigentlichen nVidia-Planungen soll jedes Jahr eine solche neue Architektur in den Markt kommen, sowie aller halben Jahre ein entsprechender Refresh-Chip. Allerdings konnte sich nVidia bisher eigentlich nur bei Riva TNT 1/2 und GeForce 1/2 an diese Planung halten, schon der GeForce3-Chip und erst Recht der GeForceFX-Chip verspäteten sich erheblich, was dann natürlich auch entsprechende Auswirkungen auf die nachfolgenden Projekte hatte und hat. Mittels der Verspätung der GeForceFX wurde der NV40-Chip letztlich für den Herbst 2003 geplant.
Diese Planung konnte bekanntlich ebensowenig eingehalten werden, weswegen nVidia auch im Herbst mit dem NV38-Chip (GeForceFX 5950 Ultra) einen zweiten, eigentlich nicht geplanten Refresh des originalen NV30-Chips (GeForceFX 5800 /Ultra) auf den Markt warf. Über den neuen Termin des NV40-Chips war man sich zu Zeiten des NV38-Launchs noch nicht richtig im klaren, inzwischen wissen wir jedoch, dass nVidia den NV40 entweder auf der CeBIT (18. bis 24. März) oder der Gamers Developers Conference (22. bis 26. März) präsentieren wird, während man mit ersten kaufbaren NV40-Grafikkarte Richtung Ende April oder Anfang Mai rechnen kann.
Und damit zu den technologischen Änderung des NV40-Chips gegenüber dem aktuellen NV38-Chip: Es ist als erstes stark anzunehmen, dass die Pixelshader-Architektur beim NV40 erheblich verbessert wurde, und die Shader wesentlich effizienter arbeiten als bei bisherigen GeForceFX-Karten. Dies ließe sich mit zwei Maßnahmen erreichen: Vergrößerung des Temp-Register-Files (um "Leer-Blasen" in der Pipe zu minimieren) und Aufteilung der Rechenwerke von Vector4 in Vector3+Skalar (Register Combiner und die R300-Shader erzielen mit dieser Methode je nach Shader ein deutliches Leistungsplus). Diese Eingriffe in die Architektur kosten zwar Transistoren, aber der Leistunggewinn würde das mehr als nur rechtfertigen. Deshalb sind wir uns in diesem Punkt ziemlich sicher, dass nVidia diese Änderungen so beim NV40 vornehmen wird.
Wahrscheinlich enthält der NV40 außerdem mindestens doppelt so viele Recheneinheiten für den Pixelshader, als der NV38 hat. Architektur-Verbesserung und -Verbreiterung zusammen genommen hieße, dass die Pixelshader-Leistung massiv gesteigert würde, jedenfalls die Performance bei Shader-Programmen der Version 2.0 und 2.X. Die Shader-Version 3.0 wird zwar mit an Sicherheit grenzender Wahrscheinlichkeit vom NV40 unterstützt werden, aber wir gehen davon aus, dass die Nutzung von bedingten Sprunganweisungen im 3.0er Shader die Abarbeitung erheblich verlangsamt. Der Hintergrund hierfür: Bislang werden immer vier Pixel zusammen berechnet (entweder gleichzeitig oder nacheinander). Diese Abhängigkeiten müssen beim Pixelshader 3.0 aufgelöst werden, da die Sprung-Anweisungen im Shader-Code für jedes Pixel anders ausfallen können.
Wahrscheinlich lässt die NV40-Architektur eine Angabe in "Pipelines x TMUs" nicht mehr so richtig zu, wir nehmen jedoch an, dass sich der Chip beim Multitexturing wie eine 8x2-Architektur verhält. Wahrscheinlich können aber pro Takt 16 Z/Stencil-Tests gleichzeitig ausgeführt werden. Jenen Spielen, welche auf einen separaten Z-Pass setzen (Doom III), käme das natürlich zugute. Diese Aussage von 8x2 möchten wir jedoch unter besonderen Vorbehalt gestellt wissen!
Dem NV40 werden ca. 175 Millionen Transistoren zugesprochen, was angesichts der bisherigen Steigerungsrate bei einer neuen Architektur glaubwürdig erscheint. Unserer Meinung nach ist damit Platz genug für zusätzliche Pixel-Prozessoren und Texture-Mapping Units. Allerdings würde damit das neue Transistor-Budget wohl auch ausgeschöpft sein, so dass außer verbesserter Leistung und Unterstützung von Pixel und Vertex Shader in Version 3.0 kaum neue Features zu erwarten sind. Es gibt im übrigen Andeutungen, dass der NV40 während der Entwicklung nochmal geändert wurde (anstatt gleich das geplante Design umzusetzen und auszutesten). Ob das dem endgültigen NV40 zum Guten oder Schlechten gereicht, werden die Vergleiche mit dem R420 bzw. R423, den NextGen-Chips von ATi, zeigen müssen.
Um die Gesamtleistung zu steigern, reicht es natürlich nicht aus, einfach die arithmetische Power zu vervielfachen. Die altherkömmliche Füllrate bleibt genauso wichtig, weshalb wir eben auf eine 8x2 Architektur beim Multitexturing-Setup spekulieren (mit nach wie vor bis zu 16 Texturen pro Pass). Dann wäre jedoch auch eine gigantische Bandbreite erforderlich, um diese enorme Füllrate ausnutzen zu können: Wir trauen diesbezüglich nVidia durchaus zu, auf 600 MHz DDR2-Speicher zu setzen, oder gar noch schnelleren Speicher zu verbauen. Dies stünde auch gut in der Tradition, dass nVidia regelmässig auf die jeweils schnellsten verfügbaren Speicher-Chips setzt. Es wäre also auch denkbar, dass es eine Ultra-Variante des NV40 mit bis zu 800 MHz Speichertakt gibt. Gesichert ist diesbezüglich aber noch nichts.
Die TMUs werden wahrscheinlich nach wie vor je ein bilineares Sample pro Takt erzeugen können. Trilineare und anisotrope Filterung wird wohl à la GeForceFX implementiert sein (während S3 mit dem DeltaChrome ja trilineare Filterung aus einer MIP-Map beherrscht, was sich auf lange Sicht wahrscheinlich durchsetzen wird). Ob es beim NV40 weiterhin bei 8x AF bleibt, oder nVidia auch 16x AF oder gar mehr implementiert hat, ist derzeit noch unklar.
Wir meinen, dass 8x AF à la GeForceFX im Quality-Modus noch immer auf der Höhe der Zeit ist. Interessant wäre natürlich 16x AF in nicht-"optimierter" GeForce4-Qualität, um den direkten Vergleich mit der Radeon zu haben. Ob nVidia wieder vollständig trilineare Filterung erlauben wird, ist auch unklar. Wir befürchten, dass der Treiber die Karte weiterhin zwingt, "brilinear" zu filtern, obwohl die Hardware zu voller trilinearer Filterung in der Lage wäre.
Eine kurze Bemerkung zum AF: "Echte Lehrbuchqualität" wäre extrem aufwändig, weshalb nVidia (und S3 im Deltachrome) eine gewisse Winkelabhängigkeit ab 4x AF in Kauf nehmen. Gegenüber der starken Winkelabhängigkeit bei ATi´s AF ist das allerdings beinahe zu vernachlässigen. Wir akzeptieren hier durchaus eine gewisse Schwäche in 45° Winkeln bei hochwertigen AF-Modi. Die "Optimierungen" à la GeForceFX werden aber im NV40 wohl weiterhin zuschaltbar sein, eine Option, deren Sinn uns schleierhaft ist, da sie mehr Qualität vernichten als Leistung einbringen. Jedenfalls ist man von nVidia gewohnt, dass der Chip evolutionär weiter entwickelt wird.
Ein weiterer Punkt, über den es noch absolut keine Informationen gibt, ist die Frage des Anti-Aliasings. Angesichts der guten 6x-"sparsed"-Maske, welche ATi seit dem R300 (Radeon 9500/9700) anbietet, wäre eine Verbesserung in der GeForce-Serie dringend anzuraten. Wir wissen zu diesem Thema, dass nVidia mit dem NV40 mindestens einen neuen Anti-Aliasing Modus einführen wird, allerdings leider überhaupt nicht, wie dieser einzuordnen ist: Vergleichbare Qualität zu höherer Performance oder aber eine bessere Glättungs-Qualität.
Der NV40-Chip wird wahrscheinlich noch als "GeForce" vermarktet werden. Zwar wollten Teile der nVidia-Mannschaft einen neuen Namen, doch angeblich soll das Marketing dagegen Einspruch erhoben haben. So geht die GeForceFX-Serie mit dem NV40-Chip wohl in eine weitere Runde, nach unseren Informationen weiterhin mit einem vierstelligen nummerischen Anhang beginnend mit einer "6".
Fassen wir noch einmal zusammen, was wir derzeit vom NV40 wissen (oder zu wissen glauben):
- nVidia NV40
- 175 Millionen Transistoren, in 130nm bei IBM gefertigt
- 8x2 Architektur, allerdings 16 Z/Stencil-Tests pro Takt
- DirectX 9.0 Architektur, unterstützt Shader 3.0
- gegenüber NV38 verdoppelte und effizientere Pixel Shader
- 256 Bit Speicherinterface, unterstützt DDR1, GDDR2 und GDDR3
- internes AGPx8 Interface
- genaue Taktraten: unbekannt; geschätzt sind es 500 bis 600 MHz Chiptakt und 600 bis 800 MHz Speichertakt
- Verbesserungen bei Anti-Aliasing: (mindestens) ein neue Modus; dessen Samplemuster ist allerdings unbekannt
- Verbesserungen beim anisotropen Filter: unbekannt
- Präsentation: CeBIT oder GDC Ende März 2004
- Markteintritt: Ende April oder Anfang Mai 2004
- Verkaufsname: GeForceFX 6XXX
Wenn wir an dieser Stelle schon einmal eine Prognose zum NV40 wagen dürfen: Zumindest unter dem Leistungsaspekt wird sich nVidia einmal mehr selbst übertreffen. Um zu wissen, ob es reicht, der starken Konkurrenz Paroli zu bieten, müssen wir jedoch wohl oder übel die GDC bzw. die CeBIT abwarten, denn auch von ATI werden zu diesem Zeitpunkt mit R420 und R423 neue HighEnd-Chips erwartet.