nVidia GeForce4 MX/Ti Preview
2. Februar 2002 / von aths / Seite 1 von 2
GeForce4 Ti - NV25
nVidia behauptet zumindest gegenüber den Board-Herstellern, dass das GeForce4-Topprodukt doppelt so schnell wie eine GeForce3 Ti500 sei. Vielleicht erinnern sich einige daran, dass die GeForce3 seinerzeit "bis zu 7x" so schnell sein sollte wie eine GeForce2 GTS. Das kam natürlich nur bei sehr speziellen Szenen und einem Vergleich von 2x2 Full Scene Anti-Aliasing vs. 2x2 Multisampling Anti-Aliasing hin.
Die GeForce4 Ti hat bekanntlich doppelt so viele Vertex Shader (nämlich zwei) und doppelt so viel RAM (128 MB), sowie ein nochmals verschnellertes Anti-Aliasing. Vermutlich lassen sich auch hier Szenen konstruieren, wo das mit dem "2x" hinkommt, auch wenn ein solch konstruiertes Beispiel in der allgemeinen Spiel-Praxis ohne Belang ist.
Mit dem NV25 ist vor dem NV30 seitens nVidia noch einmal Kasse machen angesagt. In ca. 6-8 Monaten sollte der NV30 dann jeglichen bisherigen nVidia-Chip arm aussehen lassen. Das ist jedoch kein Grund, mit einem Kauf zu warten. Der NV30 wird vermutlich sehr hochpreisig gestartet und ehe seine Features wirklich gebraucht werden, kann man bedenkenlos 1-2 Jahre Zeitraum rechnen. Grund genug, die GeForce4 Ti als ernsthafte Karte ein wenig zu begutachten.
Wir erleben derzeit ein Comeback einer historischen Ära. Als 3dfx Inc. anno 1998 die Voodoo3 vorstellte, wurde ihnen mangelnde Innovation vorgeworfen. Beim neusten Chip aus dem Hause nVidia muß man die Änderungen ebenfalls mit der Lupe suchen. Bringt der jeweilige Marktführer ein Produkt, was gegenüber der Konkurrenz nicht auf dem neusten Stand ist, so wird diesem gerne vorgeworfen den Fortschritt aufzuhalten. Dazu sehen wir aber keinen Grund, da das Produkt für heutige Spiele sehr brauchbar ist.
Mit der GeForce4 gibt es einen Refresh für fast die gesamten nVidia Produktlinie. Die GeForce4 löst als erstes die GeForce3 ab. Das ist in etwa mit der Lancierung der GeForce2 GTS vergleichbar, welche damals anstelle der GeForce DDR trat. Während bei der GeForce2 GTS die Multitexturing-Füllrate verdoppelt wurde, hat die GeForce4 Ti nun die doppelte T&L-Leistung. Im Gegensatz zur hardwarebeschleunigten Transformation war das Lighting bei mehreren Lichtquellen bisher einfach zu langsam - dies hat sich nun endlich geändert. Im Zusammenspiel mit dem AGPx8 Support sind zumindest in der Theorie etliche T&L-Flaschenhälse nun weit genug. Limitierende Komponente bleibt da der PC-Hauptspeicher, der auch bei 166 MHz DDR-RAM zum Nadelöhr wird. Soweit die Theorie, für alle erhältlichen Spiele sind die Komponenten mehr als ausreichend dimensioniert.
Verglichen mit dem Konkurrenten namens Radeon 8500 hat die GeForce4 Ti4600 dank höherem Takt mehr "Rohpower". Es ist also zu erwarten, dass das neue Top-Modell zumindest vorübergehend die schnellste Karte im Consumer-Markt stellen wird. Auf DirectX9-Features wie Displacement Mapping wartete man leider vergebens - die GeForce4 Ti bleibt eine waschechte DirectX8-Karte. Angenehm: Die effizienzsteigernden Maßnahmen wurden sanft verbessert und tragen nun den Namen "Lightspeed Memory Architecture II" (LMA2). Das beinhaltet erstmals auch "Fast Z Clear" - womit schon die originale Radeon aufwarten konnte. Die Cache-Verwaltung wurde optimiert, sehr wahrscheinlich wurde dabei der Onchip-RAM vergrößert.
All das zusammen genommen heisst: Der NV25 Chip bietet mehr Pro-MHz-Leistung als der NV20 Chip. Weil die Technik im Grunde die gleiche blieb, ist bereits bei der Auslieferung mit sehr effizienten Treibern zu rechnen. Die GeForce4 Ti hat spürbar mehr effektive Füllrate, was jedoch hauptsächlich am höheren Takt liegt. Die T&L-Leistung steigt um ungefähr 80%, die VertexShader-Leistung um circa 50%. Leider hat sich bei der PixelShader-Leistung wenig bis gar nichts getan - hier hat ATi die Nase noch vorn.
Die GeForce4 Ti ist aber nicht nur auf Geschwindigkeit optimiert. Sie kann auch mehr als ihr Vorgänger:
- DVD-Player werden nun gegebenfalls mit IDCT unterstützt (gilt nur für die MX-Versionen - die Ti-Versionen enthalten gegenüber der GeForce3 dennoch einige neue 2D-Features, zum Beispiel neue Downscaling-Modi).
- Es sind 2 RAMDACs enthalten, was 2 Monitore an einer Karte erlaubt.
- Das Mehr an RAM auf dem Board schafft genügend Platz, um 3D-Texturen zusammen mit Anti-Aliasing auch praktisch nutzen zu können.
- Das Anti-Aliasing wurde verbessert.
Das nun "AccuView" genannte Anti-Aliasing wurde sowohl von der Qualität her verbessert, als auch noch einmal verschnellert. Die GeForce4 ist die beste Karte, um Anti-Aliasing auch in hohen Auflösungen bei sehr hohen Frameraten zu ermöglichen.
Denn Kantenglättung macht auch in hohen Auflösungen Sinn. Diese Qualitätsverbesserung ist in unseren Augen der Hauptkaufgrund für Anwender, welche noch keine DirectX8-Hardware besitzen und eine größere Neuanschaffung erwägen. Es sei angemerkt, dass der Speed-Up durch einen Trick erreicht wurde, der schon in den Voodoo4/5-Karten zum Einsatz kam: Beim Downsampling wurde auf den Schreibzugriff in den Framebuffer verzichtet, da dieses nun auch im NV25 gleich vom RAMDAC übernommen wird.
Bei der Multisampling Anti-Aliasing Performance bleiben dennoch zwei Fragen offen. Der GeForce3 leidet darunter, dass die effizienzsteigernde Architektur namens LMA (Lightspeed Memory Architecture) beim Anti-Aliasing nicht voll zum Tragen kommt. Es ist noch unklar, ob sich hier etwas getan hat. Ebenso fraglich ist, wie effizient das Multisampling an sich umgesetzt wurde. Mittels spezieller Methoden und einem Differenz-Buffer ließen sich bestimmte Schreibzugriffe sparen. Es ist möglich, dass trotz der gestiegenen Anti-Aliasing-Geschwindigkeit bei der GeForce4 Ti noch nicht das Ende der Fahnenstange erreicht ist.
Doch die GeForce4 Ti hat noch einige Feature mehr zu bieten: Deren 128 MB RAM machen zwar aktuell nur wenig Sinn - doch lieber zuviel, als über den AGP-Bus auf den langsamen Hauptspeicher zugreifen zu müssen! Während heute viele Einsteiger- oder einzelne Mittelklasse-Karten des Marketings wegen mit deutlich zu viel RAM ausgestattet werden, macht eine üppige Bestückung beim Top-Modell durchaus Sinn. Dass heute 128 MB RAM auf einer GeForce3 Ti200 oder Radeon 7500 im Prinzip kein einziges Frame mehr bringen, beweist keineswegs den generellen Unsinn dieser großzügigen Ausstattung. Vertex Cache, Shadow Buffer, große Texturen (beim NV2x bis zu 4096x4096 Texel!) und nicht zuletzt die Multisample-Buffer sind ziemlich RAM-intensiv.
Die GeForce3 brachte den PixelShader nach DirectX 8.0 Standard mit sich, und sein Nachfolger wird diese Technik fortführen. Grund für uns, das interessante Feature vergleichend zu beleuchten: Ein DirectX8-PixelShader ist streng genommen nur eine stark parametrisierbare, lange Pixel-Pipeline mit relativ flexiblen Combinern. Jede Pipeline muss natürlich jede über ihre eigene PixelShader-Logik verfügen. Die GeForce SDR/DDR und die GeForce2-Serie können jeweils bereits pixelgenau beleuchten, sind dafür jedoch auf spezielle Programmierung angewiesen. Die originale Radeon bietet eine recht beschränkte Flexibilität, erreicht allerdings nicht einmal PixelShader (PS) Version 1.0.
Die GeForce3 bietet dagegen die in DirectX 8.0 standardisierte Version 1.1, die sich vor allem darin unterscheidet, dass pro Befehl bis zu 2 (und nicht nur ein) Texel gelesen werden können - und dass sie ein paar mehr Befehle fassen kann. Die Radeon 8500 unterstützt dann schon die PixelShader Version 1.4 nach DirectX 8.1 Standard. Dieser PS 1.4 ist vom Befehlssatz her deutlich flexibler und kann zudem mehr Instruktionen aufnehmen. Weil pro Befehl nur grundlegende Operationen ausgeführt werden können, sind dank längerer möglicher Befehlskette letztlich eine Reihe zusätzliche Effekte möglich.
Dass die GeForce4 Ti den PixelShader 1.4 nicht unterstützt, sondern "nur" den PS 1.3, ist für die Praxis allerdings kein ernsthafter Nachteil, da sich die Spieleentwickler nicht wie wild auf die PixelShader stürzen. Alle Grafikkarten mit dieser Technik haben also zusätzlich noch die alten Multitexturing-Fähigkeiten, weshalb PixelShader unterm Strich so transistorintensiv ausfallen. Wie schon DirectX7 T&L und DirectX8 Vertex Shader nicht gemeinsam genutzt werden können, so liegen auch hier jeweils Teile der Pixel-Pipeline brach. Entweder Multitexturing - oder PixelShader.
Der PixelShader 1.3 enthält gegenüber Version 1.1 nur ein paar neue Befehle und ist ansonsten im Aufbau gleichartig. Es bleibt zu hoffen, dass nVidia trotz Verweigerung der Anerkennung ATis (also das Ignorieren von PixelShader 1.4) diese Technik fördern wird. Man kann grob drei Versionen unterscheiden:
- PixelShader 1.0 ist sehr unhandlich und arg beschränkt.
- PixelShader 1.1 - 1.3 bieten spürbar mehr Freiraum, eine brauchbare Programm-Länge und die Möglichkeit, pro Befehl Werte aus gleich zwei Texturen zu lesen.
- PixelShader 1.4 setzt sich ab: Der Befehlssatz ist mit den Vorgängern weitestgehend inkompatibel, dafür deutlich größer. Texturen können vielseitiger verwendet werden, und die Befehlskette darf spürbar größer ausfallen.
So gut wie alle besseren Effekte sind zwingend auf das Vorhandensein eines Vertex Shaders (also einer programmierbaren T&L-Einheit) angewiesen. Dadurch, dass die GeForce4 Ti durch ihre gleich 2 Vertex Shader hier wahrlich genug Kapazität hat, gibt es also nur Vorteile: Schnelleres Hardware-Lighting und schnelles Vorbereiten von Daten (die als Texturen gespeichert werden) für den PixelShader.
Zu anderen Themen der GeForce4 Ti: DualHead & HydraVision - die Konkurrenz bietet schon lange qualitativ hochwertigen Multimonitor-Support. Die einzige Karte mit nVidia-Chip, die dies unterstützt, war bislang der GeForce2 MX. Für anspruchsvolle Spieler reicht die 3D-Leistung dieser Chips natürlich nicht mehr aus. Endlich hörte nVidia nun auf die Kundenwünsche und bietet unter dem Begriff "nView" die Möglichkeit, zwei Monitore an eine Grafikkarte anzuschließen. Über die sehr wichtige Flexibilität und Benutzerfreundlichkeit von nView ist bisher noch wenig bekannt. Es ist allerdings zu hoffen, dass nVidia hier zur Konkurrenz annähernd aufschließen kann.
Der Preis der GeForce4 Ti wird natürlich wie üblich dafür sorgen, dass sich nur zahlungskräftige Enthusiasten den neusten nVidia-Chip leisten können. Voraus denkend hat nVidia deshalb auch eine Art "Budget-Linie" entwickelt - welche mit verwirrendem Namen vermarktet wird.