Zum Launch des nVidia G80-Chips
8. November 2006 / von Leonidas / Seite 1 von 2
Mit dem heutigen Tag stellt der kalifornische Grafikchip-Entwickler nVidia mit dem G80-Grafikchip und den darauf basierenden Grafikkarten GeForce 8800 GTS & GTX den ersten Direct3D10-Grafikchip und damit den Beginn einer neuen Grafikchip-Generation sowohl für nVidia als auch allgemein für den Markt vor. Denn der G80-Grafikchip ist nicht nur wie gesagt der erste Grafikchip, welcher das - allerdings nur unter Windows Vista verfügbare - Direct3D10 unterstützt, sondern stellt auch innerhalb der Reihe der bisherigen nVidia-Grafikchips einen erheblich neuen Ansatz dar. Der nachfolgende Artikel soll einen kurzen Überblick über den Chip selber und die ersten Testergebnisse zu diesem geben.
Eine genauere Betrachtung zum G80-Chip sowie eigene Benchmark-Ergebnisse zu den G80-basierenden Karten werden wir an dieser Stelle leider noch nicht bieten können, hierfür fehlen uns schlicht noch die entsprechenden Testsamples seitens nVidia. So ist zum einen ein recht ausführlicher Theorie-Artikel zum G80-Chip an sich (im Prinzip fertig) in der Pipeline, welchen wir allerdings erst veröffentlichen werden, wenn uns die Ergebnisse diverser theoretischer Benchmarks bzw. von entsprechenden Bildqualitäts-Testern vorliegen - was wie gesagt erst nach dem Eintreffen eines G80-Testsamples passieren wird. Und gleichzeitig ist ein Benchmark-Artikel zu GeForce 8800 GTS & GTX geplant, welchen wir aber wohl erst im Dezember mit dann inzwischen schon halbwegs ausgereiften Treiber (und mit viel mehr Ruhe) antreten werden. Der heutige Artikel wird demzufolge "nur" eine Begleitung des G80-Launches sein können, unsere eigentlichen G80-Artikel folgen später.
Nicht all zu viel von den geplanten Artikeln vorwegnehmend läßt sich dennoch mit Fug und Recht sagen, daß nVidia mit dem G80-Chip ein "dickes" Stück Hardware auf die Hardware-Welt losgelassen hat. Die vor einigen Wochen zum G80 im Internet befindlichen Spezifikationen wurden seinerzeit von uns noch als weitestgehend unglaubwürdig angesehen, haben sich aber letztlich fast vollständig bestätigt. Und so reißt der G80-Chip denn auch die Vorstellungen über heutige Grafikchips gehörig nach oben: Mit satten 681 Millionen Transistoren legt man mehr als das doppelte gegenüber dem Vorgängerchip auf - was dann in einer artithmetischen Rechenleistung von ebenfalls fast dem doppelten resultiert.
Doch der Reihe nach: Der G80-Chip bietet auf diesen 681 Millionen Transistoren acht Vec16-ALUs Platz, was den von nVidia propagandierten "128 Stream-Prozessoren" entspricht (eine Vec16-ALUs ist ein Rechenwerk, welche dieselbe Operation gleichzeitig für 16 Werte ausführen kann; acht solcher Einheiten x 16 = 128). Dabei führen diese ALUs Shader-Programme aller Art aus, sind also sowohl als Pixelshader, Vertexshader und (neu mit Direct3D10) Geometrie-Shader zu gebrauchen - nVidia hat dem G80 im Gegensatz zu früheren (recht eindeutigen) Vermutungen also doch eine unified Shader-Architektur spendiert.
Jeder der Vec16-ALUs steht dann eine Quad-TMU zur Verfügung - eine Texture Mapping Unit, welche gleichzeitig vier Pixel texturieren kann (sie können sogar bis zu acht bilineare Samples auswerfen, allerdings müssen diese aus derselben Textur entstammen). Insgesamt kommt der G80-Chip somit auf acht Quad-TMUs oder einzeln betrachtet 32 Textureneinheiten. Hier ist im übrigen schon ein genereller Unterschied zu den Vorgängerchips zu erkennen: Während dort noch üblicherweise die Shader-Einheiten als an die Pipeline und damit die Textureneinheiten gebunden beschrieben wurden, löst sich der G80-Chip enorm vom Pipeline-Begriff und läßt sich eher nach seinen Shader-Einheiten bzw. ALUs ordnen als denn nach seinen Textureneinheiten.
Auch beim Speicherinterface geht nVidia einen neuen Weg: Anstatt der bisher üblichen Verdopplung des Speicherinterfaces bekommt der G80 "nur" ein 50 Prozent breiteres Interface: Es wurde von 4x 64 Bit (256 Bit) auf 6x 64 Bit (384 Bit) erweitert. Damit sind keine extrem teuren Boards mit entsprechend vielen Layern notwendig, nach nVidias Meinung stellt die gefundene Lösung den besten Kompromiss aus Leistung und Kosten dar. Aus diesem Speicherinterface ergibt sich dann im übrigen auch die "krumme" Speicherbestückung der GeForce 8800 GTX: Da für Grafikkarten üblicherweise Speicherbausteine mit 32bittigem Interface benutzt werden, benötigt man exakt 12 davon, um damit die 384 Bit des Speicherinterfaces erreichen zu können.
Und da es die Speicherbausteine dann selber nur in dezimalen Größen gibt, also üblicherweise mit 16, 32 oder 64 MB, ergeben 12 solcher 64-MB-Speicherbausteine dann eben die 768 MB Grafikspeicher einer GeForce 8800 GTX (bei einer GTS sind es aufgrund des dort nur 320 Bit breiten Speicherinterface 10 Speicherbausteine und damit die dort genannten 640 MB Grafikspeicher). Varianten mit den üblichen 256 und 512 MB Grafikspeicher dürfte es bei der GeForce 8800 GTS & GTX also eher nicht geben, technisch möglich wäre allerdings eine Variante der GTX mit 384 MB Speicher (bei der GTS dann 320 MB), wenn man anstatt der 64-MB-Speicherbausteine schlicht 32-MB-Typen benutzt.
Der letzte wesentliche Punkt an der physikalischen Hardware des G80-Chips dürfte der enorme Taktunterschied zwischen dem "normalen" Chipteil und den Shader-Einheiten bzw. den ALUs sein: Während bei der GeForce 8800 GTX der Chip generell mit 575 MHz taktet, arbeiten die Shader-Einheiten gleich mit 1350 MHz. Dies ist insofern bemerkenswert, als daß wir die Shader-Einheiten eigentlich als (von der Fläche her) wesentlichen Teil des gesamten Grafikchips einordnen würden, ein solch hoher Takt in einem weiterhin bei 90nm bleibenden Fertigungsprozeß bisher für Grafikchips als unrealistisch galt.
Anzufügen wäre hier noch, daß die obigen Angaben generell für die GeForce 8800 GTX gelten, welche in dem Sinne die Vollversion des G80-Chips darstellt und zu einem Listenpreis von 599 Dollar in den Markt geht. Die gleichzeitig vorgestellte GeForce 8800 GTS, welche einen Listenpreis von 449 Dollar hat, stellt dagegen eine Abspeckung des G80-Chips sowohl bezüglich der Taktraten als auch diverser Hardware-Einheiten dar - sprich, hinter der GeForce 8800 GTS verbirgt sich zwar der gleiche G80-Chip, allerdings mit einigen deaktivierten Einheiten. Über die genauen Unterschiede zwischen beiden G80-basierenden Karten gibt nachfolgende Tabelle Auskunft:
In diese Tabelle fehlt bewußt der Quervergleich zu den bisherigen HighEnd-Chips von ATI und nVidia - einfach, weil sich diese nicht mehr mit dem G80-Chip einfach über die Aufzählung von Einheiten etc. vergleichen lassen. Gerade die von nVidia jederzeit gern wiederholten 128 Shader-Einheiten des G80-Chips bieten sich natürlich an, jene mit den 24 Pixelshader- und 8 Vertexshader-Einheiten des G71-Chips zu vergleichen. Doch dieser Vergleich ist mehr als unzulässig, handelt es sich hier um grundverschiedene Ansätze, für welche man nur der besseren Verständlichkeit halber denselben Oberbegriff verwendet. Ein Vergleich der Shader-Einheiten zwischen G71- und G80-Chip anhand Anzahl und Taktraten wird zu keinem sinnvollen Ergebnis führen - maßgeblich ist allein der Vergleich der herauskommenden Rechenleistung, welcher dann wie weitere Ausführungen zu den Details der G80-Architektur Thema des kommenden Theorie-Artikels zum G80-Chip sein wird.
Abschließend wären aber auf jeden Fall noch die Verbesserungen bezüglich der Bildqualitäts-Features zu erwähnen, welche nVidia dem G80-Chip spendiert hat. So gibt es nun (wieder) einen nahezu winkel-unabhängigen anisotropen Filter, gleichzeitig wird nun auch Anti-Aliasing unter HDR-Rendering möglich - womit nVidia in diesen Punkten zu ATI aufschließt. Und gleichzeitig hat nVidia endlich einmal etwas an den höheren Anti-Aliasing Modis getan, welche faktisch seit der GeForce4 Ti unverändert waren: So gibt es als wichtigsten neuen Modus nunmehr ein 8x sparse Multisampling Anti-Aliasing, welches es bezüglich der Kantenglättungsqualität wohl problemlos mit ATIs 6x Anti-Aliasing aufnehmen kann, jedoch nicht mehr die horrenden Leistungsanforderungen wie der bisherige 8xS Modus hat. Auch diese Punkte werden allerdings eher Thema des kommenden Theorie-Artikels zum G80-Chip sein.
Und damit zum eher praktischen Teil dieses Artikels - der Betrachtung des heutigen Launch-Geschehens. Denn natürlich ergiessen sich mit Ablauf des NDAs um 8 Uhr Abends Mitteleuropäischer Zeit jede Menge an Testberichten zur GeForce 8800 GTS und GTX ins Web:
Die wohl erste Erkenntnis aus dieser jede Menge Lesestoff ist, daß die GeForce 8800 GTX ein absolut rasantes Stück Hardware ist, welches jeder bisherigen Grafikkarte meilenweit davonrennt. Natürlich sprechen schon die vorgenannten technischen Daten für ein solches Ergebnis, nichts desto trotz ist der von der GeForce 8800 GTX letztlich eingefahrene Vorsprung doch in dieser Höhe nicht unbedingt zu erwarten gewesen: Gegenüber der GeForce 7900 GTX erreicht die neue Karte runde 70 Prozent mehr Performance, gegenüber der Radeon X1950 XTX immerhin runde 60 Prozent. Selbst das Ergebnis gegenüber der DualChip-Grafikkarte GeForce 7950 GX2 ist noch mehr als beachtlich: Mit nur einem Grafikchip kommt die GeForce 8800 GTX hier auf runde 30 Prozent mehr Leistung (jeweils 1280x1024 und 1600x1200 unter 4x Anti-Aliasing und 8x/16x anisotropen Filter).