Die kommenden Grafikchips von ATI, nVidia und S3
9. Oktober 2007 / von Leonidas (Text) / Seite 2 von 3
nVidia
nVidia wird ebenfalls mit einem Grafikchip für das Performance-Segment den Reigen der Refresh-Generation eröffnen. Der G92-Chip war ursprünglich für den 12. November angesetzt und soll nunmehr gar schon am 29. Oktober debütieren. Dabei hat dieser Grafikchip in der Fachpresse eine wechselvolle Geschichte hinter sich: Erst als Performance-Chip neben dem G90 gedeutet, mittelfristig dann aber als neue HighEnd-Lösung angesehen, wird der G92 nun doch wieder "nur" das Performance-Segment bedienen. Darauf deuten inzwischen die bekannten technischen Daten, der von nVidia gewählte Verkaufsname und auch die preisliche Einordnung eindeutig hin.
So soll die auf dem G92-Chip basierende GeForce 8800 GT über (wahrscheinlich) 64 Shader-Einheiten und (sicher) ein 256 Bit DDR breites Speicherinterface verfügen. Die nur 64 Shader-Einheiten erscheinen zwar dem einen oder anderen etwas zu knapp, durch die 65nm-Fertigung des G92-Chips ist allerdings noch ein gewisser Taktsprung gegenüber den G80-basierenden Grafikkarten möglich: 600/900 MHz werden die Taktraten der GeForce 8800 GT wohl lauten, der Shader-Takt soll sogar 1500 MHz betragen. Daraus ergibt sich auch, daß gleich 96 Shader-Einheiten bei dieser Karte eher unwahrscheinlich sind: Zusammen mit den höheren Taktraten würde man die GeForce 8800 GTS (ebenfalls 96 Shader-Einheiten, 500/1200/800 MHz) spielend überflügeln - dafür ist der G92-Chip aber nicht gedacht.
Denn schon allein an der preislichen Einordnung (199 Dollar Listenpreis für die 256-MB-Edition, 249 Dollar für die 512-MB-Edition) und auch dem Verkaufsnamen ist abzulesen, daß sich der G92-Chip bzw. die GeForce 8800 GT unterhalb oder knapp an der GeForce 8800 GTS einordnen muß, keinesfalls aber darüber. Dies hat allerdings auch nichts mit Schwäche zu tun, nVidia hat den G92-Chip offensichtlich klar für das 200-Euro-Segment ausgelegt, während ATI seinen RV670-Chip eher für das 250-Euro-Segment ausgelegt hat. Die nicht große preisliche Differenz erklärt dann eben auch den jeweiligen Hardware-Unterschied und wieso beide Grafikchips in ihrer jeweils eigenen Liga spielen.
Allerdings scheint nVidia die Erkenntnis, daß es der G92-Chip nicht mit dem RV670-Chip in seiner höchsten Ausbaustufe aufnehmen kann, zu einem eher ungewöhnlichen Schritt getrieben zu haben: Allem Anschein nach will man eine neue Version der GeForce 8800 GTS auf Basis des G80-Chips auflegen - nur diesesmal mit 112 aktivierten Shader-Einheiten und 56 aktivierten TMUs anstatt 96 bzw. 48 wie bei der originalen GeForce 8800 GTS. Da die Taktraten gleichbleiben sollen und das Speicherinterface nicht angetastet wird, ist keine besonders hohe Mehrperformance gegenüber der GeForce 8800 GTS zu erwarten, es werden wohl 10 bis maximal 15 Prozent werden. Offensichtlich ist diese neue Version der GeForce 8800 GTS dafür gedacht, gegen die Radeon HD 2950 XT zu bestehen, da dies der G92-Chip ziemlich offensichtlich nicht mehr leisten kann.
Bezüglich eines neuen HighEnd-Lösung gibt es ähnlich wie bei ATI zwei verschiedene Standpunkte: Zuerst sprach man von einem G90-Chip, später sollte es dann ein DualChip-Grafikkarte auf G92-Basis werden. Die Vor- und Nachteile sind ähnlich wie bei ATI ausgeführt, einige Indizien sprechen im Fall von nVidia allerdings eher dafür, daß es nVidia mit einem echten HighEnd-Chip versuchen wird: Der stärkste Hinweis ist hier wohl die klare Aussage nVidias, daß deren nächster HighEnd-Chip eine Rechenleistung von nahezu 1 Terraflop erreichen wird. Daß diese Aussage seinerzeit dem G92-Chip zugeordnet wurde, hing damit zusammen, daß dieser damals eben als absolute HighEnd-Lösung angesehen wurde.
Heutzutage ist aber klar, daß der G92-Chip diesen Wert niemals erreichen kann (wenn nVidia wie üblich MADD und MUL zusammenrechnet, sollte die GeForce 8800 GT bei 64 unveränderten Shader-Einheiten und 1500 MHz Shader-Takt ca. 288 Gigaflops erreichen) - es muß also noch eine andere Lösung neben dem G92 geben. Auch dürfte der G92-Chip, sofern dieser tatsächlich mit nur 64 Shader-Einheiten und 1500 MHz Shader-Takt erscheint, selbst als DualChip-Grafikkarte (ca. 576 Gigaflops MADD+MUL) bei der Rechenleistung generell zu schwach sein, um es mit einer GeForce 8800 Ultra (614 Gigaflops MADD+MUL) aufzunehmen - die bei DualChip-Lösung üblicherweise etwas niedrigen Taktraten noch gar nicht eingerechnet.
Rechnet man dann noch hinzu, daß eine solche SLI-Lösung natürlich auch niemals 100 Prozent des zweiten Grafikchips in Leistung umsetzen kann, würde selbst ein G92-Chip mit angenommenen 96 Shader-Einheiten nur knapp vor der GeForce 8800 Ultra landen - zu wenig für eine echte neue HighEnd-Lösung. Insofern deutet bei nVidia eigentlich alles eher in Richtung eines kommenden neuen HighEnd-Chips im üblichen SingleChip-Verfahren. Dies schließt die Möglichkeit einer DualChip-Grafikkarte auf Basis des G92-Chips noch nicht einmal aus - eine solche Lösung könnte immer noch als Lückenfüller zwischen G90- und G92-Chip dienen.
Problematischerweise ist zum HighEnd-Chip G90 derzeit absolut noch nicht bekannt, man kann über dessen technische Daten momentan nur spekulieren. Man kann jedoch schätzen, daß nVidia dem Chip wahrscheinlich 192 Shader-Einheiten spendieren dürfte, da diese zusammen mit einem gewissen Taktsprung gegenüber dem G80-Chip für dieses Stück an Mehrperformance sorgen dürften, welche man sich von einer Refresh-Generation erwarten darf. Ob das Speicherinterface verbreitet wird, ist dagegen sehr ungewiß: Zum einen haben sich die 384 Bit des G80-Chips doch als recht ideal herausgestellt, erscheint eine Verbreitung auf 512 Bit nicht zwingend. Und zum anderen soll nVidia Samsung wohl eine große Order an mit 1600 MHz taktenden GDDR4-Speicherchips gegeben haben - welche natürlich gut zu einem 384bittigen Speicherinterface passen, bei einem 512bittigen jedoch schnell Overkill werden würden.
Nichts desto trotz gilt im Fall des G90-Chip der Faktor "Überraschung" - es ist weder sicher, ob dieser Chip erscheint, noch zu welchen technischen Daten, noch zu welchem Termin. nVidia hatte früher seine neue HighEnd-Lösung zwar mal für das vierte Quartal 2007 terminiert, allerdings stammt dieser Aussage auch vom Frühjahr und kann sich in der Zwischenzeit einiges verschoben haben. Weil derzeit noch absolut nichts vom G90-Chip zu hören ist (je näher ein neuer Grafikchip heranrückt, desto schlechter läßt sich so etwas geheimhalten, weil mit der Zeit schließlich Informationen und Samples an die Grafikkarten-Hersteller herausgegeben werden müssen) und als Releasetermin im vierten Quartal schließlich auch der 31. Dezember herhalten kann (notfalls mit einem Paperlaunch), sehen wir derzeit den Markteintritt des G90-Chips erst Anfang des kommenden Jahres.
Noch etwas vorher, nämlich schon im November, wird nVidia dagegen seine neue LowCost-Lösung in den Markt entlassen. Der G98-Chip soll hierbei vor allem mit dem G86-Chip (GeForce 8300/8400/8500) gegenüber ATIs RV610-Chip (Radeon HD 2400 Serie) verlorengegangenes Terrain zurückerobern und wird demzufolge sein Hauptaugenmerk nicht auf mehr Performance, sondern auf eine höhere Wirtschaftlichkeit legen. Ein deutlicher Hinweis für diesen Kurs ist die Tatsache, daß der G98-Chip nur noch über ein 64 Bit DDR Speicherinterface verfügen wird - gegenüber dem 128 Bit DDR Speicherinterface beim Vorgängerchip G86 (wenn auch dieses nur bei der GeForce 8500 GT ausgeführt wurde).
Auch der Listenpreis von 59 Dollar, welche deutlich niedriger ist als der der GeForce 8500 GT zu ihrem Start (89 Dollar für die 256-MB-Ausführung) deuten auf eine von Anfang an deutlich günstigere Lösung hin. Demzufolge sind vom G98-Chip auch keine für Spieler interessanten Grafikkarten zu erwarten, sondern einfach nur billigste OEM-Produkte - wieder im Gegensatz zu G86-Chip, wo die GeForce 8500 GT wenigstens limitiert als Spiele-Beschleuniger brauchbar ist. Gut möglich also, daß nVidia beim G98-Chip schlicht die Technik des G86-Chips mit seinen 16 Shader-Einheiten nimmt, daß Speicherinterface auf 64 Bit DDR kürzt - und voilà, wir haben den G98-Chip :).
Den Einstieg in die für Spieler interessanten Grafikkarten dürfte dann die Mainstream-Grafikkarten bilden. Hier will nVidia allerdings erst im nächsten Frühjahr in Form des G96-Chips für Nachschub sorgen - angesichts dessen, daß die aktuelle Mainstream-Generation in Form der GeForce 8600 Serie auf Basis des G84-Chip ziemlich gut läuft, sicherlich nicht so nachteilig für nVidia. Derzeit ist noch nicht bekannt, über welche technischen Daten der G96-Chip verfügen soll. Doch da der G92-Chip im Performance-Segment schon über ein 256bittiges Speicherinterface verfügen wird, ist zu erwarten, daß nVidia auch beim G96-Chip weiterhin am 128 Bit DDR Speicherinterface festhalten wird. Damit sind dann natürlich keine Performance-Wunder zu erwarten, auch der G96-Chip dürfte wieder für Grafikkarten des Preisbereichs von 100 bis 150 Euro stehen.
Ein Punkt wäre zudem zu allen kommenden nVidia-Chips noch zu erwähnen: Der Support von Direct3D 10.1 und PCI Express 2.0. Bei ATIs Refresh-Generation ist die Sache klar: Alle kommenden Grafikchips werden diese beiden Features ausnahmslos unterstützen. Bei nVidia existieren diesbezüglich allerdings nur Halbinformationen. Bekannt ist nur, daß der G98-Chip bereits PCI Express 2.0 unterstützen wird - demzufolge kann man wohl annehmen, daß alle diesem terminlich nachfolgenden Chips (G90, G96) dies ebenfalls tun werden. Vollkommen mau sieht die Informationslage dagegen im Fall von Direct3D 10.1 aus. Dies läßt gerade im Fall des G92-Chips durchaus den Verdacht zu, daß nVidia in diesem Punkt später als ATI dran ist - denn gerade beim G92-Chip sollte es inzwischen an die Presse gedrungen sein, wenn Direct3D 10.1 mit auf dem Menü steht.
Derzeit machen wir uns aus dieser Situation folgenden Reim: G92 und G98 erscheinen noch ohne Direct3D 10.1, die dann folgenden nVidia-Grafikchips werden dann allerdings Direct3D 10.1 mit an Board haben. Der G96-Chip für das Mainstream-Segment dürfte angesichts seines relativ späten Erscheingstermins im Frühjahr 2008 hierfür ein recht sicherer Kandidat sein, beim G90-Chip könnte gerade die aktuelle Verzögerung dem Umstand geschuldet sein, daß man diesen absoluten HighEnd-Chip gern noch auf Direct3D 10.1 "aufrüsten" will (Hardware-technisch soll es keine großen Unterschied zwischen Direct3D10 und Direct3D 10.1 geben). Aber das war jetzt auch nur gut spekuliert - rein praktisch müssen wir uns diesbezüglich auch überraschen lassen.
In der Summe läßt sich das kommende Produktprogramm von nVidias Refresh-Generation deutlich schwer fassen als das von ATI: Es gibt noch Unsicherheiten über die kommende HighEnd-Lösung (G90 oder DualChip G92), die Erscheinungstermine liegen deutlich weiter auseinander und zudem gibt es nur unzureichende Informationen über den Support von Direct3D 10.1 und PCI Express 2.0. Klar erscheint die Lage nur beim G92-Chip: Hiermit wird nVidia endlich den lange geforderten Grafikchip für das Performance-Segment zwischen den GeForce 8600 und GeForce 8800 Serien liefern.
S3
Nach längerer Zeit will sich auch S3 Graphics mal wieder mit neuen Grafikchips am Geschehen beteiligen. Damit wird die schon seit einigen Jahren immer mal wieder erwähnte "Destination Films" Architektur endlich in Silizium gegossen werden - wie üblich bei S3 mit einiger Verspätung, denn ursprünglich sollte diese Architektur schon im zweiten Quartal des Jahres 2004 (!) erscheinen. Seinerzeit waren die Direct3D10-Fähigkeiten der neuen S3-Architektur natürlich noch nicht sicher, heuer sieht dies natürlich anders aus und dürfte sich auch "Destination Films" im Laufe der Zeit einigermaßen gewandelt haben.
Den Anfang soll hierbei der Chrome 460 für das Mainstream-Segment machen, von welchem bekannt ist, daß dieser in 90nm gefertigt ist sowie Direct3D10 und PCI Express 1.1 beherrscht. Weitergehen soll es dann mit dem Chrome 430 für das LowCost-Segment, welcher in 65nm gefertigt sein soll sowie Direct3D 10.1 und PCI Express 1.1 beherrschen soll. Aufgrund dessen, daß der Chrome 430 der etwas moderne Chip ist (kleine Fertigung, bereits Direct3D 10.1), ist es durchaus wahrscheinlich, daß der Chrome 460 mit einigem zeitlichen Abstand vor dem Chrome 430 kommt, auch wenn beide Grafikchips bislang als für den Jahresanfang gedacht beschrieben werden.
Aus den vorhandenen Daten läßt sich natürlich derzeit unmöglich ableiten, wie die neuen S3-Chips einzuschätzen sind. Aus dem Produktportfolio mit nur zwei Grafikchips für LowCost- und Mainstream-Segment ist aber schon zu deuten, daß S3 dem bisher eingeschlagenen Weg treu bleiben und erst einmal nur günstige Lösungen für diese beiden Marktsegmente bringen will. Man sollte hierbei den Performance-Anspruch also nicht all zu hoch ansetzen, wahrscheinlich wird die schnellste S3-Lösung wieder "nur" etwas für den Preisbereich von bis zu 150 Euro werden.