Überblick über die Direct3D10-Generation von ATI und nVidia
16. März 2007 / von Leonidas / Seite 4 von 7
Nachtrag vom 31. März 2007:
Erneut gibt es einen 3DMark06-Wert eines R600-Boards, diesesmal will man seitens Fudzilla ca. 11400 3DMarks in Erfahrung gebracht haben. Auflösung und weitere Settings dieses Tests wurden nicht genannt, allerdings soll eine GeForce 8800 GTX unter ähnlichen Bedingungen wohl 10600 3DMarks erreichen. Dies entspricht prinzipiell gesehen den schon letzte Woche gemeldeten 3DMark06-Werten, welche ebenfalls nur einen geringfügigen Vorsprung für das R600-Board in diesem Benchmark sahen. Allerdings sei angemerkt, daß der 3DMark06 in aller Regel nach wie vor ohne Anti-Aliasing gemessen wird, gerade G80- und R600-Boards in der Praxis jedoch üblicherweise mit hohen Anti-Aliasing Settings eingesetzt werden.
Insofern liefern 3DMark06-Werte ohne Anti-Aliasing - einmal ganz abgesehen von den Optimierungen beider Grafikchip-Entwickler auf diesem Benchmark - eigentlich kaum eine vernünftige Aussage zur in realen Spielen zu erwartenden Performance, einfach weil die Grundvoraussetzungen ohne dem Einsatz von Anti-Aliasing völlig andere sind. Wenn, dann sind Standarddurchläufe des 3DMark06 (also ohne Anti-Aliasing) in erster Linie zur groben Performance-Beurteilung von LowCost-Grafikchips brauchbar, weil diese schließlich in den meisten Fällen nicht leistungsfähig genug sind, um Anti-Aliasing im Gamer-Alltag einsetzen zu können. Schon bei den Mainstream-Grafikchips wird es aber eng, weil selbst diese in der Praxis gern mit Anti-Aliasing betrieben werden und dies nun einmal erheblich andere Anforderungen stellt als ein Benchmark ohne Anti-Aliasing.
Nachtrag vom 3. April 2007:
Gemäß Fudzilla soll ein Ingenier der Universität des Saarlandes, primär bekannt für ihre Arbeit zum Thema Raytracing auf der CeBIT die Bemerkung fallengelassen haben, der G80-Chip würde über 160 und nicht 128 Shader-Einheiten verfügen. Entsprechende Vermutungen gibt es ja schon des längerem - dem steht allerdings nach wie vor entgegen, daß nVidia nicht gerade bei seinem aktuellen Spitzenmodell Hardware-Einheiten deaktiviert ausliefern dürfte. Möglich ist natürlich rein technisch alles ;). Gleichzeitig setzte man bei Fudzilla noch das wilde Gerücht in die Welt, die ATI-Chips RV610 und RV630 würden angeblich sowohl in 65nm als auch in 80nm daherkommen. Dies halten wir allerdings vorerst für extrem unglaubwürdig, weil das ATI ein Heidengeld kosten würde - dafür, daß die 65nm-Versionen perspektivisch wirtschaftlicher sind und eine eventuelle 80nm Fertigung demzufolge umgehend wieder gestoppt werden würde.
Nachtrag vom 5. April 2007:
Die chinesischsprachige Seite IT.com (maschinelle Übersetzung ins englische) bringt einen vorfristigen Artikel zur kommenden Mainstream-Riege seitens nVidia, wobei von diesen allerdings nur die GeForce 8600 GT gebencht wurde. Generell ist solchen Vorabtests immer eine gute Portion Mißtrauen entgegenzubringen - man erinnere sich nur an den (nach wie vor) angeblichen R600-Test zum Anfang des Jahres. Allerdings sprechen in diesem Fall die Anzeichen eher dafür, daß dieser Test real ist: Erstens einmal ist es bis zur offiziellen Vorstellung der neuen nVidia-Chips G84 und G86 nicht mehr weit hin (17. April), zweitens enthält der Test keine wirklich unglaubwürdigen Angaben oder Benchmarks - und drittens dürften inzwischen in der Tat schon einige Testkarten durch die Gegend schwirren, wie auch die gestern vermeldeten Übertaktungsversuche der VR-Zone an einer GeForce 8600 GTS belegen.
.Insofern wollen wir dem Test von IT.com vorerst einmal Vertrauen schenken - wobei sich schließlich schon in wenigen Tagen aufklären wird, wieviel an diesem Test richtig und wieviel falsch war. Primär interessant an dem Artikel sind vor allem die genaueren Angaben zu den Spezifikationen der vorgenannten neuen nVidia-Grafikkarten: So verfügt der Mainstream-Grafikchip G84 nun in der Tat über 64 Shader-Einheiten (acht Vec8-ALUs) und ein 128 Bit DDR breites Speicherinterface. Die größere Variante GeForce 8600 GTS wird hierbei mit 675/1000 MHz antreten, die kleinere Variante GeForce 8600 GT mit 540/700 MHz. Hinzu kommt bei der GeForce 8600 GT eine kleine Hardware-Limitierung: Von den 64 physikalisch vorhandenen Shader-Einheiten sind bei dieser Karte nur 48 (sechs Vec8-ALUs) aktiv, was in der Summe mit dem Taktunterschied doch für einen kräftigen Performanceunterschied sorgen sollte.
Der LowCost-Grafikchip G86 wird jedoch reichlich ungenau mit "32/24" Shader-Einheiten angegeben - ob diese Information den Artikelschreibern noch nicht bekannt war oder aber ob dies auf (nicht unwahrscheinliche) unterschiedliche Ausführungen des G86-Chips hindeuten soll, ist derzeit noch unklar. Auch auf den G86-Chip zutreffend ist jedoch das 128 Bit DDR breite Speicherinterface - wobei auch hier G86-Ausführungen mit dann nur 64 Bit DDR breitem Speicherinterface denkbar und wahrscheinlich sind. Die GeForce 8500 GT als größte G86-Variante taktet zudem mit 460/400 MHz recht gemächlich vor allem beim Speichertakt, wobei die ebenfalls G86-basierenden Karten GeForce 8300 GS und GeForce 8400 GS hier wahrscheinlich sogar noch darunterliegen werden.
Noch ohne klare Richtung sind hingegen die mit der vorhandenen GeForce 8600 GT angestellten Benchmarks: Im 3DMark05 und in Need for Speed: Carbon zieht diese 150-Euro-Karte der derzeit für um die 110 Euro angebotenen GeForce 7600 GT zwar maßgeblich davon, andere Messungen im 3DMark06 und vor allem unter Prey erbrachten jedoch nur einen (natürlich unbefriedigenden) Performance-Gleichstand zu dieser älteren Mainstream-Grafikkarte. Inwiefern diese Ergebnisse an derzeit noch unoptimierten Treibern liegen können, wird sich wohl erst am 17. April zeigen - die Benchmark-Werte unter Need for Speed: Carbon, welche sogar einigermaßen schneller sind als bei einer GeForce 7900 GS, deuten jedoch durchaus (und trotz des "kleinen" Speicherinterfaces) auf ein vernünftiges Potential für die GeForce 8600 GT hin.
Gemäß The Inquirer soll auch der R600-Chip über den integrierten "HD-Audio Controller" der Grafikchips RV610 und RV630 verfügen, womit sich die PC-Hersteller das Kabel von der Soundkarte zur Grafikkarte sparen, will man über den HDMI-Anschluß der Grafikkarte geschützte Video- und Audiosignale ausgeben. Allerdings passt diese Meldung deutlich nicht zur früheren Berichterstattung, welche den Sinn der ganzen Aktion eher für Wohnzimmer-PCs sahen, wo ein R600-Grafikboard doch selten eingebaut sein dürfte. Auch ist nach wie vor unklar, ob man den "HD-Audio Controller" als vollwertige Soundlösung bezeichnen darf - unserer Meinung nach soll dieser Controller nur sicherstellen, daß die Ausgabe von geschützten Video- und Audiosignale über die Grafikkarte möglichst einfach (eben ohne extra Kabel) zu realisieren ist.
Nachtrag vom 7. April 2007:
Ein weiterer Vorab-Test zu den kommenden nVidia-Grafikkarten ist bei Au-Ja! zu finden - welche das wohl außergewöhnliche Glück hatten, in einem Computerladen eine offenbar vorfristig ausgelieferte GeForce 8600 GTS seitens Club3D zu finden. Zu den Innereien des G84-Chips machten Au-Ja! leider keine weiteren Angaben - bis auf das die GeForce 8600 GTS als mit 48 Shader-Einheiten bestückt beschrieben wird. Dies beißt sich etwas mit den bisherigen Angaben, welche die GTS-Version mit 64 und nur die GT-Version mit 48 Shader-Einheiten sahen. Was hiervon richtig ist, wird sich aber wohl erst am 17. April bestätigen lassen. Seitens Au-Ja! hat man eher auf Benchmarks gegen eine Radeon X1950 Pro und eine GeForce 7900 GT gesetzt.
Dabei konnte die GeForce 8600 GTS unter dem wohl typischsten Anwendungsfall einer Auflösung von 1280x960/1024 samt 4x Anti-Aliasing und 8x anisotropen Filter nur unter Riddick und Stalker einen klaren Vorsprung gegenüber den beiden genannten anderen Karten verbuchen, währenddessen die Ergebnisse unter Unreal Tournament 2004 (wohl aufgrund CPU-Limitierungen) gleichauf liegen und die GeForce 8600 GTS unter F.E.A.R., Doom 3 und Gothic 3 teilweise erheblich von den beiden anderen Karten abgehängt wird. Gegenüber dem gestern besprochenen Test seitens IT.com, welcher doch Anlaß zur guter Hoffnung gab, ist dies eher arg enttäuschend, weil letztlich nicht einmal die Vorgänger-Generation von nVidia geschlagen wird.
Zwar ist die GeForce 7900 GT inzwischen ausgelaufen, womit die letzten noch vorhandenen Angebote keine marktfähigen Preise mehr aufweisen, aber generell kann man die GeForce 7900 GS in der Performance der GeForce 7900 GT fast gleichsetzen - und diese Karte ist derzeit auch schon für um die 150 Euro zu bekommen. Um eine Marktchance zu haben, muß die wohl für 200 Euro antretende GeForce 8600 GTS somit mindestens die GeForce 7900 GS schlagen - was bedeutet, das man zur GeForce 7900 GT mindestens einen Performance-Gleichstand erzielen muß. Dies wird derzeit jedoch offensichtlich nicht erreicht. Natürlich ergibt sich die Chance, das nVidia am Launchtag mit optimierten Treibern noch einmal gut aufholen kann - allerdings ist der Rückstand teilweise ziemlich hoch, die Aufgabe also nicht gerade klein.
Nachtrag vom 10. April 2007:
Laut Fudzilla soll die GDDR4-Version des R600-Grafikchips seitens ATI, sprich die Radeon X2900 XTX, nummehr mit gar 1050 MHz Speichertakt antreten. Allerdings hängt diese Karte vom Zeitplan her derzeit etwas zurück - zuerst soll wohl die GDDR3-Version kommen, sprich die Radeon X2900 XT. Unklar ist an dieser Aussage allerdings, ob sich der zeitliche Abstand nicht durch die Verschiebung des Launches wieder egalisiert - gut möglich wäre es nämlich, daß ATI auf der Pressevorführung am 23./24. April in Tunis zwar nur die GDDR3-Version zeigt, zum eigentlichen Launch im Mai dann aber bereits mit der GDDR4-Versionen dienen kann. Dafür spricht auch, daß Fudzilla die Auslieferung der GDDR4-Version schon zur Mitte des Mai vermeldet.
Ganz generell scheint mittlerweile klar zu sein, daß ATI den 23./24. April zu einer geschlossenen Veranstaltung mit der Presse und eventuell auch bedeutenden Geschäftspartnern aus dem OEM- und Grafikkartenhersteller-Bereich benutzten wird. All dies wird allerdings natürlich unter einem NDA ablaufen, womit zu diesem Termin wohl nur wenige wirklich technische Informationen zu den neuen Grafikchips R600, RV630 und RV610 in die freie Wildbahn geraten dürften. Der eigentliche Launch dieser Chips soll dann im Mai sein, laut einer Meldung seitens der Overclockers Workbench angeblich am 14. Mai. Erst dann dürfte es erschöpfende technische Artikel samt Benchmarks zu den neuen ATI-Karten geben, welche dann aber aller Wahrscheinlichkeit nach auch umgehend im Handel erhältlich sein werden.
Eine preisliche Vorstellung eines Teils der kommenden ATI-Grafikkarten gibt es im übrigen bei TweakPC - wobei die dort genannten Dollar-Listenpreise sicherlich den Erwartungen entsprechen und auch recht deckungsgleich zu den entsprechenden nVidia-Angeboten sind: So soll die Top-Version des LowCost-Grafikchips RV610 (wohl Radeon X2300 Pro) für 99 Dollar in den Handel gehen, bei nVidia entspricht dies der GeForce 8500 GT auf G86-Basis zum gleichen Preis. Die größte Variante des Mainstream-Grafikchips RV630 (wohl Radeon X2600 XT) soll dagegen 199 Dollar kosten, auch hier findet sich bei nVidia mit der GeForce 8600 GTS auf Basis des G84-Chips ein (preislich) deckungsgleiches Angebot. Die kleinere RV630-Variante (wohl Radeon X2600 Pro) soll hingegen für 179 Dollar zu haben sein, hier dürfte nVidia die GeForce 8600 GT auf G84-Basis für 169 Dollar entgegensetzen.
Unklar ist hingegen noch etwas, für was die (prognostizierten) 499 Dollar für R600-Boards stehen - schließlich sollen diese in unterschiedlichen Versionen auf den Markt kommen. Wenn wir annehmen, dies sei der Preis für die größte Variante (Radeon X2900 XTX), dann wäre dies preislich absolut im selben Rahmen, in dem dato die GeForce 8800 GTX angeboten wird. Eine Radeon X2900 XT wäre dann wohl etwas billiger, womöglich bei 399 Dollar angesiedelt, womit diese Karte in Konkurrenz zur 640-MB-Version der GeForce 8800 GTS gehen würde. Wie von TweakPC richtig angemerkt, klafft dann natürlich zwischen Mainstream- und HighEnd-Segment eine große preisliche Lücke - in welche ATI allerdings wohl die Radeon X2900 XL legen will, wenngleich zu dieser Karte dato nicht viel mehr als nur deren Name bekannt ist.
Nachtrag vom 12. April 2007:
Laut PCPop (maschinelle Übersetzung ins englische) soll der nVidia G84 Mainstream-Grafikchip angeblich nur 32 Shader-Einheiten enthalten - bisher wurden 64 für die GeForce 8600 GTS und 48 (aktive) für die GeForce 8600 GT angenommen. Allerdings stammen die Angaben aus der Hardwarediagnose-Software Everest, welche jedoch mit hoher Wahrscheinlichkeit diese Daten nicht direkt auslesen kann, sondern sie anhand der erkannten Device-ID aus einer natürlich (und gerade vor dem offiziellen Launch) fehlbaren Datenbank entnimmt. Auch die von Everest "erkannten" Shader-Taktraten sind keine sicheren Angaben, da der (bekannte) Chiptakt einer unübertakteten GeForce 8600 GTS als mit "440%" übertaktet angegeben wurde. Insofern sind die kompletten Angaben dieser Meldung vorerst generell zu bezweifeln.
Der letzte Woche an dieser Stelle kommentierte erste Test einer GeForce 8600 GTS durch Au-Ja! ist von dieser Webseite inzwischen wieder heruntergenommen worden, auch wenn die Gründe hierfür nur angedeutet wurden. So hat man mittels eines von nVidia zur Verfügung gestellten neuen Treiber "in einigen Testläufen deutliche Abweichungen" erzielen können, was dann doch darauf hindeutet, daß die bisherigen Vorabtests zu den kommenden nVidia-Grafikkarten womöglich nicht das ganze Potential dieser Karten offenbaren konnten. Nichts desto trotz gibt es bei bei der Overclockers Workbench einen weiteren Vorabtest zur GeForce 8600 GTS zu erspähen. Die dort genannten Daten zur Anzahl der Shader-Einheiten und zum Shader-Takt entstammen jedoch wieder oben genannter Quelle, sind also derzeit nicht ernst zu nehmen..
Die (reichlich unübersichtlichen) Benchmarks der Overclockers Workbench bringen zudem keine neuen Erkenntnisse, da die Mainstream-Karte nicht "artgerecht" entweder ganz ohne Anti-Aliasing oder aber (für diese Karte völlig übertrieben) mit 8x Anti-Aliasing vermessen wurde. Bestätigt werden konnte jedoch die ziemlich gute Übertaktungseignung der GeForce 8600 GTS, welche sich ohne große Umstände von 675/1000 MHz auf 780/1125 MHz übertaktet ließ. Bei einem weiteren Vorabtest seitens der VR-Zone ging es nicht unähnlich bis auf 745/1145 MHz hinauf, auf diesen Taktraten war die Karte dann sogar etwas schneller als eine GeForce 7900 GT. Auch diese Benchmarks wurden jedoch leider ohne Anti-Aliasing durchgeführt, zudem fehlen bei der VR-Zone unverständlicherweise die Tests auf default-Taktung.
Zweiter Nachtrag vom 12. April 2007:
Laut DailyTech soll eine GeForce 8800 Ultra nun in der Tat zum recht utopischen Preis von 999 Dollar kommen. Wie nVidia die Leistung für einen solchen Preissprung zur Verfügung stellen will, ist uns allerdings unklar, denn all zu viel Takt läßt sich aus dem G80-Chip wohl nicht mehr herauspressen. Dies würde dann schon eher darauf hindeuten, daß der G80 doch noch und entgegen aller bisherigen Annahmen über (bisher) deaktivierte Hardware-Einheiten verfügen würde. Eine andere Idee zur Erklärung dieses hohen Preises haben hingegen DailyTech höchstselbst: Möglicherweise verbergen sich hinter der "GeForce 8800 Ultra" schlicht zwei G80-Grafikkarten in einer Box bzw. eventuell auch eine DualChip-Grafikkarte ähnlich der GeForce 7900/7950 GX2. Dieses bleibt zum jetzigen Zeitpunkt natürlich abzuwarten, der Launch der GeForce 8800 Ultra soll am 1. Mai sein, Karten soll es dann Mitte Mai geben.