Zum 3DCenter Forum
Inhalt




Überblick über die Direct3D10-Generation von ATI und nVidia

16. März 2007 / von Leonidas / Seite 2 von 7


Nachtrag vom 16. März 2007:

Wie zu erwarten, war auf der CeBIT auch gleich genaueres zu den kommenden Mainstream Direct3D10-Grafikkarten von nVidia zu erfahren, auch wenn diese offiziell wohl erst am 17. April vorgestellt werden dürften. So berichtet der Heise Newsticker genauere Daten zum G84-Chip: Jener soll über über die Hälfte der Recheneinheiten des G80-Chips verfügen, ergo 64 Shader-Einheiten (acht Vec8-ALUs). Bezüglich der Textureneinheiten (TMUs) und Raster Operation Units (ROPs) gibt es derzeit noch keine Angaben, bestätigt wurde noch das (allerdings schon länger) bekannte 128bittige Speicherinterface des G84-Chips. Bei den TMUs kann man allerdings eine gleichförmige Abspeckung gegenüber dem G80-Chip auf 16 TMUs (vier Quad-TMUs) annehmen, da ein G8x-Design mit einer nicht gleichförmigen Anzahl an Shader-Einheiten und TMUs wohl deutlich ineffizient wäre.

Zudem hat man erste Hinweise zum G86-Chip, aus welchem im LowCost-Segment die Grafikkarten GeForce 8300 GS, GeForce 8400 GS und GeForce 8500 gebildet werden sollen. Hierbei spricht der Heise Newsticker allerdings etwas nebulös von "voraussichtlich 32 bis 48 Shader-Einheiten" (vier bis sechs Vec8-ALUs) - womit jedoch nicht klar ist, ob das eine Annahme des Heise Newsticker ist, oder ob dies auf einer realen Information basiert. Zumindestens aber wären diese 32 bis 48 Shader-Einheiten absolut im Rahmen des Möglichen, wobei wir uns für einen LowCost-Chip sicherlich eher das untere Ende dieser Skala vorstellen könnten. Auch der G86-Chip soll wieder über ein 128bittiges Speicherinterface verfügen, wobei die günstigen G86-Grafikkarten sicherlich trotzdem nur mit 64bittigem Speicherinterface antreten werden.

Weitere Informationen zum nVidia G84 kommen zudem seitens DailyTech: Hierbei werden primär die schon bekannten Taktraten zur GeForce 8600 GT (540/700 MHz) und GeForce 8600 GTS (675/1000 MHz) bestätigt - interessant sind hier aber vor allem die Verlustleistungsangaben für diese Boards. So soll die größere GeForce 8600 GTS ihre 71 Watt ziehen (hat aber trotzdem einen extra Power-Anschluß, was vielfach bei Grafikboards nahe der 75-Watt-Grenze aus Sicherheitsgründen getan wird), während die kleinere GeForce 8600 GT mit 43 Watt auskommt. Trotz daß dies gegenüber der aktuellen Mainstream-Generation von nVidia wieder etwas mehr ist, scheint nVidia doch beim Stromverbrauch der Mainstream-Grafikkarten die deutlich besseren Karten gegenüber ATI zu haben - deren geplante Mainstream-Lösungen sollen schließlich zwischen 75 und satten 128 Watt ziehen.


Nachtrag vom 17. März 2007:

Bei TweakTown hat man eine ATI-Roadmap in der Hand, welche die (ursprünglich) geplanten R600-Boards beschreibt. Danach bestätigen sich die schon gerüchteweiser bekannten Daten, wonach die Radeon X2900 XTX mit 1 GB DDR4-Speicher in zwei Bauformen daherkommt: Als 12,4-Zoll-Board mit satten 270 Watt Stromverbrauch und als 9,5-Zoll-Board mit "nur noch" 240 Watt Stromverbrauch. Dazu soll es eine Radeon X2900 XT mit 512 MB GDDR3-Speicher und 10 bis 15 Prozent niedrigeren Taktraten als die XTX-Version geben, der Stromverbrauch dieser Version wird aber trotz niedrigerem Takt irritierenderweise auch mit 240 Watt angegeben. Und letztlich bestätigt sich nun noch die Radeon X2900 XL, welche mit 512 MB GDDR3 und deutlich reduzierten Taktraten bei einem Stromverbrauch von 180 Watt antreten soll. Rechnet man die deutlich reduzierten Taktraten ein, so ist es zudem bei der Radeon X2900 XL unwahrscheinlich (wenn auch nicht unmöglich), daß diese zusätzlich noch Hardware-Abspeckungen gegenüber den XT/XTX-Varianten trägt.

Allerdings haben diese Angaben allesamt ein großes Problem: Sie entstammen alten Planungen seitens ATI, dies beweisen auch die genannten Launchtermine von März für die XTX-Versionen und April für die XT/XL-Versionen. Mit der neuerlichen Verschiebung des R600-Chips auf den Mai könnte sich also doch noch einiges ändern: So berichten K-Hardware davon, daß der R600-Chip nun nicht mehr in 80nm, sondern gleich in der 65nm Fertigung antreten wird. Bei der Bewertung dieser Information sind allerdings durchaus Zweifel angebracht: Man kann womöglich den Sprung von 90nm auf 80nm in recht kurzer Zeit realisieren, der Sprung von 80m auf 65nm ist jedoch ein ziemlich großer, welcher dementsprechend erheblich an Zeit benötigt. Angesichts des weiterhin geplanten Launchtermins im Mai wäre dies ausschließlich dann möglich, wenn ATI schon vor Monaten mit den Produktionsvorbereitungen eines R600-Chips in 65nm begonnen haben würde.

Auch ist bei Chipfertiger TSMC der 65nm-Prozeß angeblich noch nicht so weit, um solche großen Chips wie den R600 mit einer vernünftigen Ausbeute fertigen zu können. Dies soll allerdings nicht bedeuten, daß es unmöglich ist, daß ATI den R600-Chip gleich in 65nm herausbringt - es ist halt nur an gewisse Bedingungen geknüpft und keinesfalls eine geringfügige Änderung der R600-Pläne. Sollte es ATI allerdings tatsächlich gelingen, den R600 in 65nm in den Markt zu bringen, würde man natürlich auf einen Schlag viele Problem lösen: Der Stromverbrauch der R600-Grafikkarten würde erheblich sinken und ATI könnte somit wohl dem eher zweifelhaften Rekord einer Consumer-Grafikkarte mit über 200 Watt Stromverbrauch entgehen. Zudem könnte man sich wohl auch noch einige Taktreserven erwerben, welche dann dem R600 den (für ATI dringend nötigen) Performance-Thriumph über den G80 sichern würde. Nichts desto trotz ist diese 65nm-Information derzeit natürlich unter starken Vorbehalten zu sehen und wären besser weitere Hinweise hierzu abzuwarten.


Nachtrag vom 19. März 2007:

Neues gibt es zum Fall R600 in 80nm oder 65nm. Zuerst wäre hierzu anzumerken, daß ein potentieller Sprung von ATI von 80nm auf 65nm beim R600-Chip einiges an Vorbereitungszeit erfordern würde, da der 65nm Fertigungsprozeß grundverschieden von den doch ziemlich ähnlichen Prozessen 80nm und 90nm ist. Unterhalb von einigen Monaten straffer Planung, Produktionsvorbereitung und Start der Massenfertigung läuft da gar nichts - wenn ATI also im Mai den R600-Chip auf 65nm ausliefern wollte, müsste man wohl schon zum Ende des letzten Jahres diesen Die-Shrink angegangen haben. Dies beißt sich natürlich etwas damit, daß ATI den R600 ursprünglich sicher zum Ende des März' herausbringen wollte und die entsprechenden Launch-Aktivitäten allesamt schon geplant waren (und nun kurzfristig abgesagt wurden).

Innerhalb dieser Zeit von der Absage des ursprünglichen Launches (Ende Februar) bis zum Zeitpunkt des neuen Launches (Mai) stellt ATI jedoch auf keinen Fall auf die 65nm Fertigung um. Daß die RV610- und RV630-Chips zu diesem Zeitpunkt bereits in 65nm antreten werden können, hängt nur damit zusammen, daß diese schon des längeren auf diese Fertigungstechnologie hin geplant wurden. Hinzu kommt, daß die angeblichen Bestätigungen einer 65nm Fertigung beim R600 durch ATI/AMD laut unserer Nachfrage "Schwachsinn" sind, wie hier nachzuschlagen - wobei wohlgemerkt nicht die 65nm Fertigung beim R600 negiert wurde, sondern nur eine angebliche ATI/AMD-Bestätigung dessen gegenüber K-Hardware und The Inquirer.

Damit ist das Thema R600 @ 65nm aber auf keinen Fall schon vom Tisch - denn einen R600 in 65nm gibt es tatsächlich. Wie CDR-Info im Nebensatze berichten, arbeitet ATI/AMD nach eigenen Angaben in der Tat schon an einem R600 in 65nm für den Mobile-Markt - und diesen könnte man natürlich auch auf dem Desktop-Markt einsetzen, sofern jener "R600M" keine Hardware-Abspeckungen gegenüber der Desktop-Variante des R600 hat. Damit sind im Fall R600 in 80nm oder 65nm nach wie vor alle drei Varianten möglich: In der ersten Variante liefert ATI den R600 streng in 80nm aus - mit allen Vor- und Nachteilen (Verfügbarkeit vs. Stromverbrauch). Hier wäre es zwar derzeit etwas unklar, wieso der Chip dann nochmals verschoben wurde, aber diese Frage sollte sich dann zum Launch klären lassen.

In der zweiten Variante bringt ATI den R600 gleich nur noch in 65nm heraus. Dafür hätte man sich allerdings (wie vorstehend beschrieben) schon vor Monaten diesem Thema verstärkt widmen müssen, um im Mai dann auch wirklich lieferbar zu sein. Und in der dritten Variante würde es einen Mix aus 80nm und 65nm geben: ATI bringt den R600 erst einmal in 80nm heraus und beliefert vorzugsweise zuerst die OEMs mit den 80nm-Modellen (weil sich in diesem Markt weniger Diskussionen an dem Stromverbrauch der Karten entzünden werden). Gleichzeitig versucht man so schnell wie möglich auf die 65nm-Version umzusteigen, um mit dieser dann den Retail-Markt beliefern zu können. Auch bei dieser Variante müsste ATI allerdings auch schon vor Monaten ernsthaft an der 65nm Fertigung des R600-Chips gearbeitet haben. Welche der drei Varianten wirklich kommt, ist derzeit noch ziemlich offen - bei unaufgeregt konservativer Betrachtung hat die erste Variante (80nm Launch) allerdings die deutlich größten Chancen.


Nachtrag vom 20. März 2007:

Wie NGOHQ in Berufung auf mehrere Grafikkartenhersteller berichten, soll die GeForce 8800 Ultra als rein höhergetaktete Version des G80-Chips zusammen mit den LowCost- und Mainstream-Lösungen GeForce 8500 GT, GeForce 8600 GT und GTS bereits am 17. April vorgestellt werden - sogar inklusive sofortiger Verfügbarkeit der schnellsten G80-Variante. Dieser Termin ist allerdings etwas erstaunlich, denn als R600-Counterpart wäre es zu erwarten gewesen, daß nVidia den R600-Start abwartet, um erst dann die finalen Taktraten der GeForce 8800 Ultra festzulegen. Man kann hier durchaus darüber spekulieren, daß es nVidia jetzt schon bekannt ist, daß man den R600 nicht schlagen kann und deshalb den R600-Killer bereits vor dem R600 veröffentlicht. Auf der anderen Seite könnte es nVidia natürlich auch leid sein, ständig weiter auf den R600 zu warten ;).

Im Forum der chinesischen Webseite PC Online gibt es Bilder und Benchmarks einer GeForce 8600 GTS von BFG zu visitieren. Die Karte taktete dabei mit 710/1008 MHz, was etwas höher ist als der derzeitig bekannte Referenztakt von 675/1000 MHz - andererseits sind gewisse Taktunterschiede bei Vorserienmodellen normal, ganz besonders wenn diese (eventuell) gebaut wurden, noch bevor der Grafikchip-Entwickler den finalen Referenztakt festgesetzt hat. Im Standardtest von 3DMark06 erreichte diese neue Top-Karte des Mainstream-Segments 5488 3DMarks, was doch angesichts beispielsweise dieser Referenzwerte erstaunlich niedrig ist.

Sicherlich schlägt die GeForce 8600 GTS damit die bisherige offizielle Mainstream-Lösung von nVidia, die GeForce 7600 GT (4364 3DMarks) um immerhin 25 Prozent. Andererseits wildern derzeit im Mainstream-Segment bereits die von HighEnd-Ausführungen abstammenden Karten Radeon X1950 Pro (5965 3DMarks) und GeForce 7900 GS (5652 3DMarks) sehr erfolgreich, aber auch solche Karten wie die Radeon X1950 XT (runde 7000 3DMarks) und die GeForce 7950 GT (6672 3DMarks) werden immer günstiger und können durchaus als zukünftige Kontrahenten zur GeForce 8600 GTS betrachtet werden. Und gegenüber diesen Karten sieht es schlecht für die GeForce 8600 GTS aus - und das in einem Test, welcher durch den Verzicht auf Anti-Aliasing eine der Hauptschwächen der GeForce 8600 GTS (das nur 128bittige Speicherinterface) gut überdeckt.

In der Spielepraxis dürfte zwar der Vorteil gegenüber der GeForce 7600 GT (auch nur 128bittiges Speicherinterface) erhalten bleiben, der Rückstand gegenüber den vorgenannten DirectX9-Karten allerdings tendentiell sogar noch zunehmen, da in der Praxis natürlich mit dem Einsatz von Anti-Aliasing gerechnet werden muß. Es deutet sich damit immer mehr an, daß die kommende DirectX9 Mainstream-Generation wohl nicht in der Lage sein wird, die aktuell bereits im 200-Euro-Preissegment positionierten DirectX9-Karten zu schlagen. Abzuwarten bliebe natürlich noch, ob ATI dies mit dem RV630-Chip bzw. der Radeon X2600 Serie besser machen kann - da dort aber wie bei der GeForce 8600 Serie auch nur ein 128bittiges Speicherinterface verbaut sein wird, sind die Chancen hierfür auch nicht besonders hoch.


Nachtrag vom 21. März 2007:

Die gestern gemeldeten ersten Benchmarks einer GeForce 8600 GTS sind nach Angaben von Planet 3DNow! eine Fälschung - in den Bildern fanden sich wohl Photoshop-Tags, außerdem entsprach die angebliche 3DMark-Gesamtwertung nicht den einzelnen Werten. Richtigerweise fügte man zudem an, daß die gestern von uns herangezogenen Vergleichswerte von einer wesentlich leistungsfähigeren CPU stammen, während die angeblichen Benchmarks der neuen nVidia-Karte auf einem SingleCore-Prozessor mit 2.5 GHz erstellt wurden, was in einem Leistungsunterschied von durchaus bis zu 20 Prozent unter dem 3DMark06 resultieren kann. Diesbezüglich haben wir gestern wohl zu schnell geschossen, wofür wir uns ausdrücklich entschuldigen wollen.

Weiteren Meldungen von selber Quelle bezüglich den Benchmark-Werten einer GeForce 8600 GT als der kleineren Schwester der GTS-Version wollen wir demzufolge vorerst keinen Glauben schenken, auf der anderen Seite hat man bei Hardware.fr als in aller Regel verläßlicher Quelle entsprechende 3DMark06-Werte anzubieten: Danach soll auf einem System, wo eine GeForce 8800 GTX ihre 11900 3DMarks erreicht (wohl ein Core 2 Extreme X6800 wie in diesem Test, wo diese Karte 11860 3DMarks erreicht), die GeForce 8600 GTS auf immerhin 7000 3DMarks kommen, was dann etwas überhalb von GeForce 7950 GT (6672 3DMarks) und Radeon X1900 XT (6611 3DMarks) liegen würde. Die GeForce 8600 GT würde hingegen auf 5800 3DMarks kommen, dies ist im Rahmen der GeForce 7900 GT (5668 3DMarks) und der Radeon X1950 Pro (5965 3DMarks). Und letztlich würde die GeForce 8500 GT als größte der neuen LowCost-Karten auf 2800 3DMarks kommen, was doch noch einmal deutlich langsamer wäre jetzt die Radeon X1650 XT (4115 3DMarks) schon liefern kann.

Zumindestens für die neuen Mainstream-Lösungen von nVidia sieht das Bild damit deutlich freundlicher aus - allerdings bleiben unsere gestern geäußerten grundsätzlichen Bedenken bezüglich des 128bittigen Speicherinterfaces dieser Karten weiterhin bestehen. Denn wenn die GeForce 8600 GT und GTS unter 1024x768 ohne Anti-Aliasing auf in etwa die gleiche Performance kommen wie die jetzt im jeweils angepeilten Preissegment schon verfügbaren Karten, dann werden die neuen nVidia Mainstream-Grafikkarten unter höheren Auflösung und unter Zuschaltung von Anti-Aliasing angesichts ihrer jeweils nur 128 Bit DDR breiten Speicherinterfaces kaum diese Performance halten können. Zwar bleiben natürlich in jedem Fall die entsprechenden Benchmarks zum voraussichtlichen Launch dieser Karten am 17. April abzuwarten, aber diese Theorie kann man derzeit sicherlich erst einmal aufstellen.

Daneben gibt es zum ATI R600 Grafikchip noch ein paar neue Informationshäppchen: Laut der VR-Zone soll die (nach wie vor unbestätigte) 65nm-Version des R600-Chips unter einer sehr schlechten Produktionsausbeute leiden - eigentlich kein Wunder bei einem so großen Chip unter 65nm zu einem (für Chipfertiger TSMC) so frühen Zeitpunkt. Auf der anderen Seite ist an dieser Meldung auch nicht klar, ob sie sich wirklich auf die 65nm-Produktion bezieht: Womöglich war die Ursprungsinformation rein nur, daß der R600-Chip eine schlechte Produktionsausbeute habe und die VR-Zone - welche sich derzeit stark auf einen R600 strikt unter 65nm eingeschossen hat - hat dies allein von sich aus auf die 65nm-Fertigung umgedeutet.

Dagegen berichtet die PC Games Hardware von einer gegenüber dem R580-Chip um 40 Prozent höheren (reiner) Rechenleistung für den R600-Chip - was durchaus nicht schlecht wäre, denn bei der reinen Rechenleistung liegt der G80-Chip von nVidia auch "nur" 50 Prozent über dem vorhergehenden G71-Chip. Hard Tecs 4U haben hingegen ein paar CeBIT-Impressionen und -Depressionen zum R600-Chip, welche lesenswerte Hintergründe und Anekdoten zu den Irrungen und Wirrungen um die derzeitige R600-Darstellung von AMD/ATI bieten. Und letztlich gab es bei eBay wohl kurzzeitig das Angebot einer R600-Karte - allerdings nur so lange, bis der Anbieter bemerkte, was er da für einen "Schatz" in den Händen hält. Allerdings bietet die nunmehr geschlossene Auktion auch neues, unabhängiges Bildmaterial zum R600.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Zurück / Back Weiter / Next

Shortcuts
nach oben