Zum 3DCenter Forum
Inhalt




Überblick über die Direct3D10-Generation von ATI und nVidia

16. März 2007 / von Leonidas / Seite 3 von 7


Nachtrag vom 22. März 2007:

Weiter geht es mit den Informationshäppchen zum ATI R600 Grafikchip: Bei Fudzilla ist man inzwischen umgeschwenkt und betrachtet den R600 wieder als in 80nm gefertigt. Auch die VR-Zone geht inzwischen wieder von einem 80nm Chip aus, zudem hat man dort einen angeblichen 3DMark06-Wert der Radeon X2900 XTX. Für solcherart HighEnd-Karten ist der 3DMark06 allerdings sehr wenig aussagefähig, weil diese Karten in der Praxis schließlich fast immer mit Anti-Aliasing betrieben werden, welches aber beim Standarddurchlauf der 3DMarks nicht aktiv ist. Und letztlich gibt es auf der japanischen Webseite 4Gamer (maschinelle Übersetzung ins englische) noch Teile der AMD-Präsentation zum R600 zu besichtigen, auch dort findet sich im übrigen eine explizite Anmerkung zur 80nm Fertigung dieses Grafikchips.

Bezüglich der kommenden Direct3D10-Lösungen von ATI und nVidia fehlen unsererseits natürlich noch entsprechende Anmerkungen zu den seitens beider Grafikchip-Entwickler entsprechend geplanten Mobile Direct3D10 Lösungen. Prinzipiell muß man hier dazusagen, daß Informationen über Mobile-Grafikchips immer sehr rar sind - ganz besonders dann, wenn die entsprechenden Desktop-Versionen noch nicht einmal offiziell vorgestellt sind. Auf der anderen Seite lassen ATI und nVidia heutzutage im gewöhnlichen auch keine extra Mobile-Grafikchips mehr fertigen, sondern entnehmen die für mobile Geräte gedachten Grafikchips der normalen Produktion - dort sucht man sich schlicht diese Chips aus, welche mit der geringstmöglichen Chipspannung noch einwandfrei funktionieren.

Diese Chips werden zwar dann gewöhnlich als "M" gelabelt - beispielsweise "G71M", technisch besteht jedoch unseres Wissens nach kein Unterschied zu den Desktop-Grafikchips. Allerdings werden für die Mobile-Chips dann zumeist noch etwas ausgefuchstere Stromspartricks angewandt, wie beispielsweise deutlich niedrigere Taktraten und Chipspannungen unter dem 2D-Betrieb. Somit erreicht man auf letztlich einfachem Wege Mobile-Grafikchips, ohne diese deswegen gleich als extra Chips (mit entsprechendem Zeit- und Geldaufwand) auflegen zu müssen. Demzufolge sollte es den Grafikchip-Herstellern eigentlich problemlos möglich sein, im Anschluß an den Launch eines neuen Desktop-Grafikchips auch den Mobile-Markt mit entsprechenden Varianten beliefern zu können.

In der Praxis steht dem allerdings entgegen, daß gerade die heutzutage erscheinenden HighEnd-Lösungen nur schwerlich auf Mobile zu trimmen sind, da deren Stromverbrauch dafür oftmals deutlich zu hoch ist. Genau aus diesem Grunde dauert es dann eben seine Zeit, ehe die GeForce 8800 Serie auch für den Mobile-Markt verfügbar wird: Zuerst einmal gehen die ersten Produktionschargen natürlich in das prestigeträchtigere Desktop-Geschäft - und dann muß die Produktion so weit verfeinert werden, daß es eine genügende Ausbeute an Chips gibt, welche man mit niedrigen Spannungen betreiben kann und welche demzufolge in das Mobile-Segment gehen können. Reicht die Spannungsabsenkung nicht aus, kann es bei HighEnd-Lösungen zudem ebenfalls vorkommen, daß diese gegenüber der Desktop-Variante etwas abgespeckt sind (bei oftmals trotzdem gleichen Namen).

Deshalb hat es auch so lange gedauert, bis der G80-Chip im Mobile-Segment aufgetaucht ist. Wie die VR-Zone berichtet, wird es die GeForce 8800 Go in drei Varianten geben: GS, GTS und GTX. Die Unterschiede zwischen diesen Versionen sind derzeit nicht bekannt, die bekannten Unterschiede aus dem Desktop-Bereich sind hierbei allerdings wohl nicht maßgebend. Klar ist aber, daß auch die GeForce Go 8800 Serie wie schon auf dem Desktop einiges an Strom ziehen wird, deshalb gibt es diese Mobile-Grafiklösungen auch nur im größtmöglichen MXM-Standard, MXM-IV. Nichts desto trotz wird es wieder Notebook-Hersteller geben, welche das ganze auf die Spitze treiben: So berichtet die VR-Zone von einem seitens des Herstellers Clevo geplanten Notebook mit gleich zwei GeForce Go 8800 Modulen in SLI-Verbindung ;).

Gemäß vorstehender Erklärung ist es aber natürlich viel einfacher, LowCost- und Mainstream-Grafikchips für den Mobile-Einsatz zu aquirieren, da deren Verlustleistung in aller Regel schon halbwegs passend ist und man außerdem aufgrund der hohen gefertigten Stückzahlen schneller auf eine ausreichende Anzahl von Grafikchips kommt, welche auch mit abgesenkter Spannung ihren Dienst tun. So ist es denn auch nicht weiter erstaunlich, daß laut PCPop auf der CeBIT von MSI eine erste fertige GeForce8-Lösung gezeigt wurde: Hierbei handelt es sich um eine GeForce Go 8300 auf Basis des G86-Chips in einem MXM-II Modul. Leider ist das natürlich nur die LowCost-Ausführung der GeForce8-Serie, interessanter gerade für Notebooks wären aber eher die Mainstream-Ausführungen, da diese einen guten Mittelweg zwischen Performance und Stromverbrauch darstellen. Allerdings sind diese ebenfalls in absehbarer Zeit zu erwarten, da der G84-Chip kein wirklicher Stromfresser zu sein scheint.


Nachtrag vom 24. März 2007:

Gemäß The Inquirer soll der R600-Chip von ATI nunmehr am 23./24. April in Tunis groß gelauncht werden, zudem werden an diesem Tag wohl auch die LowCost-Ausführung RV610 und die Mainstream-Ausführung RV630 vorgestellt. Wie es danach mit der Verfügbarkeit an Karten aussieht, ist nicht bekannt, zumindestens bei den LowCost- und Mainstream-Ausführungen kann man angesichts einiger auf der CeBIT zu sehender Vorserienexemplare allerdings zuversichtlich sein. Eine ähnliche Zuversicht bezüglich des R600 ist derzeit allerdings kaum angebracht, da frühere Berichte zum Lauchtermin eine eher schwache Lieferfähigkeit und dann erst zur Mitte des Mai eine ausreichende Lieferfähigkeit vermeldet haben.


Nachtrag vom 26. März 2007:

Wie Fudzilla ausführen, sollen R600-Boards im realen Betrieb in der Tat auf eine Stromaufnahme von über 200 Watt kommen - während eine GeForce 8800 GTX auf ungefähr 140 Watt zu schätzen ist. Damit scheinen sich die früher genannten Werte zu bestätigen, welche bei der Radeon X2900 XTX von einer Stromaufnahme von 240 Watt für die 9,5 Zoll große Retail-Version und von 270 Watt für die 10,4 Zoll große OEM-Version sprachen. Andererseits müssen wir bei dieser Gelegenheit auch auf die unterschiedlichen Auffassungen der verschiedenen Hersteller zu Stromverbrauchs-Angaben eingehen: Beispielsweise ist dies im Prozessorenbereich ganz kurios, weil beide Hersteller hier für mehrere unterschiedlich getaktete Prozessoren die gleichen Stromverbrauchsangaben machen.

Was auf der einen Seite technisch Unsinn ist, hilft den Herstellern aber auf der anderen Seite bei der besseren Produktplanung: So können Mainboard-Hersteller aufgrund der identischen Stromaufnahmeangaben ihre Platinen entsprechend so bauen, daß sie automatisch mit allen Prozessoren zusammenlaufen (und da Mainboards die Spannungswandler für die Prozessoren zur Verfügung stellen, ist hierbei eine vollständige Kompatibilität ein höchst wichtiger Punkt). Damit eignen sich die Stromaufnahmeangaben von AMD und Intel aber nur absolut unzureichend, um sagen zu können, wieviel ein Prozessoren-Modell dieser Hersteller wirklich zieht - gerade die kleinen Modelle können teilweise erheblich unter den offiziellen Angaben liegen. Zudem geben beide Prozessorenhersteller ihren Stromaufnahmeangaben - natürlich wiederum unterschiedliche - Spielräume zu, was offizielle Angabe und Realität nochmals auseinanderzieht.

Gleiches gilt dann auch für die Grafikchip-Entwickler ATI und nVidia: Beide verwenden Stromaufnahmeangaben mit einer jeweils unterschiedlicher Philosophie und außerdem mit unterschiedlich hohem Spielraum. Dazu muß man wissen, das man Stromverbrauchsangaben prinzipiell auf drei Arten definierten kann: Erstens der Durchschnittsverbrauch unter Last mit üblicher Software. Zweitens die Thermal Design Power, welcher ebenfalls eine Belastung mit üblicher Software zugrunde liegt, allerdings unter ungünstigen Bedingungen wie schlechter Gehäusekühlung und warmen Außentemperaturen. Dieser Wert soll weniger aussagen, wieviel die Karte unter diesen Bedingungen wirklich verbraucht (bei schlechter Gehäusekühlung und warmer Außentemperatur wird nicht mehr Strom verbraucht), sondern vielmehr stellt die TDP bei Grafikchips eine Maßgabe zur Kühlkonstruktion dar.

Sprich, hierbei legt der Grafikchip-Entwickler eine gewisse Reserve ein, welche der Kühler größer sein muß als eigentlich durchschnittlich vonnöten - um eben auch für Fälle wie schlechte Gehäusekühlung und warme Außentemperaturen gewappnet zu sein. Schließlich soll die Grafikkarte prinzipiell auch unter schlechten Bedingungen noch absturzfrei arbeiten. Deswegen wird dann für eine Karte mit beispielsweise 80 Watt durchschnittlicher Stromaufnahme ein Kühler verbaut, welcher unter normalen Bedingungen auch eine Grafikkarte mit einer Stromaufnahme von 100 Watt kühlen könnte, damit dieser Kühler die Grafikkarten mit der Stromaufnahme von 80 Watt auch unter ungünstigen Bedingungen noch stabil hält.

Und der dritte Wert bei den Stromaufnahmeangaben ist die maximal mögliche Stromaufnahme, welche üblicherweise mit theoretischen Testprogrammen erzielt wird (bei CPUs mit BurnIn-Programmen). Hierbei werden Codes abgearbeitet, welche den Prozessor bestmöglich auslasten, allerdings in dieser Form und vor allem in dieser Häufigkeit bei realer Software nicht vorkommen. Damit werden dann absolute Spitzenwerte bei der Stromaufnahme erreicht. Diese Angaben spielen allerdings für die Hersteller zumeist keine große Rolle: Diese setzen auf die (deutlich niedrigere) durchschnittliche Stromaufnahme unter Last sowie die TDP-Angaben, in letzteren finden sich dann die Spielräume für schlechte Umgebungsbedingungen oder/und ungünstigen Programmcode.

Und um damit letztlich wieder auf den Fall des R600-Chips zurückzukommen: Die bisher genannten Angaben 240 bzw. 270 Watt dürften ebenso wie die Stromnverbrauchsangaben zu den RV610- und RV630-Boards TDP-Angaben sein, der reale Stromverbrauch unter Normalbedingungen sollte also um die 20 bis 30 Prozent niedriger ausfallen als bei diesen Angaben. Auf der anderen Seite sind die geschätzten 140 Watt einer GeForce 8800 GTX und die geschätzten 100 Watt einer GeForce 8800 GTS anscheinend wohl Angaben zum durchschnittlichen Stromverbrauch und keine TDP-Angaben. Aller Vermutung nach trifft dies auch auf die bisher bekannten Stromverbrauchsangaben zur GeForce 8600 GT und GTS zu: Diese haben angeblich 43 bzw. 71 Watt durchschnittlichen Stromverbrauch - was wohl keine TDP-Angaben sind, welche dann ihrerseits noch etwas höher liegen sollten.


Nachtrag vom 27. März 2007:

Zum schon berichteten R600-Launch am 23./24. April in Tunis gibt es inzwischen den Verdacht, daß dies kein Launch im eigentlichen Sinne des Wortes sein wird, sondern "nur" ein großer TechDay sein soll. Dies würde bedeuten, daß die (ausgewählte) Presse zwar zu diesem Zeitpunkt informiert werden würde, jedoch noch einige Zeit nichts darüber an die Leser weitertragen dürfte (was dem eigentlich Sinn von journalistischer Berichterstattung doch widerspricht). Sprich, das NDA zum R600 könnte womöglich erst später als zu jenem 23./24. April fallen, vermutlich dann erst Anfang Mai. Für ATI würde diese weitere Verzögerung zudem eine gewisse Karenzzeit bedeuten, um zum eigentlichen Launch dann auch genügend Karten bei den Händlern zur Verfügung zu haben.

Dagegen berichtet Fudzilla von einer Verschiebung beim ATI RV630 Direct3D10-Grafikchip für das Mainstream-Segment. Hierbei soll der RV630-Chip wohl ein produktionstechnisches Problem haben, was diesem um einen Monat zurückwirft. Laut Angaben von Fudzilla würde damit die Massenproduktion des RV630 gar erst im Juni starten - was allerdings bedeuten würde, daß auch ohne diese Verzögerung RV630-Boards frühestens Ende Mai in den Handel gelangt wären (Start der Massenfertigung im Mai plus mindestens zwei bis drei Wochen für die Boardhersteller) - und damit niemals bereits zum prognostizierten Launch am 23./24. April. Inwiefern ATI den RV630 noch zu diesem Datum vorstellen wird, ist nicht bekannt - angesichts der vorher breit angekündigten Strategie, zu diesem "größten Launch aller Zeiten" ;)) ein komplettes neues Produktprogramm offieren zu wollen, bleibt ATI aber eigentlich kaum etwas anderes übrig.

Auf der anderen Seiten sollen laut The Inquirer auch die kommenden LowCost- und Mainstream-Grafikchips von nVidia namens G86 (GeForce 8300/8400/8500 Karten) und G84 (GeForce 8600 Serie) eine Verzögerung aufs Parkett legen müssen - ebenfalls wegen (angeblicher) Produktionsprobleme. Wie im Fall des RV630 dürfte das die entsprechenden Karten um mindestens einen Monat zurückwerfen, so daß theoretisch der bislang bekannte 17. April als Launchtermin für G84 & G86 sowie die GeForce 8800 Ultra nicht mehr zu halten sein sollte - zumindestens dann nicht, wenn man zu diesem Termin auch lieferfähig sein will. Wie die vorstehende Meldung zur Verschiebung des RV630 ist aber auch diese Meldung derzeit nicht für bare Münze zu nennen und verdient einer unabhängigen Bestätigung, ehe man sich auf sie verläßt.


Nachtrag vom 28. März 2007:

Laut HKEPC gibt es Hinweise, daß ATIs RV610 LowCost Direct3D10-Grafikchip nur über ein 64 Bit DDR breites Speicherinterface verfügt, was die Schlagkräftigkeit dieses Grafikchips natürlich erheblich reduzieren würde. Dazu passt auch, das die schnellste RV610-Variante mit 700 MHz einen für das LowCost-Segment doch ausgesprochen hohen Speichertakt haben soll. Allerdings scheint ATI im kommenden Zweikampf der LowCost-Grafikchips RV610 vs. G86 ganz bewußt die kleinere Lösung gewählt zu haben, um den RV610-Chip möglichst klein und damit kostengünstig zu bekommen: So soll die Die-Fläche des RV610 nur 82 mm² betragen, während die des G86 bei 115 mm² liegen soll - was doch in einem Marktsegment, wo vor allem der Preis zählt, ein erhebliches Pfund zugunsten von ATI darstellen dürfte.

Schließlich wird vermutlich auch nVidia für die reinen OEM-Versionen des G86-Chips (vermutlich die GeForce 8300 GS) das Speicherinterface auf 64 Bit DDR limitieren - einfach, weil in dieser Preisklasse nicht mehr notwendig ist und es dort mehr auf Features und wie gesagt den Preis ankommt. Daneben kommen noch neue Informationen zum RV610 seitens Fudzilla: Danach soll nun auch dieser Grafikchip seitens ATI verschoben worden sein - auf nunmehr Ende des Mai. Sollten die gestern berichteten Verzögerungen von RV630, G84 und G86 stimmen, würde sich damit die gesamte LowCost- und Mainstream-Riege von ATI und nVidia um mindestens einen Monat verschieben, was die angepeilten Lauchtermine noch im April zu reinen Paperlaunches verkommen lassen würde.


Nachtrag vom 30. März 2007:

Laut TweakPC soll eine GeForce 8800 Ultra angeblich 999 Dollar kosten - was wir für ziemlich unglaubwürdig halten, weil eine solche Karte zu diesem Preis selbst bei Leistungsvorsprung gegenüber einer Radeon X2900 XTX von der Presse zerrissen werden würde und damit kaum absatzfähig wäre. Desweiteren kommt wieder das alte Gerücht von einer DualChip-Grafikkarte auf G80-Basis namens "GeForce 8950 GX2" auf. Doch einmal abgesehen von dem Punkt der enormen Stromaufnahme eines solchen Boliden im Rahmen von 200 bis 280 Watt realer Stromaufnahme (und TDP dann 260 bis 340 Watt!) steht hier immer noch die Frage im Raum, wieso nVidia sich so etwas antun sollte: Die G80-Geschäfte gehen gut und selbst wenn der R600-Chip den G80-Chip schlägt, läßt sich das leicht mit Hinweis auf den (mittlerweile deutlich) früheren Erscheinungstermin des G80 erklären.

Wie Hard Tecs 4U berichten, werden die kommenden ATI-Grafikchips RV610 und RV630 über einen integrierten "HD-Audio Controller" verfügen, welcher HD-Audiosignale ausgeben kann. Dies ist allerdings wohl nicht mit einem vollwertigen Soundprozessor zu verwechseln - ATI will hiermit also aller Wahrscheinlichkeit nach nicht die Hersteller von Soundkarten und Audiocodecs angehen. Vielmehr soll eine Erleichterung für Fälle geschaffen werden, wo verschlüsselte Inhalte über den HDMI-Ausgang auf einem Fernseher ausgegeben werden sollen (sowohl Bild als auch Ton, sprich ohne extra Soundanlage). Dann nämlich soll der HDMI-Anschluß auch die Audio-Signale mit durchleiten, wofür man normalerweise ein extra Kabel von der Soundkarte zur Grafikkarte benötigen würde.

Bei den RV610/RV630-Grafikchips sollen die Audiodaten dann direkt von dem "HD-Audio Controller" zusammen mit den Videodaten über den HDMI-Anschluß abgegeben werden. Inwiefern der "HD-Audio Controller" dabei weiterhin auf die Unterstützung des auf dem Mainboard verbauten Soundcodecs angewiesen ist, bleibt derzeit noch unklar. Allerdings spricht gegen diese Lösung, daß ATI dann eine vollständige (also auch für Spiele nutzbare) Soundlösung im Grafikchip hätte - und man diesen Umstand wohl sicherlich erwähnt hätte. Aktuell geht es ATI aber nur um eine gewisse Erleichterung für die Hersteller von Wohnzimmer-PCs (HTPCs), wo das Szenario der Ausgabe eines verschlüsselten Films an einem Fernseher schließlich normal sein dürfte. Aus diesem Grund haben auch nur die Grafikchips RV610 (LowCost) und RV630 (Mainstream) diesen "HD-Audio Controller" - weil jene primär in Wohnzimmer-PCs eingebaut werden dürften und weniger denn die HighEnd-Lösung R600.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Zurück / Back Weiter / Next

Shortcuts
nach oben