Zum 3DCenter Forum
Inhalt




Überblick über die Direct3D10-Generation von ATI und nVidia

16. März 2007 / von Leonidas / Seite 6 von 7


Nachtrag vom 25. April 2007:

Gemäß Hard Tecs 4U soll der R600-Chip in der Performance nicht der große Überflieger werden, sondern auf dem Niveau einer GeForce 8800 GTX liegen. ATI soll den R600 somit inzwischen als "Best Value High-End" bewerben, also als den Grafikchip mit dem besten Preis/Leistungsverhältnis im HighEnd-Segment. Und dies könnte sogar durchaus zutreffen: Denn da sich die Performance-Aussage offensichtlich auf die Radeon HD 2900 XT (und nicht die erst im Juni kommende XTX-Version) bezieht, welche zu einem Preis von 399 Dollar antreten soll, wären dies zu aktuellen Marktpreisen doch ein guter preislicher Vorsprung gegenüber der GeForce 8800 GTX. Zwar könnte sich bis zum realen Marktstart der neuen ATI-Karte zur Mitte des Mai noch etwas am Preis des nVidia Spitzenmodells tun, aber für den Augenblick erscheint es doch so, als würde ATI durchaus das eigene Versprechen von "Best Value High-End" erfüllen können.

Die ersten wohl glaubwürdigen Performance-Resultate zum ATI R600 Grafikchip in Form der Radeon HD 2900 XT hat man bei DailyTech anzubieten. Vorher sagte man noch aus, daß der R600-Chip nun doch 320 Shader-Einheiten haben wird - angesichts dieser hohen Zahl (G80: 128) kann wohl schon jetzt als gesichert gelten, daß sich G80 und R600 vom Aufbau und Leistungsfähigkeit der Shader-Einheiten her massiv unterscheiden werden, eine Leistungsbestimmung rein über die Anzahl der Shader-Einheiten also zwecklos ist (funktioniert nur innerhalb derselben Generation eines Herstellers). Eine Aussage zum Chiptakt der Radeon HD 2900 XT wurde nicht getroffen, allerdings soll der Speichertakt bei nunmehr 825 MHz liegen - verbaut wird bei dieser Karte wie erwartet 512 MB GDDR3-Speicher. GDDR4-Speicher wird es hingegen erst bei der Radeon HD 2900 XTX geben, welche allerdings erst im Juni zu erwarten ist.

Die Benchmarks selber wurden unter 1280x1024 mit einer leider nicht näher spezifizierten "Maximum Quality" erstellt - hinter welcher sich nach Sichtung von Vergleichswerten aller Wahrscheinlichkeit nach 4x Anti-Aliasing samt 16x anisotropen Filter verbirgt. Als Vergleichskarte wurde der Radeon HD 2900 XT eine GeForce 8800 GTS 640MB gegenübergestellt, welche die neue ATI-Karte auch passabel, aber nicht mit großem Abstand schlagen konnte (10 Prozent über fünf Tests, wobei nur zwei davon größere Ausschläge zugunsten der ATI-Karte zeigten). Hier bleibt noch stark abzuwarten, ob sich die Radeon HD 2900 XT auch mit der GeForce 8800 GTX wird anlegen können - oder ob dies eine Aufgabe für die Radeon HD 2900 XTX bleibt. Der echte Launch der neuen ATI-Karten soll wie schon berichtet am 14. Mai stattfinden, im Handel sollen die Karten (bis auf die Radeon HD 2900 XTX) dann ab 19. Mai sein, wie die DigiTimes berichtet.

Im G84-Test der X-bit Labs gibt es erste gemessene Stromverbrauchswerte der neuen nVidia-Karten - auch inklusive der G80-Varianten, welche sich früher noch gegen entsprechende Messungen sträubten. So kommt die GeForce 8800 GTS 640MB auf 106 Watt Stromverbrauch unter 3D und die GeForce 8800 GTX auf 132 Watt, während sich die GeForce 8600 GTS mit 47 Watt begnügt (und eine GeForce 8600 GT somit auf ca. 40 Watt zu schätzen ist). Während die Verbrauchsangaben zu den G80-Varianten damit im Rahmen der Erwartungen liegen, überrascht der Stromverbrauch der GeForce 8600 GTS doch ein wenig - immerhin ist diese Karte mit einem extra Stromanschluß ausgerüstet, was auf einen Verbrauch in der Nähe von 60 Watt hindeutet. Auf der anderen Seite steigt innerhalb der Mainstream-Karten von nVidia aber dennoch auch mit der GeForce 8600 GTS der Stromverbrauch weiterhin an, denn der vorhergehende Mainstream-Chip G73 verbraucht in Form der GeForce 7600 GT nur ganz 36 Watt.

Zwar ist die GeForce 8600 GTS auch klar schneller als eine GeForce 7600 GT, aber das Effizienz-Verhältnis Performance/Stromverbrauch dürfte mit der GeForce 8600 GTS nicht oder nur geringfügig gesunken sein. Dies wäre allerdings angesichts immer weiter steigender Grafikchip-Leistung wirklich nötig, ansonsten stehen wir in ein paar Jahren bei 300 Watt Stromverbrauch bei HighEnd-Beschleunigern und 100 Watt bei Mainstream-Grafikkarten. Abseits dessen bestätigen sich zudem noch die überaus hohen Leistungsaufnahmen des G80-Chips im reinen 2D-Betrieb von 52 Watt für eine GeForce 8800 GTS 640MB und satten 70 Watt für eine GeForce 8800 GTX. Von dem hierzu seitens nVidia geplanten Treiber, welcher die Stromaufnahme der G80-Varianten im 2D-Betrieb kräftig senken soll, ist leider derzeit immer noch nichts zu sehen.


Nachtrag vom 29. April 2007:

Inzwischen schwirren einige Spezifikationen zum R600-Chip durch die Gegend - beispielsweise in unserem Forum einzusehen oder auch bei The Inquirer kommentiert. Momentan sind aber in erster Linie nur die Marketing-Schlagwörter bekannt und es bleibt noch weitestgehend unklar, was sich hinter diesen verbirgt. Speziell zum breit vermeldeten 24x Anti-Aliasing wäre allerdings schon jetzt dazuzusagen, daß es sich hierbei sicherlich kaum um ein 24x Multisampling Anti-Aliasing handeln dürfte, sondern das ATI diese hohe Samplezahl mit einiger Sicherheit wohl nur über den Mix aus einem hochwertigen Multisampling mit einem zusätzlichen Supersampling erreicht. Diese Mischform dürfte dann aber vermutlich auch für den R600-Chip schon wieder zu langsam für einen breitflächigen Spieleeinsatz sein.

Davon abgesehen müssen wir generell die früheren Stromverbrauchs-Angaben der kommenden ATI-Chips in Zweifel stellen, nachdem sich zumindestens die Stromverbrauchs-Angaben der Mainstream-Klasse von ATI als falsch erwiesen haben: Dort wurden seinerzeit in ATI-eigenen Unterlagen bis zu 128 Watt Stromverbrauch (für eine Radeon HD 2600 XT mit 512 MB) angegeben, die letzten Bilder von 256-MB-Versionen dieser Karte zeigten aber keinen extra Stromanschluß, was auf einen Verbrauch von zwingend unterhalb von 60 Watt hindeutet (da der PCI Express Port nicht mehr als 75 Watt liefert und man natürlich immer noch etwas Reserve behält). Dieser völlige Wandel bei eigentlich bereits als sicher geltenden Fakten könnte aber auch für ATIs HighEnd-Lösungen bedeuten, daß die früheren Horrormeldungen über TDPs von bis zu 240 Watt inzwischen vollkommen obsolet sind.

Vielmehr kann man durchaus davon ausgehen, daß die R600-Varianten keinen so extrem höheren Stromverbrauch als die G80-Varianten haben werden und daß demzufolge die 200-Watt-Grenze nicht erreicht werden wird. Einen kleinen Hinweis darauf finden wir wieder in unserem Forum, wonach laut (inoffizieller) ATI-Aussage ein R600-Board so 40 bis 50 Watt überhalb eines G80-Boards verbrauchen soll. Gemessen an einer GeForce 8800 GTX mit bekanntermaßen 132 Watt Stromverbrauch dürften dies demzufolge 170 bis 180 Watt für den R600-Chip in seiner Maximalausführung Radeon HD 2900 XTX werden, die XT-Version dürfte dann noch etwas darunter liegen. Dies wäre viel, aber immer noch mittels guter Gehäuse-Durchlüftung und passendem Netzteil zu schultern.

Gleichfalls scheint sich diese Radeon HD 2900 XTX weiter zu verschieben - laut Fudzilla nunmehr gar auf das dritte Quartal 2007 (wobei das auch nur eine Verschiebung von Juni auf Juli sein kann). Grund hierfür sollen angeblich Performance-Probleme mit den GDDR4-Speicherchips sein: Ob es - wie Fudzilla vermelden - so weit geht, daß die langsamer getaktete GDDR3-Karte Radeon HD 2900 XT schneller ist, wäre zwar zu bezweifeln, aber es dürfte für ATI schon ein Problem sein, wenn die XTX-Version nicht wirklich schneller als die XT-Version ist: Denn mit der Radeon HD 2900 XTX wird man letztlich gegen die GeForce 8800 Ultra antreten, womit man einiges an Performance gegenüber der Radeon HD 2900 XT draufpacken wird müssen.

Nach den Benchmarks zur Radeon HD 2900 XT haben DailyTech nun auch noch entsprechende Werte zur Radeon HD 2900 XTX anzubieten, welche wie bekannt jedoch etwas später antreten wird und sich dann wohl schon an der GeForce 8800 Ultra messen muß. Um dies etwas auszugleichen, wurde die für die Vergleichsmessungen herangezogene GeForce 8800 GTX (von 575/900 MHz) auf 650/1000 MHz übertaktet, was ziemlich in der Nähe der zu erwartenden Ultra-Taktraten von 675/1080 MHz liegt. Zudem hatten DailyTech aber auch nur ein frühes Sample der ATI-Karte mit nicht finalen Taktraten zur Verfügung: 750/1010 MHz taktete die benutzte XTX-Karte, die finalen Taktraten der Radeon HD 2900 XTX dürften aber wohl bei 800/1100 MHz liegen.

Insofern ist der angetretene Vergleich derzeit noch sehr unvollkommen, dennoch zeigt er einige Tendenzen auf: So liegt erstens einmal die fast auf Ultra-Taktraten übertaktete GeForce 8800 GTX im Prinzip überall mit weitem Abstand vorn. Der Grund hierfür liegt primär wohl darin, daß zweitens die Radeon HD 2900 XTX (auf noch nicht finalen Takten) sich im Prinzip überhaupt nicht von der Radeon HD 2900 XT absetzen kann. Offensichtlich bringen die (in diesem Test) 210 MHz mehr Speichertakt der XTX-Karte keinerlei Performanceschub - was jedoch angesichts des sehr breiten 512 Bit DDR Speicherinterfaces auch nicht wirklich verwundert. Allerdings kann hiermit natürlich noch keine Aussage darüber getroffen werden, wie sich die Radeon HD 2900 XTX mit finalen Taktraten schlägt, vor allem wenn hierbei ein wenig mehr Chiptakt für diese Karte anliegen sollte.

Zu erwarten ist diesbezüglich, daß ATI für diese dann mit heftiger Verspätung erscheinende Karte wenigstens ein gutes Stück Mehrleistung aufs Parkett legen will. Ob es allerdings trotzdem gegenüber der GeForce 8800 Ultra reichen wird, darf angesichts dieser Benchmarkwerte etwas bezweifelt werden: Denn rechnet man die Radeon HD 2900 XT/XTX auf einen schnelleren Chiptakt von 800 oder auch 850 MHz hoch, so reicht dies immer noch nicht aus, um überhaupt in die Nähe der fast auf Ultra-Taktraten übertaktete GeForce 8800 GTX zu kommen. Natürlich sind drei Benchmarks mit Launchtreibern keine vollständige Aussage, aber ATIs Radeon HD 2900 XTX scheint derzeit so weit zurückzuliegen, das schon ein mittleres Wunder passieren müsste, um dies wieder auszugleichen.

Wie Fudzilla vermelden, sind derzeit die Liefermengen von nVidias neuem LowCost-Grafikchip G86 angeblich ziemlich gering, so daß man hiermit also nicht den OEM-Markt im Sturm nehmen kann. Normalerweise sollte dies positiv für ATI sein, welche angeblich schon größere Vorbestellungen für ihren kommenden LowCost-Grafikchip RV610 zu verbuchen haben. Auf der anderen Seiten vermelden wiederum Fudzilla für jenen RV610 und auch für den Mainstream-Grafikchip RV630 eine weitere Verschiebung der Massenproduktion auf den Juni. Anscheinend will ATI aber weiterhin Mitte/Ende Mai erste Karten ausliefern - nur wird es sich dabei wohl um geringe Mengen handeln, die großen Stückzahlen sollen dann erst Ende Juni in den Markt gelangen. Am geplanten Launch zum 14. Mai sollte dies allerdings nichts ändern, hierbei hat sich AMD inzwischen viel zu deutlich festgelegt.

Weiterhin Fudzilla berichten davon, daß die kommenden ATI-Chips RV610 und RV630 auch für AGP-Grafikkarten benutzt werden sollen, auch wenn die AGP-Versionen etwas später in den Markt kommen werden. Abzuwarten bleibt hier aber noch, ob damit überhaupt die Performance der bisherigen AGP-Grafikkarten erreicht wird - immerhin gibt es bereits die Radeon X1900 XT auf AGP. Unter anderem The Inquirer berichten von einem angeblichen Launchtermin für die Radeon HD 2900 Serie für den 2. Mai. Dies ist allerdings für schwer unwahrscheinlich zu halten, nachdem AMD schon dermaßen für den "größten Launch aller Zeiten" am 14. Mai geworben hat - zudem müssten die Reviewkarten dann schon längst zu den mit Hardwaretests beschäftigten Online-Redaktionen herausgegangen sein, wovon uns aber noch nichts bekannt ist. Und letztlich vermeldet die gleiche Quelle noch einmal abweichende Taktraten der GeForce 8800 Ultra: 612/1080 MHz sollen es nun werden anstatt der von Dell geposteten Spezifikationen 650/1080 MHz.


Nachtrag vom 2. Mai 2007:

Mit der Zeit (und einigen Leaks) scheint sich nunmehr halbwegs zu klären, was sich hinter den (weiterhin für den 14. Mai angesetzten) neuen ATI-Chips verbirgt - vor allem in Bezug auf die Unterschiede zwischen den einzelnen Grafikchips. So wird der HighEnd-Chip R600 wohl mit 64 Shader-Einheiten (nach anderer Zählweise 320), 16 Textureneinheiten und 512 Bit DDR Speicherinterface antreten. Der Mainstream-Grafikchip RV630 soll dagegen 24 Shader-Einheiten (bzw. 120), 8 Textureneinheiten und ein 128 Bit DDR Speicherinterface haben, was diesem Chip (auf gleicher Taktraten) 33 Prozent der Shader-Leistung und 50 Prozent der Texturier-Leistung des HighEnd-Modells geben sollte - was dann schon wesentlich besser aussieht als dieselben Verhältnisse bei nVidias aktueller Mainstream-Klasse (27 bzw. 29 Prozent).

Einzig und allein das 128 Bit Speicherinterface dürfte weiterhin ein gewisser Bremspunkt für den RV630-Chip darstellen, was sich allerdings vornehmlich nur unter höheren Auflösungen auswirken sollte. Bleibt man bei der Auflösung auf für Mainstream-Grafikchips gängigen 1280x1024, erscheint der RV630 doch als potenter als der G84 (GeForce 8600 Serie), da bei ATI der Abstand der Mainstream-Klasse zur HighEnd-Klasse rein von den technischen Daten her klar geringer ist. Ob der RV630 diesen theoretischen Vorteil auch in einem praktischen Leistungsvorteil gegenüber der GeForce 8600 Serie umsetzen kann, wird sich aber wohl erst am 14. Mai ergeben, die derzeitigen Vorab-Benchmarks beschäftigen sich eher denn mit den HighEnd-Modellen der Radeon HD 2900 Serie.

Neue Benchmarks dieser Karte gibt es hier zu erspähen - wobei die Quelle dieser Zahlen umstritten ist: Teilweise sieht das ganze wie ein Hersteller-eigenes Dokument aus, auf der anderen Seite wird die vorgenannte Grafikkarte auch teilweise mit "Radeon HD X2900 XT" etwas falsch bezeichnet. Prinzipiell sind diese Benchmarks zudem nicht überzubewerten, da die SLI-Messungen mit der GeForce 8800 GTS als viel zu schwach erscheinen, wie mit einem falschen Treiber aufgenommen (was wiederum durchaus in Richtung eines Hersteller-eigenen Dokuments deutet). Die prinzipielle Aussage dieser Zahlen wäre wenn dann aber diese, daß sich die Radeon HD 2900 XT primär mit der GeForce 8800 GTS herumschlagen wird - und nicht der GeForce 8800 GTX.

Dies soll sogar AMD/ATI auf der Presseveranstaltung in Tunis so gesagt haben, wie Fudzilla berichten. Preislich dürfte ATI die Radeon HD 2900 XT damit wohl auf 399 Dollar Listenpreis legen, was hierzulande aufgrund des konstant günstigen Dollarkurses wohl in Straßenpreisen von 360 bis 380 Euro resultieren sollte. Damit würde ATI sicherlich eine sowohl vom Preis als auch der Leistung her sehr vernünftige Konkurrenz zur GeForce 8800 GTS auf die Beine stellen können. Die GeForce 8800 GTX wird ATI allerdings wohl nur mit der erst später erscheinenden Radeon HD 2900 XTX angreifen können. Angeblich soll es hierbei ein neues Design dieser Karte geben, welche nicht mehr das Problem hat, nicht schneller die XT-Ausführung zu sein - Bilder hierzu sind hier zu finden.

Davon abgesehen finden sich auch immer genauere technische Daten zum R600-Chip ein, beispielsweise wie hier abgebildet. Zudem gibt es jede Menge Bruchstück-Informationen zur R600-Technik, welche mittels diverser geleakter AMD-Folien ihren Weg ins Netz fanden: Teil 1, Teil 2, Teil 3 und Teil 4. Diesen Folien fehlt natürlich oftmals die Erklärung, so daß man sich manchmal aus den Marketingnamen noch nichts zusammenreimen kann. Erwähnenswert ist sicherlich das neue "Custom Filter Anti-Aliasing" (CFAA), mit welchem ATI gegen nVidias neues "Coverage Sample Anti-Aliasing" (CSAA) antreten will. Hinter den hohen Sample-Angaben von CFAA verbirgt sich aber schlicht eine Technik, mittels welcher die Samples der umherliegenden Pixel mit für das Anti-Aliasing Verwendung finden - damit spart man enorm an Performance, weil diese Samples der umherliegenden Pixel ja sowieso schon berechnet werden.

Auf der anderen Seite bedeutet dies nichts anderes, als einen Blurfilter auf das gesamte Bild zu legen: Wenn Samples von fremden Pixeln zur Berechnung des Anti-Aliasings eingesetzt werden, werden nicht nur Polygonkanten geglättet, sondern auch Texturen - man verliert dort an Texturenschärfe und damit Bildqualität. Dabei ist diese Idee noch nicht einmal neu, nVidia hat schon des längeren einen entsprechenden Anti-Aliasing Modus namens "Quincunx" im Angebot. ATI will es nun aber bei CFAA deutlich besser machen - was bei den höheren CFAA-Modi eventuell sogar gelingen könnte: Dort liegen dann bereits acht "echte" (aus dem richtigen Pixel stammende) Samples vor, welche sich von den zusätzlichen, aus fremden Pixeln stammenden Samples nicht mehr so stark irritieren lassen dürften. Zudem will man die fremden Samples wohl anders gewichten als die "echten", um dem Quincunx-Effekt entgegenzuwirken.

Dennoch ist rein von der zugrundeliegenden Technik her ein gewisser Blureffekt nicht auszuschließen - ob man dies im Spielealltag sehen kann, müssen die kommenden Launch-Tests zeigen. Dort wird sich dann auch herausstellen, ob die Performance der Karten überhaupt ausreichend für diese neuen Anti-Aliasing Modi ist. Davon abgesehen gibt es noch ein paar aktuelle Bilder der kommenden ATI-Karten: Radeon HD 2900 XT sowie Radeon HD 2400/2600 Karten - wobei die Radeon HD 2400 auch schon als passiv gekühlte Version abgebildet wurde. Selbiges berichtet die Overclockers Workbench im übrigen auch zur Radeon HD 2600 XT - wenn diese Karte dann wirklich noch schneller als das nVidia-Gegenstück GeForce 8600 GTS ist, würde ATI zumindestens im Mainstream-Bereich deutlich punkten können.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Zurück / Back Weiter / Next

Shortcuts
nach oben