Zum 3DCenter Forum
Inhalt




Ein erster Blick auf die R520-Architektur

5. Oktober 2005 / von aths / Seite 3 von 3


   Vergleich mit dem G70 und Ausblick

Wir sehen es schon vor uns, wie diverse Websites einen "Battle of the Titans" herbeischreiben wollen. Die endgültige Grafikkarte ist auch der R520 nicht. Bezüglich der Architektur gibt es zum G70 massive Unterschiede. Interessant ist, wie die beiden IHVs unterschiedliche Prioritäten setzen: Nvidia bietet mit dem G70 die überlegene arithmetische Leistung – sofern man sie entfalten kann, hat der R520 keine Chance.

Während Nvidia bereits über die breite Architektur mit 6 Quadpipes verfügt, und jetzt erst einmal nur an der Taktschraube drehen muss, hat ATI eine mögliche Architekturverbreiterung noch vor sich. Denkbar wäre auch, dass ATI zum Refresh lediglich die ALUs überarbeitet. Im Takt sind für jedoch keine Wunder mehr möglich, und je breiter die Architektur, desto mehr hat man pro einzelnem Zusatz-MHz. Das spricht für Nvidia.

ATI hat seinen Schwerpunkt bei der Effizienz gesetzt, um mit der schlankeren, dafür hochgetakteten Architektur zu punkten. Dabei beantspruchen beide Designs etwa 300 M Transistoren. Effizienz-Features kosten eben auch. Der R520 hat sogar mehr Transistoren als der G70, und ebenso wie beim G70 besteht bei Chipfehlern eine gewisse Chance, dass der Chip nicht weggeworfen werden muss, da bestimmte Dinge redundant (also mit Reserven) ausgelegt wurden.

Doch zurück zur Shader-Architektur: Wenn der G70 aufgrund seiner Limitierungen hin und wieder zu einigen Leertakten gezwungen wird, ist das nicht so schlimm, denn die arithmetische Rohleistung ist höher. Hat das Pixelshader-Programm eine Zusammensetzung, die dem G70 schmeckt, hängt der den R520 ab – und umgekehrt. Es sind problemlos SM3-Shader denkbar, in denen der R520 dem G70 davonzieht.

Als der NV40 vorgestellt wurde, und ATI nur den R420 aufzubieten hatte, weil das geplante R400-Design in der Entwicklung abgebrochen wurde (die erwartete Performance war ungenügend), rückte Nvidia in der öffentlichen Wahrnehmung dank der fortschrittlichen Architektur nach der GeForceFX-Schlappe wieder nach vorne. ATIs Beteuerungen, das Mehr der Features im NV40 seien noch nicht notwendig, klangen genauso hilflos wie Nvidias Statements zum 256-Bit-Interface im R300 (der NV30 hatte nur ein 128-Bit-Interface, mit dem NV35 wurde das 256-Bit-Interface dann als tolle Sache vermarktet). Während ATI auf dem R420 basierend ein Modell nach dem anderen launchte, und die Modellpalette langsam unübersichtlich wurde, legte Nvidia mit dem G70 nach: Gegenüber dem NV40 etwa bis zu 70% mehr Leistung.

Doch ATI legte jetzt einen Chip vor, der es auch mit dem G70 aufnehmen kann. Die Multisampling-Antialiasing-Qualität ist nach wie vor Spitze, obwohl es seit dem R300 hier keine Entwicklungen mehr gab – doch die gesteigerte Leistung erlaubt es jetzt endlich, 6x AA generell zu nutzen. Reine Supersampling-Modi sind nicht notwendig, da ATI einen sparse Supersampling-Modus per Treiber nachgerüstet hat, der wie beim G70 nur dann zum Einsatz kommt, wenn es wegen aktiven Alphatests notwendig ist. Mit 6x sparse Multi- und Supersampling hat ATI mit Nvidia nicht nur gleichgezogen, sondern den G70 überboten (der G70 bietet zwar weiterhin höhere und bessere Modi als 4x, jedoch nur im Zusammenhang mit ineffizientem ordered grid Supersampling, hier bezahlt man für das Mehr an Qualität mit massiven fps-Einbrüchen).

Was den anisotropen Filter angeht, hat ATI Nvidia schlicht blamiert – trotz der Probleme in der LOD-Bestimmung bietet der R520 ein AF mit vernünftig reduzierter Winkelabhängigkeit. Dieser drückt die fps-Rate um einige Prozent, doch der Qualitätsgewinn ist in jedem Fall höher als der fps-Verlust (den Zusammenhang findet man hier erläutert). Aus unserer Sicht sollte es nicht darum gehen, mit einem neuen Chip die Konkurrenz in Dingen fps um Längen zu schlagen. Seit einiger Zeit muss man mindestens in 1600x1200 benchmarken, damit sich aktuelle Highend-Modelle überhaupt noch absetzen können.

Lediglich in einer handvoll besonders anspruchsvoller Titel macht sich die zusätzliche Leistung auch in gängigen Auflösungen bemerkbar. Diese wenigen Titel dürfen aber nicht einziger Maßstab sein, um Hardware zu bewerten. Top-Hardware muss nicht nur bei den allerneusten Edelshootern brillieren, sondern auch breite Kompatibilität mit älteren Titeln bieten, und Optionen auf Bildqualität-Features offerieren, um die Spiele nicht nur so schnell wie nie, sondern auch so schön wie nie zu rendern.

Angesichts der trotzdem vorhandenen Bemühung beider IHVs, den Kunden immer wieder mal mit einigen Prozenten angeblichem Leistungsgewinn zu beglücken, wobei tatsächlich nur die Texturqualität weiter verschlechtert wurde: ATI hat endlich zur Kenntnis genommen, dass anisotrope Filterung nur dann bestmöglichen Qualitätsgewinn bringen kann, wenn es so wenig winkelabhängige AF-Reduzierung gibt wie möglich. Die Probleme in der LOD-Bestimmung und die damit verbundene seltsame MIP-Map-Wahl harrt noch einer genauen Analyse, doch der von ATI eingeschlagene Weg ist richtig. Nvidias aktuelle Entscheidungen betreffs der anisotropen Filterungen sind falsch.

Dem Threading gehört die Zukunft, auch Nvidia wird dereinst auf eine vergleichbare Technologie setzen. Damit geht die Auflösung der Pipelines einher: Man hat Threads und Units. Das quadbasierte Rendering könnte uns hingegen noch länger erhalten bleiben (weil man damit massiv Texturkoordinaten-Logik sparen kann). ATI bietet jetzt endlich Skalierbarkeit in Dingen ALUs und TMUs: Die Radeon X1600 (RV530) hat 12 ALUs, aber nur 4 TMUs (eine solche Entkopplung ist bei einem Phasen- oder Threading-Konzept viel einfacher vorzunehmen, als bei der CineFX-Architektur). Wir erwarten für die Zukunft Chips, wo nicht nur die Pixelpipeline mehr oder weniger aufgelöst ist, sondern es hardwareseitig einfach Units gibt, die sowohl für Pixel- als auch Vertexshading genutzt werden können.

Viele Leser werden sich fragen, wie es beim R520 mit der Fähigkeit zum HDR-Rendering aussieht. Zum Thema HDR-Rendering planen wir allerdings einen eigenen Artikel. Bis dahin sein so viel gesagt: Der R520 beherrscht zwar FP16-Alphablending, jedoch nicht die Filterung von FP16-Texturen. Dies sehen wir als Nachteil, da HDR-Lightmaps für vernünftige Qualität gefiltert werden sollten. Auf der anderen Seite bieten die R520-ROPs Multisampling-Antialiasing auch in Verbindung mit HDR-Rendering, was beim NV40 und G70 nicht vorgesehen ist.


Unser erster Blick auf den R520 musste sich angesichts unserer Quellenlage auf wenige Punkte beschränken. Obwohl nach bestem Wissen zusammengestellt, möchten wir was den Inhalt dieses Artikels angeht zur besonderen Vorsicht raten. Wer Fehler melden oder Bemerkungen anbringen möchte, kann unseren Thread im Forum nutzen. User Dank gilt allen, die zum Artikel direkt oder indirekt beigetragen haben.


Eine Anmerkung in eigener Sache

Am Freitag und Sonnabend letzter Woche richtete ATI auf Ibiza eine Presseveranstaltung aus, in der die einen Redakteure ausspannen konnten, und die anderen mit richtigen Technikern reden durften. 3DCenter war nicht eingeladen. Seitens Nvidia war der Autor dieses Artikels einmal zu einer ähnlichen Veranstaltung eingeladen (zum Editor's Day 2004, dieses Jahr jedoch nicht mehr, dennoch wir haben weiterhin Kontakt zu Nvidia). Während diese Zeilen geschrieben werden, nimmt der Autor einen Schluck aus seiner ATI-Tasse – ein Giveaway von einer kleinen Zusammenkunft in München aus der R420-Zeit, bei der ATI die Reisekosten übernahm.

Jetzt zum Launch des großen neuen Chips von ATI bekamen wir nicht mal ein NDA. Das sorgte bei uns für Irritationen. Vor jedem großen Chip-Launch wissen wir rechtzeitig die interessanten Eckdaten. Sofern wir Fakten kennen, ist es eigentlich unsere Aufgabe, den Leser zu informieren. Ein NDA verzögert dies, da wir so lange schweigen müssen, wie es dem IHV genehm ist. Der Deal ist folgender: Wir spielen bezüglich des Release-Termines mit und erhalten dafür Hardware für eigene Tests und Zugang zu Technikern. Dies erlaubt es uns, Fragen zu stellen und Informationen zu erhalten, die nicht im Pressematerial stehen, also den Artikel einzigartig zu machen. Aus unserer Sicht nützt das unseren Lesern.

Hinter uns steht kein Verlag mit einer Publikation, an der wegen ihrer schieren Größe der IHV nicht vorbeikommt. Dennoch erwarten wir als Deutschlands größte 3D-Hardwaretechnik-Site, dass der IHV auf uns zukommt und uns ein NDA anbietet. Bisher haben wir jedes angenommen. Hat uns ATI nur versehentlich übersehen? Nein, uns wurde im Zuge der Anfrage auf Hardware abschlägig beschieden.

Zum R420, einer Verlegenheitslösung, bekamen wir das Pressematerial und sogar eine Telefonkonferenz, wenn auch nicht mit einem Techniker. Beim R520, der neuen Generation nach dem R300/R420, jetzt wo ATI nach Jahren endlich wichtige Feautures realisiert und Nvidias Grenzen aufgezeigt hat, bekamen wir, eine bekanntermaßen technisch interessierte Website, nichts.

Lange Zeit kamen wir gänzlich ohne Beachtung irgendeines GPU-Entwicklers aus. Journalismus basiert auf Recherche und heißt nicht, Marketingmaterial wiederzukäuen. Das ist ein Lernprozess, durch den auch wir gegangen sind: Unsere Artikel zu Matrox' Parhelia und ATIs R300 enthalten etliche Irrtümer, weil wir nicht in der Lage waren, die Aussagen der Hersteller kompetent genug zu hinterfragen. Das Pressematerial formuliert oft bewusst so, dass man den Hintergrund nur dann versteht, wenn man ihn bereits kennt.

Wir sehen unsere Aufgabe jedoch nicht darin, ein Feature so zu beschreiben, wie es dem Hersteller gefällt, sondern es zunächst zu verstehen und es dann selbst zu beurteilen. Entsprechend änderte sich unser Herangehen an einen Technik-Artikel: Statt so genannte White Papers durchzusehen, die größtenteils Werbespam sind, wird Grundlagenforschung betrieben. Dabei unterschlagen unsere Artikel wahrscheinlich einige Details, die im Pressematerial stehen; doch kommt es darauf an?

Wir sagen: Es kommt darauf an, dass der Leser versteht, was er erfährt – doch wie kann das gewährleistet sein, wenn der Redakteur nicht die Dinge versteht, über die er schreibt? Das Marketing-Material und etwas Halbwissen vom Hörensagen alleine reicht nicht aus, um ein Verständnis zu erlangen. Ohne Techniker, die vergleichsweise ehrlich sind und nicht nur mit "ja" oder "nein", sondern auch mal ausführlicher antworten, können wir die Funktionsweise neuer Features oft nicht erkennen, denn solche Vollprofis, das wir gleich alles wissen, sind wir nicht. Dieser Artikel hier ist entsprechend oberflächlich und sollte dem Leser so eigentlich nicht vorgesetzt werden. Zudem ist er eine reine Textwüste – ohne Karte können wir nunmal keine Bilder erstellen.

Wir hoffen, in absehbarer Zeit dennoch eigene Benchmarks sowie neue Technik-Details anbieten zu können.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Zurück / Back 3DCenter-Artikel - Index Home

Shortcuts
nach oben