T&L - das nicht eingelöste Versprechen
19. August 2001 / von aths / Seite 2 von 7
Die Versprechen näher betrachtet
Man erging sich in den einschlägigen Publikationen über die Vorteile von T&L. nVidia sollte selbst zu Wort kommen dürfen:
"What is a GPU? A Graphics Processing Unit (GPU) offloads all transform and lighting calculations from your CPU, freeing it up for other functions such as physics and artificial intelligence. Not only will your graphics look better and run more smoothly with an NVIDIA GPU, but your computer's performance will improve as well." ("Was ist eine GPU? Eine Grafik Verarbeitungs Einheit übernimmt alle Transformierungs- und Beleuchungs-Berechnungen Ihrer CPU, befreit sie für andere Funktionen wie Physik und künstliche Intelligenz. Ihre Grafik wird nicht nur besser aussehen und flüssiger laufen mit einer NVIDIA GPU, sondern Ihre Computer-Leistung wird ebenfalls verbessert.") Der letzte Satz klingt sehr gut. Leider wird nicht näher ausgeführt, inwieweit eine Grafikkarte die Computer-Leistung verbessert. |
Der CPU bliebe also dank T&L zum Beispiel mehr Zeit für KI-Berechnungen. (KI = "Künstliche Intelligenz"). Die Mär von der "mehr Zeit für die KI" hielt sich recht lange, obwohl gute KI-Implementationen nicht nur eine Frage von freier CPU-Zeit sind, sondern eher von möglichst guten Algorithmen. Bislang ist fast jede KI so aufgebaut, dass bei festgelegten Ereignissen bestimmte Reaktionen ausgelöst werden ("gescriptete KI"). Hier braucht man keine allzu grossen CPU-Reserven. Trotzdem stimmten alle in den KI-Jubel ein, obwohl es bis heute hier noch keine revolutionären Ansätze gibt.
Die zweite bejubelte T&L-Errungenschaft war bessere Grafik durch höhere Polygonzahlen, die uns nun erwarten würde. Mehr Polygone zu verwenden, könnte zum Beispiel rundere Objekte ermöglichen. Nun, ehe man die Polygonzahl erhöht, sollte man zunächst sicher stellen, dass die Spiele in 32 Bit keine drastischen Einbrüche mehr erleiden. Hier hat - CPU-Limitierung vernachlässigt - jede GeForce immer noch zu kämpfen. Es ist ja schön und gut, dass man mit T&L die Polygonzahl vielleicht etwas in die Höhe schrauben kann. Doch wenn man dafür in 16 Bit spielen muss, ist dies keineswegs ein überzeugendes Argument pro T&L.
Mit Hardware-T&L lässt sich unter bestimmten Voraussetzungen die Polygon-Anzahl erhöhen.
Zusätzliche Polygone, die mit T&L zumindest in der Theorie möglich werden, belasten die Grafikkarte mehrfach: Einerseits müssen mehr Geometrie-Daten über den Bus. Dann ist das Triangle Setup stärker gefordert. Und zu guter Letzt bedeuten mehr Polygone pro Bild ja auch, dass die Dreiecke im Durchschnitt kleiner sind. Das wiederum führt zu einer ineffizienteren Nutzung des Speicherinterfaces. Je ineffizienter deren Nutzung, desto weniger sichtbare Füllrate - was einen direkten Einfluss auf die Frames pro Sekunde hat. Kurz, die Rendereinheit ist gar nicht auf extreme Polygonzahlen ausgelegt. Solange die CPU noch limitiert, erhöht T&L etwas die Framerate, aber eine signifikante Steigerung der Dreiecke pro Bild ist nicht drin.
CPU-Entlastung? Das hatten wir schon mal!
Die Tester sahen in Dingen CPU-Entlastung nur in die Zukunft, nicht in die Vergangenheit. Denn zur Zeiten der Voodoo Graphics wurde eine 3D-Karte allgemein als ein Upgrade gepriesen, welches CPU-Aufrüstung für längere Zeit überflüssig machen würde. (Pentium 133 mit 3D-Karte - das sollte der damals propagierten Meinung nach lange reichen). Doch schon der Nachfolger Voodoo2 brauchte eine sehr viel schnellere CPU, um überhaupt ausgenutzt werden zu können. Empfohlen wurde hier ein Pentium II 266 und schneller - von der SLI-Version ganz zu schweigen. Heute mit reiner Software die Qualität einer älteren Voodoo oder vergleichbaren Karte zu simulieren, ist noch immer nicht so flüssig möglich, wie es die damalige 3D-Hardware schaffte. Die CPU wurde also wirklich gehörig entlastet.
Doch wie das im PC-Leben so ist: Heute in, morgen out. Man kann den euphorischen Redakteuren vielleicht zugute halten, dass mit den ersten brauchbaren 3D-Zusatz-Karten eine wirkliche Neuerung Einzug fand, welche man eben noch nicht fundiert mit Erfahrung bewerten konnte. Die versprochene grosse CPU-Entlastung wurde dann aber mit dem Einzug von T&L erneut froh aufgegriffen. Offenbar, weil man gerne an das glaubt, was man sich wünscht.
Wenn der Prozessor zum Beispiel 3 Millionen Eckpunkte in einer Sekunde liefert, kann die Karte auch nur diese 3 Millionen transformieren. Mit T&L kann nun ein zusätzliches Stückchen der 3D-Engine in die Hardware ausgelagert werden. Sie übernimmt nicht, sondern beschleunigt die Geometrieberechnungen. Lange Zeit herrsche bei vielen der Glaube vor, dass die Geometrie-Arbeit jetzt nur noch eine Sache der Grafikkarte sei. Obwohl Tesselation (Zerlegung der Szenerie in Dreiecke) und andere Vorabeiten noch immer Teil Software-3D-Engine sind. Die CPU muss dank T&L zwar nicht mehr die gesamte Arbeit übernehmen. Wenn sie aber ungefähr 8-10 mal höher getaktet als die GPU (Chip einer Grafikkarte) ist, wird die T&L-Einheit der GPU überflüssig gemacht.
Es ist einsichtig, dass ein Athlon mit 1200 MHz (und seinen drei Pipelines) die Transformation der Eckpunkte sehr schnell erledigt, auch wenn dafür nur ein geringer Teil CPU-Zeit zur Verfügung steht. Auf jeden Fall transformiert ein 1200er Athlon schneller als eine mit 120 MHz laufenden T&L-Einheit einer GeForce 256. Mit anderen Worten, wer aus T&L einen Vorteil ziehen möchte, muss immer eine möglichst schnelle Grafikkarte haben. Die T&L-Grafikkarte wird nicht nur durch neue, schnellere Grafikkarten, sondern auch durch neue, schnellere CPUs zum Auslaufmodell.
Für alle wichtigen Aufgaben (Integer, FP/MMX, Adress-Berechnung) hat ein Athlon jeweils 3 Pipelines.