Zum 3DCenter Forum
Inhalt




T&L - das nicht eingelöste Versprechen

19. August 2001 / von aths / Seite 1 von 7



      Heute und gestern

Vier Jahre wartete ich auf dieses Spiel, jetzt ist es da: Max Payne. Ich kaufte es, wie viele, zwei Tage vor dem offiziellen Erscheinungstermin und installierte es umgehend. Dabei war mir eines klar: Wenn ich eine DirectX7-kompatible T&L-Karte hätte, würde mir das von der Grafik-Geschwindigkeit her Nutzen bringen. Weil mein Prozessor nur mit 600 MHz läuft. Hätte er das Doppelte - und das ist heute auch nicht mehr modern - bräuchte mein System kein T&L mehr. Seit der Einführung des GeForce256 liest man, T&L würde sich durchsetzen. Das ist nun schon ein bischen her, die Karte wurde 1999, vor rund zwei Jahren also, auf den Markt gebracht. Im Zuge dessen gab es einen gigantischen Rummel um das neue Über-Feature, das von vielen als Aufbruch in virtuelle Welten mit ungeahntem Detailreichtum gehalten wurde.

Es geht um dieses festverdrahtete T&L, welches für Transform and Lighting steht. Dazu werden die einzelnen Versprechen durchleuchtet. Auch werden die Leistungsangaben von T&L-Einheiten mit den Werten der alltäglichen Praxis verglichen. Es muss ebenso die Aussagekraft üblicher Bechmark-Vergleiche diskutiert werden. Meiner Auffassung nach stehen zwei wichtige Fragen im Raum.

    Erstens: Brauche ich T&L heute schon?

    Zweitens: Ist eine Karte mit T&L zukunftssicherer?

Zum schnellen Einstieg: Die GeForce2 MX-200 ist eine Karte, die hardwareseitig T&L unterstützt. Dennoch bin ich bei Max Payne mit meiner Nicht-T&L-Karte besser bedient, weil sie deutlich mehr Speicherbandbreite hat.


Welches Feature ist bei Spielen wichtiger? T&L vs. Speicherbandbreite.

Das eine Feature kennt jeder. Das andere nur jene, die sich mit 3D-Grafikkarten ein wenig näher beschäftigen. Das gilt es im Hinterkopf zu behalten. Zunächst eine kleine Historie zu T&L, das wohl meistdiskutierte 3D-Grafikkarten-Feature aller Zeiten.

Der Hersteller professioneller 3D-Lösungen, SGI, verlor wiederholt Mitarbeiter, die sich Mitte der 90er selbstständig machten. Einige gründeten die Firma nVidia und bauten einen 3D-Beschleuniger. Andere gründeten 3Dfx (damals noch mit grossem "D" geschrieben) und bauten auch einen 3D-Beschleuniger. Zweitgenannter war es, der dann eine Revolution einleitete: "3dfx-Karte" war lange das Synonym für "3D-Karte". So blieb den Mitbewerbern nur übrig, sich durch neue Features von der erdrückenden Voodoo-Macht abzusetzen. nVidia ermöglichte 32-Bit-Grafik und AGP-Texturing. Diese beiden Features wurden auch in der 3dfx-Folgegeneration ignoriert. Während viele aus Tradition diese Karte trotzdem kauften, um mit ihr auf die übernächste 3dfx-Generation wartete, trumpfte nVidia nun mit T&L auf.



      Wie es anfing

Es ist dem Erfolg der Voodoo zu verdanken, dass sich das Dreieck als einziges geometrisches Gebilde durchsetzte, welches die Grafikkarte direkt verarbeiten kann. Dessen Eckpunkte müssen für jedes neue Bild transformiert werden, was ursprünglich eine Aufgabe der CPU war. In erster Linie handelt es sich um immer wieder die gleichen mathematischen Operationen. Was lag nun näher, als diese fest zu verdrahten? AMD bot ab ihrer CPU namens K6 3D (später K6-2 genannt) mit 3DNow! ein Feature, welches die 3D-Engines deutlich verschnellern kann - sofern sie an 3DNow! angepasst sind.


AMD ging das Problem aufwändiger 3D-Berechnungen an, in dem sie neue CPU-Befehle einführten. Eine angepasste Engine bleibt dabei flexibel.

nVidia integrierte fest vorgegebene Transformations- (T) und bestimmte Beleuchtungs- (Lighting, L) Operationen direkt in ihren damals neuen Grafikchip (namens GeForce256). Ein anderer Chip ("Pyramid 3D" genannt) der es nie auf den Markt schaffte, bot schon vor Jahren eine programmierbare T&L-Einheit. Denn der Vorteil einer Software-T&L-Engine liegt in der freien Programmierbarkeit. Bei den von nVidia eingeführten neuen Hardwarebefehlen war das jedoch nicht vorgesehen. Es gab festgelegte Operationen, mit denen musste der Programmierer auskommen. Aus Kostengründen verzichtete man auf einen extra Bus für T&L-Daten, was bestimmte Probleme mit sich bringt. Mehr dazu später.


nVidia GeForce256: Die erste Grafikkarte auf dem Retail Markt mit integrierter T&L-Logik.

Die Tester priesen begeistert nVidias T&L, deren Wirkung sie in speziell vorgefertigten Demos zu sehen bekamen. Das erinnert allerdings stark an die berüchtigten CPU-Benchmarks: Jeder Chip-Hersteller verfügt hier über eigene Benchmarks, welcher gerade ihre CPU besonders gut dastehen lässt. So entwickelte zum Beispiel Intel einen neuen Benchmark ("icomp"), um die in der Praxis nicht relevanten MMX-Befehle hervorzuheben. Laut Intel-Werbung würde ein Pentium mit MMX deutlich schneller sein, während man das in der Praxis aber kaum spürte. Angesichts der T&L-Grafikdemos - und den Benchmarks - wurde jedoch nicht hinterfragt, ob diese neuen Befehle nun zum Einsatz kommen, sondern höchstens, wann das geschehen wird.



Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig Weiter / Next

Shortcuts
nach oben