S3 DeltaChrome vs. XGI Volari
10. Februar 2005 / von Robbitop / Seite 1 von 20
Einleitung
Der ewige Wettstreit ATI gegen nVidia ist seit Jahren grauer Alltag. Beide kämpfen mit erheblichen Forschungs- und Entwicklungsaufwand (kurz: R&D) und so manchen Marketingtiefschlägen um die Technologie- und die Performancekrone im Grafikkartenmarkt. Die Entwicklung einer aktuellen skalierbaren und konkurrenzfähigen Architektur kostet den Hersteller rund zwei Jahre und 400 Millionen Dollar. Dem Gewinner dieser Kronen fallen Marktanteile und somit höherer Umsatz zu. Neben den beiden Giganten gibt es natürlich noch andere Grafikschmieden. Zu nennen wären vor allem S3 Graphics, 3DLabs, Matrox und XGI.
Sie alle sind die Überlebenden einer scheinbar längst vergangenen Epoche. Vor Jahren in der Pionierzeit der Grafikbeschleuniger gab es deutlich mehr Konkurrenz als es heute der Fall ist. Der Markt war in sich homogen und noch vollständig im Fluss. Alle Independent Hardware Vendors (kurz IHV) hatten ähnliche R&D Ressourcen zur Verfügung und bauten (Ausreißer nach oben und unten mal außen vorgelassen) in etwa gleichstarke Grafikchips. Genauer gesagt, gleich schwache :) bis 3dfx kam, die dann später von nVidia überholt wurden.
Dies ist nach dem Fall von 3dfx im Jahre 2000 anders geworden. Heute gehören die Marktanteile vor allem ATI, nVidia und im OEM-Bereich (Original Equipment Manufactor) Intel. Doch was ist mit den Überlebenden dieser längst vergangenen goldenen Ära?
Matrox besitzt seit dem Scheitern des G800-Projektes kaum noch Ingenieure, um einen schnellen Grafikchip zu designen. Man verlor viele fähige Leute an nVidia. Daran litt auch schon das Parhelia-Konzept, bei dem viele chipinterne Restriktionen die Performance stark schmälerten. Somit konzentriert man sich inzwischen auf andere Märkte. Die britische Grafikschmiede 3DLabs wurde 2002 von Creative aufgekauft. Man besaß durchaus Ambitionen, einen eigenen Spielechip für den PC entwickeln zu können. Doch das P10-Konzept ließ dies nicht zu.
Einzig XGI und S3 schafften es, neben den beiden Giganten, im letzten Jahr einen 3D-Beschleuniger für den Spieler auf den Markt zu bringen. Allerdings fanden diese Produkte nur selten Beachtung bei den Redaktionen und wurden prompt als unbrauchbar langsam und fehlerhaft abgestempelt. Man ging förmlich unter bei so mächtiger Konkurrenz wie ATI und nVidia. In diesem Artikel sollen die Produkte beider Hersteller genauer beleuchtet werden.
Ein Stückchen Geschichte
S3 Graphics
Die fernöstliche Grafikschmiede S3 ist durch den S3 Virge Grafikbeschleuniger im Jahre 1995 bekannt geworden. In Wirklichkeit war dieser eher eine Grafikbremse, denn selbst speziell auf diesen angepasste Spiele ruckelten damals nur recht zäh über die Bildschirme. Es ist allgemein bekannt, dass die Epoche der 3D-Beschleuniger erst im Jahre 1996/97 mit dem Paukenschlag von 3dfx, der Voodoo-Generation, kam.
Erst 1998 gab es wieder erste ernsthafte Lebenszeichen von S3. Man präsentierte den Savage3D, S3s ersten echten 3D-Beschleuniger. Dieser durfte sich mit nVidias erstem Erfolg Riva128 und den Voodoos messen. Ein Refresh kam im Jahre 1999 mit dem Savage4, welcher ein Stückchen hinter der nVidia RivaTNT und dem Voodoo Banshee lag. Beide S3-Chips beherrschten erstmalig die S3 Textur Kompression (kurz: S3TC). Diese sollte wertvolle Bandbreite sparen, um so dass 64 Bit SDRAM Interface zu entlasten. Die Konkurrenz verfügte schließlich bereits über ein doppelt so breit angebundenes Speicherinterface.
Ein Jahr später sollte die neue Savage2000-Generation eine neue Epoche einläuten und nVidias Technikwunder GeForce 256 bezwingen. Die Zieltaktungen des Savage 2000 lagen bei 166MHz Chiptakt und 200MHz Speichertakt (128bit SDRAM). Eine integrierte Transform and Lightening (kurz T&L) Einheit sollte bei Licht- und Geometrieberechnungen den Hauptprozessor (kurz CPU) entlasten. Auch technologisch sollte dieser ein Meisterwerk technischer Kunst werden. Mit dem Support von Dot Product- und Environmental Bump Mapping schien man seiner Zeit voraus.
fiktiver Savage 2000 | realer Savage 2000 | GeForce 256 | |
Pixel-Pipelines | 2 | 2 | 4 |
TMUs je Pipeline | 2 | 2 | 1 |
TMU-Typ | bilinear | bilinear | trilinear |
Chiptakt | 166 MHz | 125 MHz | 125 MHz |
Speichertakt | 200 MHz SDR | 143 MHz SDR | 166 MHz SDR bzw. 150 MHz DDR |
Speicherinterface | 128 Bit SDR | 128 Bit SDR | 128 Bit SDR/DDR |
Füllrate bilinear | 666 Mtex/s | 500 Mtex/s | 500 Mtex/s |
Füllrate trilinear | 333 Mtex/s | 250 Mtex/s | 500 Mtex/s |
Singletexturing | 333 Mtex/s | 250 Mtex/s | 500 Mtex/s |
Enviromental BM | ja | nein | nein |
Dot3 BM | ja | ja | ja |
T&L | ja | nein | ja |
Letztendlich wurde dieser Chip dann aber mit nur 125 MHz Chiptakt und 143 MHz Speichertakt ausgeliefert. Die T&L Einheit funktionierte wie das Environmental Bump Mapping nie wirklich. Der Savage 2000 war zwar nie langsam, jedoch stellte er nicht den erhofften GeForce-Killer dar. Außerdem war er zu Lebzeiten stark geplagt durch schlechte Treiber.
Zwischenzeitlich kaufte S3 Graphics den wichtigsten Boardpartner Diamond Multimedia auf. Diamond besaß neben der Produktion von Grafikboards noch andere Firmenzweige. Nach der Fusion erkannte man, dass die Grafikabteilung nicht lukrativ genug war. Kurzerhand wurde diese abgestoßen und von VIA aufgekauft. Die Dachfirma von S3 Graphics nannte sich in SonicBLUE um und baut aktuell beispielsweise die bekannten Rio MP3 Player. S3 Graphics ist bis heute die Grafikabteilung von VIA. Man entwickelte seither an Derivaten der Savage4 und Savage2000-Generation für Notebooks und Onboard-Grafik in VIA Chipsätzen.
2002 brachte S3 einen Refresh der Savage 2000-Generation heraus. Die T&L Einheit war funktionsfähig, neuere Fertigungstechnik (150nm) brachte höhere Taktraten. Weiterhin wurde der Grafikprozessor (kurz: GPU) nun an ein 128 Bit Double Data Rate (kurz: DDR) Interface gekoppelt. Das Ganze nannte sich SavageXP. Seit dem Januar 2001 und eventuell schon früher entwickelte S3 an einem neuen Großprojekt. Die Rede war vom Columbia. Mehr dazu folgt etwas später.
XGI
Die Grafikschmiede XGI ist noch sehr jung und hat noch keine allzu lange Geschichte zu erzählen. Ihren Ursprung hat sie in der Firma SiS (Silicon Integrated Semiconductor), welche bekanntermaßen auf dem Markt für Mainboard-Chipsätze sehr aktiv ist. SiS versuchte es mit den verschiedenen Ablegern der 3xx-Reihe immer mal wieder auch auf den Grafikmarkt. Jedoch waren Treiber und Hardware nie das Gelbe vom Ei. Die Grafikcores endeten meist als integrierte Grafikeinheit (kurz: IGP) auf den eigenen Chipsätzen. Da die Cores auch vermutlich aus diesem Kalkül (wenig R&D, Low Cost, muss als IGP verwendbar sein) heraus entwickelt worden sind, ist das natürlich kein Wunder. 2002 besann SiS sich eines Besseren und legte noch ein Brikett in den Ofen. Das Produkt hieß Xabre.
Man hatte mit der Xabre-Serie ein konkurrenzfähiges DirectX8-kompatibles Produkt auf den Markt gebracht. Im LowCost- und MidRange-Sektor machten sich diese Karten gar nicht mal so schlecht. Man bot eine Pixelshader 1.1 konforme GPU mit 4 Pixelpipelines und je 2 Textureinheiten (kurz: TMU). Jedoch implementierte man keinen Vertexshader. Die Geometrieberechnungen mussten also von der CPU übernommen werden. Man merkte vermutlich, dass im Grafiksektor Marktanteile zu holen sind. Jedoch war der Name SiS immer ein Synonym für geringe Kosten, die mit geringer Leistung einhergingen.
Die Idee war nun, die Grafiksparte auszugliedern und noch mehr R&D aufzuwenden als bisher. Zusammen mit dem Halbleiterfabrikationsunternehmen UMC startete man Anfang 2003 das Joint Venture namens XGI (eXtreme Graphics Inc). XGI bekam ein Startbudget von rund 400 Mio. $ und einen Großteil der SiS-eigenen Grafikentwickler. Doch das genügte noch nicht an Schlagkraft, um mit ATI oder nVidia fertig zu werden. Es fehlte an Manpower, vermutlich auch an den Design-Tools, Entwicklungs-Tools, den Rechner-Farmen und KnowHow. Zudem können sich kleine IHVs wie XGI nur an fertigen DirectX-Standards orientieren, während sich die DirectX-Specs zumindest teilweise an den Vorstellungen der Großen orientieren.
Als Konsequenz daraus kaufte man die Grafiksparte von Trident. Diese hatten bis dato in den letzten Jahren an einer mobilen DirectX8-konformen Grafiklösung namens XP4 gearbeitet. Der TridentXP4 wurde sogar als Karte für den PC erhältlich. Im September 2003 sollte XGI ihre erste Produktreihe für den Grafikmarkt vorstellen. Doch mehr dazu im weiteren Verlauf.
DeltaChrome
Vor nunmehr zwei Jahren gab es auf der S3-Website eine große Ankündigung des DeltaChrome. Sollte dieser die Verkörperung des legendären Columbia-Designs ein? Vermutlich handelt es sich hierbei um ein Respin des originalen Designs. S3 gab damals Schlagworte wie "Advanced Defered Rendering" und "16 Sample Antialiasing" an. Doch fast erst ein Jahr später kamen erste Samples bei den Kollegen zum Testen an.
Laut Gerüchten funktionierte beim ersten Stepping der vorgezogene Z-Test nicht. Es wäre möglich, dass ein weiterer Respin nötig war, um zu vollenden, was man begonnen hat. Ein weiterer Beweggrund für die späte Veröffentlichung war sicherlich diese langsame Treiberentwicklung bei S3. Im Oktober 2003 gab es erste Samples, jedoch waren darauf laut S3 nur in etwa 60% der Spiele spielbar. Dazu mehr später.
Volari
Bereits Ende 2003 stellte XGI die Volari Serie vor. Drei Chips gehörten zu dieser Serie: Der V3 ist ein umbenannter, weiterentwickelter Trident XP4. Der V5 und V8 waren die eigentliche "Neuentwicklung". Beide gehörten der Xabre2 Architektur an. Bei SiS war bis hin zur Gründung von XGI das "Xabre 2" Design in Entwicklung. XGI übernahm dieses vermutlich, um überhaupt erst einmal ein Produkt im Portfolio zu haben. Laut SiS stand Xabre 2 kurz vor der Marktreife, als man XGI gründete. Am XG40 (Volari V8) war vermutlich nicht mehr viel zu tun. Das Design musste nur noch zur Marktreife gebracht werden. Dazu ist die Kompilierung des Designs zu einer Lithographiemaske, Optimierung im Labor mit Prototypen und ein Tape Out bei einem Halbleiterfabrikatoonsunternehmen (b.s.w. TSMC, UMC, ST, IBM, NEC etc.) nötig.
Doch da die Leistung des Volari bei weitem nicht genügten, um ein konkurrenzfähiges HighEnd-Produkt bieten zu können, musste eine Multichip-Version her. Dazu schloss man zwei V8-Chips pro Grafikboard zusammen. Das HighEnd-Produkt nannte sich dann Volari V8 Duo. Dazu nutzte man Alternate Frame Rendering (kurz: AFR), welches bereits bei der ATI Rage Fury MAXX zum Einsatz kam.