Bitboys´ Glaze3D & Avalanche
27. September 2002 / von Leonidas / Seite 3 von 7
Ur-Glaze3D (Fortsetzung)
Jene durchaus auch heute noch nicht erreichte Grafikqualität wäre jedoch nur bei einer vollständigen Anpassung eines Spiels an den Ur-Glaze3D möglich gewesen - ein Problem, mit welchem sich später auch die Demonstrationen der diversen nVidia GeForce-Chips herumschlagen mußten. Daß eine solche Chip-genaue Anpassung extrem viel Zeit kostet und alle anderen Grafikchips ausschließt, gehört mit zu diesen Dingen, die man zu jenen 3D-Anfangstagen seitens der Journalisten und auch der Käufer halt erst noch lernen musste :-). Und so nahm man damals diese Screenshots mehrheitlich für bare Münze und dementsprechend brach auch ein regelrechter Hype um den Ur-Glaze3D aus.
Gern wurde dabei zu jener Zeit auch das eigentlich beste am ganzen Chip übersehen - das Speicherkonzept. Damals regierten vorwiegend Füllraten und 3D-Effekte die Agenda, der Begriff der "Bandbreite" war stark unterrepräseniert. Doch die finnischen Entwickler bügelten mit dem Speicherkonzept des Ur-Glaze3D eine der Hauptschwächen des Pyramid3D aus und machten daraus die wahrscheinlich größte Stärke des Glae3D im realen Einsatz, auch wenn dieser nie stattfand.
Man bringt an dieser Stelle den Glaze3D überaus gern sofort in Verbindung mit der XBA-Speichertechnologie der Bitboys - doch der Ur-Glaze3D setzte mitnichten auf diesen eingebetten Speicher, sondern vielmehr auf externen Speicher des mittlerweile überaus bekannten Hersteller RAMBUS ;-). Der von diesem hergestellte RDRAM-Speicher, auch öfters der Einfachheit halber RAMBUS-Speicher genannt, ist bekanntermaßen ein 16bittiger Speicher, welcher im DDR-Verfahren angesprochen wird und mit meist recht hohen physikalischen Taktfrequenzen daherkommt.
Die Bitboys wollten in dem für Ende des Jahres 1999 geplanten Ur-Glaze3D RAMBUS mit 400 MHz Taktfrequenz einsetzen - was RAMBUS Inc. durchaus hätte liefern können, da zur gleichen Zeit die ersten Pentium III RAMBUS-Plattformen mit eben diesem Speichertakt auf den Markt kamen. Der Intel i840-Chipsatz bot damals schon ein DualChannel Speicherinterface, der Bitboys-Chips wäre sogar mit einem QuadChannel-Speicherinterface angetreten. Unter der Zusammenschaltung von 4 Speicherbänken (16 Bit x 4) und unter der Berücksichtigung der Verdopplung durch das DDR-Verfahren ergab dies ein insgesamt 128 Bit breites Speicherinterface beim Glaze3D.
Jenes war allerdings seinerzeit gar nicht so großartig, immerhin war schon die originale Riva TNT releast, welche ebenfalls ein 128bittiges Speicherinterface bot. Doch jene konnte daran nur SDRAM anschließen und war damit an die Taktraten von damaligen SDRAM angebunden - 110 MHz waren dies bei der Riva TNT, was 1,7 GB/sec Speicherbandbreite ergab. Der RAMBUS-Speicher des Ur-Glaze3D sollte jedoch mit 400 MHz takten, was bei seinem 128bittigen Interface stolze 6,0 GB/sec Bandbreite ergab. Jener Wert wurde erst im Herbst 2000 mit der GeForce2 Pro erreicht - für Ende 1999 wäre er in der Tat überragend gewesen.
Gemäß dieser Leistungsdaten hätte der Ur-Glaze3D sicherlich mehr als nur mit der GeForce1 mithalten können, welche zur gleichen Zeit releast wurde, für welche auch der Ur-Glaze3D geplant war (Ende 1999). Die Rendering-Leistung wäre konkurrenzfähig gewesen, die vielen durch den Chip unterstützten Effekte sicherlich richtungsweisend und die hohe Speicherbandbreite hätte dem Ur-Glaze3D mehr oder weniger jeden Benchmark gewinnen lassen sollen, wenn auch nicht mit überragendem Abstand.
Zu erwähnen wäre noch, daß die Bitboys schon anfänglich von mehreren Varianten des Chips ausgingen: So hätte es auch eine Variante mit nur einer Rendering-Pipeline und eine mit abgespeckter Geometrie-Einheit geben sollen. Auch wäre es möglich gewesen, nur zwei der 4 RAMBUS-Bänke mit Speichermodulen zu bestücken und so das Speicherinterface zu halbieren, womit entsprechende LowCost-Lösungen auf Basis des Ur-Glaze3D möglich gewesen wären.