Zum 3DCenter Forum
Inhalt




News-Archiv April 2000

News-Index




NV15-Map & -Demo

28. April 2000 / von Leonidas

Wer die bisherigen GeForce2-Reviews aufmerksam gelesen hat, dem werden eventuell die Benchmarks mit einem bis dato unbekannten Quake3A-Timedemo aufgefallen sein: dem NV15-Demo. Dabei handelt es sich um ein von nVidia aufgenommenes Demo, welches die Vorteile der GeForce2 verdeutlichen soll. Es ist in einer eigens dafür von nVidia erstellten Map aufgenommen, der NV15-Map. Lange Rede, kurzer Sinn: Ich habe es ergattern können und Map sowie Demo liegen ab sofort in unserem Download-Bereich.

Um das NV15-Demo auch in unserem DemoShowCreator zu sehen, muß man es aus dem PAK-Archiv in das normale "demos"-Verzeichnis extrahieren. Ansonsten geht natürlich immer noch die althergebrachte Variante mit demo nv15 auf der Q3A-Konsole.

Was mir bei der NV15-Map auffiel: Sie ist - obwohl sehr langsam - nicht so extrem reichhaltig texturiert wie die speziellen S3TC-Maps von S3. Der Unterschied des Timedemos zwischen mit S3TC und ohne S3TC lag bei nur 10 Prozent - die richtigen S3TC-Maps sind ohne S3TC unspielbar. Die NV15-Map ist zwar auch relativ unspielbar, aber dies hängt nicht an der verwendeten Texturenmenge. Laut nVidia werden in dieser Map um die 80.000 Polygone pro Sekunde von der Grafikkarte abverlangt (wobei dies wohl eher ein Maximum-Wert sein wird). Eigentlich genau das richtige für die GeForce2 mit ihrer verbesserten und wesentlich höher getakteten T&L-Einheit.

Die Benchmarks im Net sprechen da aber eine andere Sprache: Unter 1024*768 @ 32 Bit (HQ) habe ich nirgendwo mehr als 24 fps mit der GeForce2 gelesen - 17 fps schaffe ich selbst schon mit meiner wesentlich niedriger getakteten SDR-RAM-GeForce auf meinem mittelprächtigen Celeron 550. Irgendwo kommt da das Leid aller selbstprogrammierten Maps wieder auf: Einfach nicht geschwindigkeitsoptimiert und damit ist die Map langsam und nicht die Hardware. Sorry nVidia - ziemlich danebengegriffen.

nach oben zum News-Index




DemoShowCreator für Q3A

28. April 2000 / von Leonidas

Welcher aktive Q3A-Spieler hat nicht das Problem, zuviele Demos aus irgendwelchen Turnieren in seinem "demos"-Verzeichnis rumschwirren zu haben? Ohne genaue Kennung, worum es damals eigentlich ging, wer mitwirkte und zu welchem Turnier dies zuzuordnen war? Oder aber wer wollte nicht schon immer mal die eigene übertaktete CPU oder/und Grafikkarte einem echten Stresstest mittels eines Timedemo-Loops unterziehen?

Genau für diesen Fall hat 3DCenter-Member ral den DemoShowCreator programmiert, einen Player für Q3A-Demodateien.

Fast noch was vergessen: Wer selber mit den Standard-Kommandos Demos seiner eigenen Spiele aufnimmt, wird feststellen, daß je nach Wahl des Kommandos entweder das eigene Spiel oder aber dann das aufgenommen Demo extrem ruckelig wird. Für diesen Fall gibt es aber Scripts, welche die dahinterstehende Problematik elegant lösen. Man füge bitte in seine autoexec.cfg folgende Zeilen ein:

bind "r" vstr demo_button
set demo_button_1 "set demo_button vstr demo_button_0;set g_syncronousclients 1; wait ; record ;wait ;set g_syncronousclients 0 ;echo recording"
set demo_button_0 "set demo_button vstr demo_button_1;set g_syncronousclients 0; wait ; stoprecord ; echo stoprecording" vstr demo_button_0

... wobei danach die R-Taste für das Aufnehmen belegt ist - Start und Stop liegen auf der selben Taste. Damit sollte das Problem der ruckligen Aufnahmen der Vergangenheit angehören.

Nachtrag vom 1. Mai ...
Mit der Version 1.1 kann der DemoShowCreator auch in PAK-Archive reinschauen. Damit sind auch die beiden Standarddemos demo001 und demo002 sichtbar, und natürlich auch das NV15-Demo. Siehe unseren Download-Bereich.

nach oben zum News-Index




Analyse: GeForce vs. GeForce2

27. April 2000 / von Leonidas

Nachdem wie berichtet die ersten Reviews der GeForce2 aufgetaucht sind, ist es an der Zeit, sich diese genauestens zu betrachten und Schlüsse bezüglich Sinn und Unsinn des neuen Chips zu ziehen. Hilfreich dabei ist, daß im Gegensatz zur Voodoo5 von 3Dfx schon eine Vielzahl guter und verschieden gestalteter Benchmarks mit der GeForce2 erschienen sind. Das Augenmerk soll dabei auf dem direkten Vergleich zum Vorgänger GeForce liegen.

Das ein HighEnd-Chip wie der GeForce2 bei 640*480 oder aber einer 300er CPU nichts bringt, sollte klar sein. Und das die Stärken einer neuen Hardware sich dann unter den extrem hohen Auflösungen oder der GHz-CPU offenbaren, auch. Die Frage ist: Wo geht der Leistungsgewinn los, wieviel Gewinn ist in den normalen Fällen möglich und wieviel im besten Fall?

Das alle Site´s Quake III Arena benchen, ist fast unvermeidlich. Auch wenn es für einige langweilig ist - insbesondere für diejenigen die es sowieso nie spielen würden - Q3A hat eben eine sehr wandelbare Grafikengine und eignet sich damit excellent zum Benchmarken. Auch die Vielzahl der Lizenzierungen der Q3A-Engine (und der verwandten Quake2-Engine) sprechen für diesen Benchmark. Aufpassen sollten aber einige Site´s, daß man Q3A nicht zuviel Gewicht in der Endauswertung beimißt - es gibt noch viele andere 3D-Spiele.

Quake III Arena

In den "Fastest"- und "Fast"-Settings kommen keine Unterschiede auf, nicht einmal in den höchsten Auflösungen (FiringSquad - Seite 7). Also keine Wahl für Turnierspieler, welche unter 640*480 mit den schlechtesten Qualitätseinstellungen spielen um soviel wie möglich fps und damit immer die beste Reaktionszeit zu haben.

Ab dem "Normal"-Setting gibt es die ersten Unterschiede - wobei bei Rechnern der 450-MHz-Klasse der Unterschied ab 800*600 vorhanden ist (Tweak3D - Seite 4). In den höheren Auflösungen kommt es dann zu größeren Unterschieden, aber erst unter 1600*1200 wird dies so richtig relevant (FiringSquad - Seite 8). Sobald die CPU groß genug ist, wird aber die GeForce2 auch unter "Normal" der GeForce davonziehen (FiringSquad - Seite 8 und eXtreme Hardware - Seite 6), mit der richtigen CPU selbst unter 800*600 (Tweak3D - Seite 5). Massive Gewinne sind mit den sehr großen CPUs zu verbuchen - besonders in extrem hohen Auflösungen (Sharky eXtreme - Seite 4)

Wie zu erwarten kommt die GeForce2 beim "HighQuality"-Setting so richtig in Fahrt - selbst unter 16 Bit und mit einer durchschnittlichen CPU kommen ab 1024*768 passable Mehrleistungen heraus (AnandTech - Seite 12). Unter den extrem hohen Auflösungen setzt sich die GeForce2 auch mit einer 550er CPU weit von ihren Verfolgern ab (AnandTech - Seite 13). Der Unterschied vergrößert sich mit Zunahme der CPU-Leistung deutlich (AnandTech - Seite 10 3D GPU - Seite 5, Gamespot - Seite 5/Bild 1, Gamespot - Seite 5/Bild 3 und Tweak3D - Seite 5).

Ähnliches Bild bei "High Quality" unter 32 Bit: Leistungszuwächse schon ab 450 MHz (Tweak3D - Seite 4) und 550 MHz (AnandTech - Seite 12) - auch schon ab 800*600. Die interessanten Leistungszuwächse warten aber bei den höheren Auflösungen (AnandTech - Seite 13) - oder aber unter höher getakteten CPUs der 600er Klasse (FiringSquad - Seite 9, eXtreme Hardware - Seite 6, nV News - Seite 4 und 3D GPU - Seite 5). Die großartigen Gewinne kommen aber auch hier erst bei 1024*768. Auch mit den CPUs der 700er und 800er Klasse kann die GeForce2 punkten (Tweak3D - Seite 5, AnandTech - Seite 10, Gamespot - Seite 5/Bild 2 und Sharky eXtreme - Seite 5). Behindert durch die nicht gelöste Bandbreiten-Problematik sind die Gewinne unter 1600*1200 bei diesen sehr großen CPUs aber nicht mehr so reichlich wie in normalen Auflösungen (AnandTech - Seite 11, Gamespot - Seite 5/Bild 4 und Sharky eXtreme - Seite 5).

Wenn es ein Fazit rein für Quake III Arena wäre, würde es durchweg positiv ausfallen. Mit einer 600 MHz CPU bewaffnet sind entweder 20 bis 30 Prozent mehr fps möglich, alternativ kann man seine bisherigen Grafik-Einstellungen nach oben setzen bzw. in eine höhere Auflösung wechseln und verliert dabei keinerlei Leistung. Hört sich zuerst nicht viel an - bedeutet aber in jeder einzelnen Auflösung und Einstellung den deutlichen Spitzenplatz für die GeForce2. Wer eine Grafikkarte rein für Q3A sucht, wird mit der GeForce2 die richtigste Wahl treffen (passable CPU vorausgesetzt).

Unreal Tournament

Leider wurde UT nur von drei Site´s getestet - und zwei davon verwendeten Demos, die nicht öffentlich zugänglich sind. Es ergeben sich damit keine Vergleichs- und Kontrollmöglichkeiten mit vorherigen UT-Benchmarks oder aber den Ergebnissen des eigenen Rechners. Insbesondere die schwachen 32-Bit-Ergebnisse der SDR-RAM-GeForce, welche von eXtreme Hardware gemessen wurden, spiegeln nicht die Ergebnisse des Standard-Timedemos UTbench wieder (will sagen: ich zweifle diese an).

Die UT-Ergebnisse lassen sich in Kürze zusammenfassen - die GeForce2 liegt gleich auf mit der alten GeForce in fast jeder Konfiguration - ob nun kleine CPU (AnandTech - Seite 22 und eXtreme Hardware - Seite 7) oder größere CPU (AnandTech - Seite 20 und Gamespot - Seite 5/Bild 1). In den extrem hohen Auflösungen erreicht sie etwas höhere Resultate (AnandTech - Seite 23) - mittels einer starken CPU können dann wenigstens unter 1600*1200 respektable Unterschiede erreicht werden (AnandTech - Seite 21).

Ergo braucht niemand für UT zur GeForce2 greifen - dafür ist das Spiel viel zu sehr abhängig von einer großen CPU und einem großen und schnellen Hauptspeicher. GHz-CPU heißt das Zauberwort, wenn man UT dauerhaft (die Benchmarks sind ja nur Mittelwerte) über 50 fps sehen wollte ...

andere Spiele

Außerhalb von 3DMark2000 und 3DMax2000 (sind keine Spiele) und DMZG (ist nur eine Demo) wurde nur einmal kurz Soldier of Fortune angetestet - mit dem Resultat, daß die CPU-Limitierung dieses Spiels keine Unterschiede zwischen GeForce2 und GeForce aufwarf (nV News - Seite 4). Das interessanteste war wieder mal arg versteckt - Gamespot produzierte zwar keine großartigen Q3A-Benchmarks, benchte aber als einzige mehr als Q3A und UT:

Das die 1600*1200-Resultate wieder für die GeForce2 sprechen würden, war klar - wenn der Leistungssprung auch geringer ausfiel als erwartet. Aber unter 1024*768 erleidet die GeForce2 eine schwere Schlappe - mit den getesteten Spielen außerhalb von Q3A und UT wurde nichts schneller zur GeForce! Und als CPU kam immerhin ein Pentium III mit 800 MHz zum Einsatz - daran kann es nicht gelegen haben. Leider liegen momentan keine weiteren Ergebnisse vor, aber außerhalb des Ego-Shooter-Bereiches scheint die GeForce2 der bisherigen GeForce nicht davonzurennen. Zumindestens die Benchmarks von Gamespot sind da eindeutig.

Unter dem Strich

... ist die GeForce2 wohl eine gute Wahl für den Quake-Engine-entstammenden Spielebereich, aber ansonsten nicht schneller als die normale GeForce! Fakt ist, daß die Q3A-Benchmarklastigkeit der meisten Site´s eben diese Site´s in die Falle geführt haben. Der beste Überblick kommt dabei wieder von Gamespot: Auf einer einzelnen Seite sind Q3A-Benches und die von sechs anderen Spielen aufgelistet. Q3A performt großartig - die anderen Spiele fast überhaupt nicht.

Ob sich damit die GeForce2 rentiert, kann jeder damit anhand seines eigenen Spielerprofils selber festlegen. Für die Besitzer älterer Karten, die bis jetzt mit einer Neuanschaffung gezögert haben, sollte die GeForce2 die erste Wahl sein - solange es der eigene Geldbeutel hergibt. Für die Besitzer einer DDR-RAM-GeForce lohnt sich die ganze Sache nicht. Zum einen kann man auf die GeForce2-Ultra-Varianten warten, welche mit höherem Speichertakt die Bandbreitenproblematik entschärfen werden und das wahre Potential der GeForce2 zeigen werden können. Zum anderen kann man seine privaten Karte ein bißchen übertakten und wird wohl auch damit sehr nah an die Resultate einer GeForce2 herankommen ...

Credits: ... gehen an die entsprechenden GeForce2-Reviews folgender Site´s: Gamespot, Tweak3D, 3D GPU, nV News, AnandTech, Sharky eXtreme, FiringSquad und eXtreme Hardware.

Nachtrag vom 6. Mai ...
Ich habe das Thema noch mal hervorgeholt und die Frage gestellt, in wie weit eine übertaktete GeForce an eine GeForce2 heranreicht: GeForce2 vs. übertaktete GeForce.

nach oben zum News-Index




T&L-Treiber für die Savage 2000

27. April 2000 / von Leonidas

Innerhalb der letzten Tage ging fast gänzlich unter, daß es S3 endlich geschafft hat funktionierende T&L-Treiber für die Savage 2000 spich Diamond Viper II herauszubringen. Der 2,2 MB große Download hört auf die Versionsnummer 9.50.05 und ist hier zu finden. Wer nach dem Erstgenuß dieser neuen Treiber diese gleich wieder loswerden will, der letzte Treiber ohne T&L hört auf die Versionsnummer 9.50.02 und ist hier zu beziehen.

Rein praktisch ist das T&L in den 9.50.05-Treibern sowohl unter OpenGL als auch unter Direct3D standardmäßig aktiviert. Glücklicherweise läßt sich das T&L unter beiden 3D-APis ausschalten, denn der Treiber soll bei weitem nicht so ausgereift sein, wie er sein sollte. Die Folge sind z.B. Texturenfehler bei aktiviertem T&L. Rein von der Performance kann der Treiber nicht überzeugen, die Aktivierung des T&Ls bringt keine Geschwindigkeitszuwächse. Diese japanische Site bestätigt mit einigen 3DMark-Benchmarks, daß das T&L in diesen neuen Treibern langsamer performt, als wenn die CPU die Geometrieberechnung übernimmt.

Es offenbart sich langsam aber sicher, daß das T&L der Savage 2000 eher ein grundsätzliches Problem hat und es nicht nur ein minimaler Defekt an der Hardware ist, so wie von S3 suggeriert. Meine persönliche Vermutung geht in die Richtung, daß die schwache T&L-Einheit der Savage 2000 ab einer gewissen CPU-Größe (wohl schon ab 500 MHz) schwächer performt als die reine CPU-Lösung. Gestützt wird diese Vermutung auch durch die Aussagen des T&L-Artikels von 3DConcept. Dieser warf seinerseits die Vermutung auf, daß eine SDR-RAM-GeForce ohne das T&L schneller sein könnte, weil heutige Spitzen-CPUs diese T&L-Berechnungen genauso schnell erledigen können, ohne das dabei zuviel Speicherbandbreite verbraten würde.

So gesehen hat S3 in den neuen 9.50.05-Treibern wohl nur die vorher schon bekannten T&L-Schalter eingebaut. Damit trifft auch dieser ältere Artikel der FiringSquad wieder zu, welcher besonders bei größeren CPUs mehr Performance für die Savage 2000 bei Deaktivierung des T&Ls ausmaß. Im Endeffekt keine rühmliche Angelegenheit für S3, welche ja seinerzeit drei Tage vor der GeForce ihre Savage 2000 als "erste Consumer-T&L-Karte" präsentierten (aber dann erst wesentlich später als die GeForce auslieferten). Von dem Gedanken eines funktionierenden T&Ls bei der Savage 2000 können wir uns damit langsam verabschieden ...

Was bleibt? Die Savage 2000 ist nach wie vor eine gute Allround-Karte. Das sie in Q3A nicht mehr den Spitzenplatz erreichen wird, ist klar - aber die Leistungen sind auf hohem Niveau und damit in Ordnung. Dafür liegt sie in Unreal Tournament sehr weit vorn - was viel entscheidender ist, denn in UT sind die Frameraten allgemein niedriger (anderseits liegen sie auch eng nebeneinander - kaum ein Unterschied zwischen den Grafikkarten). Der Preis ist das beste Argument, Savage 2000 - Karten sind schon für unter 350 DM zu bekommen und damit eine echte Alternative zur GeForce mit SDR-RAM.

Danke an XCOM76 für die Infos. Rückschau: Savage 2000 mit/ohne T&L (13.2.), S2K immer noch ohne T&L (18.1.) und S3´s T&L-Trouble (26.11.).

nach oben zum News-Index




nVidia GeForce2 GTS

26. April 2000 / von Leonidas

Nach der Pflicht (ATi und Matrox) nun also die Kür: nVidia stellte heute der Öffentlichkeit seinen GeForce-Nachfolger GeForce2 GTS vor. Im Gegensatz zur vorgenannten Konkurrenz ist dies aber nicht nur die Ankündigung eines neuen Chips mit ungewissem Liefertermin, nVidia ist nach eigenen Angaben schon in der Produktion des Chips und wird ihn ab nächsten Monat liefern können. Die offiziellen Informationen dazu finden sich auf den nVidia-Seiten unter diesen Links: Presse-Erklärung und Produkt-Vorstellung Geforce2.

Ganz wesentlich neues hat sich nicht getan. nVidia hatte Anfang des Jahres teilweise so getan, als würde sich im GeForce2 (Codename "NV15") eine eben solche technische Revolution befinden wie "seinerzeit" im GeForce - aber das war wohl nur Marketing-Zauber. Im Endeffekt kann nVidia mit der 0.18 micron Produktionstechnologie die Chips wesentlich schneller takten, anstatt vorher 120 MHz nun 200 MHz Chiptakt. Das dies allein nichts bringt, kann man selber an seiner eigenen GeForce ausmessen - selbst bei 170 MHz Chiptakt läuft meine persönliche GeForce (bei 200 MHz Speichertakt) nur ca. 14 Prozent schneller. Der höhere Chiptakt allein wird es nicht machen, bei den gewaltigen Datenmengen, welche heutige Grafikchips schaufeln müssen, gibt es andere Flaschenhälse.

Das Zauberwort heißt wieder mal Speicherbandbreite erhöhen. Dafür setzt nVidia in die momentane GeForce2 DDR-RAMs mit 6 ns Spezifikation ein, welche mit 166 MHz Speichertakt betrieben werden (entspricht effektiv 333 MHz, die jetzige DDR-GeForce hat 150 MHz Speichertakt = effektiv 300 MHz). Also im Endeffekt eine um 11 Prozent höhere Speicherbandbreite. In diesem Zusammenhang würde mich im übrigen mal ein Direktvergleich einer GeForce2 mit 200/166 MHz gegen eine übertaktete DDR-GeForce mit 170/166 MHz interessieren. Möglich, daß die 30 MHz Chiptakt-Unterschied (mehr als 170 MHz Chiptakt sind bei der GeForce nur mit Ultra-Kühlmaßnahmen möglich) keinen größeren Unterschied offenbaren und somit beide Chips auf gleichem Level ankommen. Unabhängig davon verspricht nVidia für noch folgende GeForce2-Varianten einen Speichertakt von 200 MHz (effektiv 400 MHz bei DDR-RAMs), was wohl in einer Ultra-Variante resultieren wird.

Sieht ja fast nach einer rein höher getakteten Variante aus ... Nicht ganz - nVidia beschenkte die vier Pixel-Pipelines der Original-GeForce mit nun jeweils zwei Textureneinheiten. Das bringt ergo viel bei Spielen mit massivem zeitgleichen MultiTexturing-Einsatz z.B. durch Lightmaps und wenig bis gar nichts in Spielen, welche kaum Lightmaps einsetzen. Einfacher ausgedrückt: Gut für Ego-Shooter, egal für 3D-Simulationen. Und natürlich gut für nVidia, weil es einerseits in den technischen Spezifikationen hübsch ausschaut und anderseits vorwiegend Ego-Shooter gebencht werden ...

In dieser nun fast nur rein höher getakteten Variante der bisherigen GeForce offenbart sich - auch ohne Benchmarks gelesen zu haben - schon das Problem für nVidia: Der neue Chip bringt nur seine Leistung, wenn auch die CPU entsprechend mitwächst. In der Größenklasse, in welcher die aktuelle GeForce spielt, ist allein mit zusätzlicher Grafikpower nicht mehr viel zu gewinnen - das zeigten auch die ersten Voodoo5-Benchmarks, die eine deutliche CPU-Lastigkeit offenbarten. Deswegen wird die GeForce2 unterhalb von 600 MHz CPU-Takt wohl kaum größeren Sinn machen.

Womit wir beim Thema Benchmarks wären: Wie schon erwartet hatte nVidia vorgesorgt und einigen Hardwarereview-Site´s schon vorab GeForce2-Boards zur Verfügung gestellt. Soweit das zwischen den Zeilen zu lesen war, handelte es sich dabei nicht um Alpha- oder Beta-Boards, was auch wieder ein gutes Zeichen bezüglich des baldigen Verkaufsstarts der GeForce2 ist. Die Hardwarereview-Site´s konnten jedenfalls in aller Ruhe an ihren Reviews werkeln und so sind wir in der glücklichen Lage, schon zur Veröffentlichung des neuen nVidia-Chips einige durchaus ausgereifte Reviews lesen zu können. Nachfolgend diejenigen Reviews, welche vergleichende Benchmarks enthalten:

Im Gegensatz zu den Voodoo5-Peviews ist das hohe Niveau insbesondere der ersten drei Reviews positiv hervorzuheben. G256.com hat sich im übrigen die Arbeit gemacht, alle GeForce2-Benchmarks vorgenannter Site´s in einer Tabelle aufzulisten - allerdings ohne Vergleichsbenchmarks zu anderen Grafikkarten. In diesen Vergleichen (zu empfehlen: AnandTech) setzt sich wie erwartet die GeForce2 an die Spitze - auch in denen mit einer 3Dfx Voodoo5-5500. Für den Besitzer einer GeForce gibt es meiner Meinung nach keinen größeren Grund zu wechseln, für die Besitzer einer Karte im TNT2-Bereich sollte die GeForce2 aber eine Überlegung wert sein.

Der Abstand zu den Verfolgern ist groß genug, um die GeForce2 als neuen König zu feiern, und klein genug, daß 3Dfx Luft hat mit der Voodoo5-6000 zu kontern ... könnte man als erstes Fazit stehen lassen. Die CPU-Abhängigkeit eines Spiels wie Unreal Tournament (stellvertretend auch für Ultima 9) wird sich jedoch auch mit der GeForce2 nicht beseitigen lassen.

nVidia wird die Karten wie gesagt schon im Mai in den USA liefern können, d.h. spätestens im Juni werden wir in Deutschland auch etwas abbekommen. Die Preise der DDR-RAM-Versionen sollen um die 800 DM liegen, die der bisher noch nicht vorgestellten, aber technisch möglichen SDR-RAM-Versionen um die 700 DM. Allerdings wäre SDR-RAM bei so einer "HighEnd"-Karte sicher nicht die richtige Wahl. Ob diese momentane Preisgestaltung unbedingt verkaufsfördernd ist, sei dahingestellt - seinerzeit wurde die originale GeForce von den Händlern dann doch deutlich günstiger offeriert als von nVidia vorgesehen.

Wohl doch einiges später werden noch höher getaktete Varianten nachfolgen (hoffentlich nicht nur weitere zweifelhafte Chiptakt-Erhöhungen). nVidia wird aber vor allem relativ günstige Varianten für den Einsteigermarkt produzieren (der noch nicht vorgestellte NV11 paßt da hinein). Die normale GeForce wird wohl nicht so schnell aus dem Programm fallen, dafür aber im Preis Federn lassen müssen. nVidia hat vor, die ganze "GeForce"-Serie ähnlich der früheren "TNT"-Serie mit noch weiteren Varianten auszubauen, um für jedes Markt- und Preissegment eine Lösung anbieten zu können.

Nachtrag vom 6. Mai ...
Ich habe mich noch einmal mit dem Leistungsunterschied der GeForce2 zur normalen GeForce beschäftigt: Analyse: GeForce vs. GeForce2. Und außerdem mit der Frage, in wie weit eine übertaktete GeForce an eine GeForce2 heranreicht: GeForce2 vs. übertaktete GeForce.

nach oben zum News-Index




Matrox G450

25. April 2000 / von Leonidas

Eigentlich hätte hier stehen sollen "Matrox meldet sich zurück", aber so wie es momentan ausschaut, meldet sich Matrox eher ab. Denn anders ist die magere Presse-Erklärung zum G450 nicht zu bewerten. In dieser kündigte Matrox heute offiziell seinen G400-Nachfolger G450 an. Die Betonung liegt auf dem Wort "Ankündigung", ATi kündigte genauso nur einen neuen Chip an, 3Dfx und nVidia werden ihre neuen Chips aber auch vorstellen und nicht nur etwas ankündigen. Rein technisch hat sich noch weniger getan als vorher schon vermutet - darunter zähle ich jetzt nicht die zusätzlichen Spielereien, die Matrox auf die Boards bauen wird. Betrachtungsgrundlage ist rein die 3D-Engine und deren Umfeld. Demzufolge verzichte ich auf die komplette Auflistung aller Features des Chips - zum G400 hat sich außer den zwei nachfolgenden Punkten nichts verändert.

Neu ist also zum einen ein DDR-RAM-Interface (es wird aber weiterhin auch Ausführungen mit konventionellem SDR-RAM geben), welches ansich eine positive Entwicklung wäre, würde es nicht durch das nur 64-bittige Speicherinterface ausgebremst (der jetzige G400 mit SD-RAM hat ein 128-bittiges Speicherinterface). Unter dem Strich kommt dann wohl gar nichts von der nominellen Mehrleistung des DDR-RAMs an - aber eventuell reicht es Matrox auch aus, mit diesem für Matrox neuen Feature auf Werbe-Feldzug gehen zu können :->

Die andere Neuerung besteht in der 0.18 micron Produktionstechnologie, mit welcher man die Chips kleiner produzieren kann und damit logischerweise höhere Taktfrequenzen ermöglicht. Genaue Angaben zur Taktfrequenz machte Matrox wie zu erwarten nicht - aber Matrox hat ja bisher noch nicht einmal die Frequenzen der aktuellen Chips G400 und G400Max offengelegt (ist aber easy mittels Powerstrip ermittelbar). Spekulieren wir mal ein bißchen (G400: 120 MHz, G400Max: 150 MHz Chiptakt), der G450 wird wohl mit zeitgemäßen 170 bis 200 MHz Chiptakt erscheinen. Ob das wirklich etwas bringt, hängt aber viel entscheidender vom Speichertakt ab, welcher gerade beim jetzigen G400Max schon so hoch angesiedelt ist (200 MHz), das eine wesentliche Anhebung unwahrscheinlich ist.

Aber das ist schon wieder viel zu sehr Detailwerk - Fakt ist, daß Matrox mit dieser aufgebohrten G400-Variante nicht mit ins Konzert der Großen wird eingreifen können. Dafür ist der Abstand zum Spitzenreiter GeForce schon jetzt zu groß - die Abstände zur GeForce2 und zur Voodoo5 scheinen mit dieser Architektur unüberwindbar. Matrox wird die Preisgestaltung schon sehr moderat gestalten müssen, um ein Interesse für den G450 wecken zu können.

Erschreckend in diesem Zusammenhang die Zeile der Presse-Erklärung mit dem Verkaufsstart: Sommer 2000! Das ist im gewöhnlichen ein "netter" Ausdruck für August und September. Wir hatten diesen Chip mal auf den April eingeordnet - eine Fehlprognose. So gesehen wird es Matrox sehr schwer haben mit dem G450, im Sommer werden GeForce2 und Voodoo5 das Regime führen und ATi´s Radeon wird vor der Tür stehen. Eventuell schaut sich Matrox mal 3Dfx´ Weg in den letzten Monaten an. Da kann man sicher lernen, wie man eine lange Durststrecke überbrückt - denn genau die wird Matrox bis zur Fertigstellung der echten Neuentwicklung G800 vor sich haben ...

nach oben zum News-Index




ATi´s nächster Chip

25. April 2000 / von Leonidas

ATi hat nun offiziell den kommenden Chip "Radeon 256" (vormals bekannt unter dem Codenamen "Rage6c") der Öffentlichkeit vorgestellt. Leider gibt es in dem Sinne nichts wesentlich neues zu den schon seit Monaten bekannten "Informationen" hinzuzufügen. Wer das sich durchlesen will, die entsprechenden Informationen finden sich unter diesen Links zu ATi: Presseerklärung, Charisma-Engine und Pixel Tapestry Architecture. Die innerhalb kürzester Zeit aufgetauchten Previews des neuen ATi-Chips (excellentes Marketing seitens ATi im übrigen) sind nur mehr oder weniger clevere Abschreibübungen. Ok, wer es mag: AnandTech, die FiringSquad und Sharky lieferten - wieder mal - die sinnvollsten Berichte ab.

... nichts wesentlich neues ... bedeutet auch, daß eine Leistungseinschätzung weiterhin komplett unmöglich bleibt. ATi präsentierte weiterhin nur vollmundige Versprechungen, aber keinen Alpha-Chip oder eine Leistungsaussicht. Insbesondere mit einer T&L-Einheit an Board wird eine Leistungsbeurteilung nur an Hand der technischen Daten schwierigst - bei T&L ist es extrem wichtig, wie gut die Treiber die T&L-Einheit ins Gesamtkonzept einbinden können (gilt für die "HyperZ Technology" genauso). So etwas kann nur das entgültige Silizium zeigen - wobei ATi weiterhin kein Wort über den Zeitpunkt des Erscheinens der ersten Alpha-Boards und zum Verkaufsstart machte.

Trotzdem hier ein kleiner Technik-Überblick:

  • 30 Millionen Transistoren (sogar etwas mehr als bei der GeForce2 - sagt aber im Endeffekt nichts aus, die Savage2000 erreicht mit einem Bruchteil der GeForce1-Transistoren teilweise deren Niveau)
  • 0.18 micron Produktionstechnologie, in späteren Ausführungen 0.15 micron und 0.13 micron (was wesentlich höhere Chiptakte ermöglicht - der Radeon wird wohl "nur" der Anfang einer langen Serie von Chips basierend auf dieser Technologie sein)
  • 200 MHz Chiptakt (ähnlich wie GeForce2)
  • 200 MHz Speichertakt, sowohl SD-RAM als auch DDR-RAM (dort dann effektiv 400 MHz) möglich
  • erste Chips mit 32 MB RAM, sowohl 8 MB möglich (für ATi´s OEM-Partner) als auch 128 MB möglich (wohl nur bei den MultiChip-Lösungen)
  • integrierte "TCL"-Einheit = eine T&L-Einheit, welche auch das Clipping in Hardware erledigen kann (für nähere Informationen zu T&L sei der T&L-Artikel von 3DConcept empfohlen)
  • in den Treibern enthaltene "HyperZ Technology" zur Erhöhung der Bandbreite in 32 Bit um 20 Prozent (durch eine andere Erstellung des Z-Buffers - zum wie gibt es momentan widersprüchliche Aussagen)

Interessant ist im übrigen diese Text-Passage aus der Presseerklärung: ...a follow on product that will quadruple the performance of the RADEON 256 .... Auf deutsch und ohne den Marketing-Filter will uns das sagen, daß ATi die schon mit der Rage Fury MaXX gesammelten Erfahrungen beim Design von MultiChip-Lösungen auch beim neuen Chip weiterführen wird. Anders ausgedrückt: Es wird wohl nicht nur die bisher schon vermutete DualChip-Ausführung geben, sondern auch eine QuadChip-Ausführung (Preis ???). Wenn diese halbwegs rechtzeitig kommt, hat sie natürlich das Potential alles andere hinwegzufegen.

Womit wir wieder beim Veröffentlichungstermin wären. Eine Ankündigung/Präsentation/Vorstellung (egal, wie man es nennen mag) ist nun mal kein Chip. 3Dfx hat bei der Ankündigung seiner Voodoo4/5 im November letzten Jahres wenigsten einen ungefähren Termin genannt und hält diesen wohl nun auch mit nur wenig Verspätung ein. Bei ATi fehlt jegliches Bekenntnis zu einem Zeitpunkt, was im Endeffekt kein so gutes Zeichen ist. Insofern steht zu erwarten, daß unsere alte Prognose eines Verkaufsstarts von September 2000 gar nicht so falsch ist.

Nachtrag vom 26. April ...
* Hier ergibt sich noch eine andere Interpretationsmöglichkeit: Eine DualChip-Lösung mit 400 MHz Chiptakt. Dann könnten die Marketing-Menschen auch von einer "Vervierfachung" sprechen. Klingt insgesamt sogar plausibler. Thx @ Christian Klassen.

nach oben zum News-Index




Die Ruhe vor dem Sturm

24. April 2000 / von Leonidas

Heute geht es los - die aus Sicht von Grafikkarten-Enthusiasten spannendste Woche des Jahres beginnt. Fast gleichzeitig werden ATi, Matrox und nVidia ihre neuen Chips der Öffentlichkeit vorstellen, eventuell zieht 3Dfx auch ja noch mal mit einer weiteren Präsentation der neuen Voodoo´s nach. Demzufolge ist momentan nichts, wirklich nichts im Net los. Keine neuen Reviews, kaum relevante News (deswegen fällt heute auch die Rubrik "Web-News" auf unserer Startseite aus) - die großen Site´s arbeiten wohl schon an ihren Reviews zu den neuen Chips und alle anderen warten gespannt auf die Dinge, die da kommen werden.

Zeitlich gesehen wird sich dies folgendermaßen gestalten: Heute 16 Uhr (unserer Zeit) wird ATi sein vermutlich Radeon getauftes Rage6c-Projekt der Öffentlichkeit vorstellen. Auf der Site von ATi läuft dazu ein netter Counter. ATi verspricht einen gewaltigen technologischen Sprung, ob diese Aussage sich auf den Vergleich zu vorherigen ATi-Produkte oder aber auf den Gesamtmarkt bezieht, sei mal dahingestellt.

Morgen schlägt dann Matrox mit der G450 zurück, welche aber wohl nur eine aufgebohrte Variante der G400 ist. Die Matrox-Site sieht jedenfalls nicht so aus, als würden sich großartige Neuerungen ankündigen.

Letztendlich wird am Mittwoch nVidia ins Geschehen eingreifen und die GeForce2 GTS präsentieren. Zu diesem Zeitpunkt läuft auch das NDA ab, unter diesem viele Site´s wohl schon eine GeForce2 zum Austesten bekommen haben. Es steht zu erwarten, daß wir ab Mittwoch mit eventuell sogar hochklassigen Reviews des neuen nVidia-Chips eingedeckt werden, anders ist die momentane Zurückhaltung der großen Hardwarereview-Site´s nicht zu erklären. nVidia zeigt auf dieser extra Flash-Site jedenfalls kurz an, daß man keine Spielereien vor hat.

Wer dies lieber alles selbst im Blick behalten, jedoch nicht immer alle Hersteller-Site´s manuell laden will, der schaue es sich auf dieser Seite in gebündelter Form an. Diese Seite öffnet in iFrame´s alle genannten Hersteller-Site´s in nur einem Fenster - funktioniert leider ausschließlich mit dem Internet Explorer.

Nachtrag vom 26. April ...
Alle Messen sind gelesen, die Hersteller haben ihre neuen Produkte vorgestellt: ATi, Matrox und nVidia. Demzufolge ist auch oben genannte Website´s - Übersicht wieder runter von unserem Server.

nach oben zum News-Index




Voodoo5 vs. GeForce2

22. April 2000 / von Leonidas

Eigentlich wollte ich hier schon eine kleine Betrachtung zur Voodoo5 und zur GeForce2 schreiben, aber leider muß das erst einmal verschoben werden. Die bisherigen Benchmarks und Reviews sind so widersprüchlich und teilweise wohl auch in extremer Eile getätigt wurden, daß eine sinnvolle Beurteilung gar nicht möglich. Wenn man sich nur mal kurz die Q3A-Benches ansieht: Das widerspicht sich gegenseitig total - was klar ist, wenn die Reviewer keine wirklichen Benchmark-Bedingungen angeben (allein die Angabe "HighQuality" reicht da definitiv nicht aus). Insbesondere ActuaMicro glänzt ;-)) durch die gänzliche Abwesenheit irgendeiner Angabe zu den Benchmark-Bedingungen.

Diagnostizieren kann man allerhöchstens einen Zwischenstand: Voodoo5 gleichauf mit aktueller GeForce, die GeForce2 vor allem in höheren Auflösungen ca. 20 Prozent stärker als diese beiden. Außerdem scheint unterhalb von 600 MHz nicht viel zu laufen - was irgendwie zu erwarten war, bei Intel und AMD gehen diese CPUs auch schon in Richtung "Auslauf". Außerdem hat es den großen Performance-Sprung nicht gegeben. Aber auch dies war zu erwarten - die Grafikkartenindustrie setzt ganz bewußt auf kleine Sprünge und dafür kürze Zeiten zwischen zwei Chip-Generationen (damit werden die bei den Usern vorhandenen Chips schneller als "alt" angesehen und man drängt so die Käufer schneller zu einer Neuinvestion - die wiederum auch wieder schneller "altert").

Aber all das sind nur Halbwahrheiten, welche sich mit dem Erscheinen ernsthafter Reviews auch wieder verschieben oder gleich ganz ändern können. Meine Hoffnung ruht diesbezüglich auf den großen Review-Site´s, die Macher der bisherigen Reviews haben sich jedenfalls nicht mit Ruhm bekleckert. Immer nur Q3A-Benchmarks sind auf die Dauer ziemlich öde und verschieben außerdem naturgemäß das Bild zu stark in Richtung T&L-unterstützender Chips. Zwar testete AGN Hardware - als einzige - Unreal Tournament, dort aber nur das Intro, welches nun nicht gerade aussagekräftig ist. Von einem Review kann man da durchaus mehr erwarten als diese in Hektik und Eile zusammengestolperten "Benchmarks"!

Ok, weil es momentan nichts besseres gibt, hier nochmals eine Auflistung der bisherigen Reviews/Previews:

Alle Site´s sollten nach dem Ansturm in den letzten Tagen wieder vernünftig erreichbar sein. Der Link zu ActuaMicro geht nicht direkt zu diesen, weil ActuaMicro auf Anfrage von nVidia hin das Review der GeForce2 wieder vom Server genommen hat - allerdings zu spät um zu verhindern, daß ich mir eine komplette Kopie ziehe. Diese liegt bei uns auf dem Server (soweit ich weiss, haben wir kein NDA mit nVidia ...), die Links innerhalb des Reviews funktionieren lokal, die Links zu anderen Bereichen von ActuaMicro gehen aber direkt zu ActuaMicro. Funktioniert leider nur mit dem Internet Explorer so richtig, alle Credits gehen selbstverständlich an ActuaMicro

Gag am Rande:
Die Rechtschreib- und Grammatikprüfung von Word (97-SR2b) schlägt mir doch tatsächlich zum Wort "Usern" das Äquivalent "Drogenkonsumenten" vor. Aha - so ordnet MS also seine Kunden ein ...

Nachtrag vom 26. April ...
Das NDA ist vorbei, der ActuaMicro-Artikel befindet sich wieder an seinem angestammten Platz bei ActuaMicro und demzufolge habe ich unsere Kopie wieder vom Server genommen. Obiger Link geht damit auch wieder direkt zu ActuaMicro.




K6-2+ auf dem Desktop

22. April 2000 / von Leonidas

Positive Kunde zum K6-2+: Obwohl von AMD eigentlich nur als Notebook-Chip deklariert, wird dieser mit 2,0 V Kernspannung und dem richtigen BIOS auch auf normalen Desktop-Systemen betreibbar sein. Ace´s Hardware hatte diesbezüglich zwar Pech mit einem Asus P5A, auf welchem der K6-2+ wie mit angezogener Handbremse lief. Ich habe da auch persönliche Erfahrungen, was es heißt wenn ein BIOS die CPU nicht richtig unterstützt - der Chip lief damals dann ohne Level1- und ohne Level2-Cache und damit bei ca. 10 Prozent seiner Leistung (welches in einem Windows-Start von ca. 5 Minuten resultierte). Vor einem Experiment ohne angepasstes BIOS kann man nur warnen.

Also habe ich mich mal schlau gemacht, wer von den Mainboard-Herstellern denn schon so den K6-2+ per BIOS-Update unterstützt:

Das schaut doch gar nicht so schlecht aus. Sollte ein Ansporn für die hier noch nicht aufgeführten Hersteller sein, sich schnellstmöglich dieser Sache anzunehmen - insbesonders fehlen hier die Boards von Asus (P5A) und Tyan (Trinity-Serie). Zum K6-III+ (256 kB FullSpeed Level2-Cache) bekannte sich im übrigen momentan noch kein einziger Hersteller - wobei nicht einschätzen ist, ob dies nicht mit dem Support für den K6-2+ (128 kB FullSpeed Level2-Cache) gleich mit getan ist.

Der K6-III+ ist aber allgemein als nicht wesentlich attraktiv einzuschätzen ist - die 128 kB mehr Level2-Cache machen es nicht und der Preis ist ca. 60 Prozent höher als der des K6-2+. Wobei das Preisgefüge (K6-2+ 450 MHz $ 85, 500 MHz $ 112 - OEM-Preise für 1000 Stück) eher auf den Laptop-Markt ausgelegt ist - auf dem Desktop-Markt wird AMD die Athlon-Variante Spitfire in Kürze noch wesentlich günstiger als den K6-2+ anbieten. Der K6-2+ ist ganz klar eine Wahl für Besitzer von SuperSockel7-Mainboards, welche nicht gleich das komplette System wechseln wollen.

Eine Sache aber noch, die bisher selbst auf den AMD-Fansite´s noch nicht erwähnt wurde: Mit der 0.18 micron Produktionstechnologie haben K6-2+ und K6-III+ ein gigantisches Overclocking-Potential! Noch dazu ist die DIE-Size kleiner als bei den auch in 0.18 micron hergestellten Coppermines und die neuen Athlons - rein von den Ansetzungen her sollten 600 und mehr MHz gar kein Problem sein. Einen größeren Haken hat die Sache - es wird wohl nur über den Bustakt gehen. Unabhängig davon, daß AMD-CPUs keine festverdrahteten Multiplikatoren haben, die wenigsten SuperSockel7-Boards kennen Multiplikatoren überhalb von x5.5 - aber auch 5,5 * 115 MHz FSB ergeben schon 633 MHz ...

Nachtrag vom 24. April ...
Sorry - im letzten Abschnitt hat sich ein Fehler eingeschlichen. K6-CPUs überhalb von 400 MHz haben allesamt einen CTX-Core, welcher unter anderem den auf dem Mainbaord befindlichen Multiplikator x2,0 als x6,0 auslegt. Demzufolge korrigiere ich die obige Rechnung wie folgt: 6,0 * 115 MHz FSB ergeben 690 MHz ... und auch für Besitzer eines Mainboards ohne FSBs überhalb von 100 MHz (Gruß Tyan) ergibt das noch 600 MHz. Nicht übel für die oftmals abgeschriebene K6-Serie. Danke an Alexander Klietz für diese Richtigstellung.

nach oben zum News-Index




erste GeForce2-"Benches"

19. April 2000 / von Leonidas

So schnell kann es gehen - drei Sekunden nach den Benches mit der Voodoo5 finde ich diejenigen mit der GeForce2 von nVidia ...

Wobei "Benchmarks" in diesem Zusammenhang etwas hoch gegriffen scheint, schließlich hat die japanische Site PC Pop nur jeweils einen Vergleich mit 3D Winbench 2000 und 3D Mark 2000 von sich gegeben. Und auch diese sind inzwischen wieder verschwunden - gleich inklusive des ganzen zugehörigen Artikels. Ganz offensichtlich greift da wieder ein NDA seitens nVidia (wenn es auch in diesem Fall nicht ganz so perfekt gegriffen hat). Es war schon bei der ersten GeForce so, daß die Review-Site´s schon Tage vor den ersten Artikeln die neue Grafikkarte zum intensiven Testen und Begutachten daliegen hatten. Was mich natürlich in der Annahme bestärkt, daß dies bei der GeForce2 ähnlich läuft - und wir damit in Kürze ernsthaftige und gut ausgearbeitete Reviews in Masse zur Verfügung haben werden.

Zurück zu den Benches. Wie gesagt sind diese nicht mehr bei PC Pop, aber inzwischen (kopiert) bei 3D Chipset bzw. nV News zu finden. Leider sind die benutzen theoretischen Benchmarkprogramme nicht sonderlich geeignet, um eine sinnvolle Aussage hinzubekommen - nur soviel: nVidia ist sicher auf dem richtigen Weg, angenommen man setzt die gemessenen 25 Prozent Mehrleistung auch in echten Spielen um, wäre das schon ein größerer (wenn auch kein gigantischer) Sprung.

Nachtrag vom 21. April ...
Bei beiden genannten Site´s sind die Benchmarks inzwischen im Archiv verschwunden, deshalb hier ausnahmsweise eine Kopie (GeForce2 getaktet mit 200 MHz Chip- und 166 MHz DDR Speichertakt):

3D Winbench 2000 (1024x768x32-bit, 75Hz)
GeForce2: 86.1 fps
GeForce 256 DDR 64 MB: 67.4 fps
Increase: 27.7%

3D Mark 2000 (1024x768x16-bit, 75 Hz) 3DMarks
GeForce2: 5297
GeForce 256 DDR 64 MB: 4385
Increase: 20.8%

Nachtrag vom 6. Mai ...
Ok, hier die richtigen Artikel zur GeForce2: nVidia GeForce2 GTS und Analyse: GeForce vs. GeForce2 und GeForce2 vs. übertaktete GeForce.

nach oben zum News-Index




erste Voodoo5-Benches

19. April 2000 / von Leonidas

HardOCP, AGN Hardware und Beyond3D waren die glücklichen, die als erstes die neuen Voodoo5-Karten von 3Dfx in die Finger bekammen und benchen durften. 3Dfx gab an alle drei Site´s eine Voodoo5-5500 heraus, welche mit zwei VSA-100-Chips und 64 MB RAM (für jeden Chip je 32 MB) bestückt sind. Getaktet waren die Chips (und wohl auch der Speicher) mit den schon vorher angekündigten 166 MHz. Zu beachten ist, daß Board und Treiber allenfalls im Beta-Stadium anzusiedeln sind - demzufolge sind durchaus noch bessere Resultate mit dem entgültigem Silizium und Treiber zu erwarten.

Zumindestens die ersten Ergebnisse sind jedoch stark ernüchternd. Obwohl die Resultate der drei vorgenannten Seiten im Quervergleich sehr widersprüchlich sind, zeigt doch die Tendenz unterhalb die GeForce mit DDR-RAM. Zumindestens bei 1024*768 und höher ist das Bild eindeutig zugunsten der aktuellen GeForce - unterhalb von 1024*768 sieht es dagegen postiver für das neue 3Dfx-Produkt aus. Jedoch gilt dieser Vergleich nur zur aktuellen GeForce - was wird 3Dfx tun, wenn nVidia mit der GeForce2 kontert?

Trotzdem gilt immer noch abwarten als die momentan beste Strategie. Sowohl die Voodoo5-Serie als auch die GeForce2 von nVidia werden kaum vor Juni in Europa zu kaufen sein. Bis dahin wird es sicher eine Vielzahl von Reviews dieser neuen Chips geben, welche dann auch ein insgesamt runderes Bild abgeben werden können. Auch die Frage, in wie weit das FullScene-AntiAliasing (FSAA), welches die Voodoo5 in Hardware kann (aber dabei trotzdem kräftig Performance verliert), einen wesentlichen Kaufgrund darstellen könnte, wird mit den zukünftigen Reviews sicher besser geklärt als mit den momentanen Vorab-Benches.

Nachtrag vom 21. April ...
Auch auf Hardware.fr kann man inzwischen ein Voodoo5-Preview mit Benchmarks bestaunen.

nach oben zum News-Index




Celeron II Overclocking

18. April 2000 / von Leonidas

Die neuen Celerons mit Coppermine-Kern sind da - und nun stellt sich natürlich die Frage, ob sie den hochgesteckten Overclocking-Erwartungen an den Namen "Celeron" gerecht werden können. Die technischen Daten haben sich zu unserem Vorbericht hin nicht geändert - es ist alles so eingetroffen, wie damals angenommen. Deshalb der Querverweis auf diese News, solange es um Fragen der Technik und der Kompatiblität geht.

Zurück zum Overclocking: Was ich für interessant halte, ist nicht die Tatsache, daß die Extrem-Overclocker den Celeron II auf die 100 MHz Bustakt oder höher schrauben können oder aber ob eine der vielen Hardwarereview-Site´s dies auch mit ihrem einzelnen Testexemplar geschafft hat. Mich interessiert die Frage: Schafft jeder der neuen Celeron II´s die Marke von 100 MHz Bustakt? Insofern nutzt es nicht viel zu wissen, daß WebSite X ihren Celeron hat übertakten können, wichtig ist eine Erfolgsprognose - welche sich natürlich nur aus einer Vielzahl von getesteten CPUs heraus ergeben kann.

Also habe ich mich auf die Suche nach verwertbaren Reviews und Artikel zum Celeron II gemacht und mich dabei insbesondere auf die jeweiligen Overclocking-Teile konzentriert. Hier der Overclocking-Extrakt aus den bisher erschienen Celeron II - Artikeln:

  Original-Taktung übertaktet auf Bustakt (FSB) Spannung
 
GamePC 633 MHz 998 MHz 105 MHz ?
HardOCP 633 MHz 950 MHz 100 MHz 1,65 V
Sharky 600 MHz 810 MHz 90 MHz 1,75 V
AnandTech 600 MHz 750 MHz 83 MHz 1,65 V
c´t 600 MHz 675 MHz 75 MHz 1,55 V
AnandTech 566 MHz (1) 952 MHz 112 MHz 1,75 V
AnandTech 566 MHz (2) 952 MHz 112 MHz 1,75 V
FiringSquad 566 MHz (1) 901 MHz 106 MHz 1,7 V
FiringSquad 566 MHz (2) 867 MHz 102 MHz ?
HardOCP 533 MHz 800 MHz * 100 MHz ?

* Es wurde nicht weiter als 800 MHz ausgetestet.

Rein rechnerisch ergibt sich damit für die Typen unterhalb nominal 600 MHz eine 100-Prozent-Chance, den Celeron II auf 100 MHz Bustakt hochjubeln zu können - da springt das Her(t)z des Overclockers! Trotz der excellenten Übertakt-Ergebnisse der 633er Typen ist der 566er die beste Empfehlung für den Overclocker, hier sind die 100 MHz Bustakt am sichersten schaffbar. Falls der eigene 566er mehr kann - auch 105, 110 und 115 MHz Bustakt ergeben noch maßvolle Übertaktungen von PCI, AGP und RAM und sollten dementsprechend - falls es die CPU schafft - kein Problem darstellen.

Ich würde es nicht als wesentlich erachten, daß die beiden 600er die 100 MHz Bustakt nicht schaffen, die beiden 633er es aber hinbekommen - um daraus eine globale Aussage abzuleiten, sind noch zu wenig Reviews mit diesen CPUs erschienen. Man sollte diese Erscheinung beobachten und später eventuell - mit mehr Testwerten ausgestattet - erneut betrachten.

Ein anderer Punkt sind die verwendeten Core-Spannungen: Der Celeron II will original 1,5 V, der Pentium III mit Coppermine-Kern jedoch 1,6 bzw. 1,65 V. Ergo (da beide den gleichen Kern haben) sind auch 1,65 V für den Celeron II absolut innerhalb der Spezifikation. Davon ausgehend addiere man 0,1 V als selbst vom Hersteller eingeplante Toleranz und weitere 0,1 V als ganz normales, risikofreies Overclocking-Potential. Schwupps ist man bei 1,85 V - welche die CPU ohne Klagen oder größere zusätzliche Wärmeentwicklung überstehen sollte. So gesehen haben einige der getesteten CPUs - bei entsprechend höherer Core-Spannung - wohl noch Potential nach oben. Eventuell wäre dann auch bei den getesteten 600er Typen ein Bustakt von 100 MHz realisierbar ...

Nicht zu verwechseln ist der getestete Celeron II 533 MHz mit den momentan erhältlichen 533er Celerons - diese alten Typen haben keinen Coppermine-Core! Ob der 533er (die neue Type nennt sich nach den Intel´schen Spezifikationen 533A) jemals frei erhältlich sein wird, steht immer noch in den Sternen. HardOCP und PC Critix haben als einzige ein 533er-Sample abbekommen (es kam in beiden Fällen von PCNut - wohl der selbe Chip), aber selbst in den USA taucht dieser 533er momentan nirgends in den Preislisten auf. Kein Wunder - Intel hat den 533er auch bisher nicht offiziell gelauncht. Möglich das dieser Celeron II 533 MHz nie erscheint, möglich das er nur an Komplettsystem-Verbauer geht - mit der Markteinführung der 566er und 600er schwindet die Chance, daß ein noch niedriger getakteter Typ nachgeschoben wird. Natürlich wäre ein 533er die allersicherste Wahl bezüglich der Fähigkeit, 100 MHz Bustakt zu verkraften - mittels obiger Ergebnisse scheint aber die ganze Serie ein ähnliches Overclocking-Potential zu besitzen.

Rein von den Leistungen der neuen Celerons verweise ich mal auf die bisher erschienen Reviews und Artikel zum Thema "Celeron II". Nur soviel: Der Celeron II schafft nicht die Leistungen eines gleichgetakteten Pentium III Coppermine - der Unterschied sollte aber vernachläßigbar sein, solange nach wie vor in 700-MHz-Systemen (und höher) die Grafikkarte den Flaschenhals im 3D-System darstellt. Über die Ursache des bisher gemessenen Unterschiedes wird momentan heiß debatiert und wildeste Vermutungen machen die Runde. Woran es wirklich liegt (schließlich ist der Core derselbe), wird sicher in Zukunft mittels weiterer Reviews und Artikel klärbar sein - vieleicht reicht einfach ein BIOS-Update (keine der getesteten CPUs lief auf einem offiziell den Celeron II unterstützenden BIOS). Wenn bezüglich der Leistungen des Celeron II etwas mehr Klarheit eingetreten ist, werden wir nochmals aktiv und diese gesondert betrachten.

Bisher erschienene Reviews & Artikel:

Eine Bemerkung zu den Benchmarks vorgenannter Site´s kann ich mir aber nicht verkneifen:
Warum wird die ungebräuchliche Auflösung 640*480 so vorrangig getestet und als so wesentlich bewertet? Weil die Demos unter 1024*768 zu stark von der Grafikkarte limitiert werden? Mag sein - aber dann wurden die falschen Timedemos und die falschen Spiele als Testgrundlage ausgewählt. Es ist jedenfalls nicht besonders sinnvoll, nur weil unter 1024*768 keine Unterschiede herauskommen, extra unter 640*480 zu testen um diesen Unterschieden hinterherzujagen. Wenn mir eine Gigahertz-CPU in der Vorzugs-Spieleauflösung (momentan nutzen Eurerseits jeweils ca. 20 Prozent 800*600 und 1280*960/1024 sowie ca. 50 Prozent 1024*768 - nur noch einige Profispieler nutzen bewußt 640*480) nichts an Mehrleistung bringt weil die Grafikkarte der Flaschenhals ist, so will ich dies auch so lesen - und nicht einen 640*480-Test, welcher das genaue Gegenteil suggeriert (und mich eventuell zu einem Hardware-Kauf animiert, welcher mir dann nichts bringt).

Nachtrag vom 6. Mai ...
Die versprochene Betrachtung zu den Leistungen des Celeron II gegen einen Pentium III findet sich hier.

Nachtrag vom 28. Mai ...
Unser erstes Review - Intel Celeron II 566 MHz @ 850 MHz

nach oben zum News-Index




kleines Re-Design

15. April 2000 / von Leonidas

Wir haben ein wenig re-designt um ein paar Verbesserungen bezüglich Übersichtlichkeit und Lesbarkeit zu erreichen. Für alle Seiten haben wir die den linken "Inhalt"-Balken und den rechten "Shortcuts"-Balken um jeweils 10 Prozent geschrumpft. Dies resultiert in mehr Platz für den Innenbereich - wir hoffen, daß dies nun für die 800*600-User angenehmer zu lesen ist. Bezüglich Mindestanzeigebreite siehe unser Impressum, da ist dieses genauer erklärt.

Die Hauptänderungen betreffen die Startseite. Diese ist besser und sinnvoller aufgeteilt wurden, aus vorher fünf Bereichen wurden nun drei. Aus dem alten Bereich "Webweites" wurde nun "Web-News" (Achtung, die URL des entsprechenden Archives hat damit sich geändert in Archiv Web-News), dieser Bereich wurde auf der Startseite besser positioniert, damit wir mehr Möglichkeiten haben, auf interessante Artikel und Reviews (welche ich zu Haufe bei meinen Surftouren finde) besser als vorher hinzuweisen. Wir wollen diesen Bereich in Zukunft zu stärkerem Leben animieren.

Das ganze resultiert auch aus dem Ergebnissen unseres ersten Polls (welcher mehr ein Test-Poll war). Wir hatten gefragt, in welcher Richtung unsere News sich entwickeln sollten. Zur Wahl standen "So wie bisher beibehalten - mit ausführlichen Artikeln." und "Mehr in Richtung extrem kurzer News wie das andere Sites machen.". Das Ergebnis waren bei insgesamt 137 Stimmen 48 zu 52 Prozent - das würde zwar bei einer Bundestagswahl reichen (da reicht schließlich auch eine einzige Stimme mehr), aber uns reicht es nicht, um gleich alles über den Haufen zu werfen. Der Weg wird wohl ein Kompromiß werden.

Ermutigt dadurch, daß der erste Test-Poll - ganz ohne Werbung dafür und ohne Frage mit Grafikkarten-Bezug - gleich solches Interesse fand, werden wir in Zukunft da stärker aktiv sein. Es wurde im neuen Design der Startsite dafür extra der rechte Außenbereich reserviert, leider ist der Poll selber noch nicht programmiert - die entsprechenden Poll-Fragen (diesmal mit Grafikkarten-Bezug) sind dies schon. Die Programmierung des Polls wird aber schnellstmöglich passieren.

Die restlichen Änderungen sollten - denke ich - selbsterklärend sein. Ein Bonbon noch: Ich habe endlich mal "Das Benchmarkauge" und das "Quake-Gebet" auf die Site gebracht, zu finden unter Nonsens (im Impressum).

Und die aktualisierten Benchmark-Charts fehlen noch - ist jedenfalls eine vielgestellte Frage Eurerseits. Nachdem das Java-basiertende Programm zum automatischen Eintrag Eurer Ergebnisse in die Datenbank seit gestern endlich funktioniert, fehlen nur noch ein paar Makros zum Umwandeln der Datenbank in entsprechende Tabellen. Lohn der Mühe und Wartezeit Eurerseits werden viel genauere Tabellen (z.B. für jede Auflösung extra eine, oder Tabellen nach CPU-Leistungen geordnet) als bisher werden.

nach oben zum News-Index




3D-Card Roadmap Q2/2000 - 2001

9. April 2000 / von Leonidas

Die nächsten Monate werden in Bezug auf neue Grafikchips sicher das heißeste seit langem werden - so vieles ist angekündigt und kurz vor der Fertigstellung. Da es aber unserer Meinung nach nicht viel bringt, sich jeden Tag aufs neue mit einer Vielzahl von einzelnen Informationshappen herumzuschlagen, haben wir diesen Informationswust ein wenig zusammengefaßt. Herausgekommen ist dabei eine Roadmap für Grafikkarten.

Damit wollen wir einen Ausblick auf die anstehenden Projekte der Grafikchip-Hersteller geben. Wir haben außerdem vor, diese Roadmap ständig zu aktualisieren, um so auch allen zukünftigen Entwicklungen Rechnung tragen zu können (während der Arbeit an der Erstausgabe unser Roadmap ist so viel an Veränderungen passiert, das wir inzwischen schon auf ein ganzes Update gekommen wären - es kann also sehr schnell gehen).

nach oben zum News-Index




UT 4.13 und Direct3D

9. April 2000 / von Leonidas

Wer Unreal Tournament auf einer GeForce unter Direct3D spielt (der Normalfall, OpenGL ist immer noch zu buggy), dem wird eventuell aufgefallen sein, daß der 4.13er-Patch für UT nicht gerade die Offenbarung in Sachen Performance ist. Es gibt aber - neben der radikalen Methode des Ausspielens des 4.05b-Patches - durchaus Möglichkeiten, diese verlorenen Performance wieder zurückzubringen.

Epic stellt selber auf seiner UT-Technologie-Seite mehrere verschiedenen Beta-Versionen des Direct3D-Renderers für UT zur Verfügung. Und genau diese haben wir mit einer GeForce durchgetestet, um den besten Direct3D-Renderer für UT herauszufinden. Um ein kleines bißchen etwas vorwegzunehmen: Der im Patch 4.13 enthaltene Renderer ist einer der schlechtesten im Vergleich - es gibt wesentlich bessere Alternativen.

Dem Artikel ist wegen Größe und enthaltener Grafiken eine eigene Seite spendiert wurden. Gleichzeitig stellt sich mit diesem Artikel auch unser neuer Mitarbeiter RAL vor, welcher ab sofort dabei mitwirken wird, das 3DCenter konstanter, produktiver und damit für Euch interessanter zu machen.

nach oben zum News-Index

Shortcuts
nach oben