Zum 3DCenter Forum
Inhalt




News-Archiv Juni 2000

News-Index




nVidia GeForce2 MX

29. Juni 2000 / von Leonidas

Ohne größeren Trubel stellte heute nVidia den neuen LowCost-Chip GeForce2 MX vor. Die schon mal durchgesickerten technischen Spezifikationen haben sich im Prinzip komplett bestätigt. Was neu war, ist die Möglichkeit der MX, mit einem zweiten VGA/Video-Ausgang ausgerüstet zu werden - ähnlich der Matrox´schen DualHead-Technologie. Dieses bei nVidia "TwinView" genannte Goodie ist allerdings nicht automatisch in der MX enthalten, es wird Varianten mit und ohne geben. Interessanterweise kommt die MX ohne Lüfter aus, für einige Leute ist dies sicher eine Überlegung wert.

Die vorher getroffene Vermutung einer Performance zwischen SDR-RAM und DDR-RAM-GeForce konnten die zahlreichen Reviews der MX im groben bestätigen, wobei ich mittlerweile die MX auf klarem SDR-RAM-GeForce-Niveau sehe. Die lesenswertesten Reviews und Benchmarks lieferten im übrigen AnandTech, Sharky Extreme und Tom´s Hardware Guide ab. Leider wurde fast überall nur Quake III Arena getestet, eine komplette Aussage zur Leistungsfähigkeit des neuen Chips ist dies sicher nicht. nVidia mag dies sehr recht sein, denn in Q3A punktet die MX weit vor allen non-GeForce/V5-Produkten. Diese reinen Q3A-Tests lassen die MX meiner Meinung nach aber in einem etwas besseren Licht erscheinen als sie ist. Denn bekanntermassen liegen alle GeForce-Karten in Q3A etwas weiter vor der Konkurrenz als den anderen Benchmarks.

Die bisherigen Reviews mit Benchmarks zur GeForce2 MX:

Insgesamt betrachtet haben Produkt-Strategie und das Marketing bei nVidia wieder mal perfekt gepasst: Die MX hat den imageträchtigen Namen "GeForce" anzubieten, scheint auf den ersten Blick vollkommen gleichwertig einer SDR-RAM-GeForce und wird als 32-MB-Ausführung ohne TwinView für um die 340 DM zu erwerben sein, eine 16-MB-Ausführung ohne TwinView wird schon für 250 DM den Besitzer wechseln können. Und auch ohne aussagekräftige non-Q3A-Tests steht fest: Die GeForce 2 MX hat in ihrem Preissegment das momentan beste Preis-/Leistungsverhältnis.

Bei diesen Preisen werden dann auch zwei Dinge klar: Logisch, daß die SDR-RAM-GeForce damit recht überflüssig wird, daß schrieben auch die meisten Sites. Aber noch etwas anderes sehe ich: Nachdem nVidia den HighEnd-Markt relativ fest im Griff hat, drängt man nun aggresiv in den Markt des mittleren Preissegments und könnte dabei auch einen durchschlagenden Erfolg erzielen. Denn welcher der anderen Hersteller hat momentan einer Grafikkarten mit Namen "GeForce" und einem Preis von 250 bzw. 340 DM ernsthaft etwas entgegen zu setzen?

Folgende Dinge werden also passieren: Die TNT2-Serie wird relativ schnell auslaufen, wobei eventuell die LowCost-Variante TNT2M64 noch etwas länger überleben wird. Die anderen Karten der 3. Generation (3Dfx Voodoo3, ATi Rage Fury 128, Matrox G400, S3 Savage 4 Pro) werden damit ganz klar zu Auslaufmodellen mit Preisen je nach Leistung von 100 bis 200 DM degradiert. Für die Hersteller dieser Karten wird es ganz schwer werden, gegen eine 250 DM günstige GeForce2 anzukommen, auch wenn es nur die einfachste 16-MB-Variante der GeForce2 MX ist. Wie die Erfahrungen der Vergangenheit zeigen, bleiben solche "Details" in der Werbung der PC-Hersteller oftmals auf der Strecke.

Denn von den "alten" Chips hat keiner den Namen oder das Potential, um mit der MX mitzuhalten - nur neue Chips würden den anderen Herstellern weiterhelfen. Konkurrenz hat der MX nur von den GeForce1-Gegnern, das wären der Savage 2000 von S3 und die Rage Fury MaXX von ATi. Beide werden preislich Federn lassen müssen und haben trotzdem nicht den Namen des nVidia-Produkts. Neue Konkurrenz kommt von IT/STM´s Kyro, aber dieser wird es in der allgemeinen GeForce-Euphorie schwer haben. Leistungen und Preis sind ähnlich, aber auch hier fehlt der große Name. Einzige echte Konkurrenz ist mit Matrox´ G450 zu erwarten, aber dieser Chip greift erst im August ins Geschehen ein.

Worauf will ich hinaus? nVidia rollt den Markt in dem Sinne von oben herab auf und macht nVidias Technologie und nVidias GeForce zum must-have. Mit dem MX geht mittlerweile wirklich wenig an einem Chip mit GeForce-Chipsatz, gleich welchem, vorbei. Die anderen Chiphersteller können sich warm anziehen und müssen sehen, daß sie nicht in kürzester Zeit sehr viel an Boden verlieren. Denn das HighEnd-Segment ist mehr oder weniger schon verloren, auch wenn 3Dfx tapfer Gegenwehr leistet, und nun verdrängt nVidia mit einem Schlag die Konkurrenz auch noch aus dem mittleren Preissegment ...

nach oben zum News-Index




Chipsätze & CPUs

26. Juni 2000 / von Leonidas

Nachdem nun AMD sowohl den Thunderbird als auch den Duron veröffentlicht hat und Intel´s komplett neue Plattform mit dem Willamette-Chip noch etwas auf sich warten läßt (und wohl auch am Anfang recht teuer sein wird), kann man nun halbwegs eine Einschätzung abgeben, welche CPU sich für welchen Anwenderkreis am besten eignet.

Die Voraussetzungen rein von der CPU-Seite her sind relativ klar und übersichtlich: Bei gleicher Taktfrequenz nehmen sich sowohl der Classic Athlon, der Duron, der Thunderbird und der Pentium III E Coppermine nicht viel. Die Unterschiede spielen sich alle im Bereich von wenigen Prozenten ab, wenn man unbedingt einen Sieger küren wollte, ist es zwar der AMD Thunderbird, aber der hat auch nur 5 Prozent Vorsprung. Eine Sonderrolle nimmt der Celeron II ein - er ist bekanntermaßen im Schnitt deutliche 10 Prozent langsamer als ein gleichgetakteter Pentium III E, dafür aber als 533er und als 566er relativ sicher auf 800 bzw. 850 MHz übertaktbar. Zumindestens außerhalb des absoluten HighEnd-Bereichs eine absolut lohnenswerte Sache.

Diese vorbeschriebenen geringen Unterschiede sollten nicht so die wesentliche Rolle beim Kauf einer neuen CPU oder eines neuen Systems spielen - wichtig ist doch vor allem: Ist mein aktuelles Mainboard mit einer der momentanen Spitzen-CPUs sinnvoll aufrüstbar oder lohnt nur ein kompletter Neukauf von Mainboard und CPU? Denn ich denke, daß man durchaus auch eine um ein paar Prozente langsamer CPU kaufen kann, wenn man dafür um die Neuanschaffung eines Mainboards herumkommt. Denn ist das eigene Mainboard nicht mal aus dem Grunde der "Zukunftssicherheit" gekauft wurden? Warum also immer wieder gleich alles ersetzen - es muß sich schon deutlich rentieren, wenn man dies tut.

Damit ist nachfolgende Tabelle an aktuellen Mainboard-Chipsätzen ausgerichtet. Je nach dem, was vorhanden ist, wird eventuell eine andere CPU empfehlenswerter. Unterteilt ist das ganze in eine "obere Mittelklasse", in welcher einer CPU-Leistung von mindestens 700 MHz angestrebt wird (Celeron II mit 800 MHz, da 10 Prozent langsamer) und einen "HighEnd"-Bereich, in dem die CPU-Leistung mindestens 850 MHz betragen muß. CPU-Taktfrequenzen von oberhalb dieser 850 MHz gehen momentan noch in den unbezahlbaren Bereich hinein (1500 DM für eine 900-MHz-CPU), deshalb die 850 MHz als obere Grenze.

Eine weitere Unterteilung ist selbstredent: "Overclocker" und "non-Overclocker" richten sich an die jeweilige Zielgruppe. Es gibt durchaus mal gewaltige Unterschiede in der von mir empfohlenen CPU, da nicht auf jeder Plattform Overclocking sinnvoll möglich ist. Auch anzumerken wäre die Auswahl der übertakteten CPUs: Ich bin hierbei von relativ sicheren Übertaktungen ausgegangen, "tiefgläubige" Overclocker sehen da sicher bessere und höhergetaktete Möglichkeiten.

Das ganze ist natürlich eine Frage des Preises der Komponenten. Ich bin von Preisen ausgegangen, welche ungefähr Mitte Juli aktuell sein sollten und dann erst wieder Ende August durcheinanderpurzeln werden. Außerdem sei zu erwähnen, daß ich mich bei der Wahl der Mainboards, die für eine Neuanschaffung sinnvoll sind, von der Möglichkeit, PC-133-RAM auszunutzen und außerdem mit zukünftigen CPUs zurechtzukommen, habe leiten lassen.

Zur Handhabung: Für jede Plattform in jeder Zielgruppe habe ich die CPU mit dem besten Preis-/Leistungsverhältnis herausgesucht. Wenn ein Mainboard-Chipsatz zusätzlich zur CPU mit dabei steht, dann ist das beste Preis-/Leistungsverhältnis nur über einen Neukauf des Mainboards realisierbar.

Oberklasse (700 MHz)

HighEnd (850 MHz)

Overclocker

non-Overclocker

Overclocker

non-Overclocker

AMD 750/751

Athlon 550@700

Duron 700

Athlon 700@850

TBird 850

VIA KX133

Athlon 550@700

Athlon 700

Athlon 700@850

Athlon 850

Intel i440BX

C2 533@800

P3E 700

VIA KT133
Duron 700@900

P3E 850

VIA Apollo Pro133A

C2 533@800

P3EB 733

P3E 650@866

P3EB 866

- Neukauf -

VIA KT133
Duron 600@800

VIA KT133
Duron 700

VIA KT133
Duron 700@900

VIA KT133
TBird 850



AMD 750/751: Solider Chipsatz - übertaktbar sind allerdings nur die klassischen Athlons. Dafür ist wenigstens - unübertaktet - der Thunderbird und Duron einsetzbar. Ein Wechsel auf eine andere Plattform lohnt defintiv nicht.

VIA KX133: Es gilt ähnliches wie vorher, allerdings sind wohl der Thunderbird und der Duron nicht einsetzbar. Da aber der Classic Athlon auch nach wie vor eine gute CPU ist, in den erforderlichen Taktfrequenzen erhältlich und nicht teurer ist, lohnt kein Wechsel auf eine andere Plattform.

Intel i440BX: Der Oldie ist wohl immer noch der beste Intel-Chipsatz. Allerdings gibt es ein Problem mit dem Übertakten bei den HighEnd-CPUs - die passende CPU mit dem niedrigen Bustakt fehlt (der C2 566 @ 850 ist eben leistungsmäßig nicht wie ein P3E 850 einzuordnen). Deshalb lohnt sich der i440BX für Overclocker im HighEnd-Bereich nicht mehr und ein Wechseln der Plattform wäre zu empfehlen.

VIA Apollo Pro133A: Dieser Chipsatz kann in jeder Hinsicht überzeugen und als zukunftsicher gelten. Praktisch macht sich die Möglichkeit, PC-100-RAM neben einer CPU mit 133 MHz FSB - und umgedreht - zu betreiben. Damit gibt es für jede Zielgruppe die passende CPU, ohne das die Plattform gewechselt werden müsste.

Welche Chipsätze fehlen hier und warum? Auf i810 und i815 würden zwar auch die die meisten Intel-CPUs passen, allerdings halte ich diese aufgrund der integrierten Grafik im Bereich ab 700 MHz CPU-Takt für fehl am Platze. i820 mit SD-RAM, Apollo Pro und Apollo Pro133 (ohne "A") sind zu schwach auf der Brust, um leistungsmäßig als ernsthafte Chipsätze durchzugehen. Jeder, der ein Board mit PPGA-Sockel besitzt, hat sowieso das Problem, daß die größte CPU dafür ein nicht übertaktbarer Celeron A mit 533 MHz ist. Ähnliches gilt für die SuperSockel7-Besitzer - auch da ist momentan beim K6-2 mit 550 MHz Schluß.

Für alle diese genannten Chipsätze und Konstellationen sei die letzte Zeile empfohlen. Diese gibt an, was bei einem Neukauf aktuell das sinnvollste Preis-/Leistungsverhältnis hat. Wie zu sehen, gebe ich sehr viel auf AMD´s Duron, aber mittels der bei Tom´s Hardware Guide vorgestellten Übertaktungs-Möglichkeiten geht wohl kein Weg an dieser CPU mehr vorbei. Und oberhalb der Duron-Möglichkeiten halte ich den AMD Thunderbird als momentan schnellste CPU für die sinnvollste Lösung.

nach oben zum News-Index




nVidia & AGP-Texturing

25. Juni 2000 / von Denis

Beim AGP-Texturing reserviert sich die AGP-Grafikkarte einen Teil des normalen Arbeitsspeichers und lagert dort Texturen etc. ab, die nicht mehr in den lokalen Speicher der Grafikkarte passen. Wenn dies alles sauber funktioniert, können Spiele viel größere Texturen verwenden als die Grafikkarten Speicher haben. Soviel zur Theorie.

Obwohl die GeForce die besten Voraussetzungen für AGP-Texturing hat, wollte es unter Quake III Arena nicht richtig funktionieren. Man sieht es zum Beispiel ganz deutlich am Quaver-Demo, welches mit 3.xxer Treibern, maximalsten Einstellungen und 32Bit einfach schlecht lief oder man kann sogar sagen, daß es ohne S3TC unspielbar war (weil die benutzte Map Q3DM9 mit über 30 MB Texturen zu Buche schlägt und funktionierendes AGP-Texturing dringend notwendig wäre).

Ab dem 5.08er Treiber konnte man zwar mit diesen oben genannten Einstellungen spielen, aber auch nur weil dieser Treiber S3TC nutzte, wodurch Quake 3A schneller wurde (weil diese supergroßen Texturen komprimiert wurden), aber optisch hat es sich verschlechtert. Ist ja auch nicht gerade das, was man sich wünscht: Schnell, aber miserable Optik. Die Treiber bzw. die GeForce-Karten sollten ja nicht mit S3TC gute Leistung zeigen, sondern ohne dies und dafür mit funktionierendem AGP-Texturing.

Mittlerweile sind ja wieder einige neue Detonatoren veröffentlicht wurden, und mit dem 5.30er fiel mir auf, das Quake 3A mit maximalen Einstellungen bei 32Bit und ohne S3TC spielbar ist. Das heißt, nVidia hat es endlich geschafft, AGP-Texturing unter OpenGL in den Griff zu bekommen. Aus diesem Grund habe ich mal ein paar Benchmarks mit dem Quaver-Demo gemacht, um das ganze zu verdeutlichen:

Testsystem: Intel Celeron A 566 MHz, 256 MB RAM, GeForce DDR auf 150 MHz Chip- und 175 MHz DDR Speichertakt, Windows 98 SE, die "minimal"-Werte sind rein durch das Ablesen des Framecounters "gemessen" - reicht aber für einen groben Vergleich auch aus.

Quake III Arena

Quaver - 1024*768 @ 32 Bit

    durchschnittliche fps

    minimale fps                

3.75

15,6 fps

8 fps

5.08 mit S3TC

62,2 fps

25 fps

5.08 ohne S3TC

10,6 fps

5 fps

5.30 mit S3TC

66,0 fps

25 fps

5.30 ohne S3TC

49,3 fps

20 fps

15 fps

30 fps

45 fps

60 fps

75 fps

90 fps

Also: Im Laufe der 5.xx-Treiberentwicklung hat nVidia wohl das AGP-Texturing gelernt, denn ein Leistungszuwachs von über 200 Prozent ist wirklich sehr viel. Das heißt jetzt für GeForce-Besitzer (und eigentlich auch für TNT/TNT2-Besitzer, welche die 5.30er Treiber nutzen), in Zukunft kann man auf schlechtere Bildqualität durch S3TC verzichten und ohne Probleme auf 1024*768 @ 32 Bit und maximalen Settings spielen. Wer S3TC ausschalten will (es ist standardmäßig eingeschaltet!), kann das mit folgenden Befehlen tun, welche man in die Q3-Konsole eintippt:

r_ext_compress_textures 0
vid_restart

Anmerkung von Leonidas:
Ein Wort zum Quaver-Demo selber. Es ist sehr gut geeignet, den Performance-Gewinn durch S3TC in den 5.08er Treibern zu zeigen. Heutzutage löst aber das verbesserte AGP-Texturing der 5.30er Treiber dieses Problem einiger reichlich texturierter Quake3A-Maps. Damit wird dem Quaver-Demo die Grundlage entzogen - denn im Gegensatz zur oftmals zu lesenden Meinung einiger Site´s ist das Quaver-Demo weder besonders Hardware-stressend noch in den Ergebnissen wesentlich unterschiedlich vom standardmäßige demo001 (ca. 5 bis 10 Prozent Unterschied)
.

nach oben zum News-Index




Timedemos én masse

25. Juni 2000 / von Leonidas

So, ich habe mal meinen "Giftschrank" durchforstet und alles an Timedemos auf die Site gepackt, was irgendwie als sinnvoll durchgeht (ergo habe ich die ganzen einfallslosen "Crusher"-Kopien für Q3A weggelassen). Ist eine ganze Menge neuer Timedemos geworden (und hat mich auch einen ganzen Tag gekostet, weil ich schließlich alles selber ansehe, was so auf die Site geworfen wird):

Einiges davon wurde und wird von einigen Hardware-Site´s zu Review-Zwecken verwendet. Was mich gleich zu Punkt 2 bringt: Die Jungs von AnandTech, AMD Zone und Terminal Reality verdienen sich gemeintschaftlich den *PLONK* des Monats für die Unfähigkeit, die von ihnen benutzten/erstellten Timedemos auf meine Anfrage hin herauszurücken. Ist ein guter Hinweiss auf die Glaubwürdigkeit dieser Leute ;-))))

Die Timedemos für Half-Life habe ich im übrigen herauslassen müssen. Die bescheuerten Programmierer von Valve ändern bei jedem neuen Patch soviel am Code, daß sich alle Timedemos spätestens nach zwei neuen Patches outdaten. Da hilft dann auch manuelles Herumdoktern in den Demo-Dateinen nichts mehr. Und das obwohl die zugrundeliegende Quake2-Engine durchaus in der Lage ist, Demo-Dateinen aus älteren Game-Versionen zu verarbeiten (siehe Quake2, siehe Kingpin, siehe Soldier of Fortune).

Nachtrag vom 5. Juli ...
Timedemo für Quake 3A: Carla und
Timedemo für Shogo: Fortress.
Des weiteren wird es nicht ganz so einfach, zukünftig SoF zu benchen (ich hatte in den ReadMe-Files zu den SoF-Timedemos eine SoF-Benchmark-Anleitung angekündigt), da mit Version 1.05 die bisherigen SoF-Demos nicht mehr funktionieren.

nach oben zum News-Index




Bench-Charts aktualisiert

22. Juni 2000 / von Leonidas

Es war wieder einmal Zeit, also habe ich mich aufgeschwungen, die neuen heißen News links liegengelassen und zusammen mit unseren Webmaster Pushkin die Benchmark-Charts aktualisiert. Ihr ward fleißig gewesen in letzter Zeit und so konnten (mußten) wir die Charts um ein glattes Viertel der vorherigen Größe erweitern - auf nun 576 Benchmark-Sets und 1742 Einzel-Benchmarks. Wir danke allen Testern und fordern alle anderen zu weiterer reger Teilnahme auf. Die aktuelle Datenbank umfaßt im übrigen alle Ergebnisse, die bis zum Sonnabend, dem 17. Juni, bei uns eingegangen sind.

Logischerweise hat es Euch natürlich Quake III Arena und Unreal Tournament am deutlichsten angetan, die entsprechenden Charts gehen in Richtung 100 Testergebnisse pro Auflösung. Das garantiert nebenbei auch eine wirkliche Vielzahl von unterschiedlichen Rechner-Systemen. Erstaunlicherweise konnten sich auch schon einige Voodoo5- und GeForce2-Resultate einfinden. Was mich aber fast vom Hocker gehauen hat, sind die excellenten Matrox-Resultate unter Unreal Tournament. Eine G400 Max konnte als einzige in die 3dfx-Phalanx einbrechen - wer hätte je gedacht, das UT eine Stärke von Matrox ist?

Bei dieser Gelegenheit habe ich auch einige kleinere Änderungen an der Selbst benchmarken! - Sektion vorgenommen. Die Offline zu lesende BenchForm existiert nicht mehr, da die Updaterei zwischen Offline- und Online-Variante zu kompliziert war. Außerdem kann man ja unsere Seiten - da ohne Frames - easy speichern und mittels des "Drucker"-Buttons in der linken Sidebar auch problemlos in eine druckbare Version bringen. Die BenchForm selber trägt mittlerweile Version 1.6 - um einiger neuer Hardware Rechnung zu tragen, wurde diese mit aufgenommen. Außerdem fand der von Euch geforderte Eintrag bezüglich des verwendeten Mainboard-Chipsatzen Eingang. Zusätzlich habe ich einige Erklärungen genauer formuliert und den "fps"-Teil etwas eingefärbt, damit die Übersicht gewahrt bleibt.

Dazu habe ich die Benchmark-Regularien für Quake III Arena um eine Option verändert. Im Zuge der Entwicklung, daß 32MB-Grafikkarten mittlerweile vollkommen normal sind, habe ich die Anforderungen für die Texture Detail auf das Maximum gesetzt (mit Ausnahme-Regelungen für non-32MB-Karten). Das ganze hat auch den Hintergrund, daß offenbar nur die GeForce-Karten anfänglich Probleme mit einigen Maps (Q3DM9) unter 1024*768 @ 32 Bit mit den maximalsten Settings hatten. Dies ist aber selbst ohne S3TC mit den neusten Treibern nicht mehr gegeben, der Unterschied zwischen der höchsten und der zweithöchsten Einstellung liegt bei ca. 1 bis 4 Prozent - noch im Rahmen der Meßungenauigkeit. Deswegen habe ich diese Einstellung verändert - im Prinzip kann man jetzt sagen, daß unsere Einstellungen den jeweils höchsten Settings unter 16 bzw. 32 Bit entsprechen.

nach oben zum News-Index




AMD Duron

20. Juni 2000 / von RAL

Gestern durften nach Fall des NDAs die ersten AMD-Duron Benchmarks veröffentlicht werden. Die Ergebnisse sind beeindruckend. Der Performance-Rückstand gegenüber dem Athlon Classic sowie dem Athlon Thunderbird ist gering und das zu einem Preis, der nur etwas mehr als die Hälfte des Athlons beträgt. Wer noch nicht sofort sein System mit einem overclockten Celeron II getunt hat und sowieso ein neues Mainboard braucht, hat mit dem Duron eine sehr interessante Alternative zur Verfügung!

Technische Daten

  • 462-pin Sockel-A
  • aktuelle Taktfrequenzen 600, 650 und 700 MHz
  • 100 MHz DDR FSB (effektiv 200 MHz)
  • 0.18 micron Fertigungsprozeß
  • multiprozessorfähig
  • 1.6 Volt Core Spannung
  • 128 kB on-die Level1 Cache
  • 64 kB Full Speed on-die Level2 Cache
  • 25 Millionen Transistoren (inklusive Caches)
OEM Preise ab 1000 St. (1 $ = 2,05 DM), Quelle: c't
Thunderbird Duron
1000 MHz: $ 990
950 MHz: $ 759
900 MHz: $ 589
850 MHz: $ 507 700 MHz: $ 192
800 MHz: $ 359 650 MHz: $ 154
750 MHz: $ 319 600 MHz: $ 112

Zur Zeit gibt es zwei Mainboard-Chipsätze für den Sockel-A: KT133-Chipsatz von VIA und AMD 750. Die erhältlichen Taktfrequenzen des AMD Duron überlappen sich nicht mit denen des neuen Athlon Thunderbird. Hier grenzt AMD also den "Low Cost"- vom "High End"- Bereich hauptsächlich durch die Taktfrequenzen ab - anders als bei Intels Celeron, welcher hauptsächlich durch 66 MHz FSB (künstlich) in der Performance "beschnitten" wird. Wie man an den Performancewerten weiter unten sieht, scheint diese Taktbegrenzung für AMD auch nötig zu sein, da sich sonst der Kauf eines Athlon kaum lohnen würde. Ob die Duron's übertaktbar sein werden, steht zur Zeit noch in den Sternen. Sie haben - genau wie der Athlon Thunderbird - einen festen Multiplikator. Es besteht aber eine gewisse Hoffnung auf Gold Finger Devices zum Overclocken (dazu ab und zu mal Planet3DNow! checken).

Performance

Den Duron mit einem Standard Celeron II vergleichen zu wollen wäre Frevel. Nur der übertaktete Celeron II (typischerweise der C2 566@850) kann mit einem 700 MHz Duron konkurrieren. Die üblichen Spielebenchmarks mit Q3A, UT und Expendable bringen für Duron 700 und C2@850 sehr ähnliche Ergebnisse. Das selbe Bild ergibt sich bei den Büroanwendungen. Die Unterschiede sind marginal, wohingegen der Duron z.B. im professionellen CAD-Bereich deutlich besser ist und teilweise sogar mit einem PIII 850 konkurrieren kann.

Ein paar für Spieler relevante Benchmarkauszüge:

Benchmarks © Chip

Q3A demo001 1024*768

Classic Athlon 650

73 fps

Duron 650

72 fps

Pentium III EB 600

70 fps

Pentium III E 750

75 fps


Benchmarks © AnandTech

C2 566@850

Duron 700

Q3A demo001 Normal 640*480*16

111 fps 112 fps

Q3A demo001 HighQuality 1024*768*32

81 fps 80 fps

UT AnandTechCPU.dem 640*480*16

54 fps 54 fps

UT AnandTechCPU.dem 1024*768*32

50 fps 50 fps


Obige Ergebnisse wurden unter Windows 98SE ermittelt (bei Anand mit einer GeForce2, bei Chip mit ???). Unter Windows 2000 ist der Duron 700 bei Quake 3 Arena übrigens etwas schneller als der C2@850.

Jetzt stellt sich natürlich die Frage: Wieso performt der Duron 700 so stark gegenüber einem Celeron II mit 850 MHz? Grund: Die Reduzierung des Level2 Caches beim Duron auf 64 kB wirkt sich in Spielen nicht besonders stark aus. Vielmehr ist der im Vergleich zum Celeron II (32 kB) riesige Level1 Cache von 128 kB ausschlaggebend für die gute Performance. Und sollten doch einmal häufig benutzte Daten in den Level2 Cache ausgelagert werden müssen, so kommt dem Duron die "non-exclusive"- Cache Arbeitsweise entgegen, die den Level1 Cache-Inhalt nicht automatisch nach Level2 kopiert. So bleiben die 64 kB Level2 Cache immer frei verfügbar, unabhängig vom Inhalt des Level1 Caches. Außerdem wird der Level2 Cache - wie auch beim Athlon ThunderBird - mit voller Prozessor-Geschwindigkeit angesteuert, also mit 700 MHz beim Duron 700.

Alles in allem performt der Duron 700 zwischen Athlon 600 und Athlon 700 oder zwischen PIII 600 und PIII 700 und das zu einem wesentlich günstigeren Preis. Wenn man nur den Spielebereich nimmt, ist die Performance sogar noch näher an den grossen Brüdern.

Fazit

Eine Top CPU zu einem Top Preis! Ein Erfolg des Duron dürfte so gut wie sicher sein, vorausgesetzt die Mainboard Hersteller bekommen die kleinen bis großen Kompatibilitätsprobleme z.B. mit GeForce 1/2 Karten möglichst schnell in den Griff. Wenn das gelingt, steht der Verbreitung des Duron als Spiele-Prozessor auf breiter Front nichts im Wege. Nachdem Intel im High End - Bereich mit dem Athlon Thunderbird einen starken Konkurrenten bekommen hat, wird sich Intel im Low End - Sektor mit Celeron II auf 66 MHz FSB nicht gegen AMD's Duron behaupten können. Die Zukunft wird zeigen, was Intel dagegen zu setzen hat. Wahrscheinlich wird der Celeron II demnächst standardmäßig mit 100 MHz FSB ausgeliefert werden müssen, um noch konkurrenzfähig bleiben zu können. Für mich ist der Duron jedenfalls eine klare Empfehlung als Alternative zum übertakteten Celeron II, vorausgesetzt man möchte sowieso in ein neues Mainboard investieren. Da ist ein Sockel-A Board eine gute Wahl, weil man es später noch bei Bedarf mit einem Athlon ThunderBird nachrüsten kann.

Links zum Thema

nach oben zum News-Index




Matrox G800 - "Specs"

18. Juni 2000 / von Leonidas

Es geht weiter mit den Spekulationen über zukünftige Chips. Nach den "Infos" über die Chips von nVidia ist nun Matrox mit dem G800 dran. Wie 3DConcept berichtete, konnte man kürzlich in einer Datei der neuesten G400-Treiber die Namen des zukünftigen Matrox-Superchips herauslesen. Nachdem klar war, das Matrox beim G bleiben wird und die Sache also G800 und nicht TL800 nennen wird (beides war vorher schon ab und zu mal angenommen wurden), konnten zusätzlich noch ein paar Anhaltspunkte auf einige unterschiedliche G800-Varianten gefunden werden.

Unabhängig von der Namens-Sache gibt es zumindestens schon einige Daten zum Chip. Sie sind natürlich inoffiziell und Matrox wird wie üblich bis zur Vorstellung des Chips alles abstreiten:

  • G800
  • Verfügbarkeit: September 2000
  • Vorstellung: August 2000
  • 250 MHz DDR Speichertakt (GF2: 166)
  • 3 Pixel/Takt, 3 Texturen/Pixel (G400Max: 2/1, GF2: 4/2)
  • Füllrate: 600 MPixel bzw. 1800 MTexel (G400Max: 300/300, GF2: 800/1600)
  • T&L-Einheit mit 20-30 Mill. Polygonen / Sekunde (GF2: 30)
  • DualChip-Fähigkeit

Was fällt auf? Matrox kann bezüglich der Füllraten sicherlich mit der GeForce2 mithalten, aber daß sollte für einen September-Chip wohl das mindeste sein. Interessanterer Punkt: Wie schon in der Vergangenheit macht Matrox beim Speicher keine Gefangenen und nimmt das beste was zu kriegen ist. Angesichts dessen, daß schon die aktuelle GeForce2 durch ihren langsamen 166-MHz-Speicher ausgebremst wird, sind die 250 MHz (DDR) der G800 natürlich der einzig richtige Schritt. Mal sehen, ob Matrox der G800 wieder so ein excellentes Speicherinterface spendiert wie bei der G400 (oder besser).

Der Herbst wird jedenfalls maßlos interessant. nVidia und 3Dfx werden erst im Winter neue Produkte herausbringen (aber sicher schon im Herbst so tun als ob). Damit werden wir zumindestens im Herbst einen neuen Spitzenreiter küren, welcher nicht von diesen beiden Firmen stammt. Zur Wahl stehen ATi´s Radeon und eben Matrox´ G800 - beide Hersteller ziehen mit völlig neuen Designs zu Felde. Womit natürlich nicht einschätzbar ist, wer denn am Ende die Nase vorn haben wird und wie lange man sich den Platze an der Sonne sichern kann. Sah es lange Zeit so aus, als würde ATi´s Radeon mit der teilweise als sensationell verkauften Charisma-Engine ein Albtraum-Projekt für nVidia, bringt sich nun Matrox mit soliden Spezifikationen und dem nicht so schillernden, aber dafür um so wirkungsvolleren Feature der großen Speicherbandbreite wieder zurück ins Geschäft.

Was mit den Dual-Chips wird - man kann es nur ahnen. Sowohl die von ATi als auch von Matrox würden wohl alles wegfegen - wenn sie denn zum gleichen Zeitpunkt herauskommen würden wie die SingleChip-Ausführungen. Aber man sieht momentan auch bei 3dfx´s Voodoo5-6000 (und die haben schon jahrelange Erfahrung mit so etwas), daß die ganze Dual- oder Quad-Chip-Geschichte doch nicht so einfach zu beherrschen ist. Es steht zu erwarten, daß auch die Dual-Ausführungen der anderen Hersteller erst ein paar Wochen / Monate nach den "normalen" Ausführungen beim Käufer aufschlagen werden. Insofern würde ich dies noch nicht so wild sehen und doch durchaus erst einmal die SingleChip-Ausführungen abwarten wollen ...

nach oben zum News-Index




nVidia NV11, NV20 & NV25

18. Juni 2000 / von Leonidas

Wenn es bei nVidia wieder mal Treiber oder Informationen über neue Chips gibt, welche man als "leaked" bezeichnet, kommt immer auf´s neue die Frage: Sind dies wirklich undichte Stellen bei nVidia oder einfach nur gut kalkuliertes Marketing? Sei es wie es sei, es gibt auf einen Schlag gleich drei mal "Infos" über zukünftige nVidia-Chips.

Als erstes tauchte da nVidia´s NV11 wieder auf. Der schon länger vorausgesagte Billigchip nennt sich nun ganz offiziell "GeForce2 MX", was schon auf den GeForce2-Kern hindeutet. Im Endeffekt kürzt nVidia dem MX zwei von den vier Pixel-Pipelines der originalen GeForce2 und läßt das ganze auf 175 MHz Chiptakt laufen. Denkbar sind darüber hinaus auch extrem abgespeckte Varianten für die Mainboard-Hersteller. Hier die bisherigen Daten zum Chip (inoffiziell, aber halbwegs seriös):

  • GeForce2 MX
  • Verfügbarkeit: Juli 2000
  • Vorstellung: 28. Juni 2000
  • 0.18 micron (GF1: 0.22, GF2: 0.18)
  • 175 MHz Chiptakt (GF1: 120, GF2: 200)
  • SDR-RAM-Interface mit 128 Bit (GF1: 128)
  • DDR-RAM-Interface mit nur 64 Bit (GF1: 128, GF2: 128)
  • 2 Pixel/Takt, 2 Texturen/Pixel (GF1: 4/1, GF2: 4/2)
  • Füllrate: 350 MPixel bzw. 700 MTexel (GF1: 480/480, G2: 800/1600)

Für meine Begriffe ganz klar eine Billig-Variante, mit welcher das GeForce-Konzept auch im Preissegment von unter 250 DM greifen soll. Ich schätze mal, daß die RAMs wohl auch niedriger getaktet sind als bei den momentanen GeForce-Karten. Erstens kann man an billigeren, weil langsameren, RAMs jede Menge sparen und zweitens hätte nVidia den Speichertakt sicher mit angegeben, wenn er wirklich gut wäre. Leistungsprognose: Angeblich auf SDR-RAM-GeForce-Niveau und darüber. Abwarten.

Danach in der Pipeline liegt bei nVidia das Projekt NV20. Der Theorie nach sollte das wieder ein völlig neuer Chip sein, bisher hat nVidia immer im Herbst eine neue Linie und im Frühjahr eine verbesserte Variante dessen herausgebracht. Ich denke aber, daß das diesmal nicht der Fall ist. Der NV20 wird wohl wieder einen größeren Sprung machen, aber der echte Paukenschlag wird erst mit dem NV25 (X-Box-Chip) kommen. Möglicherweise wird im NV20 viel NV25-Technik stecken, welche mit dem NV20 auf ihre Praxistauglichkeit hin geprüft wird. Hier die bisherigen Daten, die - das sei dazugesagt - natürlich inoffiziell und auch nicht nachprüfbar sind:

  • NV20
  • Verfügbarkeit: Oktober/November 2000
  • 0.18 micron (GF2: 0.18)
  • 50 Millionen Transistoren (GF2: 25, P3 ohne L1/L2-Caches: 7)
  • 200 MHz Chiptakt (GF2: 200)
  • 8 Pixel/Takt, 4 Texturen/Pixel (GF2: 4/2)
  • Füllrate: 1600 MPixel bzw. 6400 MTexel (GF2: 800/1600)
  • T&L-Einheit mit 60 Mill. Polygonen / Sekunde (GF2: 30)
  • Single pass Hardware FSAA (modified A buffer technique). 8x and 16x FSAA in a single pass with a max of 40% fillrate hit for 16x.
  • Hidden surface removal (like PowerVR and Gigapixel). No overdraw!!
  • Programable vertex shaders T&L.
  • Programable per pixel shaders
  • Hardware DX tesselation/decimation unit. Used for DX8 controlled level of detail.
  • Hardware higher order surfaces. Nurbs, H&B splines, Tensor patches, Subdivision surfaces.

Seien wir ehrlich: Hört sich für mich nach Unsinn an. Die 8-fache Pipeline halte ich für ein Gerücht, die Füllrate wäre maßlos zu hoch. Auch einige andere Features klingen eher wie "Wunsch war Vates der Gedanken" als denn real machbar. Nebenbei: Wenn die 50 Millionen Transitoren bei 0.18 micron stimmen, sehe ich wieder alte Probleme mit der Stromversorgung auf uns zukommen. Eventuell gibt es ja 3dfx´sche Lösungen oder die Karte kommt nur als AGP Pro - Ausführung. Wenn diese Angaben überhaupt stimmen - die ganze Geschichte hört sich ziemlich unglaubwürdig an - aber ich wollte Euch ja nix vorenthalten :-)))

Letzter Kandidat ist der Chip, der ins Verhältnis gesetzt zur Wartezeit auf ihn, am höchsten gehandelt und gleichzeitig am heissesten diskutiert wird: der X-Box-Chip NV25 (mmh, was ist eigentlich mit den Bitboys und ihrem Glaze3D, welcher momentan keinen Namen hat? - weiss auch keiner). Hier die vollkommen inoffiziellen und nicht nachprüfbaren Spezifikationen:

  • NV25
  • Verfügbarkeit: ??? - die Spanne reicht von März 2001 bis Ende 2001
  • 0.13 micron (GF2: 0.18)
  • 300 MHz Chiptakt (GF2: 200)
  • 200 MHz DDR Speichertakt(GF2: 166)
  • 6 Pixel/Takt, 3 (???) Texturen/Pixel (GF2: 4/2)
  • Füllrate: 1800 MPixel bzw. 5400 (???) MTexel (GF2: 800/1600)
  • T&L-Einheit mit 90-100 Mill. Polygonen / Sekunde (GF2: 30)

Hört sich passabel realistisch an, für einen X-Box-Chip eventuell sogar zu niedrig. Wird am Ende der NV25 gar nicht der X-Box-Chip, sondern eine bessere Variante davon (NV29 ?????) oder gar ein spekulativer NV30 den Weg in Microsofts so hochgehypte Windows-Konsole finden? Mal ganz abgesehen davon, daß ich mir beim besten Willen nicht vorstellen kann, daß sich Microsoft für den X-Box-Chip nicht ein Exklusivitäts-Recht gesichert hat. Das hieße, daß der tatsächlich in der X-Box zu findende Chip nicht in dieser Form auf den PC-Markt kommen wird oder aber mit einem Jahr Verspätung (siehe Sega Dreamcast und PowerVR2). Naja - Schnee von morgen ...

Nach diesem Ausblick in die teilweise ferne Zukunft rücken wir lieber noch mal die Realität gerade. Folgendes ist an Chips für die nächsten drei Monate in der Pipeline: Juni: Matrox G450, Juli: 3Dfx Voodoo5-6000 und nVidia GeForce2 MX, August: ATi Radeon. Erst einmal sehen, wie sich diese neuen Chips schlagen werden.

nach oben zum News-Index




640*480 Fastest

16. Juni 2000 / von Leonidas

In letzter Zeit gab es wieder vermehrt CPU-Tests im Web zu bewundern. In der Vergangenheit wegen der 1-GHz-Schlacht und des Celeron II, aktuell wegen des Thunderbirds - und in naher Zukunft wird dann der Duron zur Debatte stehen. Eine Sache stößt mir aber bei einigen Tests, zum Teil auch von renomierten Hardware-Sites, ziemlich auf. Und daß ist die Sache mit den 640*480-Tests bei CPUs.

Zur Erklärung: Allgemein werden die Auflösungen 1024*768 und höher als sehr Grafikkarten-limitiert angesehen, daß heißt die CPU spielt nur eine untergeordnete Rolle bei der Höhe der herauskommenden Benchmark-Ergebnisse. Das ist natürlich je nach Spiel unterschiedlich stark ausgeprägt (in Unreal Tournament zum Beispiel gar nicht), aber letztendlich limitiert in den meisten Fällen die Grafikkarte die Ergebnisse. So kann es vorkommen, daß unter 1024*768 @ 32 Bit ein 700-MHz-Thunderbird genauso gut/schlecht läuft wie sein 1-GHz-Kollege - die "überforderte" Grafikkarte verhindert, daß die GHz-CPU ihre Mehrleistung umsetzen kann. 640*480 wird dagegen allgemein als relativ CPU-limitiert angesehen, daß heißt hier zählt die Grafikkarten-Leistung fast überhaupt nicht mehr und die Power der CPU bestimmt die Benchmark-Ergebnisse.

Ich will nicht abstreiten, daß in Spiele-Benchmarks nur 640*480 geeignet ist, eine vorhandene CPU-Mehrleistung auch zu zeigen. Aber: Will ich denn diese Mehrleistung durch eine größere CPU auch wirklich zeigen? Denn der Spaß hört dann auf, wenn eine neue CPU über den grünen Klee gelobt wird, nur weil sie in 640*480 Fastest gigantisch zulegt, hingegen 1024*768 HighQuality erst gar nicht getestet wurde. Drei Gedanken dazu:

1. Wird denn überhaupt unter 640*480 gespielt?

Kurz und schmerzlos: Nein. Diese Auflösung hat momentan noch ca. 5 Prozent Marktanteil, die hauptsächlichsten Anteile verbuchen 800*600 und 1280*1024 mit je ca. 20 Prozent und 1024*768 mit ca. 50 Prozent. So gesehen hat 640*480 keine größere Relevanz mehr, noch dazu wo die 640*480-Marktanteile weiter schwinden werden. Man kann es zusätzlich zu den anderen Auflösungen benchen, aber in eine Gesamtbewertung sollte es nie mit mehr als eben diesen 5 Prozent einfließen.

2. Warum so unbedingt die Vorteile der neuen CPU beweisen wollen?

Warum wollen mir einige Hardware-Sites mit ihren ausschließlichen 640*480-Tests unbedingt beweisen, daß die neue 900er CPU besser ist als die 700er? Das weiss ich doch auch ohne Test, im Gegensatz zu Grafikkarten nimmt bei CPUs mit steigender Taktfrequenz die für Spiele interessante FPU-Leistung linear zu. Viel interessanter ist doch die Frage: Wieviel bleibt übrig von der Power der neuen CPU in einem Real-World-Benchmark unter Real-World-Bedingungen? Daß heisst dann eben 800*600, 1024*768 und 1280*1024 zu benchen. Und wenn unter diesen Auflösungen nichts von der Mehrleistung der neuen CPU übrigbleibt, dann will ich dies auch so lesen! Alles andere ist ja schon Irreführung der Leser.

3. Tests zu Untermauerung der eigenen Meinung - oder was?

... anders kann ich leider auch nicht mehr deuten. Wer mir sagt, man müsse CPUs unter 640*480 testen, weil bei höheren Auflösungen die Grafikkarte zu stark im Spiel sei: Bitte - genau was ich meine. Da existiert bei einigen Testern wohl schon eine Meinung über die Stärke der CPU und danach wird ein Benchmark herausgesucht, um genau dies zu beweisen. Diese Praxis entspricht aber nicht dem eigentlichen Zweck des Benchmarkings! Dieses sollte aussschließlich dazu da sein, die Realität in Zahlen wiederzugeben. Die Realität etwas abzuändern, weil eine bestimmte Komponente sonst nicht zum Zug kommt, gehört definitiv nicht zu einem gutem Benchmark.


Quake III Arena

demo001
Grafikkarte: nVidia GeForce DDR

  1024*768 @ 32 Bit in HighQuality

  640*480 @ 16 Bit in Fastest          

TBird 1 GHz

61 fps

CuMine 600 MHz

61 fps

TBird 1 GHz

156 fps

CuMine 600 MHz

115 fps

30 fps

60 fps

90 fps

120 fps

150 fps

180 fps

Benchmarks © Thresh´s Firing Squad
Bitte nur symbolisch sehen, die Einzelwerte stammen aus unterschiedlichen Tests (allerdings beide mit der selben Grafikkarte und den 5.xxer-Detonatoren).



Also - liebe Hardware-Tester: Bencht bitte bei CPU-Reviews zusätzlich zu 640*480 auch immer mit die aktuell gängigen Auflösungen und berücksichtigt diese in Euren Bewertungen entsprechend. Und wenn der Coppermine 600 MHz bewaffnet mit einer GeForce mit DDR-RAM in Quake III Arena unter 1024*768 @ 32 Bit HighQuality genauso schnell ist wie der Thunderbird 1 GHz - dann sagt das auch Euren Lesern. Mag dies auch schmerzlich für die CPU-Hersteller sein - wenn die Realität bei den letztendlichen Käufern der CPU so auschaut, warum in den Benchmarks etwas anderes zeigen wollen als eben diese Realität?

nach oben zum News-Index




nVidia Treiber 5.13 vs. 5.22 vs. 5.30

15. Juni 2000 / von Leonidas

Die neuen 5.30er Detonatoren für nVidia-Grafikkarten sind noch ganz frisch - was aber kein Grund wäre, sie nicht einem gründlichen Benchmark-Test mit Quake III Arena, Unreal Tournament, dem Demo von MDK2 und 3DMark2000 zu unterziehen.

zum Treibervergleich 5.13 vs. 5.22 vs. 5.30

Nachtrag vom 16. Juni ...
Ich habe das ganze noch mal ergänzt um einige FSAA-Benchmarks. Zumindestens unter Direct3D hat nVidia dann doch was getan ...

Download: aktuellste GeForce 1/2 - Treiber (lokal) bzw. ältere nVidia - Treiber (Link auf Reactor Critical).

nach oben zum News-Index




Vorschau Kyro-Chip

15. Juni 2000 / von Leonidas

Wer unseren Bericht über die hochinteressante und zukunftsweisende Rendering-Architektur der Kyro-Chips von Imagination Technologies / ST Mirco gelesen hatte, dem wurde eine entscheidende Frage nicht beantwortet: Wie schnell wird der Kyro? Kann er die Vorteile seiner speziellen Architektur letztendlich auch in Performance umsetzten und den aktuellen Spitzenreitern GeForce2 und Voodoo5 gefährlich werden?

Um sich diesem Thema zu nähern, müssen wir erst einmal den Begriff "Kyro" genauer definieren. Bekanntlicherweise verbirgt sich dahinter die PowerVR3-Serie. Die Bezeichnung Serie deutet schon an, daß es mit nur einem einzigen Kyro-Chip bei weitem nicht getan sein wird. Unter dem internen Code-Namen STG4000 läuft der momentan bekannte Chip, welcher wohl schon im Juli verfügbar sein wird. Unterscheidungsmerkmal zu den anderen Kyro-Chips ist primär die 0.25 micron Produktionstechnologie, welche auf einen Chip- und Speichertakt von 125 bis 135 MHz hinausläuft.

Imagination Technologies / ST Mirco haben aber einen straffen Plan und werden schon relativ bald (Herbst?) unter dem internen Code-Namen STG4003 einen Kyro in 0.18 micron Produktionstechnolofie herausbringen, welcher Takte ab 150 MHz ermöglichen wird (wobei ich persönlich denke, daß mit 0.18 micron auch 180 bis 200 MHz machbar sind). Ansonsten ändert sich nichts am grundsätzlichen Design - in dem Sinne eine Ultra-Variante. Echte Änderungen kommen mit dem Kyro (2), unter dem internen Code-Namen STG5000 laufend, welcher laut Plan im Winter ins Geschehen eingreifen wird. Neben dem wiederum 0.18 micron Produktionsprozeß wird dieser Chip dann auch T&L in Hardware beherrschen und mit DDR-RAM als Speicher umgehen können. Dieser Chip liegt natürlich noch zu weit in der Zukunft, um ihn ernsthaft einschätzen zu können.

Interessant für die nächsten Monate sind nur der normale Kyro (STG4000) und der Kyro Ultra (STG4003). Einige Kyro´s hat Imagination Technologies / ST Mirco schon zu Preview-Zwecken herausgegeben, das einzige sinnvolle mir bekannte lieferte bisher AnandTech ab. Alle anderen, welche bisher einen Kyro zum Testen abbekammen, verrieten sich durch Kyro-freundliche Benchmark-Auswahl als viel zu Kyro-nahe, um im Endeffekt eine objektive Meinung von sich geben zu können.

Allerdings waren die getesteten Kyros bisher ausschließlich Alpha-Silicons mit Alpha-Treibern, welche auch auf nur 115 MHz liefen. Die 125 MHz in der Serien-Produktion gilt mittlerweile als gesicherte Untergrenze, eventuell sind auch 130 oder 135 MHz bei den ersten Serien-Kyros möglich. Interessant wird das eben bei der speziellen Rendering-Architektur der Kyro-Chips - diese wird die angebotenen Mehrleistung durch höhere Chiptakte wesentlich besser umsetzen können als andere Chips, weil bei den Kyro-Chips Bandbreiten-Engpässe kein größeres Thema sind.

So gesehen muß man zu den bisherigen Previews immer noch ca. 5 bis 15 Prozent mehr Leistung der entgültigen Karten hinzurechnen (nicht in CPU-limitierten Benchmarks!) - was natürlich den Schätz-Faktor der ganzen Sache exponentiell steigert. Hinzu kommt wieder ein Zusatznutzen der speziellen Rendering-Architektur: Weil der Chip nicht so unmäßig Bandbreite verbrät wie alle anderen Chips, wurde er auf einen reinen 32-Bit-Renderingprozeß hin optimiert. Das heisst, der Kyro rendert grundsätzlich alles in 32 Bit und auch der Z-Buffer beträgt immer 24 Bit. Für den 16-Bit-Modus wird erst nach dem eigentlichen Rendern das entstandene Bild auf 16 Bit heruntergerechnet.

Damit bekommt der Kyro gleich zwei Leistungsprognosen von mir: Unter 16 Bit auf Niveau SDR-RAM-GeForce (Mittelmaß), hingegen unter 32 Bit auf Niveau DDR-RAM-GeForce (obere Klasse). Der Kyro wird unter 32 Bit gegenüber 16 Bit so gut wie nichts an Leistung verlieren - selbst in hohen Auflösungen nicht. (sozusagen die erste Grafikkarte, die ihre Besitzer zu 32 Bit "zwingt"). Oder anders formuliert: Für 16-Bit-Fans, die immer den maximalsten Speed sehen wollen, ziemlich uninteressant. Und für 32-Bit-Fans, welche die beste Bildqualität vorziehen, eine beachtenswerte Alternative im bezahlbaren Bereich.

Womit man beim Preis wäre: Ungefähr 350 DM sollen die 32-MB-Ausführungen kosten, 450 DM die 64-MB-Ausführungen - betreffend die normalen Kyro-Chips (STG4000). Wer eine günstige Karte sucht und dabei trotzdem nicht auf schnelles 32-Bit-Rendering verzichten will, sollte die ab Juli im Web auftauchenden Reviews genauer betrachten. Dann wird sich auch klären, wie hoch die Kyro´s wirklich getaktet sind und ob sie mit diesen entgültigen Takten auch noch einmal - wie prognostiziert - zulegen können.

Abzuwarten bleibt, wie schnell Imagination Technologies und ST Mirco die 0.18 micron Variante Kyro Ultra (STG4003) fertig bekommen. Je schneller, desto besser. Im Winter interessiert der Kyro auch mit noch so hohen Chiptakten niemanden mehr. Wenn Imagination Technologies / ST Mirco allerdings noch im Spätsommer nachlegen könnten, würde es noch einmal interessant. Ein mit spekulativen 170 MHz laufender Kyro ist durchaus in der Lage, einer GeForce2 gefährlich nahe zu kommen. An den Takten entscheidet sich die ganze zukünftige Kyro-Story. Liegen sie ausreichend hoch, wird man seine Position im Markt der preisbewußten Käufer sicher finden können, eventuell sogar den Großen etwas vom Kuchen abnehmen können. Liegen sie niedrig, hat man ein Problem: Dann erreicht der Kyro nur das Niveau der günstigeren Chips der Konkurrenz. Aber gegen deren Namen wird man sich in diesem Falle nicht durchsetzen können.

Zwei Punkte zum Abschluß: Zum einen handeln sich Imagination Technologies / ST Mirco von mir einen größeren Tadel ein für die Entscheidung, den Kyro aktiv zu kühlen. Der Chip wird nicht besonders warm, eine aktive Kühlung wäre nicht notwendig. Dies war eine reine Entscheidung zugunsten der Marketing-Aussage, daß nur eine Grafikkarte mit Lüfter von der Spieler-Gemeinde ernst genommen werden wird. Mißachtet wird dabei die Gemeinde der Anwender, welche gesteigerten Wert auf einen leisen Rechner ohne Rasenmäher-Sound legen. Zum anderen: Wer immer auf dem neuesten Stand bezüglich des Kyro sein will, der sollte der deutschsprachigen PowerVR-Insider-Site deferred Power ab und zu einen Besuch abstatten.

nach oben zum News-Index




Vorschau Matrox G450

14. Juni 2000 / von Leonidas

Matrox ist in der letzten Zeit ein wenig untergegangen ob der GeForce- und Voodoo-Schwemme. Nun kündigt der dienstälteste Grafikkarten-Hersteller die neuen G450-Grafikkarten an, welche ab August verfügbar sein werden.

Rein praktisch basiert der G450 weiterhin auf der bekannten G400-Architektur. Diese ist sicher nicht mehr ganz das allerneueste, allerdings konnte sich zumindestens die G400 Max als die beste Karte im GeForce-Verfolgerfeld positionieren (die G400-Typen werden im übrigen relativ schnell durch die G450-Typen ersetzt). Zu nennen an Änderungen wäre in dem Sinne die 0.18 micron Produktionstechnologie, welche höhere Chiptakte als bisher ermöglicht. Die Vorgänger in 0.25 micron hatten 120 MHz (G400) und 150 MHz (G400Max) Chiptakt, mit 0.18 micron sind sicherlich 170 MHz möglich. Ob sich Matrox diese hohen Chiptakte für eine spekulative G450 Max aufhebt, bleibt noch vollkommen offen. Momentan sieht es jedenfalls nicht so aus, als würde die G450 mit Chiptakten wesentlich über G400Max-Niveau erscheinen - wie üblich hält sich Matrox in diesen Fragen komplett bedeckt.

Eine andere Matrox-Neuheit wäre der Support für DDR-RAM. Der wäre erfreulich, wenn Matrox nicht gleichzeitig das beim G400 128-bittige Speicherinterface nun zu einem 64-bittigen schrumpfen würde, was den Vorteil des DDR-RAM im Endeffekt auch wieder auffressen wird (ist natürlich für Matrox wesentlich günstiger zu produzieren, was den Preis senkt). So gesehen bleibt eigentlich nicht viel übrig an Neuerungen. Zu nennen wären non-3D-Funktion: In allen G450-Modellen wird es künfigen den Dual-Head geben (mittels zweitem RAMDAC) - für Freunde des zweiten Monitors oder des TVs als Ausgabe-Medium sicher genau das Richtige. Darüber hinaus integrierte Matrox gleich in die Standard-G450 einen TMDS-Transmitter mit DVI (Digital Visual Interface) - Anschluss für einen digitalen Flatpanel und einen TV-Out-Encoder. Damit setzt man mit der G450 primär auf Ausstattungs-Merkmale als auf 3D-Power.

Wenn ich das so mal überschauen, hat sich zu unserer Vorbetrachtung im April nicht viel getan. Demzufolge gilt auch noch die Bewertung dieses Artikels: Zumindestens die G450 in der normalen Ausführung ist nichts für Power-Gamer. Hart und schmerzlich für Matrox - aber gegen die extrem kurzen Innovations-Zyklen von nVidia kann man momentan nicht mithalten. Die Karte soll mit 32 MB SD-RAM DDR offiziell 419 DM kosten, realistisch ist wohl ein anfänglicher "Straßenpreis" von 350 DM. Hier bleibt abzuwarten, wie weit die GeForce-Preise bis zum August gesunken sind. Eventuell kann sich die Karte in dem Markt der nicht-über-300-DM-Käufer gut positionieren - die G450 wird wohl in erster Linie über die Ausstattung und über den Preis verkauft werden müssen.

Entscheidender Vorteil für Freunde von leisen PCs: Die G450 wird höchstwahrscheinlich nicht aktiv gekühlt. Nieder mit dem Rasenmäherlärm der GeForce! Lüfter-Wechsel

Die Matrox-Fans (welche immerhin auf die beste Bildqualität im Vergleich aller 3D-Karten schwören) können nur hoffen, das Matrox eine spekulative G450 Max möglichst rasch nach der normalen Ausführung auf den Markt bringt und das diese möglichst hochgetaktet ist. Ansonsten bleibt die Hoffnung auf die G800 mit T&L-Engine, welche im Winter vorgestellt werden wird.

nach oben zum News-Index




Unreal meets Unreal Tournament

13. Juni 2000 / von Denis

Ich habe kürzlich auf Warzone gelesen, man könnte Unreal 225f mit Austausch einiger dll´s aus dem ...\Unreal Tournament\System\... - Verzeichnis auf eine UT-Version "patchen". Eine Liste der dll´s war auch gleich dabei. Das heißt, wenn ich z.B. UT mit dem 4.20 Update installiert habe und von dort die dll´s in das ...\Unreal\System\... - Verzeichnis rüberziehe, habe ich eine 4.20er Unreal Version. Und nicht nur die Version soll sich ändern, es soll auch schneller werden.

Weil ich neugierig bin, habe ich beide Spiele mit den oben genannten Updates installiert und die dll´s vom UT-System-Ordner in den von Unreal kopiert. Nachdem ich dann Unreal starten wollte, ging erst einmal nichts mehr. Ein Fehler war aufgetreten und das Programm UnrealTournament.exe müsse geschlossen werden. Als ich dann aber noch zwei zusätzliche dll´s, welche nicht aufgelistet waren, dazu kopierte, funktionierte es. Unreal hatte nicht mehr die 225f-Version, sondern 4.20. Nachdem ich unter Advanced Options Direct3D einstellte, funktionierte sogar das wiederholte Aufrufen dieser Option, was vorher zu Grafikfehlern führte.

Um die Geschwindigkeits-Verbesserung zu testen habe ich das Timedemo 1 gestartet. In diesem Modus dreht sich die Kamera einmal um die Burg aus der Anfangssequenz und man bekommt einen Durchschnittswert der Frames (sogenanntes "FlyBy"-Demo). Die Benchmark-Bedingungen sind in unserer Selbst benchmarken! detailliert beschrieben. Getestet wurden Unreal 2.25f, 4.13, 4.13 mit der 0.6er-Direct3D-Beta und 4.20 - die 4.20er Version mit der zusätzlichen 0.6er-Direct3D-Beta lief nur im Windows-Fenster und fällt damit aus der weiteren Betrachtung heraus.

Testsystem: Intel Celeron A 566 MHz, 256 MB RAM, GeForce DDR auf 150 MHz Chip- und 175 MHz DDR Speichertakt.

Unreal

Timedemo 1 - 1024*768 @ 16 Bit

2.25f

53,3 fps

4.13

51,5 fps

4.13 & D3D 0.6

51,5 fps

4.20

59,1 fps

30 fps

40 fps

50 fps

60 fps

70 fps

80 fps



Unreal

Timedemo 1 - 1024*768 @ 32 Bit

2.25f

52,9 fps

4.13

50,8 fps

4.13 & D3D 0.6

50,8 fps

4.20

58,5 fps

30 fps

40 fps

50 fps

60 fps

70 fps

80 fps


Wie man an den Ergebnissen schon sieht, funktioniert es am besten mit den 4.20 dll´s. Die Version 4.13 und auch die 4.13 mit der Direct3D-Beta 0.6 (mit welcher UT 4.13 wesentlich schneller lief) bringen es leider nicht. Unter Glide und OpenGL habe ich diesen "Patch" nicht getestet, denn unter Glide (3dfx) läuft Unreal sowieso super und unter OpenGL lief es noch nie so richtig Absturz-frei.

Also, wer keine Grafikkarte mit 3dfx-Chip hat, sollte auf jedenfall unter Direct3D mit diesem "Patch" spielen. Er belohnt einen mit mehr Frames unter Direct3D - in meinem Fall mit über 10 Prozent höheren Frameraten. Und nebenbei, der alte Speicherstand bleibt auf jeden Fall erhalten. Mit dieser Konfiguration ist Unreal jedenfalls schneller und stabiler unter Direct3D geworden.

Was muss man nun tun, um dieses zu erreichen? Man benötigt eine UT-Installation, welche auf dem Stand der Version 4.20 ist, Unreal selber sollte sicherheitshalber auf dem Stand 2.25f sein. Dann mache man sich ein Backup des Unreal-System-Verzeichnisse, falls die Aktion nicht zum gewünschten Erfolg führt. Und dann kopiere man sich diese folgenden Dateien aus dem System-Verzeichnis von UT in das System-Verzeichnis von Unreal:

Core.dll Glidedrv.int Softdrv.dll
Core.int Ipdrv.dll Softdrv.int
Core.u Ipdrv.int Ubrowser.int
D3ddrv.dll Ipdrv.u Ubrowser.u
D3ddrv.int Ipserver.int Ucc.exe
Detected.ini Ipserver.u Unreali.int
Dplayerx.dll Manifest.ini Unreali.u
Editor.dll MeTaLdrv.dll Unrealshare.int
Editor.int MeTaLdrv.int Unrealshare.u
Engine.dll Msvcrt.dll Unrealtournament.exe
Engine.int Opengldrv.dll Unrealtournament.icd
Engine.u Opengldrv.ini Uwindow.u
Fire.dll Opengldrv.int Window.dll
Fire.u Renderer.dll Window.int
Galaxy.dll Sgldrv.dll Windrv.dll
Galaxy.int Sgldrv.int Windrv.int
Glidedrv.dll    

Die Alternativ-Lösung zu dieser manuellen Patcherei ist einfacher und kostet dafür etwas Download-Zeit. Aber sie funktioniert auch für Unreal-Besitzer, welche keine Unreal Tournament - CD griffbereit haben. Denn wir haben oben genannte UT-Dateien gepackt wie wir konnten und einen Unreal-meets-UT-Patch zusammengezimmert (stolze 30 MB). Einfach ins Unreal-System-Verzeichnis entpacken.

Gestartet wird das ganze dann im übrigen mit der UnrealTournament.exe. Die UT-CD braucht dabei nicht im CD-Laufwerk zu sein. Beim ersten Start gibt es im übrigen die von UT her bekannte einmalige Grafikrenderer-Abfrage. Nach diesem ersten Start sollte man sich auch die Advanced Options nochmals ansehen, es gibt eine Menge neuer Optionen und einige der vorherigen Einstellungen hat der "Patch" eventuell auch überschieben.

Nachtrag vom 16. Juli ...
Performance-Vergleich 2.25f vs. 4.20 vs. 2.26.

nach oben zum News-Index




Windows Millennium im Test

11. Juni 2000 / von Leonidas

Nach der Betrachtung Windows 2000 vs. Windows 98 SE folgt nun der nächste Schlag: Der Nachfolger von Windows 98 SE steht vor der Tür und nennt sich Windows Millennium Edition, kurz auch Windows ME. Also haben wir uns eine Beta-Version zur Brust genommen und auf die Spiele-Fähigkeit und -Performance hin ausgetestet.

Und schon wieder: Einige Grafiken, viel Text = eigene Seite für den Millennium - Artikel

Wenn ich dies bisher unterschlagen habe: Dieser Artikel wie auch der schon genannte zu Win2000 ist ein Werk unseres neuen 3DCenter-Members Denis. Dieser wird ab sofort das Team weiter verstärken, um unsere Site in der Zukunft mehr zu verbesseren und noch stärker lesenswert für Euch zu gestalten.

nach oben zum News-Index




Kyro/PowerVR3 - Renderingarchitektur

8. Juni 2000 / von Leonidas

Dieser Tage stellten Imagination Technologies (vormals Videologic) und ST Mirco ihren neuen Chip Kyro vor, welcher unter der internen Bezeichnung PowerVR3 entwickelt wurde. Videologic ist bekannt für den halbwegs erfolgreichen PowerVR-Chip (1996) und den auf der Dreamcast millionenfach verbauten PowerVR2-Chip (1998). Imagination Technologies war allerdings auf dem PC-Markt in letzter Zeit nicht mehr präsent, da sich die PC-Variante des PowerVR2 (Neon250, 1999) aufgrund des viel zu späten Veröffentlichungstermins überhaupt nicht verkaufte.

Das wesentliche am Kyro ist seine komplett andere Rendering-Architektur. Zur Erklärung der bisherigen konventionellen Rendering-Architekturen: Die Chips aller anderen Hersteller werden nach der Berechnung der Dreiecks-Eckpunkte durch die CPU (T&L-Chips erledigen diesen Schritt gleich selbst) diese mit Texturen bekleben und entsprechende Helligkeits-Informationen hinzugeben (im gewöhnlichen mittels Lightmaps - weiteren Texturen mit Helligkeitsinformationen). Erst danach entscheiden sie an Hand der Tiefen-Informationen aus dem Z-Buffer, ob die einzelnen Pixel überhaupt dargestellt werden oder aber ob sie von einem davorliegenden Objekt überdeckt werden.

Man stelle sich hier mal folgende hypothetische Situation vor: Der Betrachter steht frontal vor einer Lastwagen-Kolonne aus mehreren Lastwagen, welche schnurgerade hintereinander stehen. Eine GeForce-/Voodoo-Karte würde erst komplett alle Lastwagen mit ihren jeweiligen Texturen bekleben, um dann schließlich festzustellen, daß eh der erste Lastwagen alle anderen Lastwagen überdeckt. Das ganze hat die GeForce-/Voodoo-Karte natürlich ziemlich viel Leistung gekostet, es wurden ja haufenweise Lastwagen texturiert, die dann nicht dargestellt werden. Das ganze nennt man Overdraw, aktuelle Spiele haben einen Overdraw von ungefähr 2,5 - das heisst es werden zweieinhalb mal so viele Pixel verarbeitet, wie später wirklich dargestellt werden. Anders ausgedrückt: GeForce, Voodoo & Co. müssen erst einmal maßlos Leistung verschwenden um zum Ziel zu kommen.

Dagegen der Kyro (und auch der PowerVR1/2): Hier wird direkt nach der Geometrieberechnung entschieden, ob der einzelne Pixel sichtbar ist und erst dann werden die üblichen Schritte der Rendering-Pipeline eingeleitet. In vorherigem Beispiel mit der Lastwagen-Kolonne würde der Kyro nur die sichtbaren Teile des ersten Lastwagens texturieren - und den Rest links liegen lassen und damit auch keine Leistung verschwenden. Der Overdraw läge beim Idealwert 1 - und das heisst auch, daß den Kyro diese Aufgabe nicht anhebt, während die GeForce-/Voodoo-Karte ziemlich schuften müsste, um zum selben Ergebnis zu kommen.

Rein technisch wird dies im übrigen durch folgenden Trick gelöst: Die Z-Buffer-Abfrage wird einfach in der Rendering-Pipeline noch vor das eigentliche Texturieren gelegt. Konventionelle Chips müssen erst ein komplettes Bild abschließen, ehe mittels des Z-Buffers festgestellt werden kann, welche der gerenderten Pixel unsichtbar sind und damit nicht auf den Monitor gelangen sollen. Der Kyro unterteilt deshalb vor allen anderen Vorgängen das Bild in kleine Stückchen (tiles, deshalb nennt man das einen "tilebasierten" Renderer) und verarbeitet diese im folgenden einzeln für sich. Und dann kommt eben als erstes der Chip-intern ausgeführte Z-Buffer zum Einsatz, dieser stellt fest, welche Pixel des "tile" überhaupt sichtbar sind und weiterverarbeitet werden müssen - und schließt die sowieso nicht sichtbaren Pixel von der weiteren Bearbeitung aus.

Das ganze ist wie gesagt nicht völlig neu - schon die anderen PowerVR´s konnten das. Und obwohl diese Technik eigentlich enorm interessant ist, konnte sie sich damals nicht durchsetzen und auch keine Nachahmer finden. Dabei hat sie den augenfälligen Vorteil, daß eine wesentlich geringere Renderingleistung des Chips benötigt wird. Für die Grafikkarten-Hersteller war es jedoch lukrativer, die Chiptakte respektive der Renderingleistung massiv nach oben zu treiben - der Werbeeffekt ist ihnen sicher. Man ging also das Problem lieber mit schnelleren Chips als mit intelligenterer Technik an.

Das hängt sicher auch damit zusammen, daß gerade zu PowerVR2-Zeiten die Limitationen eher im Bereich der reinen Renderingleistung der Grafikchips lagen. Dies kann man durchaus wirkungsvoll mit höheren Chiptakten bekämpfen. Heuer haben wir die Situation, daß sich die Bandbreiten-Limitierung unerwarteterweise ins Geschehen einmischt. So wäre wohl die GeForce2 mit ihrem viel höheren Chiptakt nur unwesentlich schneller als die GeForce DDR, wenn nicht auch der Speichertakt und damit die Bandbreite erhöht wurden wäre. Chiptakt und damit Rendering-Leistung allein wird dato schon fast uninteressant.

Und genau hier kommt ein Vorteil der Kyro-Renderingarchitektur zum tragen, welcher bei der ursprünglichen Idee eigentlich nur ein Nebenprodukt darstellte: Dadurch, daß wesentlich weniger Dreiecke verarbeitet werden müssen, werden auch wesentlich weniger Speicher-Zugriffe produziert. Denn es müssen ja nur noch Texturen für die wirklich darzustellenden Pixel geladen werden. Außerdem fallen alle Z-Buffer-Zugriffe weg, da der Z-Buffer beim Kyro in den Chip integriert ist. Es wird einfach drastisch weniger Bandbreite benötigt! Um 1024*768 @ 32 Bit mit 60 fps spielen zu können, muss eine konventionelle Grafikkarte eine Speicherbandbreite von 5 GB/sec. haben - der Kyro benötigt dafür nur 2 GB/sec. Und ein maßvolles Bandbreiten-Aufkommen ist heutzutage wertvoller als je zuvor ...

Denn die heutigen Grafikkarten erkaufen sich diese benötigten 5 GB/sec. Speicherbandbreite sehr teuer: Bei der Voodoo5 mit mehrfachen Speicher-Interfaces und bei der GeForce1/2 mit DDR-RAM - alles keine kostengünstigen Lösungen. Und vor allem nicht besonders zukunftsweisend: Die für 1600*1200 @ 32 Bit bei 60 fps benötigten 13 GB/sec. (beim Kyro nur 4 GB/sec.) liefert logischerweise aktuell noch keine Karte. Indes gibt es bei Karten mit konvenioneller Rendering-Architektur noch nicht einmal einen Lösungsansatz für dieses zukünftige Problem, während eine hypothetische Kyro-Karte mit DDR-RAM dies jetzt schon schaffen könnte ...

Kyro-Chips werden also bei wesentlich geringerer Renderingleistung und nur einem Bruchteil der Speicherbandbreite die gleichen Leistungen bringen können wie die anderen Chips. Überdies spricht die Zukunftsfähigkeit des Konzepts sehr stark für diese Architektur. Möglicherweise schauen sich die anderen Chip-Hersteller dieses Konzept auch ab und entwicklen ihre übernächste Chip-Generation in diese Richtung hin. 3dfx ist dabei auf jeden Fall im Vorteil, die aufgekaufte Fima Gigapixel bastelte mit ihrer GP-Serie an der gleichen Thematik wie Imagination Technologies mit dem PowerVR2/3.

nach oben zum News-Index




AMD´s Thunderbird

6. Juni 2000 / von Leonidas

Mit einer Pünklichkeit, bei der sich die Grafikkarten-Industrie einiges abschauen kann, stellte gestern AMD seine neuen Thunderbird-Prozessoren vor. Zum Leidwesen der Kunden kopierte AMD bei der offiziellen Namensgebung bekannte Intel´sche Verwirrungsstaktiken und nennt den Chip weiterhin nur Athlon. Nichts desto trotz hat sich im ur-amerikanischen Abkürzungsdrang schon länger das geflügelte Wort TBird herausgebildet, und ich kann mich dieser inoffiziellen Namensgebung der besseren Unterscheidung wegen nur anschließen.

So gering die Unterschiede am eigentliche Chip-Design sind, so groß sind sie im Bereich des Caches. Alter und neuer Athlon besitzen zwar den gleichen Level1-Cache (128 kB, on die, FullSpeed), aber sehr unterschiedliche Level2-Caches: Der bisherige Athlon kam da mit 512 kB auf der Platine (das heisst nicht on die), welche bis 700 MHz mit der Hälfte des Chiptaktes, ab 750 MHz mit zwei-fünftel des Chiptaktes und ab 900 MHz mit nur noch einem Drittel des Chiptakes angesprochen wurden. Das ergab die Situation, daß ein 550er Athlon knapp einen 550er Coppermine ausstechen konnte, ein GHz-Athlon gegen einen GHz-Coppermine aber knapp verlor. Je höher das MHz-Rennen lief, desto schlechter für AMD, da die Cache-Geschwindigkeit relativ zur Chipgeschwindigkeit nicht weiter mit wuchs.

Genau diesen "Fehler" wird nun der TBird korrigieren. Denn er hat seinen 256 kB großen Level2-Cache on die (im Prozessor integriert) sitzen und betreibt ihn mit vollem Prozessortakt. Damit ist bei den Cache-Geschwindigkeiten wieder ein Gleichstand mit Intel erreicht und die TBirds können nun auch bei den größeren CPUs die volle Athlon-Power auf die Schiene bringen, sprich in Leistung umsetzen. Um diesen ganzen Wortlaut etwas überschaubarer zu machen, siehe nachfolgende Tabelle (Vergleich auf jeweils 1000 MHz Chiptakt):

 

Athlon

Thunderbird

Coppermine

Level1 (kB)

128 128 32

Level2 (kB)

512 256 256

L2C-Speed (MHz)

333 1000 1000

L2C-Interface (Bit)

64 256 256

L2C-Assoziativität

2-way 16-way 8-way

An diesen Zahlen kann man die Benchmark-Ergebnisse eigentlich schon vorwegnehmen. Von der Ansetzung her liefert AMD den TBird-Athlon nun mit den Intel-Cache-Vorteilen aus. Die ca. 10 Prozent Vorteil, die Intel mit dem Coppermine-Cache gegenüber dem Katmai-Cache (alter Pentium III, ohne Kennzeichnung "E") erziehlte, sollten auch hier wieder erreicht werden können. Dies ist jedoch nur die Hälfte der Wahrheit.

Denn im Gegensatz zu Intel spielt bei AMD´s Athlon der Level2-Cache keine ganz so große Rolle. Deshalb habe ich in obiger Tabelle auch die Größe der Level1-Caches mit angegeben, obwohl diese sich nicht geändert hat. Denn während bei allen aktuellen Pentium-Typen 32 kB FirstLevel-Cache reichen müssen, sind es bei allen Athlons immerhin 128 kB - und damit nur 32 kB weniger als der komplette Caches des Celeron II. In den Level1-Cache eines Athlons passt mehr oder weniger jedes Spiel rein, nur bei Office-Anwendungen kommt der Level2-Cache zum Einsatz. Logisch, daß dann auch der verbesserte TBird-Cache nicht so wesentlich durchschlagen kann wie seinerzeit beim Coppermine - so zumindestens die blanke Theorie.

Wobei man hier einfach Benchmarks sprechen lassen sollte. AMD hatte jedenfalls vorgesorgt, jede der ganz großen Site´s hatte rechtzeitig ihr Testexemplar. Und so konnte pünklich zur AMD-Präsentation auch das Web mit Informationen und Reviews überschüttet werden ...

Nach der ausführlichen Lektüre aller dieser Reviews konstatiere ich folgenden Stand: Der Thunderbird kann von den Cache-Verbesserungen nicht so stark profitieren wie seinerzeit der Coppermine. Mittels der damaligen Cache-Verbesserungen des Coppermines zum Katmai von ca. 10 Prozent konnte der Coppermine zum originalen Athlon aufschließen und einen Gleichstand erreichen. Heuer reicht die Cache-Verbesserung des Thunderbird nur noch zu ca. 5 Prozent Vorteil zum Vorgänger Athlon hin.

Damit holt sich AMD natürlich wieder die eindeutige Performance-Krone, welche vorher zwischen Athlon und Coppermine geteilt war. Aber: Deutlich kann sich der TBird nicht absetzten, die 5 Prozent kommen meist nur in rechenintensiven Anwendungs-Programmen zum Tragen, deren Relevanz für den normalen Computer-Käufer sicherlich äußerst gering ist. In Spielen wird der TBird fast ausschließlich durch die Grafikkarte ausgebremst, da hilft auch eine GeForce2 nicht weiter.

Das in Spielen sich bei den Gigahertz-CPUs so wenig bewegt, ist sicher kein Fehler des TBirds, diese Resultate findet man auch bei Athlons und Coppermines. Beim TBird als neuer CPU, wo gleich die ersten Testexemplare bei 1 GHz takten, wird dies nur deutlicher als bei den anderen CPUs. Diese haben sich ja erst allmählich auf die Gigahertz-Schallmauer zubewegt und hatten bei den ersten - niedriger getakteten - Typen noch den Vorteil, daß man die Mehrleistung der CPU auch in Spielen sah. Der TBird wird es da extrem schwierig haben, sich ins rechte Licht zu rücken - die Anfangs-Taktfrequenz ist mit 750 MHz ziemlich hoch.

In realen Spiele-Benchmarks (mittlere Auflösungen, vernünftige Grafik-Qualität) wird der TBird sich wohl nicht von den Coppermines oder Athlons absetzen. Man könnte selbst einen 1 GHz TBird gegen einen 750er Athlon antreten lassen - der Unterschied wäre marginal. Hier ist selbst beim Einsatz einer GeForce2 die Grafikkarte das limitierende Element. Meine Prognose ist sogar, daß dies selbst die noch zu erwartenden Spiele für das komplette Jahr 2000 betreffen wird. Die Spiele-Programmierer haben noch nicht einmal die Spiele für die 500-MHz-CPU-Generation fertiggestellt, da ist eine Gigahertz-CPU eben noch weit überdimensioniert.

Wie gesagt - dies ist kein Fehler von AMD und des Thunderbirds. AMD hat die aktuell beste CPU vorgestellt, und diesen Platz wird AMD wohl bis zu Intels Willamette (Vorstellung: Herbst 2000) niemand mehr streitig machen können. Und da der Support für DDR-RAM auf den Mainbaord-Chipsätzen wohl Monate vor den entsprechenden Intel-Lösungen fertig sein wird, stehen weitere - bisher noch nicht beachtete - Vorteile für den TBird ins Haus.

Jetzt gilt es die nächsten Schritte abzuwarten. Der Thunderbird wird sicherlich nicht morgen in Deutschland verfügbar sein, die passenden Mainboards mit AMD´s 760er- oder VIA´s KT133-Chipsatz sind im fortgeschrittenene Beta-Stadium, aber noch nicht lieferbar. Was jedoch kein ganz großer Beinbruch ist, denn obwohl AMD offiziell sagt, der TBird laufe nicht auf "alten" Athlon-Boards, bezeichnet Asus sein K7V schon jetzt als TBird-sicher. Weitere Mainboard-Hersteller werden wohl folgen - möglicherweise per BIOS-Update. Auch die Möglichkeiten, mittels SlotA-Adapter den TBird zum Laufen zu bringen, sind sicher noch nicht ausgeschöpft. Das wird alles die Zukunft zeigen und im Idealfall auch richten.

Die einzige Gefahr droht ironischerweise aus dem eigenen Haus: Nicht Intel´s Coppermine ist der TBird-Killer, AMD übernimmt mit dem Duron diesen Job selbst. Denn die ersten inoffiziellen Benchmarks zeigten ein Leistungs-Potential im Bereich der "alten" Athlons. Das mag unterhalb des TBirds sein, aber bei der offensiven Preisgestaltung des Durons wiegen diese wenigen Prozente meiner Meinung nach überhaupt nicht mehr. Nicht umsonst zog AMD auch den eigentlich vor dem TBird angesetzten Start des Durons im April wieder zurück und wird nun wohl am 12. Juni dies nachholen.

Da auch noch nichts über Overclocking-Möglichkeiten des TBirds bekannt ist (verschiedentlich war von festen Multiplikatoren die Rede *graus*), muß ein Fazit erst einmal ausbleiben. Ich warte jedenfalls auf den Duron und dessen Performance-Resultate, um diese neu entstandene Situation richtig bewerten zu können.

nach oben zum News-Index




Windows 2000 vs. Windows 98 SE

4. Juni 2000 / von Leonidas

Windows 2000 und Spiele. Soso. Windows NT 4.0 als direkter Vorgänger konnte bei diesem Thema jedenfalls nicht wesentlich glänzen. Man konnte zwar DirectX6 oder 7 installieren, aber die Hardware-Beschleunigung unter Direct3D blieb einem versagt. Auch mit Treibern für die leistungsfähigeren Grafikkarten sah es zu den großen Zeiten von NT 4.0 nicht besonders aus - wenn gleich sich die Situation inzwischen gebessert hat (und dafür die große Zeit von NT 4.0 vorüber ist).

Im Endeffekt jedoch keine besonders günstige Ansetzung für NT 5.0, besser bekannt unter Windows 2000. Und zum Erscheinungstermin gab es dann auch sofort Benchmarks, die Windows 2000 in der Spiele-Performance weit hinter Windows 98 sahen, wenn gleich das 98ser OS nicht die Stabilität des 2000er hat. Mittlerweile hat sich aber viel bei den Treibern getan, jeder Hersteller bietet mittlerweile sinnvolle Treiber an, die auch schon mehrere Versionen gesehen haben und demzufolge als halbwegs ausgereift angesehen werden können. Grund für uns, sich die Sache einmal näher anzuschauen. Wie performt Windows 2000 bei Spielen?

Lange Rede - kurzer Sinn: Abgeschlossenes Thema + viele Benchmark-Grafiken = extra Site für´s Thema.

nach oben zum News-Index




Celeron II - Übertaktungschancen

3. Juni 2000 / von Leonidas

Im Zuge unseres Celeron2-Reviews erreichten uns einige E-Mails bezüglich des eigentlichen Overclockings. Das ganze wollte ich zwar in einem extra Artikel abhandeln, aber da der sicher noch etwas Zeit brauchen wird (schließlich sollte eine übertaktete CPU auch erst einmal ein paar Tage laufen, damit eine weitere Übertaktung als sicher angesehen werden kann!), werde ich die wichtigste Frage schon vorab behandeln.

Und die lautete: Welche Chancen bestehen beim Übertakten der Celeron II - Serie? Mein 566er schaffte es ja nun ganz easy, der 566er der Rivastation hatte da schon größere Probleme. Allgemein sei gesagt, daß sich wie üblich nur die kleinsten Typen der Serie gut auf 100 MHz FSB takten lassen werden. Da in Bereichen von über 800 MHz weitere 50 oder gar 100 MHz eh nichts mehr bringen, würde es auch keine Rolle spielen, den 533er (auf 800 MHz) anstatt des 566er (auf 850 MHz) zu nehmen, die Preise sprechen sowieso für die kleineren Typen.

Ok, gebe ich also folgende Erfolgs-Prognose ab. Diese stützt sich auf die zahlreichen Celeron2-Reviews im Web, auf den Aussagen in den entsprechenden Newsgroups im Usenet und Euren E-Mails an uns. Da ich relativ viel in diesen Richtungen lese, hoffe ich, die Prognose wird von den tatsächlichen Resultaten in der Zukunft halbwegs bestätigt (immerhin finden zumindestens die Hardware-Reviews unter meistens zu idealen Bedingungen statt, was natürlich nicht allgemein übertragbar ist).

Chance, einen Celeron II auf 100 MHz FSB zu takten:

700er auf 1050 MHz

null

667er auf 1000 MHz

null

633er auf 950 MHz

10 %

600er auf 900 MHz

30 %

566er auf 850 MHz

90 %

533er auf 800 MHz

100 %

500er auf 750 MHz

100 %


Die 500er und die 533er sind sichere Kandidaten für die 100 MHz FSB. Da kann man die CPU beim günstigsten Anbieter kaufen, mit Glück schafft es sogar der Standard-Boxed-Kühler. Der 566er ist eigentlich auch eine sichere Type, allerdings kenne ich schon zwei Fälle, wo die 100 MHz FSB nicht erreicht wurden (gegenüber ungefähr 20 Fällen, wo es funktioniert hat).

Anmerkung zum 500er: Diesen gibt es laut Intel-Spezifikationen inzwischen auch - sie werden gekennzeichnet durch das "A" hinter der Chipbezeichnung, also offiziell "Celeron 500A". Sie sind allerdings per dato noch nirgendwo gesichtet wurden. Diese A-Type entspricht nicht den bisherigen 500er Celerons, diese bisherigen Typen sind in keinster Weise so gut übertaktbar wie die A-Type (gilt genauso für den 533A vs. den alten 533er).

Ab dem 600er wird es schon sehr riskant. Es gibt durchaus Fälle, in welchem es ein 600er auf 900 MHz schafft, aber ich glaube, daß dies nicht die Regel sein wird. Die Chance für den 600er ist da - aber sie ist verdammt gering. Zwischen 566er und 600er bzw. zwischen 850 MHz und 900 MHz verläuft die momentane Grenze der Intel´schen Produktionskunst. Diese Grenze expandiert ständig weiter nach oben - aber aktuell ist eben ungefähr bei 850 MHz Schluß - so lange man keinen extremen Kühl-Aufwand betreibt.

Der 633er ist damit logischerweise nicht 100-MHz-fähig, auch wenn es ein paar Glückliche schon einmal geschafft haben. 667er und 700er sind sinnlos, diese werden mit Sicherheit keine 100 MHz FSB schaffen. So weit ist wie gesagt die Produktionsausbeute von Intel bei diesen Takt-Monstern momentan einfach noch nicht.

Was sagt uns das? Der Celeron II 533 MHz ist die sicherste Wahl. Ich kenne keinen einzigen Fall, in welchem diese CPU nicht die 100 MHz FSB respektive 800 MHz Chiptakt erreicht hätte. Und die 50 MHz mehr zum 566er @ 850 MHz bringen es wirklich nicht. Im übrigen: Wenn der persönliche 533er zufälligerweise mehr kann, dann takte man ihn doch auf 840 MHz (8 * 105 MHz), 880 MHz (8 * 108 MHz) oder noch höher! Ein mit 840 MHz laufender C2 mit 105 MHz FSB wird sogar minimale Vorteile gegenüber einem 850er mit 100 MHz FSB haben - dem höheren Bustakt sei Dank.

nach oben zum News-Index




FSAA ohne fps-Verlust

2. Juni 2000 / von Leonidas

Eigentlich war FSAA (FullScene-Anti-Aliasing) bisher nicht mein Ding. Sicher ist dies eine tolle Sache für Flug- und Rennsimulationen, Fans von 3D-Shootern kostet es aber einfach noch zu viel an Leistung. Durchschnittlich 40 Prozent niedrigere Frameraten nimmt kaum jemand in Kauf. So schnell läuft Quake III Arena einfach noch nicht, daß man sich dieses problemlos leisten könnte.

Eine Sache fiel mir aber kürzlich bei den vielen FSAA-Benchmarks zur Voodoo5 und zu den 5.xx-Treibern der GeForce1/2 auf: FSAA kostet zwar enorm viel Grafikkarten-Rechenpower, belastet aber die CPU in keinster Weise zusätzlich. So weit ich das richtig gedeutet habe, kostet es auch nur massiv Füllrate (Chip-Power) und nicht all zu viel Speicherbandbreite (Speicher-Power). Und Füllrate haben die FSAA-Chips Voodoo5 und GeForce1/2 mehr als genug - welche meistens gar nicht genutzt wird. Deshalb der Umkehrschluß: Solange die Grafikkarte ohne FSAA in einer bestimmten Anwendung deutliche Reserven hat, wird das Hinzuschalten von FSAA keine der bekannten Performance-Einbrüche nach sich ziehen!

Und dieser Fälle sind gar nicht mal so wenige. Jedes CPU-limitierte Spiel ist hier prinzipiell ein Kandidat. Wenn die Grafikkarten eh Däumchen dreht, kann man ihr auch mehr Arbeit aufbrummen. Quake III Arena fällt aus diesen Überlegungen sicherlich heraus - aber beim Stichwort "CPU-limitiert" meldete sich sofort Unreal Tournament. Also habe ich mal ein paar FSAA-Benchmarks mit UT gefahren (System: Intel Celeron II 850 MHz, 256 MB RAM, nVidia GeForce SDR-RAM, 166 MHz Chip- und 190 MHz Speichertakt):


Unreal Tournament

UTbench - 1024*768 @ 16 Bit

normal

30,8 fps

2xFSAA

27,1 fps

Verlust

3,7 fps = 12 %

10 fps

20 fps

30 fps

40 fps

50 fps

60 fps


Unreal Tournament

Worstcase - 1024*768 @ 16 Bit

normal

18,3 fps

2xFSAA

17,4 fps

Verlust

0,9 fps = 5 %

10 fps

20 fps

30 fps

40 fps

50 fps

60 fps


Ich denke, das Bild ist eindeutig. Die CPU-Belastung in UT ist viel zu groß, als daß die Grafikkarte durch das FSAA großartig einbrechen könnte. Hier wird das FSAA sozusagen nebenher mit erledigt. Die ganze Sache ist damit natürlich gleich wieder doppelt ideal für Flug- und Rennsimulationen. Dort sieht FSAA ja sowieso am besten aus - und da diese Spiele meist auch ziemlich CPU-limitiert sind, wird dort FSAA wohl weit weniger Leistung kosten als bisher mit den üblichen Quake3A-Benchmarks aufgezeigt wurde.

Genauso ideal ist FSAA für Besitzer kleinerer CPUs (bis 400 MHz). Da in solchen Fällen in neueren Spielen die CPU immer die schwächere Komponente im 3D-System ist, wird auch immer die CPU die Framerate begrenzen und nicht die Grafikkarte. Was würde also näher liegen, als der unterforderten Grafikkarte einfach mittels FSAA mehr Arbeit zu geben? Wer eh 20 bis 25 Bilder pro Sekunde gewöhnt ist und nicht die CPU aufrüsten will, bekommt den optischen Leckerbissen FSAA sozusagen umsonst - will sagen ohne den üblichen Frameraten-Verlust.

Speziell zu Unreal Tournament: Ich habe bewußt die 2xFSAA-Einstellung benutzt, da sie die schnellste FSAA-Einstellung ist (GeForce-Treiber/Direct3D Settings/More Direct3D/Antialiasing/zweiter Strich von links). Schon 4xFSAA (vierter Strich von links) "befreit" UT von seiner CPU-Limitierung - dann drückt die Grafikkarte die Frameraten ganz gewaltig nach unten. Allgemein ist es eh schwierig, in UT die Erfolge von FSAA zu sehen, bei höheren Auflösungen ergeben sich ohne FSAA kaum diese unschönen ausgefransten Kanten, welche nach FSAA schreien. Ein größerer Optik-Gewinn durch FSAA ist in UT nicht zu sehen, dafür kostet es aber auch relativ wenig Performance.

Wer sich eingehender zu FSAA informieren will, dem seien die mittlerweile reichlichen Voodoo5-Previews- und Reviews empfohlen. In den meisten dieser Artikel gibt es reichlich Screenshots und Benchmarks zu FSAA. Die bisherigen deutschsprachigen Voodoo5-Betrachtungen kamen von Hartware, 3DConcept, Rivastation und GNN. Alle weiteren sind in unserem Archiv Web-News aufgelistet, neu hinzukommende stehen auf unser Startseite unter "Web-News". Zusätzlich sei die Lektüre dieser allgemeinen FSAA-Artikel zu empfehlen: Beyond3D (englisch), FiringSquad (e), AnandTech (e) und 3DConcept (deutsch).

nach oben zum News-Index

Shortcuts
nach oben