Zum 3DCenter Forum
Inhalt




News-Archiv Mai 2000

News-Index




DemoShow Creator 1.2

31. Mai 2000 / von RAL

Der DemoShow Creator, der Demo Player für Quake III Arena Demodateien, ist in Version 1.2 fertiggestellt. Neben den Merkmalen der früheren Versionen wie

  • Erzeugen/Laden/Speichern von Play Lists
  • Anzeige von Demoinformationen in einem Eigenschaftenfenster: Ergebnisse, Dateieigenschaften, Spielerdetails, Serverdetails
  • Möglichkeiten, Beschreibungen zu Demos und Spielern abzuspeichern

bietet Version 1.2 neben optischen Verbesserungen folgende neue Möglichkeiten:

  • Demos können in einer logischen Ordnerstruktur gespeichert werden. Egal ob sie in ...\baseq3\demos\... und deren Unterverzeichnissen liegen oder innerhalb eines pk3-files. Du kannst selbst Ordner anlegen wie TurnierX\Runde1, TurnierX\Runde2 und so weiter, und die Demos dort per drag&drop einsortieren. Die Demos bleiben in Wirklichkeit an ihrem Ort, so daß sie alle sofort unter Quake III Arena abgespielt werden können.
  • Demos lassen sich nach vielen Merkmalen sortieren, aufsteigen und absteigend. So findest Du schnell bestimmte Demos, die dich gerade interessieren. Unterstützend hierbei gibt es ein Demo Finder Tool, daß dich eine bestimmte Demo finden läßt, die sich irgendwo tief in Deinen 'virtual folders' versteckt haben mag.
  • Während Du deine Playlists abspielst, kannst Du die Abspielgeschwindigkeit nach Belieben variieren, ausserdem wird Dir dann angezeigt, in welcher und der wievielten Demo innerhalb der Play List du Dich befindest. Mit dieser Funktion kannst Du auf einfache Weise Screenshots innerhalb einer Demo machen. Wenn Du die Abspielgeschwindigkeit sehr niedrig einstellst, erwischst Du das richtige Bild.

Zur DemoShow Creator - Seite bzw. zum Download.

nach oben zum News-Index




GeForce2: 64 vs. 32 MB

30. Mai 2000 / von Leonidas

Das Thema 64 MB vs. 32 MB GeForce(1) hatten wir ja schon einmal, wenn gleich es damals auch eher theoretisch war und blieb - denn die 64-MB-GeForce-Karten sind letztendlich in Deutschland nie aufgetaucht. Aber nun bekennen sich schon kurz nach dem Verkaufsstart der GeForce2 einige Hersteller zu den 64-MB-Ausführungen und gedenken diese schon Mitte Juni in Deutschland auszuliefern.

Grund genug, die Sache nochmals anzufassen. Denn heuer sind die zusätzlich 32 MB eventuell eine bessere Anlage als noch vor wenigen Monaten beim ersten GeForce-Chip. Die 64-MB-Ausführungen der GeForce2 werden jedenfalls nur ca. 150 DM mehr kosten als die normalen 32-MB-Ausführungen. Das treibt zwar den Preis der Karte in Richtung 1000 DM, ist aber relativ gesehen gar nicht mehr so viel. "Wenn schon, denn schon!" könnte man da sagen. Und die Frage stellt sich wieder: Wem bringen die zusätzlichen 32 MB etwas?

Ich denke, es gibt zwei Zielgruppen für diese Karten: Zum einen diejenigen, die Quake III Arena in den maximalsten Einstellungen spielen und nicht das - verlustbehaftete - Texturenkomprimierungsverfahren S3TC nutzen wollen. Zu den Unterschieden siehe unseren Artikel S3TC in Q3A. Wer dies also will, wird mit Frameraten-Einbrüchen auf sekundenweise nur 3 fps in einzelnen Szenen einiger Quake3A-Maps leben müssen - oder aber greift zur 64-MB-GeForce2.

Quake3A ist momentan das einzige Spiel mit einem solchen Texturenhunger. In der Zukunft werden aber sicher vermehrt Spiele mit solchen Anforderungen an den Start gehen. Schon allein die vielen Spiele, welche die Quake3A-Engine lizenziert haben, werden die Anforderungen wieder weiter nach oben schrauben. Hier besteht die zweite Zielgruppe: Wer sich die GeForce2 kauft, um mit dieser für längere Zeit gewappnet zu sein, ist mit der 64-MB-Ausführung besser bedient als mit den 32-MB-Ausführungen. Leistung hat die GeForce2 genug für zwei Spiele-Generationen, nur die RAM-Anforderungen werden weiterhin kontinuierlich steigen.

Ein gewichtiger Punkt könnte diese Überlegungen noch durcheinander bringen: Einige der bis jetzt angekündigten 64-MB-GeForce2-Karten kommen mit höheren Chip- und Speichertakten als die normale GeForce2. Gerade ein höherer Speichertakt bedeutet ja nun bei der GeForce2 - entsprechend leistungsfähige CPU vorausgesetzt - eine fast direkte Umsetzung in mehr Performance. Schließlich wird die GeForce2 vor allem durch den - relativ - niedrigen Speichertakt von 166 MHz DDR ausgebremst (Double Data - wird deswegen gern als 333 MHz angegeben - obwohl dies nicht korrekt ist, da der Taktgenerator weiterhin nur 166 MHz liefert).

Vor der Euphorie über den ersten GeForce2-Karten mit ordentlichem Speichertakt sollte man allerdings in jedem einzelnen Fall die exakten Fakten prüfen. So weit mir bekannt, kommen auch die höher getakteten GeForce2-Karten mit den von den "normale" GeForce2-Karten bekannten 5,5 ns DDR-RAMs. So gesehen wird also keine bessere Hardware verkauft, sondern nur vom Boardhersteller aus übertaktet - das kann aber jeder Käufer auch selber tun. Gleiches gilt für die Chiptakte der höher getakteten GeForce2-Karten. Auch hier gibt es keine besseren oder selektierten Chips von nVidias - die Boardhersteller übertakten, weil es die Standard-Chips einfach schaffen.

An dieser Übertaktungs-Geschichte werden die 64-MB-GeForce2-Karten nochmals spannend. Der höhere Chiptakt wird es sicher nicht bringen, aber der höhere Speichertakt ist sehr interessant. Sollte sich ein Karten-Hersteller dazu bekennen, extra dafür bessere RAMs als normal einzusetzen oder ein extra Board-Design zu zimmern, welches die höhere Speicherfrequenz besser aushält, dann könnte man diesen speziellen Karten eine uneingeschränkte Kaufempfehlung aussprechen. Wenn allerdings die Karten-Hersteller die Standard-Hardware einfach nur von Haus aus übertakten - das kann der Endanwender auch. In diesem Fall schränkt sich dann der Anwenderkreis der 64-MB-GeForce2 wieder auf die zwei oben genannten Zielgruppen ein.

nach oben zum News-Index




Review Intel Celeron II 566 MHz @ 850 MHz

28. Mai 2000 / von Leonidas

Die Celeron2-Typen, basierend auf Intel´s Coppermine-Core´s, bringen SSE, 0.18 micron Produktionstechnologie und höhere Taktfrequenzen in die beliebte Celeron-Serie ein. Endlich schaffen die Celerons - übertaktet - wieder den Sprung von 66 auf 100 MHz Bustakt. Dank 0.18 micron sind nun 850 MHz auf einem eigentlich für 566 MHz spezifierten Chip möglich. Unser Review versucht die Frage zu klären, wieviel von dieser Leistung in realen 3D-Shootern und in einem realen Test-Umfeld noch übrig bleibt. Wo lohnt sich diese CPU, und wo lohnt sie sich nicht?

Zum Review

nach oben zum News-Index




Unreal Tournament Worstcase Timedemo

26. Mai 2000 / von Leonidas

Ich habe im Zuge meines Celeron II - Reviews (ist noch nicht ganz fertig) nach einem Demo für Unreal Tournament gesucht, welches die Minimalwerte von UT besser ausdrücken kann. Denn der "min"-Wert eines einzelnen Demodurchlaufs zum Beispiel des UTbench-Demos ist ja immer nur ein absoluter Einzelwert - im Gegensatz zur durchschnittlichen fps eines Timedemos, welches aus einigen tausenden Einzelwerten berechnet wird. Und einen einzelnen Wert, der auf dem Ergebnis einer einzigen Zehntelsekunde basiert, zur Bewertung einer Hardware-Konfiguration heranzuziehen, halte ich für ziemlich gewagt.

Also musste etwas noch Hardware-stressenderes als das UTbench her. Leider konnte mein bisheriger Favorit für solche Aufgaben, das Wicked400-Demo, hier nicht restlos überzeugen, die Frameraten sind nah am UTbench-Demo. Aber die Idee des Wicked400-Demos war haltbar, also habe ich ein paar mehr Bots eingepackt, das richtige Level ausgewählt und ein paar Demos aufgenommen. Herausgekommen ist dabei das Worstcase-Demo, nachfolgend ein kleiner Benchmark:

Unreal Tournament

1024*768 @ 16 Bit

Worstcase

18,3 fps

Wicked400

22,8 fps

UTbench

30,8 fps

10 fps

20 fps

30 fps

40 fps

50 fps

60 fps


Testsystem: Intel Celeron II @ 850 MHz, Creative Annihilator GeForce @ 166 MHz Speichertakt und 190 MHz Chiptakt, Unreal Tournament Version 4.20, Renderer: Direct3D, benutzte Einstellungen

Meine Intension für dieses Timedemo war es, an die "min"-Werte des UTbench-Demos (bei mir 15,8 fps) ungefähr heranzukommen, ohne dabei jedoch unrealistische Einstellungen oder Maps verwenden zu müssen. Das Worstcase-Timedemo erfüllt diese Zielsetzung genau richtig - und ist damit auch ein brachialer Stress-Test für jede aktuelle Hardware. Ganz nebenbei zeigt uns das Demo - besonders in den Einzelwerten - auch ziemlich deutlich, wie weit sich die Framerate in UT herunterdrücken läßt. Bei Q3A wüsste ich jedenfalls nicht, wie ich Frameraten von dauerhaft unter 20 fps mit einer 850er CPU erzeugen sollte.

Dagegen ist es kein ganz großes Problem, ein UT-Timedemo unterhalb der Frameraten des Worstcase-Demos zu erzeugen. Allerdings erreiche ich die dann dort herauskommenden Frameraten von um die 10 fps nicht im Ansatz in einem echten UT-Spiel - und einen halbwegs realistischen Hintergrund sollten selbst konstruierte Timedemos haben. Ich kenne jedenfalls niemanden, der sich auf DM-Fractal gleichzeitig 15 Bots gibt - das wäre auch ein bißchen zu unreal ;-))

Download Worstcase-Demo

PS: Oben zu sehende Benchmark-"Grafik" ist nur dem äußeren Anschein nach eine Grafik. Eigentlich ist es ein Versuch meinerseits, eine Grafik direkt in HTML zu programmieren. HTML4-konform ist es sicher - was natürlich nicht bedeutet, daß es auf jeder Browser-Version einwandfrei dargestellt wird. Wenn Ihr also Fehldarstellungen seht, zögert bitte nicht, mir diese per JPEG-Screenshot zu mailen. Danke.

nach oben zum News-Index




AmbientMode für Q3A

22. Mai 2000 / von Leonidas

Den Quakern unter uns kann ich einen ganz besonderen Mod ans Herz legen: Den AmbientMode. Von der Sache her ist dies nicht mal ein richtiger Mod, vielmehr ging und geht es darum, etwas mehr Leben, Realismus und Terror in Quake III Arena reinzubringen. Das bedeutet modifizierte Waffen (Railgun und Plasma Gun aus früheren Test-Versionen) und nun endlich auch organische, sich bewegende Strukturen (die Zunge in Q3DM1). Daneben gibt es viele kleine Detail-Veränderungen und geniale neue Sounds. In Q3Tourney2 hallt es nun martialische Todesschreie aus den Tiefen empor ...

Das ganze läßt sich relativ schwer beschreiben, die Veränderungen liegen in den Details. Wenn ich es in einem Satz fassen wollte: So hätte Quake3A meiner Meinung nach aussehen sollen. Weniger Nintendo und mehr Quake-Stimmung - für Offline-Spieler ist dieser Mod sicher eine Freude. Und das beste: Die Programmierung ist noch nicht abgeschlossen. Wenn Ihr also Ideen habt, was noch verändert werden sollte, mailt bitte an den Programmier [JF]Cycro - er wartet auf Eure Vorschläge.

Nachtrag vom 3. Juni ...
Neue Version - neues File. Hierbei handelt es sich um die Final Version 2.0 - Größe ca. 5 MB. Der Author dankt allen, die mir ihren Vorschlägen zur Verbesserung des MODs beigetragen haben!

nach oben zum News-Index




UT Beta-Patch 4.19 & Patch 4.20

20. Mai 2000 / von Leonidas

Es gibt einen inoffiziellen Beta-Patch für Unreal Tournament mit der 4.19er Versions-Nummer. Die 4.19 ist netzwerk-kompatibel zu allen Vorgänger-Versionen und es werden auch keine älteren Patches benötigt. Allerdings ist davon auszugehen, daß in den nächsten Tagen (Wochen?) ein offizieller UT-Patch erscheinen wird, welcher dann eine wiederum höhere Versions-Nummer tragen sollte.

Die wesentlichste Änderung zu Version 4.13 neben einigen Bug-Fixes dürfte die zahlreichen Map-Bastler interessieren: Der Map-Editor UnrealEd hat Version 2.0 erreicht. Epic empfiehlt im übrigen, das ungepatchte "System"-Verzeichnis von UT zu sichern, um bei Problemen mit UnrealEd 2.0 noch Zugriff auf den alten Editor nehmen zu können.

Rein geschwindigkeitsmäßig ändert sich mit dem Patch 4.19 nichts wesentliches. Die mit dem Patch kommende Direct3D-DLL ist mehr oder weniger genauso schnell wie die bisher führende Direct3D-DLL Beta 06 (welche allerdings nicht bei 4.13 beilag, die mußte man sich bei Epic extra ziehen). Glide und MeTaL kann ich leider nicht selbst beurteilen.

Wer unter OpenGL spielt, sollte einen sehr weiten Bogen um die 4.19 machen, trotz neuer Render-DLL für OpenGL verkommt das Spiel bei dauerhaft unter 10 fps zu einer Slideshow (jedenfalls in meinen maximalen Einstellungen, mit welchen es bei 4.13 aber funktionierte). Da half auch die OpenGL-DLL von 4.13 nicht mehr - mit dieser blieb der Bildschirm einfach nur schwarz.

Logisch, daß die Programmierer von Epic mal wieder an Sachen rumbasteln mußten, für die Konstanz eigentlich substantiell sind. Die "Demoplay"-Funktion verträgt mit 4.19 den von einigen Sites benutzten "timebased"-Parameter gar nicht mehr - das Demo startet dann einfach gar nicht erst. Ich kann nur hoffen, daß Epic die Timedemo- und Demoplay-Funktionen mal irgendwann nicht ganz herausnimmt, nur weil man diese bei Epic als nicht relevant betrachtet ...

Nachtrag vom 23. Mai zum Patch 4.20:

Mit dem 4.20er ändert sich nichts wesentliches zu oben gesagtem. Download-Link. Nur OpenGL rennt auf einmal in Geschwindigkeiten, die ich vorher nur von Glide kannte. Leider stürzt es auch bei mir so ziemlich bedingungslos nach ca. 5 bis 10 Sekunden ab ...

Neu im Direct3D-Renderer sind zwei Optionen: "UseVideMemoryVB" brachte nichts (war schon in diversen Beta´s der Direct3D-DLL enthalten), "UseAGPTextures" war sogar 5 fps langsamer als ohne diese Option. Wie schon unter OpenGL funktioniert das Spiel überhaupt nicht mehr mit früheren Render-DLLs.

nach oben zum News-Index




UT Benchmarking (3)

20. Mai 2000 / von Leonidas

Die anderen News zum selben Thema: Teil 1 (6. Februar) und Teil 2 (8. Februar).

Bei den Benchmark-Regeln für Unreal Tournament habe ich doch glatt eine entscheidende Einstellung vergessen: Die Game-Geschwindigkeit (Game Speed) sollte für einen Benchmark immer auf 100 Prozent stehen! Ist sie wesentlich niedriger, produziert das Timedemo teilweise doppelt so hohe Werte und dem Timedemo sieht man es auf den ersten Blick nicht einmal an. Die Einstellung findet sich in den "Preferences" (auf "Tools" gehen und dann auf "System Console" - dort eingeben: "preferences") und dort unter Game Settings/Game Speed. Der Wert sollte "1.00000" betragen. Dies steht ab sofort auch mit in den Benchmark-Regeln für UT.

Was mich weiter führt zu möglichen anderen Änderungen. Die c´t benutzte in Ihrem letzten Test jedenfalls den Parameter noframecap für Ihre UT-Benchmarks. Natürlich suggeriert dieser Parameter (genauso wie noframescap) das irgendwo die Framerate nicht gekappt wird, höchstwahrscheinlich soll das die vertikale Monitorsynchronisation ausschalten. Ich für meinen Teil konnte UT aber nicht dazu bewegen, den Vsync unter Direct3D oder OpenGL überhaupt zu benutzen. Unter Glide funktionierte es, mit dem Resultat, daß sich beim Demoplay mit diesem Parameter das Ergebnis überhaupt nicht veränderte. Leider ist damit nicht feststellbar, ob dieser Parameter wirklich existiert - denn UT bringt bei falsch eingegebenen Parametern keine Fehlermeldung.

Und noch auf etwas anderes bezüglich der c´t-Benchmarks will ich eingehen: Die korrekte Syntax des Benchmarksbefehls von Unreal Tournament. Das dabei zuerst demoplay utbench kommt, ist klar. Aber wie kommen nun eventuelle Parameter richtig hintendran? Im Web existieren da eine Menge verschiedener Varianten, mit den Parametern umzugehen - und UT wirft ja wie schon gesagt keine Fehlermeldung bei einer falschen Syntax des Parameters aus. Nach meinen Untersuchungen ist dabei ausschließlich die Variante
demoplay [demoname]?[parameter]
korrekt. Ohne das Fragezeichen als Einleitung für den Parameter wird dieser überhaupt nicht interpretiert - ebenfalls zwecklos ist die Eingabe eines Leerzeiches zwischen [demoname] und dem Fragezeichen. Dieses sollte unbedingt bei Benchmarks mit Parametern beachtet werden.

Dank geht an Turrican für die Mithilfe (insbesondere bei den Glide-Benchmarks).

Nachtrag vom 21. Mai ...
Ich habe eben mit dem Beta-Patch 4.19 die Sache mit dem Parameter noframecap unter Direct3D selber nachprüfen können. Dazu habe ich mit Vsync=OFF ein Timedemo aufgenommen, welches in Einzelwerten überhalb von 100 fps läuft. Solange Vsync=OFF bleibt, werden die über 100 fps auch von der UT-demoplay-Funktion angezeigt. Mit Vsync=ON (75 Hz) in den Grafikkarten-Treibern kappte UT diese Framerate auf maximal 75 fps ab - so wie es sein sollte. In dieser Situation kam der Parameter noframecap zum Einsatz - mit dem Ergebnis, das sich nichts änderte. Entweder funktioniert der Parameter nicht oder er existiert nicht - die vertikale Monitorsynchronisation kann er jedenfalls nicht einschalten. Dafür sollte man weiterhin den Grafikkarten-Treiber bemühen (noframescap ebenfalls getestet, in allen bekannten Anfüge-Varianten).

Nachtrag vom 23. Mai ...
Mit dem offiziellen Patch 4.20 ändert sich erst einmal nichts am vorher beschriebenen.

nach oben zum News-Index




John Carmack spricht ...

18. Mai 2000 / von Leonidas

Der Chef-Programmierer von Quake III Arena hat mal wieder ein .plan update von sich gegeben. Im Gegensatz zu den meisten anderen .plan´s geht es diesmal aber nicht um Q3A, sondern rein um 3D-Grafikkarten und wie J.C. diese bewertet. Ich fand es ganz interessant, was einer der einflußreichsten Programmierer der Szene zu sagen hat. Es ist zumindestens eine gute Zusammenfassung der aktuellen Lage, der ich mich sogar fast 100-prozentig anschließen kann:


Name: John Carmack
Email: johnc@idsoftware.com
Description: Programmer
Project: Quake 3 Arena
-------------------------------------------------------------------------------
5/17/00
-------
I have gotten a lot of requests for comments on the latest crop of video
cards, so here is my initial technical evaluation. We have played with
some early versions, but this is a paper evaluation. I am not in a position
to judge 2D GDI issues or TV/DVD issues, so this is just 3D commentary.


Nvidia
Marketing silliness: saying "seven operations on a pixel" for a dual texture
chip. Yes, I like NV_register_combiners a lot, but come on...

The DDR GeForce is the reining champ of 3D cards. Of the shipping boards, it
is basically better than everyone at every aspect of 3D graphics, and
pioneered some features that are going to be very important: signed pixel
math, dot product blending, and cubic environment maps.

The GeForce2 is just a speed bumped GeForce with a few tweaks, but that's not
a bad thing. Nvidia will have far and away the tightest drivers for quite
some time, and that often means more than a lot of new features in the real
world.

The nvidia register combiners are highly programmable, and can often save a
rendering pass or allow a somewhat higher quality calculation, but on the
whole, I would take ATI's third texture for flexibility.

Nvidia will probably continue to hit the best framerates in benchmarks at low
resolution, because they have flexible hardware with geometry acceleration
and well-tuned drivers.

GeForce is my baseline for current rendering work, so I can wholeheartedly
recommend it.


ATI
Marketing silliness: "charisma engine" and "pixel tapestry" are silly names
for vertex and pixel processing that are straightforward improvements over
existing methods. Sony is probably to blame for starting that.

The Radeon has the best feature set available, with several advantages over
GeForce:

A third texture unit per pixel
Three dimensional textures
Dependent texture reads (bump env map)
Greater internal color precision.
User clip planes orthogonal to all rasterization modes.
More powerful vertex blending operations.
The shadow id map support may be useful, but my work with shadow buffers have
shown them to have significant limitations for global use in a game.

On paper, it is better than GeForce in almost every way except that it is
limited to a maximum of two pixels per clock while GeForce can do four. This
comes into play when the pixels don't do as much memory access, for example
when just drawing shadow planes to the depth/stencil buffer, or when drawing
in roughly front to back order and many of the later pixels depth fail,
avoiding the color buffer writes.

Depending on the application and algorithm, this can be anywhere from
basically no benefit when doing 32 bit blended multi-pass, dual texture
rendering to nearly double the performance for 16 bit rendering with
compressed textures. In any case, a similarly clocked GeForce(2) should
somewhat outperform a Radeon on today's games when fill rate limited. Future
games that do a significant number of rendering passes on the entire world
may go back in ATI's favor if they can use the third texture unit, but I doubt
it will be all that common.

The real issue is how quickly ATI can deliver fully clocked production boards,
bring up stable drivers, and wring all the performance out of the hardware.
This is a very different beast than the Rage128. I would definitely recommend
waiting on some consumer reviews to check for teething problems before
upgrading to a Radeon, but if things go well, ATI may give nvidia a serious
run for their money this year.


3DFX
Marketing silliness: Implying that a voodoo 5 is of a different class than a
voodoo 4 isn't right. Voodoo 4 max / ultra / SLI / dual / quad or something
would have been more forthright.

Rasterization feature wise, voodoo4 is just catching up to the original TNT.
We finally have 32 bit color and stencil. Yeah.

There aren't any geometry features.

The T buffer is really nothing more than an accumulation buffer that is
averaged together during video scanout. This same combining of separate
buffers can be done by any modern graphics card if they are set up for it
(although they will lose two bits of color precision in the process). At
around 60 fps there is a slight performance win by doing it at video scannout
time, but at 30 fps it is actually less memory traffic to do it explicitly.
Video scan tricks also usually don't work in windowed modes.

The real unique feature of the voodoo5 is subpixel jittering during
rasterization, which can't reasonably be emulated by other hardware. This
does indeed improve the quality of anti-aliasing, although I think 3dfx might
be pushing it a bit by saying their 4 sample jittering is as good as 16
sample unjittered.

The saving grace of the voodoo5 is the scalability. Because it only uses SDR
ram, a dual chip Voodoo5 isn't all that much faster than some other single
chip cards, but the quad chip card has over twice the pixel fill rate of the
nearest competitor. That is a huge increment. Voodoo5 6000 should win every
benchmark that becomes fill rate limited.

I haven't been able to honestly recommend a voodoo3 to people for a long
time, unless they had a favorite glide game or wanted early linux Xfree 4.0
3D support. Now (well, soon), a Voodoo5 6000 should make all of today's
games look better than any other card. You can get over twice as many pixel
samples, and have them jittered and blended together for anti-aliasing.

It won't be able to hit Q3 frame rates as high as GeForce, but if you have a
high end processor there really may not be all that much difference for you
between 100fps and 80fps unless you are playing hardcore competitive and
can't stand the occasional drop below 60fps.

There are two drawbacks: it's expensive, and it won't take advantage of the
new rasterization features coming in future games. It probably wouldn't be
wise to buy a voodoo5 if you plan on keeping it for two years.


nach oben zum News-Index




Neue Benchmark-Charts

17. Mai 2000 / von Pushkin

Nachdem wir Euch lange wegen einer Aktualisierung der Benchmark-Charts vertrösten mussten - ungeduldige Leser fragten bereits per E-Mail - haben wir nun unser neues Benchmark-System eingeführt. Der große Unterschied zu unseren alten Tabellen liegt darin, daß die Benchmark-Charts ab jetzt dynamisch generiert sind, das heißt bei jedem Seitenaufruf neu erzeugt werden.

Ermöglicht wird dies durch eine Datenbank auf unserem Server, die zur Zeit 454 Benchmark-Sets enthält mit insgesamt 1413 Einzel-Benchmarks (Ein kurzes Beispiel: Ein User bencht Q3A in 800*600@16 Bit, 800*600@32 Bit und 1024*768@16 Bit, das entspricht einem Benchmark-Set und drei Einzel-Benchmarks)!

Für Euch bringt dieses Upgrade viele Vorteile wie:

  • Die neuen Tabellen sind aktuell, ein Benchmark der eingesandt wurde, und nach Prüfen der Richtigkeit der Daten freigegeben wurde, ist sofort in den Tabellen zu finden.
  • Ihr könnt wählen, was in der Ergebnis-Tabelle angezeigt werden soll (Auflösungen, Farbtiefen, CPU-Info, Grafikkarten-Info).
  • Die Sortierreihenfolge kann frei gewählt werden.
  • Es können Suchkriterien angegeben werden, z.B. nur Benchmarks anzeigen, die mit einer bestimmten Grafikkarte gemacht wurden (wird in ein paar Tagen verfügbar sein, bitte noch ein wenig Geduld!).

Wir hoffen sehr, daß unser neues System das Navigieren durch die Benchmarks stark erleichtert, Bug-Reports oder Verbesserungsvorschläge per E-Mail sind sehr erwünscht, oder benutzt unser Feedback-Formular!

nach oben zum News-Index




kleiner Sicherheitcheck ;-))

14. Mai 2000 / von Leonidas

Ok, ich weiss, so was gehört nicht ganz ;-) zu einer Grafikkarten-Site. Aber da ich ja zu mehrheitlich Vielnutzern des Internets spreche, ist Sicherheit und Pricacy im Internet immer wieder interessant ...

Denn auf der Site von Steve Gibson befindet sich Shields Up!, ein Onlinesicherheits-Checker. Damit kann man austesten, ob einem Hacker alle Tore zum eigenen Computer geöffnet sind oder ob man es ihm schwer macht. Einfach mal probieren, ist ungefährlich und kostet nix. Der erste Test ist noch halbwegs harmlos und sollte auf jeden Fall mit einem "Greetings! Without your knowledge or explicit permission ..." abgeschlossen werden.

Test my Shields ist da schon interessanter: Nur wer sauber NetBEUI (NetBIOS) aus seiner Netzwerk-Konfiguration entfernt hat, bekommt hier die volle Punktzahl und ein "Unable to connect with NetBIOS to your computer". Mit einem installierten NetBEUI ist der PC in dem Sinne Netzwerk-fähig und damit auch allen Angriffsmöglichkeiten und Sicherheitslücken eines Netzwerkes ausgesetzt. Solange der PC nicht in einem privaten Netzwerk steht, muß NetBEUI auf keinen Fall installiert sein.

Probe my Porty ist was für Leute mit Ausdauer, weil es locker schon mal mehrere Minuten dauern kann. Die Site scannt dann ein paar Standard-Ports, ob die offen, versteckt oder frei sind. Frei ist logischerweise sehr schlecht, das wäre eine Einladung für Hacker. Und ideal ist es, wenn sich alles als "stealth" meldet. Leider ist das nur ein Check der wichtigsten Ports von insgesamt 65536 möglichen, aber so ein kompletter Check würde Stunden dauern (wobei es auch dafür entsprechende Programme gibt).

Was für einen Sinn macht das ganze? Wenn es ein Hacker speziell auf einen abgesehen hat und der Hacker ernsthaft gut ist, hilft wohl keine Sicherheits-Software. Aber: Wie hoch ist die Chance, das dies passiert? Noch dazu wo Hacker anderes zu tun haben, als sich an einem privaten PC festzubeißen. Angriffe auf den eigenen PC kommen fast ausschließlich von Massenscans, dabei werden ganze Adressräume (das heisst hunderte PCs) nach Schwachstellen abgesucht. Kein Angreifer wird sich dann ausgerechnet den am besten gesichersten PC für seinen Einbruch aussuchen - nicht wenn es hunderte gibt, die völlig ungesichert sind.

Man mache es also einfach dem Angreifer möglichst schwer - in dem man ihn von so vielen Informationen wie möglich abschneide. Die Ports meines Rechners sind im Internet für Port-Scanner nicht sichtbar und NetBEUI ist nicht installiert - eine fast unlösbare Aufgabe für einen Angreifer (ok, wer mit dem TCP/IP-Protokoll per Du ist und auch alle dessen Fehler und Unstimmigkeiten auswendig kennt, der schafft auch so etwas, Gruß Ingo). Noch was zum Thema "von Informationen abschneiden": The Anonymizer zeigt Euch fix an, was alles so über Euch herauszufinden ist, wenn Ihr nur mal eine WebSite besucht ...

Wer das alles hinter sich lassen will, die kostenlose Firewall Zonealarm ist eine mögliche Lösung, in der neusten Version auch mit einem Schutz gegen "ILOVEYOU"-artige Viren. Durchaus sinnvoll die Lektüre unseres Artikels Trojaner? Viren?, auch wenn der zu einem etwas anderen Zweck erstellt wurde.

Nachtrag vom 1. Juni ...
Auf der Site des Datenschutz-Beauftragten des Kantons Zürich in der Schweiz befindet sich ebenfalls ein guter Browser- und Sicherheits-Checker, diesmal sogar in deutsch.

nach oben zum News-Index




Celeron II 533 MHz

11. Mai 2000 / von Leonidas

Meine momentane Wunsch-CPU, der Celeron II mit original 533 MHz und der 100-prozentigen Aussicht auf eine hübsche 800-MHz-Übertaktung, taucht nun doch vereinzelt auf. 566er und 600er sind wohl relativ problemlos in den Staaten zu bekommen - der 533er ist hingegen ernsthaft selten, da von Intel bis jetzt noch nicht offiziell gelauncht (möglich, daß dies gar nicht mehr passiert). Die zur Verfügung stehenden Stückzahlen des 533er sind jedenfalls sicherlich stark begrenzt.

Zum einen bietet ihn die US-Firma Azzo an, und zwar für momentan 139 $ (ca. 300 DM). Im Gegensatz zu PCNut liefert Azzo aber auch nach Europa. Die Transportkosten liegen dabei bei ca. 30 bis 40 $ (ca. 75 DM). Azzo akzeptiert alle international gängigen Kreditkarten (also keine EuroCard). Entsprechende Lüfter und PCPGA-Slot1-Adapterkarten sind ebenfalls im Angebot (wobei man sich diese auch hier in Deutschland besorgen kann). Danke für den Tip an Freddy.

Ein anderer guter Tip kam von Thomas Dankowski. Bei eBay.com offerieren mittlerweile gleich mehrere Anbieter einen ganzen Haufen Celeron II - CPUs mit 533 MHz - meist auf 840 oder 880 MHz vorgetestet. Die von einigen Anbietern dafür eingesetzten Stresstest-Methoden und -Programme können sich durchaus sehen lassen, unter anderem mehrstündige Durchläufe von entsprechend CPU-intensiven Testprogrammen. Allerdings liefern viele Anbieter nicht außerhalb den USA, ich habe aber auch einige gefunden mit der Anmerkung Seller ships internationally (worldwide). Auch rein von der Idee her ist die These mit den Internet-Auktionshäusern haltbar - will sagen: Schaut mal bei den anderen englischsprachigen Auktionen vorbei, wenn Ihr bei eBay nichts passendes gefunden habt.

Was man bei solchen Übersee-Geschäften immer beachten sollte: Es wird wohl sehr schwierig oder gar unmöglich sein, im Garantiefall eben diese einzufordern. Einige Anbieter schließen diese für alle Geschäfte außerhalb den USA gleich grundsätzlich aus. Ein gewisser Mut zum Risiko gehört also immer dazu - von Geschäften mit garantielastigen Teilen sollte man prinzipiell Abstand nehmen. Wer rein in Deutschland bleiben will, meine aktuelle CPU, ein auf 550 MHz vorgetester 366er Celeron kam von Overclockers.de. Leider sind dort noch keine Celeron II im Angebot, aber das kann ja noch werden.

Rückblick: Pentium3 vs. Celeron2 (3. Mai), Celeron II Overclocking (18. April) und Warten auf den Celeron II (23. März).

Nachtrag vom 12. Mai ...
Die 566er Typen sind inzwischen in Deutschland bei den einschlägigen Versandhändlern zu bekommen, Preise so um die 330 DM + Transportkosten. Danke an Oliver Wiesemann.

Korrektur vom 12. Mai ...
Overclockers.de bietet doch den Celeron II an! Zwar nicht einzeln (zusammen mit Lüfter und FCPGA-Slot1-Adapter) und nicht den 533er, aber dafür ist der angebotene 566er auch auf 850 vorgetestet.

Nachtrag vom 28. Mai ...
Unser erstes Review - Intel Celeron II 566 MHz @ 850 MHz

nach oben zum News-Index




GeForce-Lüfter ersetzen

10. Mai 2000 / von Leonidas

GeForce-Grafikkarte, am besten eine von Creative? Und der Lüfter macht mit der Zeit immer mehr Probleme? Ist kurz vorm Aus? Oder ist zu laut? Oder hat zu wenig Leistung für einen echten Overclocker?

Egal wie - der alte GeForce-Lüfter muß weg. Genau das habe ich auch getan - und nun für Euch niedergeschrieben.

nach oben zum News-Index




DQZ sucht Leute

6. Mai 2000 / von Leonidas

Ich denke, ich liege nicht falsch in der Annahme, daß das 3DCenter vorwiegend von Ego-Shooter-Fans besucht wird. Ebenfalls sicher nicht unrichtig ist die Annahme, das darunter eine ganze Menge Quaker sind. Und an eben diese geht folgender Aufruf:

Das Deutsche Quake Zentrum sucht dringend personelle Unterstützung! Wenn also Quake Euer zweiter Vorname ist und Ihr allgemein gut in der Szene drinsteckt, zögert bitte nicht.

Gesucht werden vor allem News-Schreiber. Ich denke mal, man muß nicht einmal HTML-Kenntnisse mitbringen. Wichtig sind wohl eher eine Begeisterung für die Sache ansich. Einen genialen HTML-Programmierer haben sie ja schon in Form von Andreas "Toxxid" Kermele, welcher auch das 3DCenter-Design entworfen hat. Er hat auch schon wieder ein hammermäßiges Design für die neue DQZ-Site entwickelt, aber es werden wie gesagt Leute gesucht, die die Site mit News, Artikeln, Mod-Reviews etc. am Leben erhalten. Wenn das was für Euch ist, dann meldet Euch bitte bei Toxxid. Danke.

nach oben zum News-Index




Q3A Patch 1.17

5. Mai 2000 / von Leonidas

idSoftware hat das Point Relese 1.17 für Quake III Arena veröffentlicht. Es ist 8,5 MB groß und setzt keine vorhergeganenen Patches voraus. Eine größere Auswahl von Download-Möglichkeiten findet man bei Bluesnews und dem Fileplanet, außerdem wird wohl jede gute Quake-Site einen Mirror bilden. Hier erst einmal der Ausschnitt aus dem 1.17-ReadMe, welcher auf die Änderungen durch 1.17 eingeht:

This patch fixes a fairly serious security flaw in Quake 3 Arena. Internet Security Systems identified the flaw and notified us with reproduction details as well as an overview of the exploit. The basic nature of the exploit is that malicious server operators could overwrite any file on a client system. This type of thing is always possible with DLL based mods (which is why we strongly recommend VM based mods) but with this exploit, it was possible within the VM system.

To help facilitate a rapid transition to the new codebase we have also bumped the network protocol version. This means 1.17 is not network compatibile with any prior version.

The install also includes all 3 PK3 files, because the original "pak1.pk3" was not included in the final 1.16 release for Mac and Win32 builds. This will address some pure server connection issues. You will have to have all 3 pak files present to connect to a pure server.

In addition to this security fix, we have also fixed the following:
- Callvote to single player game type causes the server to crash.
- Crash in bot initialization on some systems.

Ergo nichts wesentlich neues aus Sicht des Spiels selber. Mit dem neuen Patch ist Q3A unwesentlich schneller als vorher, außerdem haben alle Demodateien den Patch trotz des Protokoll-Wechsels (jetzt: 45, vorher: 43) heil überstanden (mit grimmigen Gruß an die Half-Life-Programmierer).

Obige Zeilen zur Sicherheit sollten uns im übrigen sagen, daß es sehr sinnvoll wäre auf die 1.17 zu patchen, da in der Virtual Machine von Q3A ein Bug enthalten war, der den Zugriff auf den Rechner eines Clients von einem Spieleserver theoretisch möglich machte. Rein praktisch gesehen wäre dies nur mit einem Mod möglich gewesen und es ist nicht gemeldet wurden, daß dies irgendwo passiert wäre. Anzumerken wäre, daß dieser Patch nur bei Mods helfen würde, welche auf der Q3A-VirtualMachine basieren. Mods, die auf DLLs basieren, haben dieses jetzt gefixte Sicherheitsproblem ganz grundsätzlich und dieses Problem ist dort prinzipiell nicht fixbar - weswegen idSoftware für Q3A auch schon immer von DLL-basierenden Mods abgeraten hatte.

Jedenfalls leitete idSoftware aus diesem Sicherheitsloch die Notwendigkeit ab, daß der Patch 1.17 inkompatibel mit allen Vorgängerversionen sein muß - um eine schnelle Verbreitung des Patches zu garantieren. Mit meinem Check von heute morgen 7 Uhr sind von den 280 pingbesten Servern zu mir ca. die Hälfte schon auf den 1.17er Patch umgestellt. Mittels Gamespy (eben Shareware 2.20 erschienen) kann man sich im übrigen notfalls nur diese Server anzeigen lassen, die ein "1.17" im Versionname des Spiels haben.

Nach all dem Trouble noch eine gute Nachricht: idSoftware kündigte nun das MissionPack für Q3A offiziell an. In diesem soll es mehr Mods (vorwiegend teambasierend) und Waffen (Nailgun!) geben. Presse-Erklärung hierzu.

nach oben zum News-Index




Trojaner? Viren?

5. Mai 2000 / von Leonidas

In einem Kommentar auf Qscene riet ein User dazu, unseren DemoShowCreator (hat inzwischen Version 1.12 erreicht) nicht zu installieren, da angeblich gleich mehrere Trojaner enthalten seinen. Die ist kompletter Unsinn, entweder hat der entsprechende User keine Ahnung von diesen Dingen oder sich einfach nur einen sehr bösen Scherz erlaubt.

Trojaner sind Programme, die in dem Sinne erst einmal unschädlich sind (im Gegensatz zu Viren, die durch ihre direkte Schadenswirkung definiert werden). Trojaner sind Hintertüren für andere User, um den Rechner der Zielperson aus dem Internet oder Netzwerk fernzusteuern. Nach der Installation des Trojaners auf dem Rechner der Zielperson meldet es sich auf einem TCP/IP-Port und wartet dort, führt also erst einmal nichts aus! Der Hacker scannt nun das Internet oder das Netzwerk nach Rechnern ab, auf welchem sich der dort installierte Trojaner meldet. Erst wenn der Hacker den bei der Zielperson installierten Trojaner bemerkt, wird es gefährlich. Dann bekommt der Hacker über die Hintertür, welche der Trojaner bildet, den kompletten Zugriff auf den Rechner der Zielperson. Möglich sind das Ausspähen von Passwörtern und Kreditkartendaten, das Formatieren der Festplatte - es liegt praktisch alles offen. Oftmals werden auf diese Art und Weise "übernommene" Rechner aber auch benutzt, um Angriffe auf große Server im Internet mit einer anderen IP-Adresse zu starten und so die Strafverfolgungsorgane auf die falsche Fährte zu locken.

Aus oben gesagtem resultieren zwei Verteidigungslinien gegen Trojaner. Die erste betrifft die Installation des Trojaners. Diese werden meist per eMail bei der Zielperson eingeschleusst. Jeder HTML-Mail ist prinzipbedingt damit als unsicher zu betrachten, weil mit dem Öffnen der HTML-Mail eben auch eventuelle Anhänge an die HTML-Mail mit ausgeführt werden könnten. User, welche nicht mit HTML als Standard-eMail-Format arbeiten und keine HTML-Mails von unbekannten Absendern öffnen, sind hier auf der sicheren Seite. Genauso möglich ist aber auch das Einschleusen eines Trojaners in ein ansonsten friedliches Programm. Letztere Methode ist programmiertechnisch ziemlich aufwendig, aber außer einem guten Virenscanner gibt es so gut wie keine einfachen Schutzmechanismen. Der Punkt ist aber nicht, das es etwas bringt, die Installation eines Trojaners zu erkennen. Da diese zunächst keinen Schaden anrichtet, reicht es komplett aus, ab und zu auf bereits installierte Trojaner zu scannen. Windows98-Nutzer sind hier im Vorteil - es reicht das Ausführen der Datei c:\windows\msconfig.exe aus. Im letzten Reiter sind alle autostartenden Programme aufgeführt - egal woher diese sich starten. Trojaner sind prinzipbedingt autostartende Programme und stehen ergo dort mit drin. Allerdings sollte man einige Kenntnisse über die eigene Treiberlandschaft mitbringen - die meisten Einträge in diesem Reiter sind bei weitem keine Trojaner, im Normalfall stehen da einige Windows-Services, einige Treiber und diejenigen Programme, welche man selber in seine Autostart-Gruppe verfrachtet hat. Logischerweise erübrigen sich diese Schritte für die Nutzer eines guten Virenscanners - dieser sollte schon bei der Installation des Trojaners Alarm schlagen.

Die zweite Verteidigungslinie geht in Richtung Netzwerk. Der Trojaner ist nun mal ein Programm, welches einen Zugriff auf das TCP/IP-Protokoll unternimmt, um ins Internet zu kommen. Auf die Abwehr solcher Angriffe sind Firewalls spezialisiert. Diese fragen vor jeglichem Netzverkehr den Benutzer, ob er dies genehmigt. Damit bekommt man jeglichen Netzwerk- und Internetverkehr mit. Natürlich kann man Firewalls so konfigurieren, daß sie nicht bei jedem einzelnen Aufruf einer ganz normalen Internet-Site den Benutzer um seine Erlaubnis fragen und natürlich sollte man sich schon ein wenig auskennen, um überhaupt eine Firewall sinnvoll bedienen zu können. Letztendlich liegt mittels einer Firewall die komplette Verantwortung beim Benutzer - niemand rettet einen vor einer Falschbedienung. Wobei es die Möglichkeit gibt, eine halbautomatische Firewall zu benutzen, diese nennt sich ZoneAlarm und ist noch dazu kostenlos. Diese Spar-Firewall arbeitet nach dem Prinzip, Programmen den Zugang zum Internet zu gewähren oder aber nicht - ganz nach Benutzerwunsch. Der Vorteil ist, daß die Häufigkeit von Benutzereingaben wesentlich geringer gegenüber professionellen Firewalls ist und damit unerfahrene User nicht überfordert werden. Die Schutzwirkung für einen reinen Einzelplatz-PC ist dabei sicher nicht wesentlich schlechter als mit diesen professionellen Firewalls - zumindestens Trojaner werden auf jeden Fall abgefangen.

Was kann man also tun, um einen sinnvollen Viren- und Trojanerschutz zu erwirken? Ein 6-Punkte-Plan:

1. Outlook Expreß oder Outlook sind als eMail-Programme ungeeignet, da HTML als Empfangs-Format von diesen Programmen immer akzeptiert wird. Als kostenlose Variante bietet sich Netscape´s Communicator-Komplettpaket an, dort kann man HTML definitiv ausstellen.

2. Man nutze bitte Text als Standard-eMail-Format. Man öffne keine HTML-Mails von unbekannten Absendern. Man starte niemals Programme, die einem per eMail von einem fremden Absender gesandt wurden. Man starte niemals Programme, die einem per eMail von einem bekannten Absender gesandt wurden, wenn sie keinen erkennbaren Zweck haben.

3. Man schaue sich seine eigene Netzwerk-Konfiguration mittel Start/Einstellungen/Systemsteuerung/Netzwerk an. Für einen reinen Internet-Zugang ohne eigenes privates Rechner-Netzwerk reicht es, wenn da die Einträge DFÜ-Adapter und TCP/IP stehen! Alles andere zusätzliche birgt schon wieder automatisch Sicherheitsrisiken und ist von einer Person, die sich damit auskennt, zu entfernen (ist bei jeder Windows-Version etwas anders, deshalb hier keine Erklärung).

4. Man deinstalliere den Windows Scipting Host (WSH), dieser ist unter Start/Einstellungen/Systemsteuerung/Software/Windows Setup/Zubehör zu finden. Die Deinstallation ist zu kontrollieren - die Datei c:\windows\wscipt.exe sollte nicht mehr da sein. Ansonsten ist sie manuell zu löschen. Wer den WSH gar nicht installiert hatte, sollte trotzdem kontrollieren, ob vorgenannte Datei nicht doch an Board ist, die Update-Version von Win98SE installiert den WSH ganz inoffiziell mit genauso wie jedes Internet Explorer - Update.

5. Ein Virenscanner muß her. AVP ist der momentan beste - ansonsten bringen die PC-Magazine immer wieder Virenscanner-Tests. Wer sich mit DOS etwas auskennt, kann auf die kostenlose Variante F-Prot für DOS ausweichen. Es gibt auch kostenlose Virenscanner für Windows, allerdings erreichen diese freien Programme nicht die hohe Erkennungsrate der professionellen Programme.

6. Eine Firewall muß her. Als kostenloses und für den Heimgebrauch ausreichendes Produkt bietet sich ZoneAlarm an. Für Windows98-Nutzer lohnt zudem ab und zu ein Kontroll-Blick in den letzten Reiter des Programmes c:\windows\msconfig.exe um alle autostartenden Programme im Überblick zu behalten.

Mittels diesen Maßnahmen kann jeder selbst ergründen, ob im DemoShowCreator oder anderen Programmen Trojaner oder Viren stecken. Was mich auf das eigentliche Thema zurückbringt: WIR VERSICHERN, DAS NACH BESTEN WISSEN UND GEWISSEN IM DEMOSHOWCREATOR KEIN VIRUS ODER TROJANER ENTHALTEN IST. Im gegenteiligen Fall wäre das erste was wir tun würden die Nutzer des Programmes zu informieren. Und um unsere Sicherheitsbemühungen klarzustellen: Der Programmierer ral nutzt als Virenscanner F-Prot und als Firewall atGuard, ich als derjenige der die Dateien auf den Server schickt, nutze als Virenscanner AVP und als Firewall ZoneAlarm. In einem anderen Thread auf Qscene, in welchem über die angebliche Trojanerverseuchtheit des DemoShowCreators diskutiert wurde, checkten die User unseren DemoShowCreator auch noch mit Virenscanner-Referenzen Norton Antivirus und McAffee - mit dem Ergebnis, daß keiner irgendetwas verdächtiges hat finden können.

nach oben zum News-Index




GeForce2 vs. übertaktete GeForce

3. Mai 2000 / von Leonidas

Die Leistungen einer GeForce2 liegen gegenüber einer DDR-RAM-GeForce selbst in Quake III Arena nicht besser als 20 bis 30 Prozent Vorsprung in den relevanten Auflösungen und Einstellungen. Da stellt sich schon die Frage, in wie weit dies nicht allein durch den höheren Takt der GeForce2 erreicht wird, und die anderen Verbesserungen dazu nichts beitragen. Im Usenet habe ich dazu den schönen Vorschlag gehört, die GeForce2 mal auf GeForce-Niveau zu takten und dann gegen eine GeForce antreten zu lassen ...

Die andere Lösung wäre zum Beispiel die GeForce entsprechend hochzutakten, auch wenn sie nie ganz das GeForce2-Niveau - zumindestens vom Chiptakt her - erreichen wird. Hier reicht es im übrigen nicht aus, die privaten GeForce-Benchmarks gegen GeForce2-Benchmarks aus dem Netz zu stellen - dafür geben die meisten Review-Site´s ihre Benchmark-Bedingungen viel zu ungenau an. Ideal ist es, wenn dieser angetrebte Vergleich innerhalb des selben Artikels sprich des selben Umfeldes getätigt wird. Genau das hat Dayton´s Misc getan - wenn auch nur indirekt. Aber die Site liefert in einem Vorab-Bericht zu ihrem GeForce2-Review auch Werte mit einer übertakteten GeForce.

Wenn ich also diese dort gemessenen Resultate in Verbindung mit den ebenfalls getätigen GeForce2-Benchmarks bringe, ergibt sich nachfolgender Stand (Quake III Arena, demo001, maximalste Qualität, 5.16er Detonator, Pentium III 558 MHz, die Credits gehen selbstverständlich an Dayton´s Misc):

  GeForce2
(200/166)
GeForceDDR
(120/150)
Differenz GeForceDDR
(140/170)
Differenz
800*600 71,3 67,5 5,3 % 70,8 0,7 %
1024*768 59,9 52,6 12,2 % 58,9 1,7 %

Diese Benchmarks stammen natürlich "nur" von einem Pentium III mit 558 MHz - aber auf diesem wird der eigentliche Vorsprung der GeForce2 durch das Overclocking der GeForce pulverisiert. Natürlich produziert ein 700-MHz-Prozessor größere Unterschiede zwischen GeForce und GeForce2. Diese werden dann wohl auch durch das Overclocking der GeForce nicht ganz verschwinden - aber auch auf höher getakteten CPUs wird der Unterschied GeForce zu GeForce2 beim Overclocking der GeForce bedenklich klein werden. Natürlich würde ich mir von anderen Hardwarereview-Site´s hier Bestätigungen mittels entsprechender Benchmarks wünschen - aber leider hat sich bisher keine andere Site diesem sehr interessanten Thema angenommen.

Basierend auf obigen Werten ist es also durchaus eine Überlegung wert, die eigene GeForce maßvoll zu übertakten. Die 140 MHz Chiptakt sind nach aller Erfahrung absolut kein Problem. Wer den Standard-Kühlkörper entfernt und durch einen leistungsfähigeren und normalerweise gleichzeitig leiseren und ausfallsicheren Kühlkörper & Lüfter ersetzt, sollte dann auch 160 MHz Chiptakt als im Bereich des Möglichen erachten können.

Die 170 MHz Speichertakt (nach DDR-RAM-Philosophie 340 MHz) sind schon ziemlich weit oben, wenngleich nicht unschaffbar. 160 MHz Speichertakt sind wohl sicher machbar, 170 sollte man probieren - aber es muß nicht überall funktionieren. In diesen Grenzbereichen wird jedes einzelne Board eh anders reagieren. Im übrigen: In Normalfall hilft Speicher kühlen, z.B. mittels passiver Kühlkörper, so ziemlich gar nichts. Die Speicher werden meist nicht so übermäßig warm, daß sie an der zu großen Hitzeentwicklung abstürzen. Das Problem sind meist die Leiterbahnen auf dem Board selber, die bei einem zu hohen Takt dann einen Absturz forcieren.

Für Besitzer von Boards mit Schwächen bei der AGP-Stromversorgung sind diese vorgenannten Tips im übrigen überhaupt nicht zu empfehlen - logisch das bei höheren Takten der Karte diese noch mehr Strom vom Board ziehen wird. Für diejenigen, die obiges probieren wollen und nach einem Overclocking-Tool suchen - das kleinste von allen Overclocking-Tools für nVidia-Chips hat sich als das sinnvollste erwiesen. TNTclk ermöglicht notfalls auch extreme Takteinstellungen und hat als eines der wenigsten Tools eine Autostart-Overclocking-Funktion, die auch wirklich funktioniert.

nach oben zum News-Index




Pentium3 vs. Celeron2

3. Mai 2000 / von Leonidas

Nach unseren Artikel zum Overclocking der neuen Celerons folgt nun die damals versprochene Leistungsbetrachtung. Wobei mir zum genannten Artikel auffällt, daß wir im Prinzip nix zur eigentlichen Technik der neuen Celerons gesagt haben, welches wir hiermit - auch weil es hervorragend hineinpasst, nachholen:

Die neuen Celerons heißen offiziell nach wie vor nur "Celeron", werden aber oftmals zur besseren Unterscheidung als "Celeron II" bezeichnet - was sicher sinnvoll ist. Den Anfang der Serie macht der 533er, welcher offiziell von Intel als 533A bezeichnet wird, um eine klare Unterscheidung zur alten Celeron-Serie, welche bis zum 533er (offiziell ohne "A"!) reicht. Verfügbar - zumindestens in den USA - sind ebenfalls der 566er und der 600er. Die Typen mit 633, 666 und 700 MHz sind für die Monate Mai und Juni angekündigt.

Diese neuen Celerons haben einen Coppermine-Kern und profitieren damit vom momentan besten Intel-Chipdesign. Als Vorteile wären da der FullSpeed-Level2Cache, die SSE-Erweiterungen und das übertaktfreudige 0.18 micron Design zu nennen. Die Unterschiede zum Pentium III E mit Coppermine-Kern liegen nur in wenigen Details: Der Coppermine hat 256 kB Cache L2Cache, der Celeron II nur 128 kB. Außerdem ist dieser Cache beim großen Bruder 8-way-associative, beim Celeron II nur 4-way-associative.

Insbesondere im letzten Detail sehe ich den Grund für die bislang gemessenen Leistungsunterschieden zwischen Coppermine und Celeron II. Der größere L2Cache des Coppermine wird - besonders in Spielen - kaum Vorteile haben, die meisten Programme sind im Kern sehr klein und passen auch in den kleineren L2Cache des Celeron II. Aber "4-way-associative" beim Celeron II bedeutet, daß der Cache - einfach ausgedrückt - nur eine halb so gute Anbindung zum RAM hat und damit nur halb so effizient arbeiten kann wie der 8-way-associative Cache des Coppermines.

Dies erinnert an den alten Pentium III mit Katmai-Kern oder aber den Pentium II. Diese Chips hatten alle auch nur einen 4-way-associative Cache. Im Endeffekt beraubt Intel damit den Celeron II um die mit dem Coppermine eingeführte neue Cache-Effizienz - so gesehen führt sich der Celeron II wie ein alter Pentium III mit Katmai-Kern auf (dies sind die Typen ohne das "E"). Natürlich haben die Katmai-Typen einen 512 kB großen HalfSpeed L2Cache und der Celeron II einen 128 kB FullSpeed L2Cache - aber dies gleicht sich in Spielen wohl aus.

Hier sollte also der Leistungsunterschied zu finden sein - in der Effizienz des Caches, nicht in der Größe dessen. Verschiedentlich gingen einige Site´s davon aus, daß die gemessene unterschiedliche Latenz des L2-Caches für die Leistungsunterschiede zwischen Coppermine und Celeron II mitverantwortlich ist. Unabhängig davon, daß Intel behauptet, daß es diese Latenz-Unterschiede nicht gibt - jeder kann dies gern mit WCPUL2 selber nachprüfen: Unterschiede in der Latenzzeit des L2Caches haben so gut wie gar keinen Einfluß auf die CPU-Leistung, auch nicht in FPU-intensiven Benchmarks.

Die gesamte obige Betrachtung wird im übrigen unterstützt durch die Aussagen des P3 vs. C2 - Reviews der FiringSquad. In diesem performten Coppermine und Celeron II mit abgeschaltetem L2Cache völlig identisch, mit eingeschaltetem L2Cache (also im Normalzustand) gewinnt der Coppermine in den Spiele-Benchmarks mit 5 bis 10 Prozent Vorsprung in den relevanten Auflösungen. Nicht verschwiegen werden soll, daß es auch Gegenbeispiele gibt, welche zum Teil auch Unterschiede mit deaktiviertem L2Cache messen (TechReport) oder aber mit aktiviertem L2Cache wesentlich größere Unterschiede als die vorgenannten 10 Prozent (AnandTech). Wobei es nach wie vor möglich ist, daß diese sehr unterschiedlichen Benchmarks zu stark von dem jeweiligen Mainboard bzw. dessen BIOS bestimmt werden. Zumindestens zum Zeitpunkt der meisten Reviews gab es noch kein den Celeron II unterstützendes BIOS.

Ich sage mal, man kann sich im Querschnitt aller Reviews auf ca. 10 Prozent Vorteil für den Coppermine zum Celeron II einigen. Dies bedeutet natürlich auch, daß ein Celeron II mit 850 MHz (übertakteter 566er) bei weitem nicht so viel wert ist wie ein Coppermine mit 833 oder 866 MHz, sagen wir eher so viel oder etwas stärker als ein 750er Coppermine. Das hört sich auf den ersten Blick nicht so toll an, was nutzt der 850er Celeron II, wenn er so "langsam" performt wie ein 750er Coppermine? Wenn man sich allerdings die Preise ansieht, rückt das Bild wieder gerade: Der originale 750er Coppermine kostet ca. 1200 DM, der 550er Coppermine (wird übertaktet auf 733 MHz) ca. 550 DM, der 600er Coppermine (wird übertaktet auf 800 MHz) ca. 650 DM, der 566er Celeron (wird übertaktet auf 850 Mhz) kostet in den Staaten momentan umgerechnet 350 DM! Das heisst der Celeron II 566 @ 850 MHz ist selbst in Annahme, er leiste nur soviel wie ein Coppermine mit 733 oder 750 MHz, immer noch die bessere Wahl. Und dies natürlich ganz besonders für diejenigen, die ihren Mainboards keine 133 MHz Bustakt zumuten wollen (Coppermine 550 auf 733 übertakten bedeutet zwangsläufig 133 MHz FSB und damit Übertaktung des AGP-Takt und des Speichers).

So gesehen ist der Celeron II trotz schwächerer Leistungen als ein gleichgetakteter Coppermine unbedingt zu empfehlen. Ich persönlich werde jedenfalls demnächst - falls nicht größeres dazwischenkommt - diese Umrüstung angehen. Naja, ich brauche diese höhere Prozessorleistung - meine GeForce schafft problemlos 170 MHz Chiptakt und 200 MHz Speichertakt (original 120 bzw. 166 MHz), kann diese Übertaktung aber mangels ausreichender CPU-Leistung nicht so richtig umsetzen. Der Vorteil der neuen Celerons besteht ja nun auch darin, daß sie in jedem Slot1-Board, welches den Coppermine prinzipiell verträgt, laufen können. Benötigt wird nur ein FCPGA-Slot1-Adapter, welcher für um die 50 DM zu bekommen ist.

Am Ende eine persönliche Bitte: Bei PC Nut schwirren einige 533A-Celerons herum. Diese halte ich insofern für extrem lukrativ, weil sehr billig und mit extremer Sicherheit auf 100 MHz Bustakt übertaktbar, was in diesem Falle 800 MHz Chiptakt entsprechen würde. Wenn der Chip noch mehr hergibt, kann man ja den Bustakt noch weiter anheben - auch 115 MHz FSB macht PC-100-RAM sicher noch mit. Aber: PCNut liefert nicht außerhalb den USA. Wenn also jemand einen anderen Händler sieht, welcher international liefert und den 533A im Angebot hat, wäre ich über eine eMail an mich hocherfreut. Danke.

Nachtrag vom selben Tag ...
Habe ich vergessen! Die meisten SuperSockel7- oder Sockel370-Kühler passen nicht, weil der Celeron II etwas flacher sind. Somit ist teilweise ein kleiner Spalt zwischen CPU und Kühler - was der Kühlleistung extrem abträglich ist. Die gut sortierten Händler bieten passende Celeron2-Kühler an - man achte auf die Bezeichnung "für PC-PGA" oder so ähnlich.

Nachtrag vom 28. Mai ...
Unser erstes Review - Intel Celeron II 566 MHz @ 850 MHz

nach oben zum News-Index

Shortcuts
nach oben