News-Archiv 30. September - 6. Oktober 2002 (40. Kalenderwoche)
6. Oktober 5. Oktober 4. Oktober 3. Oktober 2. Oktober 1. Oktober 30. September
News des 5. Oktober 2002 |
Endlich mal wieder ein paar neue Informationen zu den Projekten von Imagination Technologies bzw. PowerVR liest man bei der EE Times. Danach ist wie schon vorab per Gerücht bekannt die Arbeit an der PowerVR Series 4, welche der KYRO III entsprochen hätte, komplett eingestellt und man konzentriert sich nun auf die PowerVR Series 5, welche dann irgendwann im nächsten Jahr erscheinen soll. Jene soll wieder ein Tile Based Renderer werden - wahrscheinlich ist hier ein KYRO-ähnlicher Tile Based Deferred Renderer gemeint (verzögerter Renderer), da es mittlerweile auch Tile Based Immediate Renderer gibt (Trident XP4) ...
... Zusätzlich soll die PowerVR Series 5 dann eine vollprogrammierbare Shader-Funktionalität besitzen. Explizit wurde allerdings nur ein Pixel Shader genannt, was hoffentlich (und auch wahrscheinlich) nicht auf eine Software-Lösung für den Vertex Shader hinausläuft. Ob der in 0.13 micron geplante Chip nun der DirectX8- oder der DirectX9-Klasse angehören wird, ist unklar, für eine laut ImgTec "class-leading functionality" sollte es allerdings im nächsten Jahr dann schon DirectX9 sein. Das größte Problem für ImgTec ist allerdings die nach wie vor nicht geklärte Fertigungs-Situation nach dem Ausstieg von Produktionspartner STMicro zu Anfang des Jahres ...
... Bisher designte ImgTec "nur" die Chips und die Ingenieure bei STMicro machten diese produktionsreif, damit diese dann bei einem Auftragsfertiger in Taiwan hergestellt werden konnten. Zum Vergleich mit ATi & nVidia: Diese erledigen jene Produktionsvorbereitung weitestgehend selber. Nun wäre es für ImgTec sicherlich kein Problem, freie Fertigungskapazitäten in Taiwan zu bekommen, jedoch fehlt immer noch das Know-How, um einen fertig designten Chip produktionsreif zu machen. Und so lange hier kein Deal mit einem Unternehmen zustandekommt, welches über die von ImgTec benötigten Ressourcen verfügt, könnte dasselbe wie bei der PowerVR Series 4 passieren: Man bleibt auf einem fertigen Chip sitzen, weil es keinen Produktionspartner gibt ...
... Das will auf keinen Fall heißen, daß die PowerVR Series 5 von Anfang an abzuschreiben wäre, jedoch hat ImgTec neben der Designarbeit an diesem Chip momentan die wohl dringendere Aufgabe, eben einen Produktionspartner zu finden. Weshalb ImgTec nicht einfach die zum Verkauf stehende Grafikchip-Sparte von STMicro selber übernommen hat, ist unter diesem Blickwinkel komplett schleierhaft - bei nur 15 Mill. $ Jahresumsatz sollte der Verkaufspreis nicht all zu hoch sein. Möglicherweise hat man bei ImgTec aber auch inzwischen jene Ressourcen, um direkt mit den taiwanesischen Chip-Auftragsfertigern TSMC und UMC ins Geschäft kommen - dies wäre sicher die einfachste Lösung.
Einen Artikel zu Shader-Hochsprachen im allgemeinen sowie zu ATi´s RenderMonkey (was keine Shader-Sprache ist, sondern ein Development-Tool für Shader-Sprachen) und nVidia´s Cg im speziellen haben Tom´s Hardware Guide verfaßt. Im Wettstreit der Shader-Sprachen hat nVidia nun inzwischen einen gewissen Zeitvorteil, allerdings wird Microsoft´s demnächst zu releasende HLSL wohl einen größeren Standort-Vorteil erreichen können, da sie direkt zu DirectX9 gehört und damit automatisch eine hohe Verbreitung finden wird ...
... Ein gewichtiger Vorteil von Cg ist dann noch die Plattform-Unabhängigkeit, weil im Gegensatz zu HLSL auch OpenGL und damit non-Windows-Systeme wie Linux und der Mac unterstützt werden. Hier wird Cg allerdings harte Konkurrenz von 3Dlabs´s GLslang bekommen, welche kürzlich vom OpenGL-ARB als die Standard-Shadersprache für das kommenden OpenGL 2.0 festgelegt wurde. Insofern ist es nicht unwahrscheinlich, daß nächstes Jahr kein Hahn mehr nach Cg kräht, weil sich HLSL für Direct3D und GLslang für OpenGL als Standard-Shadersprachen abzuzeichen beginnen.
Einen schönen Artikel über die Irrungen und Wirrungen des neuen deutschen Urheberrechtsgesetztes gibt es beim Spiegel. Dieses schlägt durchaus abenteuerliche Haken: Zum einen ist die Privatkopie sowohl für den analogen als auch den digitalen Bereich laut Gesetz zulässig. Die Umgehung eines Kopierschutzes steht dafür aber für den digitalen Bereich unter Strafe, allerdings wieder mit der Ausnahme von Sicherheitskopien von Computersoftware. Die von einer bald ehemaligen Justizministerin als unantastbar versprochene Privatkopie wird somit allerdings rein praktisch ad absurbum führt, wenn die Inhalte-Anbieter konsequent auf Kopierschutz-Techniken setzen.
News des 4. Oktober 2002 |
Gegenüber ExtremeTech gab nVidia nun den entgültigen Launchtermin für den neuen DirectX9 HighEnd-Chip NV30 an: Jener wird wie erwartet auf der Comdex vom 18. bis 22. November in Las Vegas vorgestellt, der konkrete Releasetag wird dabei wohl der 18. November sein. Dann wird neben der Frage der genauen technischen Daten wohl auch aufgelöst werden, wann der neue Chip nun wirklich kaufbar sein wird. Einer schon älteren Aussage seitens nVidia zufolge will man den NV30 noch zum amerikanischen Weihnachtsgeschäft liefern, was aber für Europa kaum eine Verfügbarkeit vor dem neuen Jahr bedeutet.
Mit der Version 6.8 des TVTools gibt es eine ganze Reihe von Verbesserungen im wohl besten Tweakprogramm für die TV-Ausgabe von nVidia-Grafikkarten. Unterstützt wird nun auch der neue Philips TV-Chip SAA7104, zudem wurden einige Funktionen verbessert, neue Hotkeys eingeführt und einige Bugs gefixt. Als wichtigstes ist nun auf den Conexant-Chips CX25870 und CX25871 auch die Auflösung 1024x768 anwählbar, zudem gibt es bei diesen nun einen neuen 640x480 Modus mit deutlich verbesserter Bildqualität. Welcher TV-Out Chip auf welcher nVidia-Grafikkarte verbaut ist, wäre im übrigen in unserem Forum nachzulesen.
Bei Lumberjacker wird eine umfangreiche Sammlung an gemoddeten BIOS-Versionen für Mainboards von Asus, Abit, DFI, ENMIC, Epox, Gigabyte, MSI und Soyo sowie den RAID-Controllern von Promise und HighPoint angeboten. Die gemoddeten BIOS-Versionen beschäftigen sich dabei ausschließlich mit den Themen RAID und U/DMA. Insbesondere die Full-RAID-BIOSe erscheinen interessant, werden mit diesen doch die auf den meisten Mainboards befindlichen Lite-Versionen der verbauten RAID-Controller zum vollen Funktionsumfang erweckt. Genauere Informationen über die jeweiligen Mods liefert diese Seite, alle Downloads gibt es hier.
Die Vorstellung der FSB166-Prozessoren Athlon XP 2700+ und 2800+ war leider nicht der erste Paperlaunch seitens AMD, bereits am 21. August hatte AMD mittels der Modelle 2400+ und 2600+ die ersten Thoroughbed-B Prozessoren "papergelauncht". Der Planet 3DNow! wollte nun herausfinden, ob diese laut der ursprünglichen Ankündigung für den September avisierten Prozessoren denn nun endlich im Handel zu finden sind. Jedoch waren beide Modelle bei versuchten Testkäufen bei keinem einzigen Händler lieferbar, auch ein kurzer Blick zum Geizhals-Preisvergleich bringt dasselbe Ergebnis ...
... Bei keinem der dort jeweils über 20 gelisteteten Händler ist derzeit ein 2400+ oder 2600+ sofort lieferbar. AMD steht damit ergo immer noch mit dem Athlon XP 1.8 GHz / 2200+ auf Basis des eher unglücklichen Thoroughbred-A Cores als höchsten lieferbaren Prozessors da. Wenigstens sollen die Modelle 2400+ und 2600+ nun ab der zweiten Oktoberwoche auch im Endkunden-Markt zu finden sein, wie Hard Tecs 4U berichten. Die eben neu vorgestellten Modelle 2700+ und 2800+ werden aber noch bis ungefähr zum Jahresende brauchen, wenn Intel längst seinen Pentium 4 mit 3.06 GHz und aktiviertem HyperThreading vorgestellt und in den Markt gebracht hat.
News des 3. Oktober 2002 |
Nach Informationen der ebn arbeitet das Speicher-Standardisierungsgremium JEDEC an einem DDR/II-Standard extra für Grafikkarten, da die Grafikchip-Hersteller noch früher als der "normale" Markt für PC-Hauptspeicher diese neue Speicherart einsetzen wollen. Technisch gesehen ist ein solcher Standard nicht unbedingt notwendig, da Grafikkarten keine modularen Systeme sind und damit auch mit nicht standardisierten Speichern gefertigt werden müssen (da die verwendeten Speicher sowieso vom Grafikchip-Hersteller validiert werden müssen). Diese Meldung zeigt aber das hohe Interesse der Grafikchip-Industrie an der möglichst schnellen DDR/II-Einführung ...
... Bei nVidia mutmaßt man ja bereits von einem DDR/II-Interface beim NV30, während ATi´s Radeon 9700 jetzt schon vorausschauend mit einem solchen ausgerüstet ist. Nun bringt DDR/II bei gleichem Takt nicht mehr Speicherbandbreite als der bisherige DDR/I-Standard, jedoch wurde DDR/II schließlich auch in erster Linie entwickelt, um wesentlich höhere Taktraten als bei DDR/I erreichen zu können. So haben jetzt schon Elpida, Infineon und Samsung die Massenproduktion von zwischen 400 und 500 MHz (physikalisch) getaktetem DDR/II-Speicher für das 1. Quartal 2003 angekündigt - derartig hohe Taktraten wird es für DDR/I wohl nicht mehr geben.
Einen Test der CPU-Skalierung der Radeon 9700 Pro hat die FiringSquad veröffentlicht. Neben den CPU-Skalierungswerten der Radeon 9700 Pro hat man dieselben Tests auch gleich noch für die Radeon 8500, die GeForce4 Ti4200 und Ti4600 durchgezogen. In allen Vergleichen skaliert dabei die Radeon 9700 Pro geringfügig, aber nicht wesentlich besser als eine GeForce4 Ti4600. Irritierenderweise skaliert der ATi-Chip aber ausgerechnet unter 1600x1200 in den Spielen Serious Sam: TSE, Jedi Knight II und Unreal Tournament 2003 wesentlich besser als die anderen Karten - eigentlich sollte diese Auflösung pur Grafikkarten-limitiert sein. Eine griffige Erklärung hierzu wäre, daß der Treiber des ATi-Chips wohl stärker auf die sehr hohen Auflösungen ausgelegt ist.
Ein Nachtrag zu unseren gestrigen Ausführungen zum nVidia nForce2 Chipsatz: Die Aussage, daß DDR333-Speicher von den Timings her langsamer als DDR266-Speicher sind, bezog sich weniger auf die CAS-Latency, sondern vielmehr auf die ganzen Nebentimings sowie auf Speicher-interne Timings, die der Anwender zumeist nicht verändern kann. Hier ist in der Tat DDR266 schneller als DDR333, auch wenn speziell dieser Unterschied wohl doch nicht ganz als Erklärung für das von GamePC festgestellte Phänomen ausreichen mag, daß DDR266-Speicher auf dem nForce2 schneller als DDR333-Speicher ist ...
... Die Hauptursache für diese Performance-Anomalie dürfte eher im Unterschied von synchronem und asynchronem Modus auf dem nForce2 zu finden sein. Ein synchroner Modus ist natürlich immer vorzuziehen, da sich bei einem asynchronen Modus immer gewisse Reibungsverluste ergeben. Den besagten Test führten GamePC jedoch nur mit einem 133-MHz-FSB-Athlon durch, so daß sich nur beim Einsatz von DDR266-Speichern ein synchrones Verhältnis zwischen FSB- und RAM-Takt ergab (jeweils 133 MHz DDR), beim Einsatz von DDR333-Speichern jedoch ein asynchrones (FSB: 133 MHz DDR, RAM: 166 MHz DDR FSB) ...
... Damit kann man unsere gestrige Aussage, daß für den nForce2 DDR266-Speicher und nicht DDR333-Speicher die beste, weil schnellste Speicherart wäre, für einen Betrieb von FSB133-Prozessoren noch einmal unterstreichen. Bei einem Betrieb von FSB166-Prozessoren ist aber wahrscheinlich doch DDR333-Speicher die bessere Wahl, weil dann wieder ein syncrones Verhältnis zwischen FSB- und RAM-Takt herrscht (jeweils 166 MHz DDR FSB). 100%ig sicher ist diese These aber noch nicht, weil hierzu der Nachweis mittels eines entsprechenden Tests fehlt.
neuer Artikel |
Die neuen Athlon XP Modelle 2700+ und 2800+ mit 166 MHz DDR FSB bringen nicht nur ein Quenchten mehr Performance durch den gestiegenen FrontSideBus, sondern ergeben natürlich auch eine neue Aufrüst-Problematik. Denn der höhere FSB wird derzeit nur von wenigen Mainboard-Chipsätzen unterstützt und selbst bei diesen werden teilweise BIOS-Update fällig. Genau mit diesem Problem der Kompatibilität mit bestehenden Mainboards wollen wir uns beschäftigen, neben kurzen Exkursen zur Performance und zum Overclocking der neuen Prozessoren ... zum Artikel
News des 2. Oktober 2002 |
Gestern war wie erwartet der große Tag des Athlon XP mit 166 MHz DDR FSB, die entsprechenden Reviews (27 an der Zahl!) haben das Web regelrecht überschwemmt. Empfehlenswert aus subjektiver Sicht sind die Artikel der ComputerBase (sehr umfangreich), von Hard|OCP (Vergleich KT400- zu nForce2-Plattform) und von Ace´s Hardware (gute Benchmark-Auswahl). Zusammen mit den paar Prozenten Leistungsgewinn durch den höheren FSB, der guten Unterstützung durch den nForce2-Chipsatz und vor allem dem höheren Takt des 2.25 GHz Modelle mit einem Rating von 2800+ gelingt es AMD, Intel´s Pentium 4 mit 2.8 GHz wieder einzuholen und teilweise zu überholen ...
... Zu den neuen FSB166-Prozessoren wird es im Laufe des heutigen Tages allerdings noch einen kleinen Artikel unsererseits geben. Vorab lässt sich aber schon sagen, daß AMD hier den Paperlaunch der 2400+ und 2600+ Prozesoren wiederholt und unrühmlicherweise schon wieder Prozessoren "vorstellt", welche erst in Monaten kaufbar sind. Der Gewinn der Benchmarks durch den Athlon XP 2.25 GHz / 2800+ gegen den Pentium 4 mit 2.8 GHz ist damit klar Makulatur, da erster im besten Fall zu Weihnachten, letzterer aber schon jetzt verfügbar ist.
Gleichzeitig wurde gestern auch der nVidia nForce2 Chipsatz nun endlich auch mit lauffähigen Mainboards vorgestellt, nachdem im Juli mehr oder weniger nur eine Ankündigung und Technologie-Vorstellung stattfand. Auch hierzu gibt es einige Artikeln, teilweise hat man sich auch in den FSB166-Reviews mit dem neuen nVidia-Chipsatz beschäftigt. Mit dem nForce2 scheint nVidia ein guter Wurf gelungen, da die Leistungen der VIA-Chipsätze KT333 und KT400 immer mindestens erreicht und oftmals überboten werden. Ein guter Artikel hierzu ist derjenige von GamePC, welcher zudem dem nForce2 sogar einen guten Performance-Vorteil beim Einsatz von DDR266-Modulen bescheinigt ...
... Somit ist der nForce2 am besten mit hochklassigen DDR266-Modulen zu bestücken. Denn diese kosten weniger als hochklassige DDR333-Module und hängen jene bezüglich der möglichen Speichertimings immer noch ab. Daß DDR266-Module weniger Speicherbandbreite bieten, spielt bei der DualChannel-Architektur des nForce2 keine Rolle, da die mit DDR266 entstehende Bandbreite von 4,0 GB/sec sowieso schon überdimensioniert für einen Athlon XP auf 166 MHz DDR FSB mit einem maximalen Bandbreiten-Bedarf von 2,5 GB/sec ist. DDR333-Speicher mit 5,0 GB/sec Bandbreite an einem DualChannel-Interface kann hier logischerweise nichts mehr ausrichten, aber die Timings werden schlechter und der Preis für gute DDR333-Module ist höher ...
... Damit könnte der nForce2-Chipsatz trotz des nicht unbedingt geringen Chipsatzpreises nicht nur die derzeit schnellste Lösung für den Sockel A, sondern auch bei Systemen mit hohem Speicherausbau die günstige HighEnd-Lösung darstellen, wenn man auf günstigen, aber hochklassigen DDR266-Speicher setzt (während KT333 und KT400 teuren und hochklassigen DDR333-Speicher für eine hohe Performance benötigen). Leider gibt es derzeit noch keine richtigen Tests zur Grafikleistung des nForce2 Chipsatzes, obwohl der integrierte GeForce4 MX Grafikcore gemäß unserer Einschätzung eigentlich eine durchaus auch mit Desktop-Lösungen vergleichbare Performance bieten sollte.
Zum 30.87er nVidia-Treiber (Windows 95/98/ME + Windows 2000/XP) scheinen einige Fehlinformationen durch die Gegend zu schwirren, welche wir aufklären wollen. Zum einen ist der Treiber definitiv ein offizieller Treiber, da hier direkt bei nVidia angeboten. Inoffizielle Treiber sind ausschließlich jene, welche zwar von nVidia entwickelt, von diesen aber nie veröffentlich wurden, sondern dann von einer dritten Quelle. Man kann sich allerhöchstens darüber streiten, ob der 30.87er Treiber ein Beta-Treiber wäre, der vorgelinkten nVidia-Seite ist dies allerdings nicht zu entnehmen ...
... Und zum anderen ist es unrichtig, diese Treiber als reine Stereo-Treiber zu bezeichnen. Zwar liegen sie auf dem nVidia-Server in einem Verzeichnis namens "Stereo", jedoch werden sie von nVidia selbst als "Display Driver" bezeichnet und anderes findet sich auch nicht in den Downloads. Der "echte" Stereo Treiber ist dagegen extra erhältlich, wobei dieser immer nur ein Stereo Control Panel darstellt und niemals einen vollständigen Treiber. Der sogenannte Stereo-Treiber benötigt also immer einen normalen Display-Treiber als Grundvoraussetzung, während letzterer niemals direkt zusammen mit einem Stereo-Treiber ausgeliefert wird. Damit sind die 30.87er Treiber ganz normale nVidia-Treiber, zusätzlich gibt es halt ein passendes Stereo Control Panel.
neuer Artikel |
GeForce4 Ti und anisotrope Texturfilterung - das ist so eine Sache. In den Foren geht der Begriff vom "AF-Bug" um, welcher das seltsame Leistungsverhalten der GeForce4 Ti bei anisotroper Filterung umschreibt. Jener GeForce4 Ti AF-Bug ist das Thema dieses Artikels. Dabei gehen wir sowohl auf das Filter-Verfahren ansich, als auch auf die Unterschiede zur Implementation dieses Features seitens ATi ein. Die Optimierungen, die für Detonator-Treiber zur Verfügung stehen, werden ebenfalls besprochen ... zum Artikel
News des 1. Oktober 2002 |
AnandTech waren sowohl bei ATi als auch bei nVidia zu Gast und haben sich dort angesehen, wie Grafikchips entwickelt werden. Interessant ist die Software-Simulation von entstehenden Grafikchips, womit Treiber und Kompatibilität getestet werden können - auf 0.2 fps ;-). Doch bevor ein neuer Chip zum Chipfertiger zur Produktion von Samples geht, ist eine solche Software-Simulation äußerst hilfreich zur möglichst frühen Erkennung von logischen Fehlern im Design. Denn erstens dauert jene Sample-Produktion immer um die vier Wochen und zweitens werden die zurückkommenden Samples dann auch in erster Linie auf physikalische Fehler überprüft - die logischen sollten vorher schon ausgeräumt sein.
Weitere Artikel zur Abit Siluro GeForce4 Ti4200 OTES mit ihrem auffälligem Heatpipe-Kühlsystem gibt es bei der FiringSquad, bei Hard|OCP und bei TweakTown. Natürlich interessierten in erster Linie die dabei erreichten Overclocking-Ergebnisse, nachdem diese in früheren Artikeln eher mager ausfielen. Die drei neuen Tests erreichten nun 310/300 MHz, 305/300 MHz und 310/305 MHz - was zwar überhaupt nicht mehr ist als die bisherigen Tests, aber dennoch eine neue Erkenntnis bringt: Alle 6 bisherigen Tests erreichten stabile 300+ MHz Chiptakt, womit davon auszugehen ist, daß dies mehr oder weniger jede Abit OTES-Grafikkarte schaffen sollte.
Auf Vodooalert gibt es eine im Aufbau begriffene Voodoo-Kompatibilitätsliste, welche insbesondere bei neueren Spiele-Titel eine gute Hilfe für Besitzer von Voodoo 3/4/5 Grafikkarten sein sollte. Aufgeteilt nach Voodoo3 und Voodoo 4/5 gibt diese Kompatibilitätsliste wertvolle Tips zu den für diese Grafikkarten zu treffenden Einstellungen und den zu verwendenden Treibern in Battlefield 1942, C&C Renegade, Dungeon Siege, Grand Theft Auto III, Mafia, Morrowind, Return to Castle Wolfenstein, Medal of Honor und WarCraft III.
Sich mit dem Overclocking der neuen Celerons auf Northwood-Basis haben sich die x-bit Labs beschäftigt. Alle Celerons ab 2.0 GHz sind bekanntermaßen mit Northwood-Core ausgerüstet, was den neuen Celerons zwar keinerlei Performance-Vorteile bringt (da gleicher FSB und Level2 Cache wie die alten Celeron Willamette), aber dennoch die Overclocking-Aussichten enorm steigert. Und in der Tat konnte man das 2.0 GHz Exemplar auf stolze 3.0 GHz bei 150 MHz FSB übertakten - für eine LowCost-CPU sicherlich ein herausragendes Ergebnis. Allerdings hat die Sache einen gewissen Haken: Der neue Celeron ist viel zu langsam in der Pro-MHz-Leistung ...
... So hängt der neue Celeron selbst auf sehr hohen Frequenzen immer noch weit hinter seinem großen Bruder Pentium 4 zurück. Zwar skaliert der Celeron bei einer 50-Prozent-Übertaktung ähnlich wie der Pentium 4 (28,5 zu 31,1 Prozent unter Q3A), dies reicht für den Celeron 3.0 GHz mit 150 MHz FSB jedoch gerade einmal aus, einen Pentium 4 Northwood 1.6 GHz mit 100 MHz FSB geringfügig zu schlagen. Der kleine Level2-Cache von 128 kByte bremst den Celeron gehörig aus, zwischen gleichgetakteten Celeron und Pentium 4 Modellen existiert so eine Leistungsdifferenz von ungefähr 30 bis 35 Prozent, welche zudem mit höheren Taktraten geringfügig, aber kontinuierlich ansteigt.
Weil bei Anhängern und Besitzern von non-nVidia Grafikkarten das dicke nVidia-Logo beim Start von Unreal Tournament 2003 Demo für einige Irritationen gesorgt hat, gibt es nun Abhilfe mittels modifizierter Startlogos. Bei den Xabregamers stellt man dasselbe Logo (welches eigentlich eine UT2003-Map ist) auch für Xabre-, 3dfx-, ATi- (2 Stück), Matrox-, Parhelia-, PowerVR- und sogar Bitboys-User zur Verfügung (zuzügliche einem Logo für die unvermeidliche Anti-nVidia-Fraktion). Und insofern die für diese Woche geplante Vollversion von Unreal Tournament denselben Startvorgang aufweist, dürften sich diese Dateien nicht nur bei der Demo, sondern auch bei eben jener Vollversion verwenden lassen :-).
News des 30. September 2002 |
Weitere NV18-Reviews gibt es bei der HardwareZone (MSI), bei TweakTown (Prolink) und bei der Virtual Zone (Triplex). Insbesondere letztgenannter Artikel stößt dabei das Thema NV18-Overclocking an, setzt doch die Triplex-Karte nicht einmal auf die default-Taktraten von 275/256 MHz, sondern gleich auf 300/300 MHz. Zusätzlich war es der Virtual Zone möglich, ihr Exemplar auf stolze 390/370 MHz ohne Bildfehler zu übertakten. Ganz so weit kamen die anderen NV18-Tester allerdings nicht: Die HardwareZone konnte mit ihrer MSI-Karte stabile 345/320 MHz verzeichnen, TweakTown stabile 335/292 MHz auf der Prolink-Karte ...
... Die verschiedenen erreichten Speichertakte sind durch die verwendeten Speicherbausteine problemlos erklärbar: Während die MSI auf 3,6ns Bausteine setzte und TweakTown auf 5,0ns Bausteine (für den Speichertakt der Karte von 280 MHz eigentlich viel zu niedrig, möglicherweise ein Schreibfehler), benutzte Triplex gleich die normalerweise nur bei GeForce4 Ti verwendeten 2,86ns Bausteine. Warum allerdings die Triplex-Karte 390 MHz Chiptakt erreichte, während es bei den MSI- und Prolink-Ausführungen "nur" zu 335 bzw. 345 MHz reichte, ist nicht sicher erklärbar, aufgrund des hohen Unterschiedes kann es auch kaum um einen Einzelfall handeln ...
... Die auf der Triplex eingesetzten 2,86ns Speicherbausteine und der schon per default höhere Takt von 300/300 MHz lassen allerdings die Overclocking-Ausrichtung dieser Karte klar erkennen - möglicherweise geht Triplex bei seiner NV18-Karte deshalb auch gleich mit einer höheren Chip- und eventuell auch Speicher-Spannungen heran, wodurch sich die besseren Overclocking-Ergebnisse gut erklären lassen würden. Doch auch die Overclocking-Ergebnisse der "normalen" GeForce4 MX440 8X Ausführungen von MSI und Prolink können sich mit um die 340 MHz Chiptakt durchaus sehen lassen ...
... Zwar wird der NV18-Chip immer noch in 0.15 micron wie auch der Vorgänger-Chip NV17 gefertigt, dennoch scheinen die GeForce4 MX440 8X Grafikkarten regelrecht nach Overclocking zu verlangen. Daß stabile Chiptakte von 340 MHz und mehr bei diesen herauskommen können, kommt allerdings nicht ganz unerwartet: Wenn ATi´s Radeon 9700 mit über 100 Millionen Transistoren schon per default mit 325 MHz takten kann, ist es eigentlich logisch, daß die 30-Millionen-Transistoren-Chips GeForce4 MX440 8X dies ebenfalls erreichen können. Wahrscheinlich sind sogar bei allen GeForce4 MX440 8X Karten mittels Voltage Mod die bei der Triplex-Karte gesehenen fast 400 MHz Chiptakt realisierbar.
Hard Tecs 4U haben sich in einem Silent Cases Roundup sehr ausführlich verschiedenen gedämmten Gehäuse angenommen. Hierzu möchten wir aus eigener praktischer Erfahrung, da wir selber über die dort getesteten NoiseControl- und FrostByte-Gehäuse verfügen (bei NoiseControl allerdings die FullTower-Version), hinzufügen: Gehäusedämmung kann bei aller nachweislicher Wirkung nur einen Teil eines Gesamt-Konzeptes darstellen. Festplatten sollten spätestenes ab 7200 U/min in einen schwingungsmindernden Einbaurahmen, bei der Grafikkarte ist auf verträgliche Lüftergeräusche zu achten und selbstverständlich sollte es für die CPU ein Silent Cooler sein ...
... Damit lässt sich die vom Rechner ausgehenden Geräuschentwicklung selbst für eher empfindliche Ohren auf ein niedrig angesiedeltes Niveau herunterdrücken, vor allem hochfrequente (im Sinne des menschlichen Gehörs) Töne sind damit (fast) vollkommen verschwunden. Doch nach all diesen zumeist durchaus kostspieligen Maßnahmen wird jedoch deutlich werden, daß ein vollkommen leiser Rechner noch immer an einer schwer zu beseitigenden Lärmquelle krankt: Dem Netzteil. Dieses läßt sich naturgemäß nicht über eine Gehäusedämmung dämmen, auch regelbare Lüfter sind keine Lösung, da diese bei voller Last dann sowieso doch wieder auf Maximalspeed drehen ...
... Hier müssen klar bauliche Veränderungen an den Netzteilen her - ein erster Schritt ist hier das teilweise passiv gekühlte Engelking-Netzteil, welches Hardwares getestet haben. Ausgestattet mit einem riesigen passiven Kühlkörper bleibt bei diesem der trotzdem noch vorhandene Netzteil-Lüfter bis zu einer Temperatur von 45° des passiven Kühlkörpers ausgeschaltet, womit das Netzteil als Lärmquelle ausfällt. Allerdings ist fraglich, ob das Engelking-Netzteil auch mit höheren Prozessoren als dem bei Hardwares verwendeten Thunderbird 1.2 GHz noch einen passiven Betrieb ermöglichen kann, heute verkaufte Prozessoren haben schließlich weit höhere Verlustleistungen, die auch irgendwie abgeführt werden müssen.