News-Archiv 19. - 25. Mai 2003 (21. Kalenderwoche)
25. Mai 24. Mai 23. Mai 22. Mai 21. Mai 20. Mai 19. Mai
News des 25. Mai 2003 |
AMD in Sight haben einen sehr ausführlichen ATi-Treibervergleich anzubieten. Zu den Catalyst-Versionen 03.0, 03.1, 03.2 und 03.4 wurde dabei auch ein modifizierter Catalyst 03.2 Treiber eingesetzt, in welchem die verwendete Radeon 9700 Pro auf dem R350-Renderpfad betrieben wurde (im Prinzip gleich zu den seinerzeitigen Omega-Treibern). Die damit dokumentierte mehrmonatige Treiberarbeit bei ATi weisst die größten Fortschritte unter Direct3D bei Anti-Aliasing oder/und anisotropem Filter auf (meist zwischen 10 und 20 Prozent, in einem Fall sogar 50 Prozent), während der "Normalmodus" unter Direct3D und die Mehrzahl aller OpenGL-Messungen sich zwischen Catalyst 03.0 und 03.4 kaum bewegte, sprich dort keine Performance-Fortschritte erzielt wurden.
Einen exzellenten Artikel zur Thematik der anisotropen Texturenfilterung bei nVidia haben Digit-Life verfaßt. Der Artikel bezieht sich zwar nur auf OpenGL und dort nur auf die Treiber 43.45 und 43.51 (mit anderen Treibern kann das aufgrund ständiger Weiterentwicklung der Treiber schon wieder anders aussehen), dafür hat man jedoch die Unterschiede der nVidia-Filtermodi Application (Quality), Balanced und Aggressive (Performance) sowohl mit Screenshots als auch threoretisch gut untermauert. Zudem weisst man auf das AnisoBoosterOGL-Script des RivaTuners hin, welches stattliche Performance-Gewinne von um die 10 Prozent beim anisotropen Filter unter OpenGL erreichen kann. Ähnliches für Direct3D findet sich im übrigen auch in unserem aTuner (im "D3D Extra Options Panel").
Intel´s Pentium-M Prozessor, Marketing-technisch mit dem entsprechenden Chipsatz und einer Funknetzwerk-Lösung als Centrino-Technologie zusammengefaßt, ist zwar in der Pro-MHz-Leistung gegenüber dem Pentium 4 deutlich verbessert, sollte aber dennoch eigentlich nicht an einen (gleichgetakteten) Athlon XP herankommen. Um zu mehr verwundern die Testergebnisse eines Artikels seitens Tom´s Hardware Guide, in welchem ein Vergleich von Notebooks mit Pentium-M mit 1.5 und 1.6 GHz sowie Low-Voltage Athlon XP-M 1.47 GHz / 1700+ GHz den Intel-Prozessor recht klar vorn sieht ...
... Womöglich hat AMD bei seiner supersparsamen Mobile-Ausführung, gekennzeichnet durch das "Low-Voltage" und das "-M", doch einige Kompromisse zugunsten eines niedrigeren Stromverbrauchs machen müssen, was dann letztlich auch auf die Pro-MHz-Leistung des Low-Voltage Athlon XP-M drückt. Dennoch dürfte dieser Prozessor und entsprechende Notebooks nicht uninteressant sein, denn AMD gibt diese Prozessorn zu in diesem Markt völlig untypischen Preisen von um die 100 $ ab. Intel´s Centrino steht dagegen für die Notebook-Hersteller mit bis zu 720 $ zu Buche, was AMD-gepowerte Notebooks doch deutlich günstiger als Intel-gepowerte (bezogen auf den Pentium-M) machen dürfte.
Von unseren Forums-Usern wurde wir gebeten, auf das neu gegründete inoffizielle 3DCenter RC5-72 SubTeam hinzuweisen. Bei RC5-72 handelt es sich ähnlich wie SETI@Home oder United Devices um ein Distributed Computing Projekt, das Ziel des RC5-72 Projekts ist dabei die Entschlüsselung einer mit eben diesem Schlüssel verschlüsselten Nachricht, um die prinzipielle Knackbarkeit auch so hochwertiger Verschlüsselungen zu beweisen. Das inoffizielle 3DCenter RC5-72 SubTeam ist dabei ein Teil des bekannten Distributed.net RC5-72 Teams, alle Informationen zum 3DCenter SubTeam sowie eine Anleitung zum Schnell-Einstieg findet man in unserem Forum. PS: Natürlich gibt es auch schon länger ein inoffizielles 3DCenter SETI@Home Team für diejenigen, welche lieber Aliens nachjagen ;-).
News des 24. Mai 2003 |
Recht schwere Geschützte fährt der Benchmark-Hersteller Futuremark bezüglich der letzten nVidia-Treiber auf und bezichtigt diese (Versionen 43.51 und 44.03) des Cheatings im 3DMark03. Um dies zu umgehen, gibt es erst einmal einen Patch Build 330 (5 MB) für den 3DMark03, zusätzlich hat Futuremark seine Vorwürfe in einem PDF (1 MB) hinterlegt bzw. untermauert. Im genauen soll es wohl einige "Optimierungen" in den nVidia-Treibern rein nur für den 3DMark03 geben, in den meisten Fällen erkennt der nVidia-Treiber dabei Futuremark-Shadercode und ersetzt diesen am Programm vorbei durch eigenen, auf nVidia-Karten optimierten Shadercode ...
... Dadurch gewinnt beispielsweise eine GeForceFX 5900 Ultra unverdiente 1127 3DMarks (von 4679 auf 5806) oder 24 Prozent, was durchaus in diesem Benchmark eine ganze Dimension darstellt. Allerdings scheint auch ATi ein paar kleine "Optimierungen" mitlaufen zu haben, denn im neuen Build 330 des 3DMark03 war nach Aussage von Futuremark eine Radeon 9800 Pro ebenfalls 2 Prozent (8 Prozent im Test 4) langsamer unterwegs, was Futuremark im übrigen noch genauer untersuchen will. Ironischerweise bezichtet Futuremark ATi allerdings derzeit nicht der Cheaterei - ein Schelm, wer böses dabei denkt, da ATi im 3DMark03-Betaprogramm ist und nVidia seit einiger Zeit nicht mehr ;-) ...
... Abseits dessen ist es natürlich offensichtlich, daß hier nVidia diverse 3DMark03-"Optimierungen" in den Treibern vorgenommen hat, welche von Futuremark nun als Cheat bezeichnet werden. Ob allerdings der komplette Optimierungsgewinn von 24 Prozent alleinig durch das Vernichten von Bildqualität erreicht wurde, darf getrost bezweifelt werden. Leider sind hier die Ausführungen von Futuremark nicht besonders hilfreich, es fehlen zum größten Teil die Beweis-Screenshots, um eine niedrigere Bildqualität nachzuweisen. Futuremark indes lehnt sowieso und prinzipiell jegliche Programm-bezogene (und damit nicht allgemeine) Treiber-Optimierung ab, da dies dem Anspruch des 3DMark03 als generellen und allgemeingültigen Grafikkarten-Benchmark zuwiderlaufe ...
... Vermutlich werden sich an dieser Stelle nVidia und Futuremark auch in Zukunft auch noch weiter "fetzen", denn als das Sekundärziel von nVidia (möglicherweise sogar das Primärziel) gilt allgemein die Diskreditierung des 3DMark03 als General-Grafikkartenbenchmark, nachdem man sich mit Futuremark seinerzeit über die Ausführung und Zielsetzung dieses Programms überworfen hatte und in Folge dessen freiwillig aus dem Betaprogramm zum 3DMark03 ausgestiegen war. Wir für unseren Teil können nun diesem Fall von Optimierung/Cheaterei in 3DMark03 ehrlicherweise keinen besonderen Gehalt abgewinnen, da synthetische Benchmark-Programme bei uns sowieso einen sehr schweren Stand haben ...
... Wichtiger ist vielmehr die Erkenntnisse, welche sich aus dieser Geschichte ableiten lassen: Zum einen sollte nun jedem klar sein, daß die Grafikchip-Hersteller im gewöhnlichen keine Hemmungen haben, ihre Produkte auch über zweifelhafte Treiber-"Optimierungen" zu puschen. So lange dies im Rahmen von echten Optimierungen bleibt, sprich keine Bildqualität geopfert wird, ist dies auch akzeptabel und in Fällen von realen Spielen sogar von nutzem. Alle Fälle, wo jedoch zugunsten der Performance nachweislich Bildqualität geopfert wird, sind definitiv nicht akzeptabel und im Extremfall auch als Cheat zu bezeichnen ...
... Hier sind schlicht Anwender und (stärker) Testredakteure gefordert, sich stärker mit dem Thema "Bildqualität" zu beschäftigen und nicht nur auf die reinen Benchmark-Ergebnisse zu sehen. Und natürlich macht man es den Grafikchip-Herstellern auch sehr einfach, wenn man seine Aussagen zur Leistungsfähikeit von Grafikkarten rein an den Zahlen eines 3DMark03 festmacht - aber dies steht auf einem anderen Blatt ;-). Ehrlicherweise müssen wir aber auch anmerken, daß man zu diesem Thema der nVidia-Cheaterei in 3DMark03 durchaus auch eine völlig andere, deutlich härtere Sichtweise haben kann, wie die angeregte Diskussion in unserem Forum beweisst.
News des 23. Mai 2003 |
Laut einer bei Yahoo nachschlagbaren Mitteilung der Presseagentur Reuters verspricht ATi´s Präsident David Orton noch für diesen Herbst einen erneuten ATi-Angriff auf die Leistungskrone im Desktop-Grafikkartenmarkt. Aller Wahrscheinlichkeit nach ist damit der R360 Chip gemeint, von welchem man sich als direkte Weiterentwicklung des R350-Chips (Radeon 9800 /Pro) allerdings eher keine Wunderdinge erwarten sollte. Aufgrund des doch eher geringen Unterschieds an der Leistungspitze sollte der R360-Chip dennoch in der Lage sein, die derzeit führende GeForceFX 5900 Ultra zu entthronen ...
... nVidia hingegen wird den R360 sowie den vermutlich mit diesem Chip anstehenden Führungswechsel gelassen sehen, denn sollten sich die derzeitigen nVidia-Planungen realisieren lassen, wird ATi nur für eine sehr kurze Zeit an der Spitze stehen. Bei nVidia ist nämlich für den gleichen Zeitraum schon eine regelrecht neue Architektur in der Pipeline - der NV40-Chip. Jener soll noch vor dem Ende diesen Jahres releast werden und dürfte dann vermutlich den R360-Chip sowohl von der Performance als auch von den Features (Vertex und Pixel Shader 3.0) her klar überflügeln ...
... ATi hingegen wird an den Grundfeatures der R300/R350-Chips selbst Anfang nächsten Jahres noch nichts verändern, erst einmal wird man nach derzeitigem Wissen mit dem R390- bzw. R420-Chip im Frühling 2004 eine weitere Verbesserung dieser Grundarchitektur in die Runde werfen, welche wie schon R350 und R360 in erster Linie auf eine höhere Leistung getrimmt ist und dazu als erster HighEnd-Chip von ATi in 130nm gefertigt wird (R360 wird vermutlich wie R300 und R350 noch in 150nm hergestellt). Erst im Herbst 2004 wird ATi mit der grundsätzlich neuen Architektur R500 ebenfalls Vertex und Pixel Shader 3.0 einführen. In wie weit gerade letzteres Features demnächst eine Relevanz haben wird, sei allerdings erst einmal dahingestellt, denn Spiele mit Shader 3.0 sind wohl erst in einigen Jahren zu erwarten.
Zum in den gestrigen News besprochenen Fall der deutlich zu hohen Benchmark-Ergebnisse des MSI i865PE-Mainboards gibt es nun bei Tom´s Hardware Guide eine Stellungnahme seitens MSI zu lesen. In dieser gibt MSI Taiwan zu, daß die Annahme von Tom´s Hardware Guide, das genannte Mainboard würde unter Last den FrontSideBus um 6 bis 8 Prozent erhöhen, korrekt ist (wir hatten gestern etwas von "15 Prozent" geschrieben, ein bedauerlicher Fehler unserseits!). Dabei sei jenes dynamische FSB-Overclocking allerdings kein Bug oder ein Cheat, um Hardware-Tester zu Lobgesängen auf dieses Board zu animieren, sondern ein im Test befindliches neues Feature, welches zukünftig auf allen MSI-Boards des HighEnd-Bereiches zum Einsatz kommen soll ...
... Ob dies letztlich der Wahrheit entspricht, läßt sich natürlich kaum jemals sicher herausfinden, zumindestens klingt die MSI-Erklärung nicht unplausibel und passt auch zur Faktenlage. Für das dynamische Overclocking ist im übrigen ein "Core Cell" Chip auf dem Mainboard verantwortlich, der auch schon auf dem i875P-Mainboard von MSI verbaut ist - dort allerdings gab es keine Probleme mit einer automatischen und nicht vom User angeforderten FSB-Übertaktung unter Last. Sei es, wie es ist - wichtig ist in erster Linie, daß MSI dem User wieder die Kontrolle über die Hardware zurückgibt. Sprich, es wird ein BIOS für die betroffenen Mainboards benötigt, in welchem jene Funktionalität per default deaktiviert ist und vom User dann entsprechend an/aus-geschaltet werden kann ...
... Sollte MSI diese eigentlich selbstverständliche Forderung erfüllen, "darf" MSI dann auch gern jegliche weitere Overclocking-Spielereien in ihre BIOSe aufnehmen und die Möglichkeiten des "Core Cell" Chips voll ausreizen. Für den Anwender muß nur garantiert sein, daß er nach dem Auspacken des Mainboards eine sich nicht unkontrolliert selbst übertaktende Hardware in den Händen hält, schließlich gibt es auch Anwender, welche überhaupt nichts vom Übertakten halten - einmal ganz abgesehen vom möglichen Garantieverlust auf Prozessoren, Speicher und Steckkarten, welche bei Übertaktungen fast prinzipiell entstehen.
neuer Artikel |
Multisampling Anti-Aliasing unter der Lupe
Multisampling Anti-Aliasing ist heutzutage kein Thema grauer Theorievortragungen zu den reinen Möglichkeiten von Grafikchips mehr, sondern selbst auf 3D-Beschleunigern des Mainstream-Marktes in brauchbarer Qualität und Geschwindigkeit zu finden. Zeit also, das momentan meistgenutzte Anti-Aliasing Verfahren inklusive der Unterschiede bei den Multisampling-Ausführungen verschiedener Grafikchips etwas genauer zu betrachten ... zum Artikel
News des 22. Mai 2003 |
Gestern war natürlich in erster Linie der Tag des i865PE "Springdale" Chipsatzes und der neuen FSB800-Prozessoren Pentium 4 2.4C, 2.6C und 2.8C von Intel. Damit bringt Intel den FSB800 und auch HyperThreading in Mainstream-Gefilde (bisher gab es HyperThreading nur bei den Top-Modellen 3.0 und 3.06 GHz) - sprich, macht die Sache bezahlbar. Gerade die Einführung von HyperThreading auf niedriger getakteten und damit kostengünstigeren Prozessoren wird sicherlich viele Multimedia-begeisterte Anwender zum Kauf solcher Prozessoren bewegen, ermöglicht doch gerade HyperThreading dem Pentium 4 bei den meisten Multimedia-Aufgaben einen großen Vorteil, welcher zudem schwerlich allein durch hohe Taktraten oder FSBs erreichbar ist ...
... Davon abgesehen stellt der i865PE-Chipsatz mit Codenamen "Springdale" für diese niedriger getakteten FSB800-Prozessoren die ideale Plattform dar, da bei diesen die Mainboard-Preise (ca. 150 Euro) doch um einiges günstiger als beim HighEnd i875P-Chipsatz mit Codenamen "Canterwood" liegen werden (ca. 200 bis 250 Euro). Da der Leistungsunterschied (der Feature-Unterschied sind rein die PAT-Technik für bessere Speicherlatenzen sowie die Unterstützung von ECC-Speicher durch den i875P) zwischen i865PE und i875P eigentlich nur bei wenigen Prozentpunkten (im Rahmen von 2-6 Prozent) liegt, spricht eigentlich derzeit kaum etwas für den deutlich teureren i875P, in den meisten Fällen sicherlich nicht einmal im HighEnd-Bereich ...
... Dabei sieht es bei der Menge an Testberichten zu unterschiedlichen i865PE- und auch einigen i865G-Mainboards mit intergrierter "Intel Extreme Graphics" (Liste der Tests) ganz danach aus, als könnten viele Mainboard-Hersteller ihre i865PE-Platinen im Prinzip sofort ausliefern, bei Intel´s neuen Pentium 4C Prozessoren (Liste der Tests) stellt sich diese Frage sowieso nicht, da der Hersteller im Desktop-Markt prinzipiell nur auch sofort lieferbare Produkte launcht (hört, hört, ihr Hersteller von Grafikchips). Im übrigen hatte von den i865PE-Testern diejenigen Glück, welche kein MSI 865 Neo2 Mainboard im Test hatten ;-), was dagegen aber auf die Artikel von Hard Tecs 4U und von Tom´s Hardware Guide zutrifft ...
... Alle anderen Tests mussten dann nämlich nicht eine Erklärung dafür finden, wieso dieses i865PE-Mainboard von MSI kategorisch schneller als gute i875P-Mainboards ist, was aufgrund der Tatsache, daß der i865PE ja nur eine abgespeckte Version des i875P ist, eigentlich ein Ding der Unmöglichkeit sein sollte. Die Mannen von Tom´s Hardware Guide haben hier nun aber eine plausible Erklärung anzubieten: Und zwar soll das MSI-Board unter 100% Last oder nahezu 100% Last den FrontSideBus dynamisch um 6 bis 8 Prozent erhöhen, was man auch mit einem leider nirgendwo downloadbaren oder dokumentierten Frequenzanzeige-Tool namens "P4 CPU Frequency Utility" nachweist ...
... Dies wäre in der Tat dann ein ziemlich dicker Hund, denn zum einen ist diese Funktion - sollten die Ausführungen von Tom´s Hardware Guide zutreffen! - ohne eine Dokumentation des Herstellers klar als Cheating einzuordnen und zum anderen prinzipiell sowieso nicht besonders nett zu den Käufern dieser Hardware, welche eventuell gar nicht übertakten oder aber zumindestens die Kontrolle über mögliche Übertaktungen bei sich liegen haben wollen. Allerdings ist es momentan wohl noch etwas zu früh, hier MSI gleich das allerschlimmste vorzuwerfen: Zum einen konnte der "Beweis" von Tom´s Hardware Guide bisher noch von keiner dritten Partei nachgeprüft werden ...
... Desweiteren ist ein bewußtes Cheating in derart hohem Umfang eigentlich eher unwahrscheinlich, weil sich jeder Hersteller ausrechnen kann, daß dieses - wie geschehen - eigentlich sofort entdeckt werden wird. Für das Gewinnen der Benchmarks gegen Boards mit gleichem Chipsatz reicht zudem ein üblicherweise angesetztes "Mini-Cheating", sprich die Erhöhung des standardmäßigen FrontSideBus um wenige Prozent - und nicht gleich um 6 bis 8. Und letztlich ist MSI eigentlich in den letzten Jahren als jener große Mainboard- und Grafikkartenhersteller mit der solidesten und zuverlässigsten Produkt- und Firmenpolitik bekannt und ein derartiges Vorgehen passt überhaupt nicht zu dieser Firma. Insofern gilt in diesem Fall: Abwarten auf neue Informationen, welche hoffentlich bald eintreffen werden.
News des 20. Mai 2003 |
Nach der durchaus gelungenen Vorstellung der GeForceFX 5900 Ultra kann nVidia scheinbar wieder lachen - auch über die eigenen Fehler in Form der mehr oder weniger verunglückten GeForceFX 5800 /Ultra und deren FlowFX-Kühlung. So hat nV News ein Video von nVidia erhalten, in welchem in einem - natürlich gestelltem - Meeting von nVidia-Führungskräfte diese sich über die Vorteile und vielfältigen Anwendungsmöglichkeiten :-) der FlowFX-Kühlung austauschen. Das natürlich ironisch gemeinte Video (WMV, 5 MB) auf die inzwischen offiziell von nVidia gar nicht mehr angebotene GeForceFX 5800 /Ultra ist unter vorstehendem Link bei nV News oder auch bei uns zu beziehen.
Wie die DigiTimes berichtet, hat SiS nun Nägel mit Köpfen gemacht und die eigenen Grafikchip-Sparte aus dem Unternehmen ausgegliedert sowie in ein extra Unternehmen überführt. Dieses nennt sich nun Xabre Graphic Inc (XGI), womit der ursprünglich geplante Name "Tu Chiang Technology" wohl keine Rolle mehr spielt. SiS erhofft sich mit diesem Schritt, ein eigenes Markenimage für die XGI-Grafikkarten aufbauen zu können, was sich vom LowCost-Image der Mutterfirma SiS lösen kann. Als erster Schritt in diese Richtung wäre natürlich die offizielle Vorstellung des lange angekündigten Xabre II DirectX9-Grafikchips zu begrüßen, welchen SiS zur CeBIT noch für diesen Sommer versprochen hat. Ob SiS die seinerzeitige Aussage von einer Vorstellung des Xabre II im Juni wird halten können und ob dieser Chip gegen die neuen ATi- und nVidia-Chips etwas reißen kann, bleibt abzuwarten.
Die x-bit Labs spekulieren ein wenig, ob die GeForceFX 5900 Value nur ein 128bittiges DDR-Speicherinterface haben wird, und bringen dazu auch ein paar gute Argumente vor. Das wichtigste Argument übersehen sie aber unserer Meinung nach: Kostentechnisch bringt nVidia die Kappung des NV35-Speicherinterfaces bei der Value-Ausführung auf die Hälfte gar nichts, da weiterhin der identische NV35-Chip verbaut wird. In solch einer Situation entschließt man sich nur zum bewußten Ausbremsen des Chips, wenn dieser in der Performance nicht einer höherpreisigen Lösung zu nahe kommen und damit deren Erfolg gefähren darf ...
... Dies läßt sich jedoch bei der GeForceFX 5900 Value hervorragend auch über die Taktfrequenz erledigen, da diese große Spielräume offen läßt. Bei einem angenommenen 128 Bit DDR Speicherinterface auf der GeForceFX 5900 Value müsste man zudem mit recht hoch taktenden (teuren) Speichermodulen arbeiten, um nicht unter die Performance-Werte der GeForceFX 5600 Ultra mit ebenfalls 128 Bit DDR Speicherinterface und mit 400 MHz DDR taktenden Speichern zu fallen. Bei einem 256 Bit DDR Speicherinterface hätte es die GeForceFX 5900 Value hier wesentlich leichter und könnte ihrer Namensgebung zufolge auch mal ein paar günstigere Speichermodule ohne großartigen Leistungsverlust einsetzen ...
... Zwar sagt die Namensgebung "Value" eigentlich aus, daß die Karte ein günstiges Angebot sein soll, dies gilt jedoch in diesem speziellen Fall nur bezogen auf das HighEnd-Segment: Die GeForceFX 5900 Value ist die Value-Ausführung eines HighEnd-Chips im HighEnd-Segment. Dies deutet auch die preisliche Lage an, welche die GeForceFX 5900 Value mit 299 $ Listenpreis und die GeForceFX 5600 Ultra mit 199 $ Listenpreis sieht - hier sollte man bezüglich des Preisunterschiedes also auch deutliche Leistungsunterschiede zugunsten der teureren Karte erwarten dürfen. Insofern ist es eher unwahrscheinlich (jedoch nicht unmöglich), daß nVidia bei der Value-Ausführung das original 256 Bit DDR breite Speicherinterface halbiert.
Davon abgesehen fehlen leider immer noch konkrete Angaben von nVidia zu den Taktfrequenzen der GeForceFX 5900 und der GeForceFX 5900 Value, wobei diese bei letzterer vermutlich noch nicht einmal entgültig feststehen. Bei den Taktfrequenzen der normalen GeForceFX 5900 gibt es jetzt zumindestens eine Information aus einer AOpen-Pressemitteilung, daß deren Speichertakt bei 400 MHz liegen soll, ohne einer Angabe des Chiptaktes allerdings. Gainward hingegen sieht seine GeForceFX 5900 auf 400/450 MHz und seine GeForceFX 5900 Ultra im Gegensatz zu den bisherigen Hardware-Tests (dort waren es 450/425 MHz) sogar auf 450/450 MHz ...
... Momentan sind also noch nicht einmal die Taktraten der Ultra-Ausführung wirklich sicher, wobei wir dazu tendieren, in diesem Fall teilweise AOpen und teilweise Gainward zu glauben. Unsere derzeitige Annahme geht dahin, daß die GeForceFX 5900 Ultra mit 450/450 MHz antritt, die normale GeForceFX 5900 nur knapp dahinter mit 400/400 MHz und die GeForceFX 5900 Value irgendwo in der Richtung 300/300 bis 325/325 MHz. Der Value-Chip scheint ideal für nVidia zu sein, um die - aufgrund des 130nm Fertungsprozesses sicherlich nicht überragende - Produktionsausbeute an NV35-Chips ausreichend hoch zu halten ...
... Dies erreicht man, indem man jene NV35-Chips, welche die 450/400-MHz-Prüfung nicht bestanden haben, einfach noch einmal auf wesentlich niedrigeren Taktraten á 300 MHz prüft und bei Erfolg dann als Value-Chips verkaufen kann, anstatt sie komplett ausbuchen zu müssen. Dementsprechend gehen wir auch von recht niedrigen Taktraten beim Value-Chip aus, welche dieser aber durch seine vollen 8 Rendering-Pipelines und das vermutlich volle 256 Bit DDR Speicherinterface wieder wettmachen kann. Durch die deutlich niedrigeren Taktraten gegenüber der Ultra- und der Normal-Version wird sich zudem ganz automatisch der von nVidia gewünschte Leistungsunterschied einstellen, so daß die Value-Version somit kaum den Verkaufserfolg ihrer beiden großen Brüder gefähren dürfte.
News des 19. Mai 2003 |
Wie Hard Tecs 4U in Berufung auf VIA berichten, wird es entgegen aktueller Spekulationen laut VIA-Planung keinen weiteren Sockel A Chipsatz nach dem VIA KT600 geben, ergo auch keinen KT600A mit DualChannel Speicherinterface. Letzteres lehnt VIA für den Athlon XP Prozessor sowieso ab, da dieser theoretisch nichts mit soviel Speicherbandbreite anfangen kann (Athlon XP á FSB400: 3 GB/sec, KT600 á DDR400: 3 GB/sec, nForce2 á DDR400: 3 GB/sec). Gestützt wird diese Aussage auch durch die Ergebnisse des ersten KT600-Tests bei HardOCP, welche bei die SingleChannel-Lösung KT600 leichte Vorteile vor der DualChannel-Lösung nForce2 hatte.
In unserer heutigen LowNoise-Rubrik sind einige interessante Tests von Silent-Netzteilen zu finden, besonders weiss dabei der Test des Silentmaxx proSilence PCS-350 lüfterlosen 350W Netzteiles bei SilentHardware zu gefallen. Und dies nicht nur wegen des Testobjekts, welches möglicherweise das beste derzeit erhältliche Silent-Netzteil darstellt, sondern vor allem wegen der (erschwerten) Testbedingungen. Das Netzteil wurde nämlich in einem gedämmten Tower getestet, zudem befand sich die Festplatte in einem SilentDrive, der CPU-Kühler war auch nur eine Silent-Ausführung und die Grafikkarte wurde gleich nur noch passiv gekühlt ...
... Diese verschärften Testbedingungen mögen kaum zu verallgemeinern sein, jedoch sind bei Silent-Freaks solche und ähnliche Konfigurationen absolut keine Seltenheit - und genau an diese Zielgruppe richtet sich schließlich ein Silent-Netzteil. Um so erstaunlicher ist es, daß das Silentmaxx-Netzteil keine Probleme unter diesen erschwerten Bedingungen hat, den Rechner stabil zu halten bzw. seine Leistung als Netzteil zu bringen. Einzig allein das Netzteil selber wird dabei mit 46 bis 48 Grad Celcius (normal sind 30 bis 35 Grad) ausgesprochen warm (was auch ca. 5 Grad höhere Gehäuse-Innentemperaturen zur Folge hat), was wohl die Lebensdauer eines solchen lüfterlosen Netzteils einigermaßen verkürzen wird.
Der Software-Hersteller SCO, früher unter Caldera bekannt, bezeichnenderweise anno 1979 mit Kapital von Microsoft gegründet und bis vor kurzem noch Vertreiber einer eigenen Linux-Distribution, fährt laut dem Heise Newsticker eine abenteuerliche Behauptung auf: Angeblich seien im Linux-Betriebssystem direkt Code-Teile von UNIX zu finden, auf welche SCO als - selbsternannter - Besitzer von UNIX Urheberrechtsansprüche erhebt. Seit einige Monaten geht SCO deshalb auch gegen verschiedene Linux-Distributionen wegen angeblicher Urheberrechtsverletzungen vor, bisher jedoch mit keinerlei zählbarem Erfolg ...
... Nun geht man allerdings noch einen Schritt weiter und läßt in einem offenen Brief verlauten, daß sogar die Linux-Anwender für die Nutzung von Linux haftbar gemacht werden können ;-)). Dabei steht die gesamte Behauptungskette von SCO jedoch auf äußerst tönernen Füßen: Der angebliche Alleinbesitz des UNIX-Betriebssystems ist völlig unbewiesen und damit derzeit eine reine Behauptung von SCO. Ebenso gibt es derzeit keinerlei Beweise auf UNIX-Code im Linux-Code (Linux wurde seinerzeit als abgespeckte Desktop-Version von UNIX geplant und ist diesem damit nicht unähnlich), obwohl speziell dieser Beweis doch wohl sehr einfach zu erbringen wäre ...
... Und selbst wenn es UNIX-Code in Linux gäbe, wäre immer noch zu klären, ob SCO durch deren (ehemalige) eigene Linux-Distribution die Nutzung des UNIX-Code in Linux nicht höchstselbst zum Allgemeingut gemacht hätte, so wie es die eigentlich für Linux geltende GNU General Public License vorsieht. Ob hier SCO wirklich scharf auf UNIX-Lizenzgebühren von allen Linux-Distributionen ist oder ob gar die Anti-Linux-Abteilung von Microsoft ihre Finger im Spiel hat, bleibt sich allerdings eigentlich völlig gleich, so lange SCO hier nichts griffiges an Beweisen vorlegen kann. Und genauso lange dürfte auch der normale Linux-User völlig unberührt von diesem Streit bleiben können.