News-Archiv 10. - 16. November 2003 (46. Kalenderwoche)
16. November 15. November 14. November 13. November 12. November 11. November 10. November
News des 16. November 2003 |
Einen Artikel zu aktuellen Sapphire-Grafikkarten mit interessanten Anmerkungen zur Radeon 9800SE haben Digit-Life anzubieten. Wie schon einmal erwähnt, gibt es leider verschiedene Ausführungen der Radeon 9800SE. Die Einschränkung, daß 4 Rendering-Pipelines der physikalisch vorhandenen 8 Pipelines bei dieser Karte deaktiviert sind (welche sich allerdings mittels diverser Software-Mods mit einigermaßen guten Erfolgsaussichten wieder aktivieren lassen), trifft generell auf alle Radeon 9800SE Karten zu. Allerdings sollte dazu normalerweise ein 256 Bit Speicherinterface kommen, wie von allen anderen Radeon 9700/9800 Karte gewohnt ...
... Dies trifft auch auf die Mehrzahl der angebotenen Radeon 9800SE Karten zu, welche nach den Informationen von Digit-Life dazu das Grafikboard-Layout der Radeon 9700 /Pro verwenden. Jene 256bittigen Radeon 9800SE Versionen takten dann auch üblicherweise mit 380/340 MHz, also wie eine Radeon 9800 Pro. Es gibt aber auch andere Varianten der Radeon 9800SE, welche mit einem anderen Boardlayout antreten und damit nur ein 128 Bit Speicherinterface besitzen - laut den Informationen von Digit-Life soll hierzu auch die weit verbreitete Sapphire-Karte dazugehören (Update: es gibt die Sapphire Radeon 9800SE sowohl als 256 Bit als auch als 128 Bit). Charakteristisch für die 128bittigen Radeon 9800SE wären zudem noch niedrigerer Taktraten von 325/290 MHz - ergo das Niveau einer Radeon 9800 non Pro ...
... Die von Digit-Life getestete Sapphire Radeon 9800SE 128Bit taktet gar nur mit 325/270 MHz - und ist gemäß den dort getätigteten Benchmarks mitnichten empfehlenswert. In jedem Spiel und jeder Einstellung haben sowohl Radeon 9600XT als auch GeForceFX 5700 Ultra keinerlei Probleme, deutlich schneller als jene arg limitierte Radeon 9800SE 128Bit zu sein. Der Abstand ist dabei sogar so groß, daß ein höherer Takt der Radeon 9800SE (als deren 325/270 MHz) auch nichts großartiges an diesem Ergebnis ändern würde. Zudem eignen sich jene Radeon 9800SE 128Bit Karten nur bedingt zum Freischalten der 4 deaktivierten Rendering-Pipelines ...
... Technisch ist dies zwar genauso machbar (abgesehen davon, daß nicht jeder Software-Mod von Erfolg gekrönt sein kann), jedoch limitiert selbst im Erfolgsfall die Speicheranbindung von nur 128 Bit viel zu stark, um deutliche Performance-Zuwäche erzielen zu können. Das Ziel, aus der Radeon 9800SE eine vollwertige Radeon 9800 Pro machen zu wollen, ist jedenfalls mit der 128-Bit-Version der Radeon 9800SE definitiv nicht machbar. Und da diese Radeon 9800SE 128Bit auch "ungemoddet" keine besonders gute Figur macht, sollte man tunlichst die Finger von diesen Angeboten lassen. Wenn man nicht vor hat, zu modden, macht es auch eine Radeon 9600XT - und für die Hardware-Modder bringt es dann eben nur eine Radeon 9800SE mit 256 Bit Speicherinterface.
Bei DesktopLinux findet sich eine IBM-Präsentation von der "Desktop Linux Conference". Danach will IBM in den nächsten Jahren ganz massiv an dem Durchbruch von Linux als Desktop-Betriebsystem mit einem Ziel-Marktanteil von 10 Prozent arbeiten - derzeit sind es bei Desktop-PCs rund ein Prozent. Dies wäre angesicht der aktuellen Marktsituation, wo Microsoft bei Desktop-Betriebssystemen einen Marktanteil von 96 bis 97 Prozent hält, in der Tat ein regelrechter Erdrutsch, denn mit den angepeilten 10 Prozent Marktanteil könnte Linux dann auch wirklich zu einer ernsthaften Konkurrenz für Microsoft werden ...
... Allerdings schränkt sich IBM selber auch wieder etwas ein, indem man nicht den kompletten Desktop-Markt versucht zu bedienen, sondern nur den etwas gehobenen Desktop-Markt nahe am Workstation-Markt. Was in der Tat wohl eine kluge Entscheidung ist, denn wohlweislich vermeidet es IBM in jener Präsentation auf ein Themengebiet einzugehen, auf welchem Linux nach wie vor ziemlich "nackt" dasteht: Auf Linux laufen im Prinzip keine Spiele. Zwar gibt es hier die kommerzielle Software WineX wie auch das Open Source Projekt Wine, doch von der Unkompliziertheit, mit welcher man unter Windows mittlerweile Spiele zum Laufen bekommt, sind diese immer noch einige Jahre entfernt, zudem wird auch nur ein Bruchteil der vorhandenen Windows-Spiele von diesen Programmen unterstützt ...
... Interessant ist hier zudem, daß viele Anwender, Marktbeobachter und auch Hersteller dieses Problem für Linux nach wie vor nicht sehen. Dabei kann Linux alle anderen Anwendungszwecke mittlerweile vollständig abdecken, und kompliziert ist Linux mit der richtigen Distribution nun auch nicht mehr. Computerspiele gelten dagegen seltsamerweise weiterhin als nicht großartig betrachtungswürdig - dabei leben in der Hardware-Welt ganze Industrien fast nur noch von der ständigen Aufrüstwilligkeit der Spieler und erwirtschaften Computerspiele inzwischen mehr Umsatz als alle Hollywood-Filme weltweit an der Kinokasse einspielen ...
... Man kann es auch anders sagen: Linux ohne Spiele ist wie wenn ALDI seinen PC mit einer integrierten, nicht 3D-fähigen Grafikkarte ausrüstet. Für reine PC-Arbeiter wäre dies sicherlich auch ein gangbarer Weg, aber ein solcher PC würde heutzutage von der Presse zerissen und demzufolge zum klaren Ladenhüter werden (PS: die Grafikkarte im neuen ALDI-PC namens "Radeon 9800XL" scheint eine Radeon 9800SE zu sein, also nur 4 Rendering-Pipelines, dafür aber 256 Bit Speicherinterface). An dieser Stelle angelangt, offenbart sich immer deutlicher, daß die Schaffung der Microsoft-eigenen 3D-Schnittstelle DirectX eine der cleversten Entscheidungen der Redmonder war, welche jene je getroffen haben ...
... Ursprünglich spielte Microsoft schließlich sogar einmal mit dem Gedanken, die schon länger existierende 3D-Schnittstelle OpenGL, ursprünglich maßgeblich entwickelt von SGI, als offizielle 3D-Schnittstelle in Windows einzubinden. Wäre dies passiert, hätte Linux heutzutage wohl das größte derzeitige Problem nicht, denn OpenGL ist als freie Schnittstelle auch unter Linux und dem Mac verfügbar. Mit dem kleinen 35-MB-Paket DirectX kann Microsoft jedoch ganz elegant verhindern, daß sich Spiele großartig unter Linux verbreiten und den Windows-Betriebssystemen somit die letzte völlig uneingeschränkte Bastion nehmen ...
... Wenn sich also unsere Wettbewerbshüter wieder einmal Maßnahmen überlegen, um das Monopol von Microsoft zu brechen oder zumindestens nicht größer werden zu lassen, sollte man sich besser weniger um den uralten Fall Internet Explorer vs. Netscape kümmern (mal abgesehen davon, daß es Netscape in dieser Form nicht mehr existiert, gibt es inzwischen mit Mozilla und Opera gute Alternativen zum Internet Explorer und damit in dieser Sache eigentlich keinen wirklichen Handlungsbedarf mehr), sondern könnte mit einem minimalen Schritt - dem Zwang für Microsoft, DirectX auch für Linux anbieten zu müssen - einen regelrecht enormen Nutzen erzielen. Leider wird dies wohl reines Wunschdenken bleiben - sowohl daß Wettbewerbshüter überhaupt wissen, was "DirectX" ist und auch, daß Microsoft sich jemals zu einem solchen Schritt zwingen lassen würde.
News des 15. November 2003 |
Im 52.70er nVidia-Treiber gibt es die Eintragung für einen neuen Grafikchip namens GeForceFX 5900XT. Jener wurde von uns bereits hier erwähnt, dahinter verbirgt sich ein NV35-Chip ohne Abspeckungen mit den Taktfrequenzen von 390/350 MHz. Dies ist etwas geringer als bei der GeForceFX 5900SE, welche mit 400/350 MHz taktet - und nVidia will der GeForceFX 5900XT dementsprechend auch einen etwas niedrigeren Preis spendieren (Richtung 250 Euro). Allgemein ist die GeForceFX 5900XT als Abrundung des Angebots nach unten hin zu sehen, welche aber gleichzeitig nach unseren Informationen die GeForceFX 5900SE und die normale GeForceFX 5900 (400/425 MHz) ersetzen soll ...
... Bei dieser Gelegenheit verdienen auch die weiteren neuen Grafikchips von ATi und nVidia einer Erwähnung in den News, auch wenn diese in unserem jüngsten Artikel schon genannt wurden. Der entscheidende Punkt dieser Grafikchips ist, daß ATi wie auch nVidia diese nicht auf ihren Webseiten führen und dies auch zukünftig wohl nicht ändern werden. Es handelt sich nämlich um eigentliche OEM-Versionen - die Erfahrung zeigt aber, daß diese Chips auch recht schnell auf dem Retail-Markt auftauchen. So wird demnächst noch eine GeForceFX 5600XT auftauchen, welche auf einem NV31-Chip ohne Abspeckungen basiert und mit 235/200 MHz getaktet ist ...
... Einen ersten Testbericht einer GeForceFX 5600XT gibt es beim chinesischen PC Pop (maschinelle englische Übersetzung). Danach fehlen der GeForceFX 5600XT runde 50 Prozent Leistung, um zu einer normalen GeForceFX 5600 (325/275) aufschließen zu können. Die Karte dürfte somit eher eine für das untere Mainstream-Segment mit einer Preislage von knapp oberhalb von 100 Euro sein, eine wirklich zeitgemäße Leistung ist von der GeForceFX 5600XT allerdings nicht zu erwarten. In dieselbe Kategorie fallen zwei neue OEM-Grafikkarten von ATi: Radeon 9600SE auf Basis des RV350-Chips und Radeon 9200SE auf Basis des RV280-Chips. Mit Taktraten von 325/200 MHz und 200/166 MHz sind diese beiden neuen ATi-Angebote schon reichlich niedrig getaktet unterwegs ...
... Doch entscheidend ist hier das nur als 64 Bit ausgelegt Speicherinterface beider Karten und damit eine bei weitem nicht mehr zeitgemäße Speicherbandbreite. Dieses degradiert beide Karten zu (eher zweifelhaften) Angeboten im LowCost-Markt, da hilft dann auch die gute DirectX9-Technik der Radeon 9600SE nichts mehr. Von den hier genannten 4 neuen OEM-Grafikchips ist unserer Meinung nach nur die GeForceFX 5900XT eine sinnvolle Lösung, da bei dem angekündigten Preis von ca. 250 Euro sich ein gutes Preis/Leistungsverhältnis ergibt. GeForceFX 5600XT, Radeon 9600SE und Radeon 9200SE bieten hingegen trotz aller preislichen Vorteile keine zeitgemäßen Leistungen mehr und sind im Falle der 64-Bit-Speicherinterfaces sogar regelrechte "Mogelpackungen".
In den letzten Tagen wurde und wird ziemlich häufig aus einer brandneuen Studie zitiert, wenn es um das Thema "Kopieren und Downloaden von Spielfilmen" in Deutschland geht. Dabei handelt es sich um eine von der staatlichen deutschen Filmförderungsanstalt FFA bei dem Marktforschungsinstitut GfK in Auftrag gegebene Studie namens "Brennerstudie 2", deren Fazit beispielsweise hier nachschlagbar ist, die gesamte Studie kann man zudem hier downloaden (385kB, PDF). Unabhängig von den Ergebnissen sei an dieser Stelle angemerkt, daß die Studie eben nur gebrannte CDs und DVDs auswertet, jedoch nicht nachfragt, ob darauf Raubkopien oder legale Kopien gebrannt wurden ...
... Dies ist insbesondere wichtig, als daß solche Studien gern von der Medienindustrie ausgiebig dazu genutzt werden, das Ausmaß von Raubkopien aufzuzeigen. Wenn jedoch aus der Anzahl aller gebrannten CDs/DVDs automatisch Raubkopien gemacht werden, ist keinerlei seriöse Diskussionsgrundlage mehr gegeben. Bei Filmen mag dies nicht in so großem Ausmaß zutreffen, doch insbesondere bei Musik-CDs dürfte nur ein gewisser Teil der gebrannten CDs wirkliche Raubkopien darstellen. Der Rest wird von legalen Kopien (Stichwort "Privatkopie"), von online legal erwobener Musik wie auch von der Musik von Künstlern abseits des Mainstreams und der großen Musik-Konzerne ausgemacht (die 5 großen Labels sind eben - zum Glück - nicht das ganze Musik-Angebot) ...
... Aber auch beim Thema Film gibt es vielfältige Möglichkeiten, eine legale Kopie anzufertigen. So sind beispielsweise Kopien von TV-Material oder aus der Videothek, solange diese zum reinen privaten Gebrauch bestimmt sind und dabei kein Kopierschutz überwunden wird, auch weiterhin gedeckt durch die (noch) vorhandene Privatkopie. Die Milchmädchenrechnung, wonach jede gebrannte CD/DVD (oder noch absurder: jede gekaufte CD/DVD) automatisch eine Raubkopie sei, geht jedenfalls mitnichten auf. Vertretern der Medienindustrie, welche mit solchen definitiv fakten-verfälschenden Argumentationen ankommen, sollte insbesondere von den Massenmedien wie aber auch den Regierungsvertretern keinerlei Beachtung geschenkt werden, bis erstgenannte sich wieder auf dem Boden der Tatsachen einfinden.
News des 14. November 2003 |
Im Fall nVidia vs. Futuremark haben sich einige berichtenswerte "Wortwechsel" in Form von Statements der beteiligten Parteien und dazu auch ein paar handfeste neue Informationen ergeben. So drückte nVidia mehrfach aus, daß der Build 340 des 3DMark03 angeblich den Shader Compiler der nVidia-Treiber deaktivieren würde, was die niedrigeren nVidia-Ergebnisse erklärt. Dem entgegen steht allerdings, daß der Shader Compiler eine Treiber-interne Angelegenheit ist, welchen eine Applikation (3DMark03) weder deaktivieren könnte oder aber dessen Ablauf zu beinflußen vermag - und zwar selbst dann nicht, wenn es die Applikation wollte ...
... Der Treiber verbirgt de facto den Shader Compiler vor der Applikation, jene weiss nicht einmal um dessen Existenz. Insofern hört sich die nVidia-Erklärung zunächst zwar plausibel an, entbehrt aber jedoch jeglicher technischer Grundlage - es sei denn nVidia erklärt, wie Futuremark eine vollkommen Treiber-interne Sache zu verändern vermag. Im übrigen hat Futuremark diese Anschuldigung - man würde bewußt den Shader Compiler von nVidia deaktivieren - auch kategorisch zurückgewiesen. Aber auf anderem Wege wird eventuell doch noch ein Schuh draus - und nVidia wie auch Futuremark behalten möglicherweise letztlich beide recht ;-) ...
... Denn anscheinend hat Futuremark nichts anderes getan, als den Shader-Code ein wenig umsortiert. Funktionell ist der Shader-Code der Patches 330 und 340 wohl absolut identisch, nur sind ein paar Register-Anweisungen schlicht vertauscht worden. Ein reiner Shader Compiler, welcher versucht, den Code bestmöglich auf die vorhandene Hardware anzupassen, sollte mit dieser Änderung absolut keine Probleme haben und die Performance sollte letztlich identisch sein. So weit, so gut. Doch es gibt noch eine wichtige Ausnahme von dieser Regel: Für besonders oft genutzte Code-Teile haben Compiler zumeist den bestmöglichen Code bereits in einem Cache gespeichert, so daß nicht mehr "on-the-fly" optimiert werden muß, sondern einfach auf das Ergebnis aus dem Cache zurückgegriffen werden kann ...
... Und anscheinend verfügt der nVidia Shader Compiler ebenfalls über diese bereits optimierten Code-Stückchen für häufig abgefragten Shader-Code, dies drückt nVidia auch bei HardOCP vorsichtig aus, indem man die Formulierung von "hand tuned shaders" benutzt. An dieser Stelle wird natürlich klar, daß der Shader Compiler durch die Umordnung des Shader-Codes seitens Futuremark Probleme bekommt, den Shader zu erkennen und ihn durch jenen "handoptimierten" Code zu ersetzen. Doch andererseits: Wenn der Shader Compiler den Code nicht gleich erkennt und aus dem "Cache" ersetzen kann, wird er versuchen, ihn entsprechend zu optimieren - und Futuremark kann den Shader Compiler wie schon erwähnt nicht prinzipiell abschalten ...
... Die eigentliche Frage lautet also: Wieso besteht ein solcher Performance-Unterschied zwischen jenem "hand-optimierten" Code und dem Code, welchen der Shader Compiler "on-the-fly" auswirft? Denn wenn wir einmal davon ausgehen mögen, daß die Optimierungen durch den Shader Compiler allesamt nur Verschiebungen von Code und Ersetzen von Code ohne jeglichen Bildqualitätsverlust darstellen, können wir dies bei hand-optimierten Code nicht wirklich sicher behaupten. Man kann mit hand-optimierten Code sicherlich nichts anderes tun, als schnellere Varianten zu finden, als welche der Shader Compiler erzeugt - andererseits ist es aber auch problemlos möglich, "optimierten" Shader-Code mit Bildqualitäts-Verlust einzusetzen ...
... Um dies wirklich herauszufinden, müsste nVidia allerdings ihren Shader Compiler komplett offenlegen, inklusive aller hand-optimierten Codestückchen im Cache des Shader Compilers - was denn eher unwahrscheinlich ist :-). Ohne diese Informationen können wir uns allerdings nur an den festgestellten Bildqualitäts-Unterschied halten. Doch ausgerechnet hier ergibt sich eine entscheidende neue Information: Wie Futuremark bestätigt, gehen die zu sehenden Bildqualitäts-Unterschiede wohl allesamt auf Zufalls-Berechnungen beim 3DMark03 zurück. Oder anders formuliert: Für Bildqualitäts-Vergleiche ist der 3DMark03 nutzlos, weil - auch in der kostenpflichtigen Pro-Version - nicht jedesmal das völlig identische Bild gerendert wird ...
... Demzufolge läßt sich nVidia also nicht mehr nachsagen, daß man die Bildqualität im 3DMark03 abgesenkt hätte - zumindestens fehlten dafür nun die Beweise. Die Differenz in der Performance der nVidia-Grafikchips zwischen den 3DMark03-Patches 330 und 340 ist wohl derzeitig damit zu erklären, daß Futuremark durch eine Umordnung des Shader-Codes im Patch 340 den hand-optimierten Code des nVidia Shader Compilers indirekt ausgeschaltet hat, die grundsätzliche Funktionalität des Shader Compilers jedoch nicht anrührt. Jene Vorgehensweise deckt sich im übrigen mit den Optimierungs-Richtlinien, welche jegliche Applikations-spezifische Optimierung ausschließt - und das Cachen von hand-optimierten Code könnte man durchaus als solches bezeichnen (die Grenzen dürften hier fließend sein). Dies ist zumindestens der derzeitige Stand der Dinge - bis sich neue Informationen ergeben :-).
Bei der GameZone gibt es eine Meldung über die offiziellen Systemanforderungen von Deus Ex 2: Invisible War zu lesen (abgeschrieben von einem Packshot, insofern wirklich eine sichere Information). Dies wäre nicht weiter erwähnenswert, wenn nicht die Programmierer anscheinend zwingend eine DirectX8-Grafikkarten voraussetzen würden. Denn genau dies läßt sich aus der Formulierung "Geforce 3 oder besser; Geforce-4-MX-Karten werden nicht unterstützt" herauslesen. Spieleentwickler geben ihre Hardware-Anforderungen gern "massenkompatibel" an, d.h. anstatt der klaren Ansage "DirectX8-Hardware" schreibt man eben "keine GeForce4 MX". Der einzige wesentliche Unterschied in Bezug auf die Hardware-Fähigkeiten zwischen der genanten GeForce3 und GeForce4 MX bildet allerdings das Fehlen von DirectX8 in Hardware bei letzterer Karte ...
... Und somit scheint Deus Ex 2 tatsächlich das erste Spiel zu sein, welches eine DirectX8-Grafikkarte zwingend voraussetzt. Die anderen Spiele der laufenden Saison 2003/2004, welche mit Shader-Effekten werben (Half-Life 2, Doom III, etc.), werden allem derzeitigen Wissen nach noch einen DirectX7-Renderingpfad besitzen, welcher zwar nicht die komplette vom Spiel dargebotenen Grafikpracht darzubieten vermag, aber wenigstens das Spiel einwandfrei darstellen kann. Allgemein gesehen dürften auch die im nächsten Jahr anstehenden Spiele mit großer Mehrzahl noch mit DirectX7-Grafikkarten laufen, da jene bei der weltweit installierten Basis noch die Mehrheit ausmachen und die Spieleentwickler sich normalerweise an dieser Mehrheit bzw. dem kleinsten gemeinsamen Nenner orientieren ...
... Wenn man jedoch einmal einen Blick in die Kristallkugel werfen darf, erwarten wir sowieso recht wenige DirectX8-only Spiele, sondern vielmehr ab 2005 gleich erste DirectX9-only Spiele. Denn bei allem technischen Fortschritt durch die erste DirectX8-Grafikkarte in Form der GeForce3 sind deren Shader-Fähigkeiten gegenüber den Shadern 2.0 von DirectX9 nur als eher limitiert zu bezeichnen, zudem ist eine effektive Shader-Programmierung auch erst seit dem Zeitalter der DirectX9-Grafikkarten über diverse Shader-Hochsprachen möglich (wobei man mit diesen gewöhnlich auch für DirectX8-Grafikkarten Shader schreiben kann). Demzufolge ist davon auszugehen, daß die Spieleentwickler mehrheitlich den "Probelauf" DirectX8 links liegen lassen werden und erst mit DirectX9 dann Shader wirklich umfassend und marktdurchbringend in Spielen genutzt werden.
News des 13. November 2003 |
Eine neue Information zu den DirectX9-Grafikchips von S3/VIA haben The Inquirer: Danach sollen erste Chips Ende November verfügbar sein, wobei damit wohl eher Samples und noch keine auslieferungsfähigen Karten gemeint sind. Langsam aber sicher sollte S3/VIA nun aber einmal mit den DeltaChrome-Chips auf den Markt kommen, die Sache zieht sich nun mit allen Halb-Ankündigungen und Terminverschiebungen seitens S3/VIA wieder einmal viel zu lange hin. S3/VIA scheint zwar eine Trumpfkarte in dieser Form zu haben, als daß deren neue Chip die trilineare Texturenfilterung in einem Chiptakt in einer Textureneinheit bewältigen können - die aktuellen Chips von ATi und nVidia benötigen hierfür entweder zwei Chiptakte oder zwei Textureneinheiten ...
... Doch der Rest des DeltaChrome-Designs und insbesondere die angepeilten Taktraten sehen - aus heutiger Sicht der Dinge - nicht unbedingt so aus, als könne S3/VIA in Punkto Leistung damit gegen die aktuellen Angebote von ATi und nVidia bestehen. Sicherlich ist dies auch nicht unbedingt die Zielsetzung von S3/VIA, welche wahrscheinlich ATi und nVidia in erster Linie beim Preis anzugreifen versuchen werden. Doch auch hier haben ATi und nVidia durch verschiedentliche abgespeckte Varianten in letzter Zeit zugelegt und für S3/VIA wird es somit nicht einfacher, eine eigene Marktnische in den unteren Preislagen zu finden. Daß von S3/VIA bis dato nicht mehr als vollmundige Versprechungen, aber wenig konkretes, geschweige denn Testsamples oder exakte Terminvorstellungen gekommen sind, macht das DeltaChrome-Projekt leider auch nicht unbedingt erfolgsversprechender.
Die gestern erwähnten Benchmarks der mobilen Grafiklösungen nVidia GeForceFX 5700 Go vs. ATi Mobility Radeon 9600 bei den Elite Bastards müssen heute deutlich skeptischer betrachtet werden, da sich die hohe Wahrscheinlichkeit ergeben hat, daß diese Zahlen direkt aus einer Marketing-Präsentation von ATi oder einem ATi-OEM stammen. Dafür spricht zum einen die bisherige Weigerung der Autoren, die Quelle der Zahlen zu nennen, wie auch, daß die gewählten Benchmarks und deren Einstellungen ziemlich perfekt zu den jüngeren Benchmark Guide´s von ATi passen. Sollte dies so zutreffen, sind die angegebenen Ergebnisse natürlich nichtig, weil nicht aus unabhängiger Quelle. Für den Moment ist es somit besser, auf unabhängige Tests der neuen GeForceFX 5700 Go zu warten.
Laut Hard Tecs 4U kommen aus Fernost Vermutungen & Gerüchte, wonach Intel dem bisherigen Northwood-gepowerten Pentium 4 sowie dem Pentium 4 Extreme Edition noch einmal eine Chance geben wird und diese im Februar 2004 noch mit 3.4 GHz ausliefern will. Ursprünglich sollte der 3.2 GHz Pentium 4 der letzte auf Basis des langgedienten Northwood-Cores sein, wie auch der 3.2 GHz Pentium 4 Extreme Edition als "Einzelexemplar" gedacht war. Sollte dies wirklich zutreffen, kann dies fast nur als ein Schritt in diejenige Richtung gedeutet werden, wonach es keine Prescott-Prozessoren im Sockel 478 geben wird, wie im übrigen auch schon hier vermutet ...
... Der Prescott, jene aufgepumpte Architektur, welche aber anscheinend weiterhin unter dem Namen "Pentium 4" laufen wird, sollte eigentlich Ende diesen Jahres noch mit 3.4 GHz im Sockel 478 erscheinen, Anfang nächsten Jahres dann mit 3.2 und 3.6 GHz im Sockel 478. Ab Frühjahr 2004 sollte dann aber der Sockel 775 mit dessen Grantsdale- und Alderwood-Plattform das Zeitalter von DDR2 und PCI Express einläuten, die Einstiegs-Taktfrequenz sollte hierbei auf 3.6 GHz liegen. Damit wäre die einzige Taktfrequenz, welche der Sockel 478 Prescott nach diesen Planungen "exklusiv" haben sollte, 3.4 GHz gewesen (3.2 GHz = auch beim Northwood, 3.6 GHz = auch beim Sockel 775 Prescott) ...
... Wenn Intel nun diese 3.4 GHz nun aber auch noch dem Pentium 4 Northwood wie auch dem Pentium 4 Extreme Edition spendieren sollte, ergibt sich keine wirkliche Notwendigkeit für 3.4 GHz Prescott-Prozessoren mehr. Jener könnte also gleich mit 3.6 GHz starten - und damit auch gleich und ausschließlich im Sockel 775. Man könnte sogar argumentieren, daß der Prescott regelrecht mit 3.6 GHz starten muß, weil der Pentium 4 Extreme Edition doch überraschend stark agiert und der Prescott wahrscheinlich einen höheren Takt braucht, um sich leistungsmäßig ausreichend genug vom Pentium 4 Extreme Edition distanzieren zu können ...
... Lange Rede, kurzer Sinn: Sollte die Information mit den 3.4 GHz Pentium 4 und Pentium 4 Extreme Edition zutreffend sein, kann man fast sicher von einer Streichung des Sockel 478 Prescotts ausgehen. Damit würde sich der Prescott-Core natürlich auch auf das zweite Quartal 2004 verschieben und dann erst zusammen mit den Neuerungen Sockel 775, PCI Express und DDR2 das Licht der Hardware-Welt erblicken. Und angesichts dessen, daß Intel kürzlich den Prescott sowieso auf Januar oder frühen Februar 2004 verschieben musste, dürfte diese weitere Verschiebung Intel sicherlich in den Kram passen, um die noch vorhandenen Probleme beim Prescott endgültig auszuräumen.
News des 12. November 2003 |
Bei Beyond3D hat man sich noch einmal genauer mit den Auswirkungen des neuesten 3DMark03-Patches Build 340 beschäftigt. Neben den Benchmarks, welche das gleiche Ergebnis wie schon gestern erwähnt lieferten, konnten mittels einiger Screenshots durchaus einige Differenzen in der Bildqualität bei nVidia-Karten zwischen den 3DMark03-Version 330 und 340 festgestellt werden. Allerdings muß auch gesagt werden, daß diese Differenzen allgemein als etwas zu wenig erscheinen, um den gemessenen Performance-Unterschied von 15 bis 30 Prozent in den 3DMark03-Gametests 2-4 alleinig zu verursachen ...
... Dazu passt auch, daß im Gametest 4 der größe Performance-Unterschied, aber der kleinste Bildqualitäts-Unterschied festgestellt wurde. Insofern kann man derzeit noch nicht wirklich sicher den Performance-Verlust der nVidia GeForceFX-Chips beim 3DMark03 Patch Build 340 generell auf eine abgesenkte Bildqualität seitens der nVidia-Treiber in früheren 3DMark03-Versionen schieben, auch wenn momentan sicherlich alles in diese Richtung deutet. PS: Die Screenshot-Vergleiche bei Beyond3D wurden im übrigen mit einem äußerst nutzvollen Tool von ATi namens "The Compressonator" durchgeführt, welches für Differenzvergleiche absolut empfehlenswert ist.
Bei den Elite Bastards hat man erste Benchmark-Ergebnisse eines neuen mobilen Grafikchips von nVidia, des GeForceFX 5700 Go auf NV36M-Basis, anzubieten. In diesen Performance-Messungen scheint aber weiterhin die schon etwas länger im Markt befindliche Mobility Radeon 9600 (M10-Chip) von ATi vorn zu liegen, jene gewinnt 11 von 15 Benchmarks, davon einige mit größerem Abstand. Nachteilig für den neuen nVidia-Chip ist zudem, daß jener mit einer extra Kühlung und auf 450 MHz Chiptakt antrat, im Markt aber mit einem default-Chiptakt von um die 400 MHz erwartet wird. Wie es scheint, bleibt ATi bei den mobilen Chips weiterhin mit der Mobility Radeon 9600 in Führung.
Um noch einmal kurz auf den am Montag schon ausführlich erwähnten Volari V8 Duo Test seitens Tom´s Hardware Guide zurückzukommen: Dieser Test enthält auch zwei neue technische Details zu den XGI-Chips. So gab XGI bisher offiziell noch nicht bekannt, wieviele Transistoren die V5- und V8-Chips wiegen und in welcher Fertigungstechnik jene hergestellt werden (einzig allein zum V3 gab man 25 Millionen in 130nm gefertigte Transistoren an). Neu ist demzufolge die Information, daß es sich beim Volari V8 /Ultra um einen Chip von 80 Millionen Transistoren handelt, welcher in 130nm gefertigt wird (zum Volari V5 /Ultra Chip ist dagegen weiterhin noch nichts bekannt) ...
... Für einen Shader 2.0 Chip mit 4 Rendering-Pipelines sollte dies eigentlich normal sein, immerhin wiegt beispielsweise der RV360-Chip von ATi (Radeon 9600XT) mit ebenfalls 4 Rendering-Pipelines genauso 75 Millionen Transistoren. Doch da der XGI-Chips nur über zwei Pixel Shader Pipelines verfügt, erscheint die Transistorenmenge dann doch als ein wenig zu hoch. Ganz besonders, wenn man sich die DualChip-Konfiguration in Form der Volari V8 Duo Grafikkarte ansieht, welche dann insgesamt 160 Millionen Transistoren auf die Waage bringt, stellt sich die Frage, wie XGI mit diesem Chipungetüm, welches schließlich auch noch jeweils den doppelten Speicher und ein teures Boardlayout benötigt, im Preiskampf gegen ATi und nVidia bestehen will.
Bezüglich des derzeitigen totalen Ausfalls des 3DCenter Forums: Diesesmal scheint es kein "gewöhnlicher" Ausfall durch die (allerdings nur angebliche) Überlastung des Servers zu sein, sondern diesesmal scheint das Problem beim Hoster selber zu liegen, da auch kein FTP- bzw. Shell-Zugriff auf den Forums-Server mehr möglich ist. Beim Hoster ist natürlich niemand mehr da bzw. fühlt sich keiner zuständig - was wäre auch anderes zu erwarten gewesen ;-). Demzufolge ist es derzeit zu erwarten, daß das Forum erst morgen Mittag wieder steht. Wir bitten um Entschuldigung für diesen Ausfall und für die Performance-Probleme der letzten Zeit, der Wechsel zu einem anderen Hoster ist schon in fester Planung. Update: Nach "nur" 6 Stunden Ausfall scheint der Forums-Server und damit das Forum seit Nachts um 2 Uhr wieder einwandfrei zu funktionieren :-).
News des 11. November 2003 |
Von Futuremark gibt es einen neuen Patch (5 MB) in Form des Builds 340 für den 3DMark03. Laut der offiziellen Pressemitteilung soll dabei jener Build 340 auch wieder "potentielle 3DMark03-spezifische Optimierungen" verhindern - welches passenderweise sofort einige Kurztests bei Beyond3D, bei der ComputerBase und bei Nordic Hardware bestätigen können. Diese ergeben nämlich das hochinteressante Ergebnis, daß der neue Build die Resultate der nVidia-Grafikchips um 15 bis 20 Prozent einbrechen läßt, während die ATi-Grafikkarten unbeeindruckt von dem neuen Build dieselbe Performance abliefern ...
... Woher dies kommt, ist in der Kürze der Zeit noch nicht zu ermitteln, dies müssen die nächsten Tage ergeben. Es gibt zwar die Idee, daß Futuremark mit dem neuen Build den Effekt des nVidia Shader Compilers ausgeschaltet haben könnte, doch technisch gesehen sollte dies eigentlich unmöglich sein, weil die Applikation (3DMark03) zwar das Endergebnis prüfen kann und somit eine Abweichung feststellen könnte, an der Berechnung selber durch den Treiber aber nichts zu verändern vermag. Insofern bleibt als einzige derzeitige Erklärung nur noch die für nVidia eher peinliche, daß man im 3DMark03 nochmals im großen Maßstab "optimiert" hat, nachdem schon der seinerzeitige Build 330 im Vergleich zum originalen 3Mark03 ähnliches ergeben hatte.
Ein paar Sachen aus unserem aktuellen Interview mit ATi sollen auch hier auf der News-Seite erwähnt werden, da sie teilweise "alte" News-Themen sind bzw. von allgemeinem Interesse sein könnten: So wird es anscheinend auch zukünftig kein Supersampling Anti-Aliasing in den Windows-Treibern für ATi-Grafikkarten geben, auch wenn dies von einer eingeschworenen Gemeinde von Supersampling-Anhängern seit längerem gefordert wird (die Mac-Treiber von ATi haben es im übrigen). Supersampling glättet im Gegensatz zu Multisampling auch Alpha-Texturen und beugt auch Texturenflimmern besser vor, was interessant für ältere Spiele und Flugsimulatoren mit weiten Sichtflächen ist ...
... Desweiteren gibt es interessante Aussagen zu verschiedenen Anti-Aliasing Lösungen: Demnach liefern zufällige Sample-Muster laut ATi-internen Tests erst ab 32 Samples eine bessere Qualität als (gut) geordnete Sample-Muster. Gleichzeitig spricht man den enormen Speicherbedarf von Anti-Aliasing an: Bei 6x Anti-Aliasing unter 1600x1200 werden von den verschiedenen Puffern immerhin 100 MB des Grafikkarten-Speichers belegt. Bei 8x Anti-Aliasing wären es gleich 128 MB gewesen, was dann nur noch mit 256-MB-Grafikkarten realisierbar ist (immerhin müssen auch noch ein paar Texturen und Geometriedaten zwischengespeichert werden). Damit erklärt man indirekt auch, weshalb ATi bei den derzeitigen Radeon-Grafikkarten bei 6x Anti-Aliasing "halt gemacht hat", obwohl die Anti-Aliasing Qualität von ATi´s 6x Anti-Aliasing nicht deutlich besser als jene von ATi´s 4x Anti-Aliasing ist und sich erst bei 8x Anti-Aliasing (mit einem sinnvollen Sample-Muster) ein ernsthafter Qualitäts-Sprung ergeben würde ...
... Doch ATi ist sowieso beim Anti-Aliasing - unserer Meinung nach - auf dem richtigen Pfad, da die angebotenen Anti-Aliasing Lösungen allesamt einen vernünftigen Kompromiß zwischen Leistungsverlust und Qualitätsgewinn darstellen, die verwendeten Sample-Anordnungen im Prinzip optimal sind und nVidia letztlich außerhalb von 2x Anti-Aliasing keinen Modus bieten kann, welcher die gleiche Qualität wie ATi bei ähnlichem Leistungsverlust bietet. Hier ist eher nVidia gefordert, bei der kommenden NV4x-Linie bezüglich des Anti-Aliasings wieder einmal gewaltig zuzulegen, immerhin werden die von nVidia derzeit angebotenen Anti-Aliasing Modi inoffiziellerweise auch noch von dem 2002er Chip GeForce4 Ti unterstützt, sind also schon seit geraumer Zeit nicht mehr aktualisiert worden ...
... Und letztlich traf ATi noch die Aussage, daß das Overclocking-Feature OverDrive der Radeon 9600XT und Radeon 9800XT Grafikkarten von ATi vermutlich zukünftig auch bei anderen (neuen) Chips eingesetzt werden wird. Wobei wir aus unserer Warte OverDrive durchaus sehr skeptisch sehen, weil durch die geringe Übertaktung zumeist nur eine geringfügige Performancesteigerung im Rahmen von 3 Prozent erreicht wird. Dies bringt dem Anwender im Prinzip gar nichts, verhilft aber dem Hersteller zum Gewinnen von Benchmarks - wenn auch in diesem Fall auf einem völlig legalen Weg. Nunja, abseits dessen gilt es zu OverDrive noch zu erwähnen, daß laut einer Meldung seitens Hartware dieses auf der Asus Radeon 9800XT derzeit nicht funktioniert, da Asus ein vom ATi-Standard abweichendes Layout wählte und OverDrive nun erst mit einem angepassten Asus-Treiber auf den eigenen Karten aktivieren will.
News des 10. November 2003 |
Ein zweiter Artikel zum XGI-Chip Volari V8 Duro ist bei Tom´s Hardware Guide online gegangen. Jener wurde zwar vermutlich mit der gleichen Beta-Testkarte absolviert, welche schon der tecChannel im seinerzeitig ersten Test benutzte, nichts desto trotz gibt es einige neue Erkenntnisse zu vermelden. Zum einen schreibt die THG, der XGI-Chip würde zwar im D3D AF-Tester ein korrektes (trilineares) Filterverhalten zeigen, in Spielen jedoch generell bilinear filtern. Wenn dies so stimmen würde, wäre dies natürlich ein äußerst dicker Hund, jedoch läßt die "Beweisführung" seitens der THG doch ein paar Fragen offen: Denn die für diese Behauptung angeführten UT2003-Shots zeigen zwar bei dem XGI-Shot ganz klar einen bilinearen Filter, doch leider ist dies kein wirklich sicherer Beweis, daß dies in allen anderen Spielen auch so ist ...
... Im genauen deuten diese UT2003-Screenshots nur darauf hin, daß irgendwo eine Filter-"Optimierung" vorhanden ist, sagen aber noch gar nicht einmal aus, ob diese "Optimierung" nur auf der Texturenstufe 0 (zumeist die Basistextur, damit die wichtigste Texturenstufe) oder auf weiteren Texturenstufe existent ist. Leider können UT2003-Screenshots diesbezüglich täuschen, weil bei diesem Spiel oftmals recht viele Texturenstufen übereinander gelegt sind und damit nicht immer klar ist, welche Texturenstufe(n) man nun auf eingefärbten Screenshots sieht. Lange Rede, kurzer Sinn: Die UT2003-Screenshots zeigen, daß unter Unreal Tournament 2003 eine "Optimierung" wirkt, jedoch aber nicht, auf welchen Texturenstufen diese ihr Unwesen treibt und ob diese auch bei anderen Spielen tätig ist ...
... Hierfür sei im übrigen das Tool 3D-Analyze empfohlen, welche in neueren Versionen auch in Direct3D-Spielen, welche über keine Spiel-eigene Funktion hierfür verfügen, MipMaps entsprechend einfärben kann, womit man die Ergebnisse aus UT2003 recht einfach und mit nahezu jedem Direct3D-Spiel verifizieren kann. Wobei eigentlich auch der Test mit dem D3D AF-Tester bei der THG schon einen deutlichen Hinweis auf eine mitlaufenden generelle Filter-"Optimierung" bei XGI ergibt, besonders im Direktvergleich zum nVidia 45.23er Treiber. Diese Entdeckung (weshalb hat es eigentlich der tecChannel nicht auch entdeckt?), auch wenn momentan noch nicht genauer spezifiziert werden kann, was XGI da genau getan bzw. "optimiert" hat, wertet natürlich die bisherigen Benchmark-Ergebnisse der Volari V8 Duo Grafikkarte einigermaßen ab ...
... Insbesondere UT2003 Flyby-Ergebnisse sind damit "für die Tonne", da jene auf den bilinearen Filter schon einmal mit 50 Prozent Leistungsunterschied reagieren können. Somit müssen wir es derzeit eher bezweifeln, daß XGI mit der Volari V8 Duo Grafikkarte selbst mit Treiber-Verbesserungen noch die Performance der im gleichen Preissegment angebotenen Radeon 9800 Pro und GeForceFX 5900 Ultra erreichen kann. Zudem ist es schon als äußerst bezeichnend zu sehen, wenn die XGI-Karte ausgerechnet in den Standard-Benchmarks 3DMark03, AquaMark 3, Quake III und UT2003 Flyby ziemlich gut dasteht (einmal abgesehen von den Filter-"Optimierungen"), dagegen in den anderen Benchmarks teilweise eine grausame Performance von unterhalb der Radeon 9600 Pro bzw. GeForceFX 5600 Ultra bietet ...
... Ganz offensichtlich optimiert XGI gemäß alter SiS-Tradition wieder einmal die Treiber nur auf die üblichen Standard-Benchmarks und kann ansonsten keine konkurrenzfähige Performance bieten, deutlich auch zu sehen im Vergleich Quake III (Mittelmaß) zu Enemy Territory (deutlich langsamste Karte; ET hat die RTCW- und damit eine Q3-Engine) oder UT2003 Flyby (oberes Mittelmaß) zu UT2003 Timedemo (langsamste Karte). Wir bezweifeln wie gesagt nach diesem Test, daß XGI dies noch durch Treiber-Verbesserungen herausholen kann. Es muß leider sogar bezweifelt werden, daß die SingleChip-Lösungen Volari V8 /Ultra und Volari V5 /Ultra im Mainstream-Markt überhaupt eine Chance haben werden, wenn das Spitzenmodell Volari V8 Duo teilweise sogar gegen die alten Mainstream-Chips von ATi und nVidia verliert.
Bei Hard Tecs 4U hat man den scheinbar ersten offiziellen Test des letzte Woche vorgestellten VIA PT880 Chipsatzes anzubieten. Etwas verwundert dabei, wie zurückhaltend VIA momentan bezüglich PT880-Testsamples ist, denn während Intel bei Chipsatz-Launches regelmäßig in die vollen geht und an locker 20 Online-Magazine entsprechende Testsamples verschickt, ist das getestete VIA-Referenzmainboards das weltweit erste offizielle PT880-Sample. Noch erstaunlicher ist dieser Umstand, wenn man sich die Leistungen dieses Referenzmainboards ansieht, welche prinzipiell gleichauf zum Intel i875P liegen und im sogenannten "Top Performance Mode" des PT880 dann in den meisten Fällen sogar geringfügig darüber rangieren ...
... Faktisch positioniert VIA sich damit auf der völlig gleichen Performance wie der i875P-Chipsatz und schafft es damit zum ersten Mal überhaupt im Pentium 4 Markt, mit Intel gleichzuziehen. Erreicht wird dies maßgeblich durch das erstmals bei VIA eingesetzte DualChannel Speicherinterface (ein DualChannel Chipsatz in Form des KT880 für Athlon XP Prozessoren soll folgen), welches zwar - auch bei Intel - keine Performance-Wunder vollbringen kann (für den sparsamen Käufer reichen Mainboards mit SingleChannel-Interface wie Intel i848P, SiS 648FX und VIA PT800 nach wie vor komplett aus, da nicht wesentlich langsamer), jedoch anscheinend wohl benötigt wird, will man um die - nun zwischen Intel und VIA geteilte - Performance-Krone mitstreiten. Im übrigen steigt VIA damit nun endgültig wie Phoenix aus der Asche: Denn nachdem man vor wenigen Monaten noch sowohl im Intel- wie AMD-Markt hinter Intel bzw. nVidia klar zurücklag, kann man nun mit K8T800 für den K8-Markt und PT880 für den Pentium 4 Markt wieder absolut konkurrenzfähige Produkte vorweisen.
Im übrigen scheint Chipzilla Intel die bisher so beobachtende Dreiteilung im Chipsatz-Segment von i848P (LowCost), i865PE (Mainstream) und i875P (HighEnd) auch bei den im nächsten Frühjahr anstehenden PCI Express Chipsätzen beibehalten zu wollen. Bisher war hierzu der Grantsdale-Chipsatz bekannt, welcher mit dem Sockel 775 den Prescott und später den Tejas-Prozessor tragen soll, sowie dazu ein DualChannel Speicherinterface mit dem Support von DDR/400 und DDR2/533 plus natürlich die PCI Express Fähigkeit bieten wird (PCI Express x16 Steckplatz anstelle AGPx8, PCI Express x1 Steckplätze anstelle von PCI) ...
... Realisiert wird dies über die Chipsätze Grantsdale-P und Grantsdale-G, letzterer mit intergrierter und verbesserter Grafikeinheit "Intel Extreme Graphics 3" (wobei abzuwarten ist, was Intel hier wirklich verbessert). Für das LowCost-Segment, bei Intel "Entry Level" genannt, wird es zudem den Grantsdale-GL geben, welcher nur FSB533 und nur DDR1-Speicher unterstützen wird und damit die erste Wahl für die geplanten Celeron-Modelle auf Prescott-Basis darstellen dürfte, da jene allesamt nur mit FSB533 ausgeliefert werden sollen. Neu in dieser Riege ist jedoch der Alderwood-Chipsatz, über welchen Hard Tecs 4U berichten. Dieser soll eine Postion noch über dem Grantsdale-P einnehmen, womit der Grantsdale-P also "nur" die neue Mainstream-Lösung darstellen und der Alderwood-Chipsatz als i875P-Nachfolger im HighEnd-Segment die absolute Performance-Krone anpeilen wird.