News-Archiv 6. - 12. September 2004 (37. Kalenderwoche)
11./12. September 10. September 9. September 8. September 7. September 6. September
News des 11./12. September 2004 |
Wir bitten um Entschuldigung für den Ausfall des Forums am sonntäglichen Vor- und Nachmittag. Der Grund war hierbei allerdings (ausnahmsweise) nicht die Foren-Software bzw. eine Überlastung derselben, sondern ein gewöhnliches Problem mit dem Server selber. Nebenbei: Seit einigen Tagen funktioniert die von einige Usern schon länger vermisste Suchfunktion der 3DCenter Hauptseite endlich wieder.
Unseren Doom 3 Artikel, der versucht, das gute Abschneiden des NV40 im Vergleich zum R420 zu erklären, möchten wir jetzt zumindest in Teilen entkräften. Nach neuesten Erkenntnissen ist die Theorie, dass der R420 im Z/Stencil-Pass deutlich langsamer die Pixel verwirft (wodurch das gesamte Rendering verlangsamt würde) zumindest nicht in der Härte zutreffend, wie der Artikel behauptet. Der NV40 hat zwar eine geringere Verwerf-Maximalleistung, diese aber mit feinerer Granularität als R420. Daraus könnte sich letztlich doch noch ein kleiner Vorteil für den NV40 ergeben. Außerdem gibt es weiterhin einige Situationen, in denen der R420 den HierarchicalZ-Mechanismus nicht nutzen kann ...
... Doch die Unterschiede in der Leistung pro Takt sind damit nicht befriedigend erklärt. nVidia scheint im Treiber "Optimierungen" ähnlicher Art vorgenommen zu haben, mit welchen nVidia seit langem alle Q3A-Benches gewinnt: Abfangen und ersetzen von CPU-lastigen Calls durch weniger CPU-lastige, bzw. spezielle Optimierungen, welche auf die Q3A- und jetzt die D3-Engine besondere Rücksicht nehmen. Zudem wird in Doom 3 kreatives Shaderreplacement betrieben: Offenbar hat nVidia eine Lösung gefunden, Alternativshader zu nutzen, ohne die Bildqualität zu beeinträchtigen ...
... Daraus ergeben sich zunächst zwei Schlussfolgerungen: Die Geschwindigkeit in Doom 3 ist weniger der NV40-Architektur zuzuschreiben, als wir das zunächst dargestellt haben. Zweitens ist dann vielleicht auch für Radeon-Grafikkarten noch ein Speed-Up drin. Es ist aber auch nicht auszuschließen, dass nVidia die Doom 3 Optimierung noch weiter treiben kann. Hieraus folgt dann wieder, dass man die generelle Spiele-Tauglichkeit von Grafikkarten nicht anhand weniger, "repräsentativer" Spiele festmachen kann. Bessere Leistung in Doom 3 heißt weder bei ATi noch bei Nvidia, dass damit zwangsläufig die jeweilige Hardware-Architektur besser ausgenutzt würde. Eine bessere Hardware-Ausnutzung könnte in diesem Fall vorliegen, doch vielleicht handelt es sich auch nur um Treiber-Optimierungen ...
... Um ein allgemeines Statement zum Shaderreplacement abzugeben: Dass der "Original-Shader" genau so ausgeführt wird, wie er ist, kann man heutzutage nicht mehr verlangen: Eingebaute allgemeine Shader-Optimierungen, welche das Resultat nicht ändern, sind prinzipiell immer zulässig. Schwierig wird es, wenn handoptimierte Verfahren genutzt werden. Doch so lange nicht das Gegenteil gezeigt wird, nehmen wir an, dass nVidia in Doom 3 "nur" Dinge zur Leistungssteigerung ausnutzt, welche bei der Programmierung des Spiels übersehen wurden. Dennoch ist Handoptimierung auf einen Benchmark (Doom 3 ist ein Quasi-Standardbenchmark) grundsätzlich kritisch zu sehen.
Interessante Details zu den Klagen der Musikindustrie gegen vermeintliche Urheberrechtssünder kommen in einem Artikel der Telepolis zu Tage: So scheint über zentrale Punkte der Klagen nie verhandelt worden zu sein, weil die Beschuldigten regelmäßig vor der finanziellen Übermacht der Musikindustrie kapitulierten. So ist bis heute noch nicht einmal geklärt, ob die Klagen der Musikindustrie überhaupt rechtens sind. Wir haben an dieser Stelle immer gern den Punkt angeführt, daß der "Beweis" der Musikindustrie zumeist nichts anderes als ein Ausdruck eines Programms ist, welches dokumentiert, daß unter einer IP-Adresse zu einem Zeitpunkt diese oder jene urheberrechtlich geschützte Datei mittels Filesharing angeboten wurde ...
... Jener Beweis ist natürlich billig zu fälschen, insofern verwundert es uns, daß dieser überhaupt Bestandteil einer ernst gemeinten Klage sein kann (wobei der ernst gemeinte Teil der Klagen wohl eher die Horde von Spitzen-Anwälten ist, welche die Musikindustrie diesbezüglich regelmäßig auffährt). Der Artikel der Telepolis macht aber noch auf zwei weitere Punkte aufmerksam: Erstens zwingt die Musikindustrie in ihren Vergleichsangeboten womöglich zu illegalen Klauseln, indem sie den Beschuldigten die zukünftigte Nutzung von Tauschbören generell (also unabhängig des Zwecks) verbietet. Und zweitens ist nach wie vor nicht geklärt, ob die Musikindustrie überhaupt das Recht hat, die PCs der Anwender auszuspionieren - schließlich steht dies eigentlich allein Strafverfolgungsbehörden zu ...
... An dieser Stelle fällt uns zusätzlich noch der Punkt ein, daß die "Beweise" zumeist mit modifizierten Versionen der jeweiligen Filesharing-Programme erzeugt werden. Die Lizenzen der Filesharing-Programme gestatten jedoch im gewöhnlichen keine Modifizierungen, zumindestens nicht dann, wenn sie zum Ausspionieren der Teilnehmer dienen. Es ist schon sehr erstaunlich, daß all dies bei den rund 4000 Klagen gegen vermeintliche Urheberrechtssünder in den USA noch nie vor einem Gericht abschließend geklärt wurde. Was uns aber dennoch in der Meinung bestärkt, daß diese Klagen eigentlich nichtig wären - wenn denn jemand gegen die von der Musikindustrie dafür eingesetzten Mittel ankommen könnte ...
... Und damit wir nicht falsch verstanden werden: Prinzipiell gesehen sind Raubkopien keine Sache, welche wir gutheißen können. Andererseits ist der Weg, welchen die Musikindustrie genommen hat, um mit dem Problem fertigzuwerden, letztlich genauso wenig unterstützenswert. Denn entgegen von der Musikindustrie finanzierter Studien besagen unabhängige Studien, daß die Aktivitäten in den Filesharing-Netzen letztlich nicht abnehmen, sondern das sich bei Bekanntwerden neuer Klagen nur eine kurzfristige Delle ergibt. Vielmehr sehen wir, daß die von der Musikindustrie angesetzten Mittel zur Lösung des Problems - dazu zählen dann auch Kopierschutz und DRM-Systeme - mittlerweile selbst zum Teil des Problems geworden sind ...
... Der entscheidende Punkt ist hier wohl, daß die Medienindustrie ihre Kundschaft derzeit generell als potentielle "Feindschaft" behandelt, was sich im Auftreten und den Aussagen der Medienindustrie sowie immer stärker auch in den technischen Einschränkungen ihrer Produkte wiederspiegelt. Und an dieser Stelle angekommen bezweifeln wir schlicht, daß man mit dieser Geisteshaltung neue Umsatzrekorde aufstellen kann - der Weg zum Portemonaies des Käufers führt immer nur über Herz sowie Verstand desselben. Und wie es scheint, ist die Medienindustrie derzeit eifrig daran, genau dieses zu verlieren - was letztlich wohl die gesamte derzeitig angesetzte Anti-Raubkopierer-Strategie grundsätzlich in Frage stellt.
News des 10. September 2004 |
Vor einigen Wochen hatten wir auch einen Artikels seitens der FiringSquad hingewiesen, in welchem jene beim Benchmarking mit dem Valve Stress Test, daß GeForceFX-Karten von diesem scheinbar in den DirectX8-Modus gezwungen würde, für diese Karten der DirectX9-Modus also nicht verfügbar wäre. Allerdings ist gemäß eines Nachtests dieser Effekt nur auf ein auf der GeForceFX nicht funktionierendes Konsolenkommando zurückzuführen, mit dem richtigen Kommando läßt sich auch auf der GeForceFX der DirectX9-Modus aktivieren. Wie bei den anderen getesteten Grafikkarten fällt aber im DirectX9-Modus die Performance der GeForceFX stark ab, wobei die GeForceFX hier mit gut 50 Prozent Performanceverlust weit mehr als Radeon 9600/9800 (-20%) und GeForce 6800 (-10%) verliert.
Die neue Version 2.1 des ShaderMark bringt - neben einigen anderen Änderungen und Bugfixes - nun auch den Support für die Shader Modelle 2_b (für ATi Radeon-Karten) und 3.0 (für nVidia GeForce6-Karten). Dafür geht allerdings auch die Download-Größe von 40 auf 70 MB hoch ;-). Desweiteren entfällt mit dieser Version die Shareware-Schranke, ShaderMark ist ab sofort uneingeschränkt für jeden nutzbar. Allerdings werden für Version 2.1 eine DirectX9-fähige Grafikkarte, DirectX 9.0c sowie ein Grafikkarten-Treiber ab ATi Catalyst 4.9 bzw. nVidia ForceWare 66.31 benötigt.
Eine recht detaillierte Intel Desktop Prozessor Roadmap ist bei Hard Tecs 4U einsehbar. Den "normalen" Pentium 4 wird Intel danach dieses Jahr maximal nur mit 3.8 GHz takten, dafür aber das Execute Disable Bit (XD) Feature, auch unter NX-Feature bekannt, recht breit sowohl bei Celeron als auch Pentium 4 einführen. Das neue Jahr wird dann noch ein 4.0 GHz Modell sehen, ehe danach die neuen Pentium 4 Modelle mit 2 MB Level2 Cache antreten werden. Dabei bleibt Intel beim Pentium 4 erst einmal beim FSB800, der FSB1066 wird - zumindestens bis ins erste Quartal 2005 - somit den Pentium 4 Extreme Editions vorbehalten bleiben ...
... Diesen Unterschied benötigen diese Prozessoren aber auch: Denn während der 3.46 GHz P4EE ohne das NX-Feature nicht mehr zeitgemäß (für eine 1000-Dollar-CPU) erscheint (bedingt durch die Verwendung des Gallatin-Cores auf Basis des Northwood-Cores, welche schlicht das NX-Feature noch nicht an Board haben), hat der 3.73 GHz P4EE durch die Verwendung des Nocona-Cores auf Prescott-Basis zwar das NX-Feature und auch gleich 2 MB Level2 Cache, ihm fehlt dann aber der von den Pentium 4 Extreme Editions bekannte Level3 Cache. Für den Mehrpreis des P4EE erscheint uns dieser einzige Unterschied zum normalen Pentium 4 in Form des höheren FrontSideBus doch etwas arg wenig.
Eine wichtige Korrektur zu den gestrigen News und dort zum Thema der DualCore-Prozessoren von AMD und deren Kompatiblität mit derzeitigen Mainboard-Chipsätzen: Diese benötigen - im Gegensatz zu den Intel DualCore-Prozessoren - faktisch keinen extra Support durch die Mainboard-Chipsätze. Denn beim K8 sitzt die Northbridge schließlich schon in der CPU selber, womit das Mainboard fast völlig außen vor ist - sorry für unseren Denkfehler diesbezüglich. Für die Intel DualCore-Prozessoren steht allerdings die Aussage, daß diese wohl einen extra Support von Chipsatz-Seite benötigen, sollen mehr als zwei logische Prozessoren angesteuert werden.
News des 9. September 2004 |
Neben der großen Präsentation eines DualCore Itanium 2 Prozessors hat Intel auf seinem IDF auch einen anderen DualCore-Prozessor im Einsatz gezeigt, wenn auch eher recht heimlich. Doch während der DualCore Itanium 2 für den Privatanwender herzlich uninteressant sein dürfte, handelte es sich bei dem anderen DualCore-Prozessor definitiv um eine Desktop-CPU. Wie Golem ausführten, wurde dieser auf einem Mainboard mit i915G-Chipsatz betrieben, zu weiteren Einzelheiten bezüglich der zugrundliegenden Architektur hielt Intel sich jedoch bedeckt. Da ein DualCore Pentium-M Abkömmling auf einem i915G die eher unwahrscheinlichere Lösung ist, gehen wir einfach mal davon aus, daß Intel hier einen DualCore Pentium 4 gezeigt hat ...
... Zwar irritierte etwas der Umstand, daß die CPU ohne HyperThreading zu laufen schien, aber dies hängt wohl einfach am Chipsatz-Support: Die aktuellen Intel Desktop-Chipsätze unterstützen nur zwei logische Prozessoren, nicht vier. Dieser Punkt schließt auch schon fast aus, daß man einen DualCore Pentium 4 mit einem der aktuellen Mainboards spezifikationsgerecht wird betreiben können. Für einen DualCore Pentium 4 wird somit - ungeachtet des anscheinend weiterverwendeten Sockel 775 - mit ziemlicher Sicherheit ein neues Mainboard fällig. Dieser Punkt sollte im übrigen auch auf die DualCore-Prozessoren von AMD zutreffen: Trotz daß auch bei diesen der Sockel gleich bleiben wird, dürften die wenigsten der aktuellen K8-Chipsätze den Support für zwei logische Prozessoren mitbringen. Update: Brauchen sie auch nicht, da die Northbridge beim K8 in der CPU selber sitzt und es somit auf der AMD-Seite nicht zu diesen Kompatibilitätsproblemen wie bei Intel kommen wird.
Die ComputerBase berichtet von einer neuen dynamischen Overclocking-Technik seitens Intel namens "Foxton". Dabei soll die Overclocking-Funktion direkt vom Prozessor ausgehen und auch von diesem gesteuert werden - quasi eine sich selbst übertaktende CPU. Allerdings geht man bezüglich der konkreten Übertaktung Intel-like konservativ an die Sache heran und gibt sich ein Übertaktungslimit von 10 Prozent. Intel wird Foxton jedoch erst einmal nur bei den kommenden Itanium 2 Prozessoren einbauen. Konkrete Planungen für den Desktop-Markt gibt es nicht, Intel hält sich diesen Weg jedoch explizit offen.
Die x-bit Labs haben sich mit dem Stromverbrauch sowie dem Overclocking der GeForce 6600GT beschäftigt. Beim Stromverbrauch maß man runde 50 Watt, was angesichts der nur rund 55 Watt einer GeForce 6800GT reichlich viel erscheint. Allerdings könnte hier - neben dem deutlich höheren Chiptakt der GeForce 6600GT - der 110nm Fertigungsprozeß des NV43-Chips hineinspielen, welcher zwar sehr günstig ist, aber bezüglich des Stromverbrauchs aufgrund des Fehlens von low-k nicht die allererste Wahl sein soll. Beim Übertakten erreichte man immerhin 615/550 MHz sowie 640/550 MHz nach Spannungszugabe, was ein - angesichts des hohen Chiptaktes - gar kein so schlechtes Overclocking-Potential offenlegt.
Shortcuts: Laut The Inquirer gibt es eine AMD-Aussage, wonach die ersten PCIe-Chipsätze für AMD-Prozessoren erst im ersten Quartal des neuen Jahres in den Markt kommen werden. Der Planet 3DNow! berichtet dagegen von einem womöglich demnächst anstehenden Athlon 64 4000+, welcher jedoch keinen höheren Takt, sondern nur einen größeren Level2 Cache mitbringen soll. TweakPC vermelden dagegen die neuen All-in-Wonder Grafikkarten seitens ATi auf Basis der Radeon X800 Chips. Und letztlich sei auf eine Meldung der ComputerBase zu Gerüchten über neue ATi-Grafikchips verwiesen, welche (unter anderem) etwas neues zu dem vor längerer Zeit schon einmal genannten, inzwischen aber mehr oder weniger untergetauchten RV351-Chip aussagt: Bei diesem scheint es sich um eine LowCost-Version der Radeon 9600 zu handeln.
News des 8. September 2004 |
Die Overclockers Workbench haben den Test einer XGI Volari V3 online gebracht - nach den Zahlen einer Volari V3 XT eine weitere neue Karte von XGI. Wobei "neu" in Bezug auf die Volari V3 ohne "XT" eigentlich längst nicht mehr zutreffend ist, vielmehr handelt es sich um einen alten Bekannten im neuen Gewand. Hinter dem Volari V3 Chip verbirgt sich nämlich nichts anderes als der Trident XP4 Chip, welcher mit Aufkauf der Grafikchip-Aktivitäten von Trident durch XGI zu eben XGI kam. Der Trident XP4 hatte dabei selber schon eine wechselvolle Geschichte hinter sich ...
... Im April 2002 noch als Desktop-Lösung durch Trident angekündigt, machten die Spezifikationen des XP4 den seinerzeitigen Spitzenchips der GeForce4 Ti Klasse durchaus Konkurrenz, zudem stach die extrem geringe Leistungsaufnahme von 3 Watt heraus, welche Trident angab. Nach einer Präzisierung der XP4-Daten im September 2002, wonach der Chip sich als DirectX 8.1 Hardware ausgab, passierte jedoch außer diversen Vorab-Tests, die allesamt deutlich unter den Erwartungen blieben, eigentlich nichts mehr mit dem XP4. Trident scheint den Chip allerdings dennoch gebaut und in einigen Deals mit Notebook-Herstellern untergebracht zu haben, auf dem Desktop ward dieser jedoch (vorerst) nicht wieder gesehen ...
... Bei der Vorstellung der Volari-Serie im September 2003 kündigte XGI dann allerdings an, den XP4-Chip bzw. dessen inzwischen entwickelte Verbesserung XP5 in Form der Volari V3 doch noch in den Desktop-Markt bringen zu wollen. Seitdem ist diesbezüglich allerdings nichts wirkliches passiert, wie bekannt hat XGI zwar sein Flaggschiff Volari V8 Duo ausgeliefert, doch auf die anderen Chips der umfassenden XGI-Planungen warten wir weitestgehend bis heute. Daß es jetzt ausgerechnet die Volari V3 noch in den Markt schafft, deren Grundlage XP4 immerhin einstmals schon Ende 2002 (!) eben dort landen sollte, entbehrt nicht einer gewissen Ironie ;-) ...
... Nun denn, zumindestens liegt somit die Erwartungshaltung für den Test der Overclockers Workbench doch recht niedrig. Jene verglichen die Volari V3 aufgund ihres Preises von 47 Dollar gegen eine GeForce4 MX4000 - lustigerweise sollte der XP4-Chip einstmals durchaus gegen die GeForce4 MX antreten. Und wenn auch mit extremer Verspätung und zu unserer Überraschung: Die XGI-Karte schlägt die nVidia-Karte glatt um Dimensionen. Nachteiligerweise handelt es sich bei beiden getesteten Karten allerdings um Ausführungen mit 64bittigem Speicherinterface, welche also für Gamer definitiv nicht zu empfehlen sind - und für den Anwendungszweck einer Bürokarte interessieren die besseren 3D-Ergebnisse der Volari V3 wiederum nicht ...
... Somit ist der Benchmark-Erfolg der Volari V3 in diesem Fall nahezu irrelevant, wenngleich natürlich Ergebnisse einer V3-Ausführung mit 128 Bit Speicherinterface interessiert hätten. So wie XGI allerdings die Volari V3 im Markt positioniert hat, ist es eher unwahrscheinlich, daß es davon 128-Bit-Versionen mit ordentlichen Taktraten (die Taktraten der verwendeten Volari V3 von Chaintech lagen auch nur bei 200/200 MHz) geben wird. Die Volari V3 wird wohl hauptsächlich in fernöstlichen Billigmärkten als absolute LowCost-Lösung unterweg sein, daß sich Exemplare mit diesem Chipsatz nach Europa verirren, ist damit eher unwahrscheinlich.
Den Intel Shelton LowCost-Prozessor für die gleichen fernöstlichem Billigmärkte hatten wir schon einmal Mitte August erwähnt, nun gibt es mittels eines Artikels der chinesischen Seite HKEPC (maschinelle englische Übersetzung) genauere Daten. Bisher bekannt war, daß der Shelton auf einem Celeron-Core basieren sollte, jedoch keinerlei Level2 Cache mitbringen soll. Darauf aufbauend wurde heftig diskutiert, ob es sich um einen Celeron Northwood (unsere Annahme), Celeron Prescott oder gar einen Celeron Tualatin (vom Pentium III) handelt - doch alle drei Möglichkeiten stimmten nicht, auch wenn die letzte schon recht nah dran war ...
... Denn der Shelton wird schlicht einen Celeron-M Banias Core benutzen, bzw. da dies ohne Level2 Cache sowieso keinen Unterschied ergibt, einen Pentium-M Banias Core. Entgegen der früheren Shelton-Meldung wird der Shelton jedoch nicht in 90nm, sondern in 130nm gefertigt. Hierbei drängt sich natürlich die Annahme auf, Intel würde - insbesondere, nachdem der Banias-Core im Dothan-Core inzwischen einen Nachfolger gefunden hat - beim Shelton einfach auf der Halde liegende Pentium-M und Celeron-M Cores mit deaktiviertem Level2 Cache billig abzusetzen gedenken ...
... Aber natürlich ist die andere mögliche Annahme, daß Intel den Shelton wirklich ohne Level2 Cache herstellt - und damit sehr billig herstellen und zudem zukünftig immer weniger benötigte 130nm Fertigungskapazitäten besser auslasten kann - genauso gut denkbar. Unabhängig dieser Produktionsgeschichte wird der Shelton natürlich enorm durch den fehlenden Level2 Cache limitiert, kann aber dafür auf die ausgesprochen hohe Pro-MHz-Leistung des Pentium-M zurückgreifen. Im Test von HKEPC wird ein VIA C3-Prozessor mit 1 GHz, welcher die Hauptkonkurrenz zum Shelton darstellt, bei gleichem Takt jedenfalls um 30 bis 50 Prozent deutlich geschlagen.
Shortcuts: Zwar in französisch, aber aufgrund des Umfangs dennoch erwähnenswert ist das Roundup mit 40 aktuellen Intel- und AMD-Prozessoren seitens Materiel. Bei Digit-Life gibt es dagegen ein neues 3Digest mit den Leistungsdaten aller aktuellen (und weniger aktuellen) Grafikchips. Laut dem tecChannel wird der SLI-Connector, welcher zum SLI-Betrieb einer GeForce 6600GT oder GeForce 6800 GT/Ultra benötigt wird, noch in diesem Monat bei den Grafikkarten-Herstellern verfügbar werden. Und letztlich ist einer aktualisierten Centrino-Roadmap bei der Virtual Zone zu entnehmen, daß der Merom-Core (in Form des Conroe auch für den Desktop interessant) entgegen früheren Meldungen nun doch kein QuadCore, sondern "nur" ein DualCore ist.
News des 7. September 2004 |
Während die Frage nach der Performance von GeForce 6600 & GeForce 6600GT zum seinerzeitigen Launch vor rund einem Monat mangels Testkarten noch nicht beantwortet werden konnte, füllen nun die Testberichte zur GeForce 6600GT das Web (Liste). Getestet wurde dabei ausschließlich die PCI Express Version der Karte, da nVidia nur von dieser Referenzdesigns zur Verfügung stellt. Nichts desto trotz wird es aller Wahrscheinlichkeit nach auch AGP-Versionen der GeForce 6600 /GT geben - schon allein, weil im Retail-Markt zumindestens derzeit noch mit PCI Express Grafikkarten kein großer Umsatz zu machen ist ...
... Bezüglich der Performance der GeForce 6600GT sind sich nahezu alle Hardware-Tester einig, daß die GeForce 6600GT die derzeit klar beste Lösung im Mainstream-Segment ist und die alten HighEnd- und Mainstream-Karten GeForceFX 5700/5900/5950 sowie Radeon 9600/9800 mittels dieser nunmehr eigentlich überflüssig werden. Allerdings bleibt natürlich abzuwarten, wie sich die Verhältnisse nach dem demnächst erwarteten Launch der neuen ATi Mainstream-Karten namens Radeon X700 verändern werden. Erst dann wird man die jetzigen Ergebnisse der GeForce 6600GT wirklich einordnen können ...
... Die (schließlich nur im Takt beschnittene) GeForce 6600 (ohne "GT") wurde dagegen nur recht selten mitgetestet. Aus den wenigen vorliegenden Werten läßt sich jedoch schlußfolgern, daß diese Karte trotz ihrer niedrigen Taktraten (die Karten sollen wohl nur mit 250 bis 275 MHz Speichertakt bei 300 MHz Chiptakt auf den Markt kommen) trotzdem immer noch vor den bisherigen Mainstream-Lösungen GeForceFX 5700 Ultra (bzw. GeForce PCX 5750 bei PCIe) und Radeon 9600XT (bzw. Radeon X600XT bei PCIe) rangiert. Die GeForce 6600 könnte einem somit zukünftig häufiger in gehobeneren OEM-PCs begegnen, aber auch als recht zukunftstaugliche Grafikkarte für den Gelegenheitsspieler scheint sie gut geeignet zu sein.
Auf dem Intel Developer Forum hat Intel laut Meldungen seitens Golem und der ComputerBase nochmals bekräftigt, künftig alle Marktsegmente mit MultiCore-Prozessoren ausstatten zu wollen. Gezeigt wurde auf dem IDF dabei ein DualCore Itanium-Prozessor mit dem Codenamen Montecito, detaillierteres zu den MultiCore-Lösungen für den Desktop-Markt war dagegen nicht zu erfahren. Intel sagte nur aus, daß es nächstes Jahr erste DualCore-Lösungen für den Desktop- und Mobile-Bereich gehen wird, während 2006 sogar Prozessoren mit mehr als zwei Cores geplant sind - diese allerdings erst einmal nur für den Server-Bereich ...
... Im übrigen ist sich Intel seiner DualCore-Strategie sehr sicher, da man für 2006 mit einem Marktanteil von 40 Prozent DualCore-Prozessoren im Desktop Performance Segment rechnet, im Mobile Performance Segment sollen es gar 70 Prozent sein. Leider ist Intel bis dato nicht mit einer Erklärung darüber herausgerückt, auf welcher Technologie die - schon in rund einem Jahr anstehenden - DualCore-Prozessoren für den Desktop-Bereich basieren sollen - der des Pentium 4 oder der des Pentium-M aus dem mobilen Bereich. Wie wir vermuten wird es wohl beide Entwicklungen geben und Intel wird dann den Markt entscheiden lassen, welche sich durchsetzt.
News des 6. September 2004 |
Die neue Version 2.0 RC15.1 des RivaTuners bringt - neben vielen anderen Veränderungen - nun auch die schon des längerem angekündigte Möglichkeit mit, bei GeForce 6800LE und GeForce 6800 Grafikkarten die ab Werk deaktivierten Vertex- und Pixel-Pipelines zu aktivieren. Natürlich muß man sich als Besitzer einer dieser Karten darüber im klaren sein, daß die Chance doch recht klein ist, daß dieser Software-Mod funktioniert. Laut dem Programmierer des RivaTuners soll die Chance deutlich kleiner sein als seinerzeit beim Radeon 9500 -> 9700 Mod, welcher auch nur auf eine Erfolgsquote von knapp über 50 Prozent kam ...
... Derzeitig werden die Erfolgsaussichten des neuen Mods in erster Linie durch die Produktionsausbeute bei der Fertigung des NV40-Chips behindert: Denn alle vollständig fehlerfreien NV40-Chips gehen derzeit in die Produktion der GeForce 6800 GT und Ultra, welche trotzdem noch nicht der Nachfrage des Marktes hinterherkommt. Demzufolge ist es eher unwahrscheinlich, das eine GeForce 6800LE oder GeForce 6800 Grafikkarte aus aktueller Produktion keine Fertigungsfehler in den deaktivierten Chip-Teilen hat - aber natürlich nicht unmöglich :-). Zudem lassen sich anscheinend diverse GeForce 6800LE und GeForce 6800 Grafikkarten je nach verwendeter BIOS-Version erst gar nicht dazu bewegen, den Mod zu probieren ...
... Der Hauptvorteil des neuen Software-Mods mittels des RivaTuners ist natürlich, daß dieser im Gegensatz zu früheren Hardware-Mods einfachst und ohne bleibende Schäden wieder rückgängig machbar ist. Man kann also durchaus die eigene GeForce 6800LE oder GeForce 6800 Grafikkarte diesbezüglich einmal checken, ob sie auch als 16-Pipelines-Version funktioniert oder nicht - und dann seine Erfahrungen in unserem Forum posten. Im übrigen steht zu erwarten, daß die Chancen dieses Mods aufgrund der stetig steigenden Produktionsausbeute bei IBM (welche den NV40-Chip herstellen) zukünftig mehr oder weniger deutlich ansteigen werden.
In der aktuellen PC Games Hardware (Ausgabe 10/04) gibt es ein Interview mit Ujesh Desal von nVidia, in welchem dieser einiges interessantes zum NextGen-Grafikchip NV50 fallenläßt: "In erster Linie wird die Anzahl der Pixelpipelines erhöht werden. Weiterhin soll die Programmierung einfacher und mit einer CPU vergleichbar werden." Damit kann man fest davon ausgehen, daß nVidia nach der (deutlichen) Erhöhung der Pixel-Pipelines beim NV40-Chip auch beim NV50-Chip die Anzahl der Pixel-Pipelines weiter steigern wird. Ob es gleich 32 werden, bleibt stark abzuwarten - denkbar wäre auch eine "Zwischenvariante" mit 24 Pipelines ...
... Immerhin wird dies wieder einige Dutzend Millionen an Transistoren kosten, welche alle mit einer vernünftigen Taktrate und zu wirtschaftlichen Bedingungen hergestellt werden wollen. Natürlich läßt sich in diesem Zusammenhang ebenfalls über eine Ausweitung des Speicherinterfaces spekulieren - andererseits kann der höheren Füllrate durch die gestiegene Pipeline-Anzahl natürlich auch mit schneller getaktetem GDDR3-Speicher begegnet werden, um kein Ungleichgewicht zwischen Füllrate und Bandbreite entstehen zu lassen. Bezüglich der Shader-Version gilt es im übrigen als recht sicher, daß der NV50 beim Shader Model 3.0 bleibt, da das Shader Model 4.0 (welches allerdings wohl anders heißen wird) erst im DirectX-Nachfolger WGF enthalten sein wird, und dieses erst zum Longhorn-Release verfügbar sein wird.