News-Archiv 19. - 25. April 2004 (17. Kalenderwoche)
24./25. April 23. April 22. April 21. April 20. April 19. April
News des 24./25. April 2004 |
Laut Hard Tecs 4U wird nun endlich am 21. Juni die Ära des Sockel 775 eingeläutet werden, dann wird Intel die ersten entsprechenden Prozessoren und Mainboard-Chipsätze offiziell vorstellen. Eigentlich war dies schon auf der diesjährigen CeBIT geplant gewesen, doch offenbar verhinderten die Produktionsschwierigkeiten beim Prescott-Prozessor die Einhaltung dieser Planung. Neben dem Prescott-Przessor im Sockel 775 samt den neuen Processor Numbers werden an diesem Datum dann auch die Mainboard-Chipsätze i915 "Grandsdale" und i925 "Alderwood" das Licht der Welt erblicken ...
... Ersterer Chipsatz ist für das Mainstream-Segment bestimmt und übernimmt damit das Terrain des bisherigen i865-Chipsatzes. Zweiterer Chipsatz ist für das HighEnd-Segment und damit die Ablösung für den i875. Beiden Chipsätze gemein ist der Support von DDR-Speicher bis (offiziell) DDR/400 und DDR2-Speicher bis DDR2/533 sowie von PCI Express und des Sockel 775. Den Unterschied zwischen beiden Chipsätzen stellt wieder die PAT-Technologie, wobei diese beim i915 angeblich nicht mehr inoffiziell aktivierbar sein soll wie derzeit noch beim i865. Zudem geistern noch Gerüchte von einer angeblichen DDR2/667-Unterstützung des i925 sowie von einer (gewissen) Overclocking-Sperre bei selbigen Chipsatz durch die Runde, was sich aber allesamt am 21. Juni wird klären lassen ...
... Ebenfalls vorgestellt wird an diesem Tag auch der neue Intel-Chipsatz mit integriertem Grafikchip, der i915G - über dessen UMA900-Grafikchip hatten wir hier schon ausführlich berichtet. Durch den verspäteten Markteinführungs-Termin des Sockel 775 bzw. der dazugehörigen Intel-Chipsätze haben die anderen Chipsatz-Hersteller diesesmal die Gelegenheit, entsprechend zeitnah zu den Intel-Angeboten zu reagieren und stehen nun Gewehr bei Fuß für einen Markteintritt im dritten Quartal und damit nur knapp hinter den Intel-Chipsätzen: Zu nennen wären hier ATi RS400, SiS 656 und VIA PT890, welche von den Grund-Spezifikationen her den Intel-Chipsätzen ziemlich gleichen - bis auf den Punkt, daß alle drei Intel-Konkurrenten sicher DDR2/667 gleich mit unterstützen wollen.
Bei den x-bit Labs gibt es in Form des Asus A7V880 den ersten Test eines Serien-Mainboards auf VIA KT880 Basis. Die bisherigen Vorab-Tests sahen den KT880-Chipsatz noch gleichauf mit nVidia´s nForce2 Ultra 400, im diesem Tests der Serien-Mainboards gewinnt jedoch der nVidia-Vertreter, wenn auch mit einem eher unrelevanten Vorsprung von 1-2 Prozentpunkten. Die eigentliche Mission von VIA, mit dem KT880 und dessen DualChannel Speicherinterface dem nForce2-Chipsatz bei der Performance das Wasser abzugraben, kann damit als gescheitert gelten. Nichts desto trotz dürfte sich der neue VIA-Chipsatz aufgrund des besseren Preises bei gleichzeitig moderneren Features gut gegenüber den nVidia-Chipsätzen behaupten können.
Wunderbare Welt des Kopierschutzes: Laut zwei Threads in unserem Forum (No.1 und No.2) ist in den neueren nVidia-Treibern der 50er Serie offenbar eine Funktion enthalten, welche CDs/DVDs mit Macrovision-Kopierschutz zuverlässig davon abhält, an dem TV-Out einer nVidia-Grafikkarte zu funktionieren bzw. auch bei zwischengeschalteten Geräten wie einem VGA-Switch den Dienst verweigert. nVidia kann dafür vermutlich allerdings nichts, sondern muß sich diesbezüglich wohl an die aktuelle amerikanische Gesetzgebung (DCMA) halten - wobei im EU-Land inzwischen bekanntermaßen ein ganz ähnliches Gesetzwerk existiert. Abhilfe schafft hier offenbar nur der Downgrade auf einen niedrigen 40er nVidia-Treiber.
Nach langer Zeit mal wieder genannt werden muß das Thema Microsoft .NET: Dahinter verbirgt sich natürlich nicht nur eine Sache, sondern eine Vielzahl an Dingen, welche teilweise nicht einmal etwas miteinander gemeinsam haben. Auch hat sich die einstmals bei der Einführung von .NET zu beobachtende Aufregung ob der Privacy-Probleme von .NET fast überall wieder gelegt zu haben. Was allerdings eine eigentlich unbegründete "Normalisierung" ist, wie wir bei einer (nebenbei seitens durch einen HP-Drucker gestarteten und komplett ungefragten) Installation von .NET 1.1 miterleben durften ...
... .NET versuchte während der Installation mindestens dreimal mit verschiedenen Programmen nach Hause zu telefonieren (weitere Versuche könnten ohne unser Wissen abgefangen worden sein, da auf dem benutzten PC diversen Microsoft-Diensten der Zugang zum Internet prinzipiell versperrt wurde) und legte zudem (ungefragt natürlich) einen neuen Benutzer auf dem benutzten Windows XP Betriebssystem an, welcher offenbar zu Fernsteuerungs-Zwecken seitens Microsoft dienen soll. .NET mag für Programmierer möglicherweise nutzvoll und diesbezüglich eventuell besser als andere derzeitige Produkte sein, aber diese Programmierer sollten auch immer daran denken, welche Datenkrake sie ihren Nutzern mit der Zwangsinstallation von .NET aufhalsen.
Shortcuts: Laut einem Interview mit ATi wollen selbige die Grafikkarten-Treiber regelrecht "revolutionieren". Was sich dahinter verbirgt, ist derzeit noch komplett unklar - ATi will das neue Feature erst in zwei bis drei Monaten vorstellen. Mit dem Overclocking und gleichzeitig passivem Kühlern von VIA C3-Prozessoren hat man sich bei TtecX beschäftigt und konnte bei (fast) passiver Kühlung einen C3 von 1000 auf immerhin 1200 MHz stabil übertakten. Bei t-break hat man sich hingegen mit der Performance verschiedener SATA- & RAID-Lösungen aktueller Mainboard-Chipsätze auseinandergesetzt. Und letztlich wäre noch der Betreiber der bekannten Fan-Seite Planet Half-Life zu erwähnen, welcher in einem Forums-Posting ziemlich über Valve und deren Pressepolitik vom Leder zieht.
neuer Artikel |
Geometrie: High Order Surfaces
Heutzutage unverzichtbar - nicht nur für die 3D Welt im Computer - sind die sogenannten High Order Surfaces – zu deutsch auch unter den Begriff Freiformflächen bekannt. Doch was genau steckt hinter all diesen Begriffen wie Curved Surfaces, Bézier, NURBS & Co? Das Augenmerk dieses Artikels wird sich weder auf Verwendung in Computerspielen, noch auf irgendwelche Grafikchipimplentierungen richten, sondern vielmehr auf die Geometrie hinter Begriffen wie Truform ... zum Artikel
News des 22. April 2004 |
Wir haben unseren Inside nVidia NV40 noch in einem Detail korrigiert. Im erweiterten Schema der Pipeline des NV40 auf Seite 2 des Artikels sitzt die Multiplikation jetzt richtigerweise hinter der Special Function. Diese Reihenfolge ermöglicht die Division in einem Takt: Die Special Function berechnet den Kehrwert, welcher mit dem Operanten multipliziert wird. Auch einige andere Befehle sind auf diese Reihenfolge der Recheneinheiten angewiesen. Wir danken Demirug für den Hinweis.
Bei den Franzosen von x86-secret ist mal wieder ein noch gar nicht offiziell releaster Prozessor im Test: Ein Celeron auf Prescott-Basis. Intel wird diesen im übrigen offiziell "Celeron D" nennen und damit erstmals eine klare Unterscheidung zu den bisherigen Celeron-Modellen einführen. Bisher hat Intel bei Pentium 4 und Celeron immer nur bei taktgleichen Prozessoren mit verschiedenen Suffixen gearbeitet, nie jedoch generell eine ganze Serie regelrecht mit Suffix benannt. Für den Endkunden kann das nur praktisch sein, denn so wird klar, daß ein Prescott-basierender Celeron sich zwingend "Celeron D" nennen muß, egal ob es die jeweilige Taktfrequenz auch auf Northwood-Basis gibt oder nicht ...
... Dabei rechtfertigen auch die Hardware-Unterschiede die neue Benennung: So hat der Celeron D nun 256 kByte Level2 Cache anstatt 128 kByte, arbeitet mit 133 MHz QDR FrontSideBus anstatt 100 MHz QDR, besitzt SSE3 und organisiert letztlich den Level2-Cache 4-way assoziativ an anstatt wie bisher 2-way assoziativ. Weiterhin fehlt allerdings das HyperThreading-Feature der großen Brüder. Zudem bleibt der Celeron D vorerst beim bewährten Sockel 478 und wird wohl erst im nächsten Jahr bei steigenden Taktfrequenzen zum Sockel 775 wechseln. Allerdings werden vermutlich alle Celeron D Modelle über 3 GHz nur noch für den Sockel 775 angeboten werden, so daß für die Anhänger des Sockel 478 weiterhin der Pentium 4E mit 3.4 GHz das höchste verfügbare Modell bleiben wird ...
... Insbesondere die vorgenannte verbesserte Organisation des Level2-Caches freut den eingeweihten Betrachter, denn speziell diese Eigenschaft wurde und wird für das äußerst unterdurchschnittliche Abschneiden des bisherigen Celeron-Prozessors auf Northwood-Basis verantwortlich gemacht. Dieser ist insbesondere bei steigender Taktfrequenz absolut hüftlahm, selbst auf 3.0 GHz übertaktete Celeron-Prozessoren auf Northwood-Basis beißen sich an 2.4 GHz Northwood-Prozessoren noch die Zähne aus. Für den neuen Celeron D auf Prescott-Basis scheint dies nicht mehr zuzutreffen, x86-secret ermittelten hier eine gegenüber einem Prescott-Prozessor mit ebenfalls FSB533 (1 MB Level2 Cache, kein HyperThreading) nahezu identische Cache-Leistung des Celeron D ...
... In den weiteren Benchmarks performt der Celeron D dann auch generell ähnlich wie jener abgespeckte Prescott-Prozessor. Der einzige Unterschied zwischen diesen beiden Prozessoren in der Größe des Level2 Caches (256 kByte zu 1 MB) scheint nur für eine Leistungsdifferenz von 5 bis 10 Prozent gut zu sein - wobei die Differenz in Spielen generell etwas höher bei ca. 15 Prozent liegt. Der Celeron D liegt damit natürlich weiterhin hinter allen Pentium 4 Modellen - ob Northwood oder Prescott - zurück, doch nun nicht mehr so dramatisch wie der jetzige Celeron auf Northwood-Basis. Da zudem der neue Celeron die guten Overclocking-Eigenschaften des bisherigen Celerons zu übernehmen scheint (x86-secret kamen auf 3.2 GHz), dürfte Intel mit dem Celeron D alles richtig gemacht haben.
Laut Hard Tecs 4U haben die EU-Wettbewerbshüter nach Microsoft nun auch Intel "auf dem Kiecker". Wobei in diesem Fall Intel selber anscheinend unschuldig ist und sich die Ermittlungen auf die Beschaffung von Behörden-PCs konzentrieren, wo bei den entsprechenden Ausschreibung offenbar "Intel-only" gefordert wurde. Solche Bedingungen gehen aber nicht immer nur auf den großen Einfluß eines speziellen Herstellers zurück, vielmehr steckt dahin oftmals Unkenntnis über andere Möglichkeiten und Hersteller bei denjenigen, welche solche Ausschreibungen erstellen. Ironischerweise hätte man dabei den Kostenvorteil einer Hersteller-freien Ausschreibung sogar mit Intel-Produkten erreichen können - wenn es nämlich um einen größeren Umsatz und/oder das Prestige geht, machen viele Hersteller preismäßig teilweise das unmögliche möglich :-).
Laut dem Planet 64-Bit hat IBM arge Ausbeute-Probleme in der Fishkill-Chipfabrik, in welcher neben dem PowerPC auch die nVidia-Chips NV36 (GeForceFX 5700 /Ultra) und NV40 (GeForce 6800 /Ultra) hergestellt werden. Glücklicherweise für nVidia haben diese unseres Wissens nach aber einen Vertrag mit IBM, wonach man nur für funktionsfähige Chips zahlt ;-). Bei Hardware-City hat man einen Pentium 4 im M0-Stepping von 2.8 GHz auf stolze 4.068 GHz übertaktet. Dieses Stepping bezeichnet eigentliche Xeon bzw. Pentium 4 Extreme Editon Prozessoren mit zusätzlichen 2 MB Level3 Cache, welcher allerdings für den Einsatz als gewöhnlicher Pentium 4 deaktiviert werden. Und letztlich suchen die Macher des Unreal Tournament 2003/2004 WW2-Mods "Red Orchestra" noch weitere kompetente Mitarbeiter, welche sich bitte hier melden mögen.
News des 20. April 2004 |
Neues von Tommti-Systems zum Fall unterschiedlicher Bildqualitäten unter Far Cry: Danach behandelt das Spiel GeForceFX-Grafikkarten generell anders als ATi-Grafikkarten und weisst diesen per default deutlich mehr 1.1er Shader anstatt 2.0er Shader zu, was in einer teilweise sichtbar schlechteren Bildqualität resultiert. Damit sind offenbar alle bisher in diesem Spiel aufgenommenen Benchmark-Resultate - darunter auch die unsrigen - auf GeForceFX-Grafikkarten hinfällig. Wie sich die GeForce 6800 Ultra bezüglich dieser Shader-Geschichte unter Far Cry verhält, ist dagegen derzeit noch nicht klar (und unsererseits momentan leider auch nicht nachprüfbar).
Einem Thema, welches schon für die verschiedensten Spekulationen gut war, hat sich der Tech Report angenommen: Laufen nVidia-Chipsätze eventuell mit nVidia-Grafikkarten schneller als mit anderen Grafikkarten? Der Tech Report bejaht diese Frage zwar in seinem Fazit, wir sind uns jedoch diesbezüglich nicht wirklich sicher. Denn klare Unterschiede, welche auf eine Optimierung schließen lassen, gab es nur in 4 von 16 Einzel-Tests (zwei SPEC ViewPerf Messungen sowie Quake III Arena und Wolfenstein: Enemy Territory). Sicherlich ist es angesichts dieser Ergebnisse möglich, daß nVidia bei den nForce-Treibern auf einige wenige Benchmark-Programme in Zusammenspiel mit GeForce-Grafikkarten optimiert hat, doch damit ergibt sich immer noch kein genereller Leistungsvorteil für nVidia-Grafikkarten auf nVidia-Chipsätzen.
Bei AnandTech gibt es eine aktualisierte ATi Chipsatz-Roadmap. Diese nennt für den Pentium 4 Bereich den RS400 als nächsten Chipsatz nach dem derzeitig verkauften RS300 (Radeon 9100 IGP), welcher gegen Mitte 2004 mit DualChannel Speicherinterface und dem Support von FSB800 sowie angeblich sogar FSB1066, DDR-Speicher bis DDR400, DDR2-Speicher bis DDR2/667 und PCI Express in den Markt kommen soll. Von anderer Seite wurden hier im übrigen noch die RS400-Abwandlungen RC400 und RU400 genannt, wobei beide nur mit einem SingleChannel-Speicherinterface antreten sollen, beim RU400 fehlt zudem noch der extra PCI Express x16 Grafikport. Gleichfalls wird ATi endlich auch auf dem Athlon 64/FX Markt tätig werden, hier soll im dritten Quartal der RS480 mit dem Support von PCI Express und dato noch unbekanntem Speicher-Support antreten ...
... Beiden Mainboard-Chipsätzen gemeinsam ist die integrierte DirectX8-Grafiklösung, ergo wird es wohl wieder die beim RS300 zum Einsatz kommende Radeon-9200-nahe-Lösung richten müssen (nennt sich Radeon 9100 IGP, ist aber technisch näher den Radeon 9000/9200 Grafikkarten bzw. den RV250/RV280-Grafikchips). Die lange Zeit gehegte Vermutung, die RS4x0-Chips wären bereits DirectX9-Hardware, scheint sich damit nicht zu erfüllen. Aber angesichts dessen, daß ATi selbst im Desktop-Markt derzeit noch keine DirectX9 LowCost-Lösung hat, ist dies wohl gar nicht einmal so verwunderlich. Wohl erst nach dem Release des RV370-Chips wird man sich bei ATi auf Basis dessen Technologie an eine Lösung für den integrierten Markt machen.
Im Bereich der Mainboard-Chipsätze mit integrierter Grafikeinheit hat Intel mit seinem kommenden Grantsdale-Ableger i915G bekanntermaßen ebenfalls ein neues Eisen im Feuer. Die neu designte Grafikeinheit, vorab als "Intel Extreme Graphics 3" bezeichnet, nun sich aber offiziell "Intel Graphics Media Accelerator 900" (GMA900) nennend, wird wohl der erste integrierte Grafikchip mit DirectX9-Support (Pixel Shader 2.0) werden. Vorab war schon bekannt, daß der Chip über 4 Rendering-Pipelines verfügen wird, was für einen integrierten Grafikchip definitiver Rekord ist, da ATi Radeon 9100 IGP wie auch nVidia nForce2 IGP jeweils nur über 2 Pipelines verfügen ...
... Auch beim Chiptakt strebt Intel mit 325 MHz einen neuen Rekord an, die dabei herauskommende Füllrate von 1,3 GT/sec würde auf dem Desktop immer noch ausreichen, um unteres Mainstream-Niveau zu belegen - dies entspricht exakt der Füllrate einer Radeon 9600 mit ebenfalls 4 Rendering-Pipelines und 325 MHz Chiptakt. Ob sich Intel allerdings bei den Shader-Einheiten pro Pipeline ebenfalls in der Nähe von Desktop-Beschleunigern bewegt, darf eher bezweifelt werden. Für diese Annahme spricht, daß es zum einen selbst in Intel-Dokumenten zum GMA900 hierzu keine wirklichen Aussagen gibt, und zum anderen eine Desktop-Chips vergleichbare Shader-Architektur dann auch die Transistorenmenge eines Desktop-Chips erfordert, was man sich für integrierte Grafikchips allerdings kaum leisten kann ...
.. Eine hohe Shader-Performance wird sowieso nie das Ziel von Intel beim GMA900-Chip gewesen sein, da man ansonsten den Vertex Shader nicht glatt weggelassen hätte. Die Pixel Shader 2.0 Fähigkeit des GMA900 ist somit eher ein Marketing-Feature bzw. für den die Hardware-Anforderungen des kommenden Windows XP Nachfolgers "Longhorn" interessant, auch wenn sich dieses Betriebssystem nun enorm verspäten wird. Aber mit den 4 Rendering-Pipelines samt relativ hohem Chiptakt dürfte der GMA900 zumindestens in Spielen ohne massivem Shader-Einsatz vernünftig punkten können - wenigstens von der Rendering-Leistung her ...
... Bei der Speicherbandbreite hat auch der GMA900 dasselbe Problem wie alle integrierten Grafiklösungen: Man ist auf den Hauptspeicher bzw. dessen Schnelligkeit und Anbindung angewiesen. Zwar kommt der Grantsdale-Chipsatz unter dem Einsatz von DDR2/533 auf immerhin 8,0 GB/sec Bandbreite, doch kann sich die CPU davon im absoluten Maximalfall 6,0 GB/sec nehmen. Geht man von dem eher realistischen Fall aus, daß sich die CPU von der zur Verfügung stehenden Bandbreite runde 3 GB/sec nimmt, so hat die Grafikeinheit immerhin 5 GB/sec für sich zur Verfügung. Dies hört sich gar nicht so übel, ist aber nur genauso viel wie ein externer Grafikchip mit 64 Bit DDR-Speicherinterface und 330 MHz Speichertakt - was heutzutage klar unter LowCost laufen würde ...
... An diesem Punkt wird der GMA900 wohl weiterhin ausgebremst werden. Andererseits würden sich mit höher getaktetem DDR2-Speicher wie beispielsweise DDR2/667 die Möglichkeit ergeben, dem GMA900 entsprechend "Beine zu machen". Bei dem genannten DDR2/667 könnte man schon mit real runden 7 GB/sec Bandbreite allein für den Grafikchip rechnen, was umgerechnet einen externen Grafikchip mit 128 Bit DDR-Speicherinterface und 230 MHz Speichertakt ergeben würde - also durchaus eine halbwegs brauchbare Lösung. Diese theoretische Bandbreiten-Rechnung gilt natürlich auch für andere Grafikchip-Projekte für den Pentium 4 (siehe RS400 mit Support von DDR2-Speicher bis DDR2/667) - höhere DDR2-Takte könntem sich für diese allesamt als äußerst nutzvoll erweisen.
Shortcuts: Laut The Inquirer ist VIA´s PCI Express Chipsatz für den Pentium 4, der PT890, in die Sample-Phase getreten. Die Massenproduktion soll dann im Juni anlaufen, womit der vermutliche Markteintritt im Juli einen Monat nach den Intel-Lösungen Grantsdale und Alderwood erfolgen würde. Die gestern genannte neue Multimonitor-Grafikkarte QID Pro von Matrox basiert laut Golem tatsächlich auf dem Parhelia-Grafikchip. Und letztlich gibt es nun laut dem ZDNet mit MSN eine weitere personalisierte Suchmaschine - neuer Stoff für die NSA und alle weiteren Horch-&-Guck-Behörden ;-)).
News des 19. April 2004 |
Mal wieder etwas neues von Matrox haben TweakPC zu berichten. So soll noch in diesem Monat die Parhelia 8X veröffentlicht werden - eine Parhelia-Grafikkarte mit AGPx8 Modus, da die originale Parhelia nur mit AGPx4 umgehen kann. Wer zufällig noch unseren alten Grafikchip-Ausblick 2003 im Kopf hat: Dort nannten wir die Karte mal für das erste Quartal - allerdings des Jahres 2003. Nur nebenbei: Die anderen bisher nicht releaste Chips dieses alten Artikels sind: Matrox Parhelia 2, Trident XP4e, PowerVR Series 5, S3 DeltaChrome MS aka S4, Trident XP8 und S3 DeltaChrome 2 - zudem sind (natürlich) einige der dort getroffenen Zukunftsprognosen überhaupt nicht so eingetroffen wie seinerzeit gedacht ...
... Zurück zu Matrox: Laut TweakPC soll es im Sommer ein neues Produkt geben, was jedoch kein neuer Grafikchip sein soll. Da Matrox soeben noch eine Grafikkarte mit 4 Display-Controllern (Quad Information Display aka QID Technologie) ankündigte, könnte man spekulieren, daß genau diese Grafikkarte damit gemeint ist. Welcher Grafikchip bei dieser für das professionelle Segment sicherlich interessanten Lösung zum Einsatz kommt, ist unbekannt, aber vermutlich dürfte der Parhelia-Chip bzw. ein Abkömmling dessen inzwischen preisgünstig genug herzustellen sein, um die alten G450- und G550-Chips auch im 2D-Bereich in Rente schicken zu können. Nebenbei traf TweakPC noch die Aussage, daß es zumindestens dieses Jahr keinen neuen Grafikchip von Matrox mehr geben wird ...
... Angesichts der Matrox-üblichen Entwicklungszyklen dürfte dies auch recht normal sein, da Matrox im gewöhnlichen nur aller Jahre mal einen richtig neuen Chip in die Runde wirft, welcher dann in den darauffolgenden Jahren und mittels einiger Refreshs intensiv für viele verschiedene Grafikkarten genutzt wird. Demzufolge ist von Matrox ein womöglich "Parhelia 2" genannter neuer Grafikchip wirklich erst 2005 zu erwarten, wenn man den Zeitunterschied zwischen G400 (1999) und Parhelia (2002) als Maßstab nimmt. Viel später darf es allerdings auch nicht sein, denn irgendwann wird Matrox auf DirectX9 umsteigen müssen, um bezüglich der Hardware-Anforderungen des Windows XP Nachfolgers "Longhorn" nicht ins Hintertreffen zu geraten - was schließlich ganz besonders auch für Grafikchips im Büro- bzw. professionellen Einsatz eine wichtige Kenngröße sein wird.
Auch bei 3Dlabs hat man sich mal wieder etwas neues einfallen lassen: Laut 3DChips sowie Golem hat man die "Wildcat Realizm" Grafikkarte vorgestellt, welche im Maximalausbau einen Geometrieprozessor sowie zwei P20-Grafikchips umfasst. Letzterer ist eine Weiterentwicklung des bekannten P10-Chips, seinerzeit von uns noch etwas zu enthusiastisch ob seiner vollen Programmierbarkeit gefeiert. Der P20 unterstützt nun auch DirectX 9.0 (Shader 2.0) sowie OpenGL 2.0, ist allerdings wohl nach wie vor eher auf den Einsatz im professionellen Bereich ausgelegt, auch wenn ein Feature wie 16x Multisampling Anti-Aliasing sich reichlich verlockend anhört ..
... Daß die 3Dlabs-Mutterfirma Creative sich diesesmal dazu aufrafft, auf Basis des neuen 3Dlabs-Chips auch Grafikkarten für den Desktop-Markt zu bauen, ist angesichts des recht ausufernd angelegten P20-Designs eher unwahrscheinlich, da im Desktop-Markt eine Grafikkarte schließlich keine solche Unsummen wie im professionellen Bereich kosten darf. Dies ließe sich wohl nur mit einer abgespeckten Version der "Wildcat Realizm" realisieren - sprich, maximal mit einem P20-Grafikchip ohne zusätzlichen Geometrieprozessor, besser aber mit einem extra Grafikchip nur für den Desktop-Markt, welcher um die ganzen nur für den professionellen Markt interessanten Features erleichtert wäre. Dies ist allerdings mehr Träumerei als Realität und dürfte wohl nur eine Option für Creative werden, wenn sich das neue 3Dlabs-Produkt unerwartet schnell gegenüber der Konkurrenz zeigt.
Bei GamePC hatte man ein Notebook mit ATi Mobility Radeon 9700 DirectX9-Grafikchip im Test. Der dabei zum Einsatz kommende neue M11-Chip stellt eine taktverbesserte Version (maximal 411 MHz) des M10-Chips (maximal 350 MHz) dar, welcher sich offiziell Mobility Radeon 9600 nennt. Mit einer echten Radeon 9700 hat der Mobility Radeon 9700 Grafikchip somit wenig zu tun, da die echte Radeon 9700 über 8 Rendering-Pipelines sowie ein 256 Bit Speicherinterface verfügt, Mobility Radeon 9600 wie auch 9700 dagegen nur über 4 Rendering-Pipelines an einem 128 Bit Speicherinterface. Nichts desto trotz sind die Leistungen der Mobility Radeon 9700 laut dem Vergleich von GamePC absolut vernünftig und liegen auf der Höhe von Radeon 9600 Pro bis Radeon 9600XT - und damit derzeit wohl auf dem Spitzenplatz bei Notebook-Grafikchips.
Von kompletten Desktop-PC-Systemen auf Basis des Pentium-M Prozessors berichten Hard Tecs 4U. Leider sind diese PC-Systeme wohl eher für den Büro-Einsatz vorgesehen, ein AGP-Steckplatz fehlt jedenfalls. Damit bleibt das einzige uns bekannte Pentium-M Mainboard mit AGP-Steckplatz das Endura LS855 von RadiSys, welches allerdings für den Endkunden kaum zu bekommen ist und zudem außerdem noch recht teuer sein soll. Ansonsten ist derzeit auf diesem Feld leider keine weitere Entwicklung zu vermelden, der letzte Stand war eine Meldung, wonach es Pentium-M Prozessoren auch für den Sockel 478 gibt.
Shortcuts: Ein Spannungs-Mod für Grafikchip und Speicher der GeForceFX 5700 Ultra wird im Overclockers Forum beschrieben. Über Bundesbanker, welche sich ihre Verträge und damit Gehälter untereinander aushandeln und unterschreiben, berichtet der Standard. Laut TweakPC könnte sich Half-Life 2 nun unter Umständen gar bis ins Jahr 2005 verzögern - und diese Information stammt diesesmal von Valve selber. Und letztlich kommt von Tommti-Systems eine wichtige Anmerkung zu den derzeit kursierenden Screenshots mit den angeblichen Unterschieden zwischen Pixel Shader 2.0 und 3.0 Einsatz in Far Cry: Diese sollen nicht den Unterschied zwischen den Pixel Shader Versionen darstellen, sondern vielmehr denjenigen zwischen dem niedrigesten und dem höchsten Detailgrad der CryTek-Engine.