News-Archiv 12. - 18. Januar 2004 (3. Kalenderwoche)
18. Januar 17. Januar 16. Januar 15. Januar 14. Januar 13. Januar 12. Januar
News des 16. Januar 2004 |
Und schon ist der nächste Grafikkarten-Hersteller bei ATi: Nach Abit, Asus, Creative, Gigabyte, Hercules und Terratec wird nach einer Meldung seitens Hard Tecs 4U nun auch Soltek Grafikkarten mit ATi-Chips bauen. Allerdings bietet man derzeit mit Radeon 9200SE und Radeon 9600SE nur eher uninteressante (64 Bit Speicherinterface) LowCost-Grafikkarten auf ATi-Basis an. Soltek wird allerdings weiterhin wie auch Asus, Creative, Gigabyte und Terratec zweigleisig fahren und sowohl ATi- wie auch nVidia-basierte Grafikkarten anbieten. Die Anzahl der Grafikkarten-Hersteller, welche eingleisig fahren, nimmt damit immer mehr ab: Von den bekannten Herstellern arbeitet mittlerweile ungefähr die Hälfte schon mit zwei oder mehr Chiplieferanten zusammen.
Bei den x-bit Labs ist ein umfangreicher Artikel zur Volari V8 Duo online gegangen. Interessanterweise hatte man dabei eine Karte mit 2.0ns DDR2-Speicher von Samsung, welche mit 350/450 MHz lief - alle bisher von Club3D ausgelieferten Karten takten dagegen mit 350/350 MHz. Wirklich helfen tut das der XGI-Karte allerdings nicht: Die Shader-Performance unter 3DMark2001 und 3DMark03 liegt nur auf dem Niveau einer GeForceFX 5600 Ultra. Die Benchmarks mit dem ShaderMark 2.0 sehen zwar erst einmal deutlich besser aus - allerdings auch nur, weil die x-bit Labs hier nicht die neueste Version des ShaderMark 2.0 eingesetzt haben, welche einige "Optimierungen" seitens der XGI-Treiber verhindert (kann man im Quervergleich der Benchmarks zu Tommti-Systems klar erkennen) ...
... Die Spiele-Benchmarks ergeben dann ein teilweise noch desaströseres Bild: Unter Wolfenstein: Enemy Territory, Star Trek: Elite Force II, Tron 2.0, IL-2 Sturmovik: Forgotten Battles, F1 Challenge 99-02, X2: The Threat und C&C Generals Zero Hour ist der XGI-Chip völlig chancenlos gegenüber der Mainstream-Konkurrenz (!) und liegt zumeist nur auf der Hälfte der Frameraten einer GeForceFX 5600 Ultra - teilweise sogar bei weniger als einem Drittel. Pseudo-Lichtblicke (mit einer Performance auf GeForceFX 5600 Ultra Niveau) gibt es bei Halo: Combat Evolved, Splinter Cell, AquaMark3 und dem 3DMark03. Doch dies wird erkauft mit einer gegenüber Vergleichs-Hardware schlechteren Bildqualität, zumeist einer schlechteren Filterqualität ...
... Benennt man die EXE-Dateien der vorgenannten Spiele um, erreicht auch der XGI-Chip wieder die Bidlqualität der Vergleichs-Hardware, verliert aber dabei eben auch um die 50 bis 70 Prozent (!) Performance. Somit bleiben als einzige Benchmarks, in welchen die x-bit Labs eine vergleichbare Performance messen konnten, Unreal Tournament 2003 und Final Fantasy XI. Doch auch bei ersterem wurde eine schlechtere Bildqualität festgestellt, wenn auch hier das Umbennen der EXE-Datei keinerlei Wirkung zeigte. Einzig allein unter Final Fantasy XI konnten die x-bit Labs keinen größeren Unterschied in der Bildqualität feststellen ...
... Damit bleibt festzuhalten, daß XGI mit seinem derzeit besten und mit 400 Euro auch nicht gerade billigem Angebot - noch dazu auf einem gegenüber den Auslieferungskarten deutlich höheren Speichertakt - Optimierungs-bereinigt eine Performance hinlegt, welche auf der Hälfte einer GeForceFX 5600 Ultra liegt und damit sogar von guten LowCost-Karten zu schlagen ist. Selbst mit den Treiber-"Optimierungen" seitens XGI erreicht man allerhöchstens die Performance einer GeForceFX 5600 Ultra - dies allerdings nur in jenen Spielen, wofür XGI entsprechende "Optimierungen" in den Treibern untergebracht hat und natürlich unter entsprechenden Einbußen bei der Bildqualität ...
... Dies alles im übrigen noch ohne Anti-Aliasing und anisotropen Filter, da beides in den XGI-Treiber immer noch nicht funktioniert (der anisotroper Filter ist zwar anwählbar, zeigt aber keine Verbesserung der Filterqualität). XGI scheint es beim XG40-Chip ehrlicherweise verbockt zu haben - und daß man das Ruder noch mit Treiber-Verbesserungen herumreißen kann, erscheint uns angesichts des gewaltigen Rückstandes zu ATi und nVidia mehr als unwahrscheinlich. Hier hilft nur das Warten auf zukünftige XGI-Chips, welche die Sache eventuell besser machen werden.
The Inquirer haben ein paar neuen Informationen zu eben jenem Nachfolger des jetzigen XG40-Grafikchips von XGI, welcher die Basis für die genannte Volari V8 Duo Grafikkarte (sowie die noch nicht relasten Grafikkarten Volari V8 und Volari V8 Ultra) darstellt. Danach soll der XG45-Chip bereits Shader 3.0 fähig sein und im März sein Tape-Out haben. Mit einem Markteintritt von XG45-basierten Grafikkarten ist demnach im Sommer bis Herbst zu rechnen. Zudem sagte The Inquirer aus, daß man den Chip sowohl für den 130nm als auch für den 90nm Fertigungsprozeß designen werde. Dies deutet darauf hin, daß XGI dem originalen XG45 noch ein Speed-Update nachfolgen lassen will - mit etwas Glück hätte man dann sogar den ersten in 90nm gefertigten Grafikchip.
Denn bei ATi und nVidia sieht es derzeit wie erwartet danach aus, daß man den 90nm Prozeß erst 2005 ansteuern wird und zuerst noch den Zwischenschritt 110nm mitnimmt. So berichtet die DigiTimes davon, daß beide großen Grafikchip-Entwickler noch dieses Jahr 110nm Grafikchips beim taiwanesischen Chipbauer TSMC fertigen lassen wollen. Bei nVidia soll es sich dabei um den Refresh des NV40/NV45 handeln, welcher für den Herbst des Jahres zu erwarten ist. Bei ATi hingegen wird wohl nicht nur der Refreshchip zum R420/R423, sondern auch die auf diesen basierenden neuen Mainstream-Grafikchips in 110nm gefertigt werden, auch hier dürfte allerdings nichts vor dem Sommer passieren.
Für den Sonnabend und den Sonntag fallen die News planmäßig aus. In dieser Zeit wollen wir an einem schon lange wartenden größerem Artikel arbeiten, damit dieser endlich einmal fertig wird.
News des 15. Januar 2004 |
Einen interessanten Artikel zum kommenden Windows XP Service Pack 2 haben Ars Technica anzubieten: Aufffallend an der umgestalteten Windows-eigenen Firwall ist, daß sie nun ein wenig nach dem Prinzip von ZoneAlarm funktioniert: Man kann bestimmten Programmen den Internet-Zugriff generell gestatten oder verbieten. Diese Methode mag Firewall-Experten bei weitem nicht ausreichend genug erscheinen, für den - in Sicherheitsfragen meist eher unbedarften Normal-User - ist diese einfache Möglichkeit jedoch ein gar nicht einmal so schlechter Einstieg in das Thema Firewall ...
... Daneben zeigen Ars Technica auch ein weiteres zwar unscheinbares, aber hochinteressantes Feature des Service Packs 2: Die Verhinderung von Buffer-Overrun-Attacken (siehe letztes Bild des Artikels). Hierzu muß man wissen, daß solche Buffer Overruns von sehr vielen Schädlingsprogrammen der letzten Zeit ausgenutzt werden - mit der Schließung dieser Sicherheitslücke würde eine wesentliche Verbesserung der Betriebssystem-Sicherheit eintreten. Ursprünglich war jenes Feature erst für den Windows XP Nachfolger Longhorn geplant. Microsoft hat sich nach der (vor allem in den USA sehr lauten) Kritik an den vielen Würmer-Attacken auf Windows XP nun aber doch dazu entschlossen, dieses Feature noch mit in das Service Pack 2 von Windows XP einfließen zu lassen ...
... Technisch ist das Feature dabei recht anspruchslos: Es muß im Prinzip nur genau zwischen Programmcode und Datencode getrennt werden. Erreicht wird dies über ein einfaches No Execution Bit, welcher Datencode die Möglichkeit entzieht, als Programm ausgeführt zu werden - was man über eine Neukompilierung der Kernkomponenten von Windows XP realisieren will. Einziger Haken an der Sache ist noch, daß jenes "No Execution" Feature auch vom jeweils verbauten Prozessor unterstützt werden muß: Jedoch unterstützen die Athlon 64, Athlon 64 FX und Opteron Prozessoren bereits "No Execution", Intels kommender Prescott-Prozessor wird dafür ebenfalls die Unterstützung mit an Board haben. Insgesamt eine sehr positive Entwicklung in die richtige Richtung - und das ganz ohne TCPA ;-)).
Golem berichten von einer recht einfachen Möglichkeit, seinen Athlon XP Prozessor zu übertakten: Während man dafür bisher am Prozessor selber herumbasteln musste, steckt man nun einfach das Speed Strip SSA-1 auf den Prozessor und diesen dann in den Mainboard-Sockel. Danach kann man mittels des Mainboard-BIOS nach Herzenslust übertakten. Einziger Nachteil ist, daß Speed Strip SSA-1 bei den neuen gelockten Prozessoren ab der 43. Kalenderwoche versagt. Und natürlich werden eingeschworene Bastler weiterhin die benötigten Pin-Verbindungen am Prozessor selber herstellen, aber für bastlerisch nicht erfahrene Anwender stellt Speed Strip SSA-1 eine gute Möglichkeit dar, da das Beschädigungs-Risiko enorm minimiert wird.
Um den mit dem Auftauchen dieser Fotos und Informationen aufgekommenen Tejas-MultiCore-Gerüchten etwas zu entgegnen: Die Annahme, daß die 150 Watt Leistungsaufnahme des dort gezeigten Tejas-Prozessors auf 2.8 GHz auch nur annähernd dem fertigen Serien-Produkt entspricht und damit auf einen Prozessor mit meheren Cores hindeutet, ist ein kaum haltbares Gerücht. Der Tejas-Prozessor wird ab Anfang 2005 mit 4.4 GHz in den Markt kommen und soll in 90nm noch bis zu 5.2 GHz weitergetrieben werden. Sollten jene 150W bei 2.8 GHz auf die Serienprodukte zutreffen, hätte ein 5.2 GHz Tejas eine astronomische Leistungsaufnahme von 280 Watt, was dann doch eher sehr unwahrscheinlich ist ...
... Insofern kann man mit an Sicherheit grenzender Wahrscheinlichkeit davon ausgehen, daß jene 150 Watt des gezeigten 2.8 GHz Tejas-Vorseriensamples bei weitem nicht der Leistungsaufnahme eines Serien-Tejas entsprechen. Damit Intel nicht in astronomische Leistungsaufnahme-Höhen bei den höher getakteten Tejas-Prozessoren kommt, darf der Serien-Tejas (auf gleichem Takt) kaum eine höhere Leistungsaufnahme als der Prescott besitzen. Was man eigentlich auch von einem Prozessor erwarten darf, welcher aller Wahrscheinlichkeit nach weiterhin auf derselben Architektur aufbaut und über keinen größeren Level2 Cache verfügt ...
... Die Vorteile des Tejas gegenüber dem Prescott dürfen zumindestens nicht allzuviel Silizium benötigen - und damit auch die Leistungsaufnahme kaum verändern: Ein 24 kByte anstatt 16 kByte großer Level1 Daten Cache, ein neuartiger 16 kByte großer Level1 Instruction Cache, ein von 12.000 auf 16.000 Micro-Ops vergrößerter Trace Cache, 8 "Tejas New Instructions" (TNI, eventuell später "SSE4" genannt) sowie ein "Enhanced" HyperThreading. Zudem dürfte Intel vermutlich mit dem Start des Tejas das Yamhill-Feature freischalten - dieses schlummert allerdings auch schon im Prescott-Prozessor, wenn auch deaktiviert. Vom Tejas ist also wieder nur ein sanfter Sprung zu erwarten, bevor im Jahr 2006 oder 2007 mit dem Nehalem wieder eine regelrecht neue Intel-Architektur ansteht.
News des 14. Januar 2004 |
Es sind uns einige neue Informationen zum nVidia NV40 "zugeflogen", welche auch manches von dem durcheinanderwirbeln, was man bisher zu diesem Chip glaubte zu wissen: So wird der NV40-Chip entgegen bisheriger Vermutungen noch über kein internes PCI Express x16 Interface verfügen, sondern weiterhin ein AGPx8 Grafikchip sein. PCI Express x16 Grafikkarten auf Basis des NV40 sind aber dennoch möglich, eine entsprechende PCI Express Bridge, welche extra zum Grafikchip auf das Grafikboard verlötet wird, existiert nach diesem Bild nämlich schon. Nebenbei gesagt lassen sich mittels einer solchen PCI Express Bridge auch alle aktuellen Grafikkarten PCI-Express-fähig machen, falls dafür im Markt ein Bedarf existiert ...
... Bezüglich des gestern gemeldeten Tape-Outs gibt es zudem zwei Bestätigungen, welche sich allerdings leider etwas widersprechen: Erstere spricht davon, daß der NV40 im Dezember sein Tape-Out hatte - die zweite jedoch davon, daß dieses schon vor Monaten über die Bühne gegangen sein soll. Wie auch immer, in einem Punkt sind sich beide Quellen einig: Im Dezember gab es noch ein zweites Tape-Out, das des NV45. Dieser stellt offenbar die PCI Express Version des NV40 dar, also mit internem PCI Express Interface. Bisher hat man den NV45 eigentlich als Refresh-Chip des NV40 gesehen, welcher erst ein paar Monate nach diesem in den Markt kommen soll ...
... Nach unseren neuen Informationen sollen aber beide Chips - NV40 und NV45 - mehr oder weniger gleichzeitig in den Markt kommen. Beide Tape-Outs sollen im übrigen für Verkaufsversionen geeignet sein, insofern sind wohl kaum solche Verzögerung wie weiland beim NV30-Chip zu befürchten. Als Präsentations-Termin darf somit die CeBIT 2004 Ende März und als Markteintritt der April/Mai erwartet werden. Aufgrund der Nähe der Tape-Outs von NV40 und NV45 gibt es vermutlich - bis auf das interne Interface - keine weiteren Unterschiede zwischen beiden Grafikchips bezüglich möglicher Optimierungen oder aber der Taktfrequenzen ...
... Sollten zudem beide Chips wirklich annähernd gleichzeitig auf den Markt kommen, entfällt die Notwendigkeit für PCI Express oder AGP Bridge-Chips, da mit NV40 dann eine native AGPx8 und mit NV45 eine native PCI Express x16 Lösung zur Verfügung stehen würde. Für die nachfolgenden Chips des Mainstream- und LowCost-Segments auf Basis des NV40/NV45 plant nVidia allerdings in der Tat teilweise den Einsatz von Bridge-Chips. Auf diese Weise wird der Käufer wohl noch über eine längere Zeit die Möglichkeit haben, dieselbe Grafikkarte entweder als PCI Express x16 oder als AGPx8 Lösung zu erstehen.
Nebenbei gewinnt damit auch bei ATi die ZweiChip-Strategie wieder an Gewicht, auch wenn es hier keine neuen Informationen zum Thema gibt: Aber vermutlich dürfte ATi ähnlich wie nVidia in der Frage des AGPx8 Supports im Jahre 2004 verfahren und den kommenden R420 Chip dann doch noch mit einem internen AGPx8 Interface ausstatten, während der R423 Chip ein internes PCI Express x16 Interface spendiert bekommt. Diese Lösung bedingt natürlich die halbwegs gleichzeitige Auslieferung entsprechender Grafikkarten, denn im kommenden PCI Express Zeitalter wird wohl keiner der großen Hersteller - vor allem nicht mit seinen HighEnd-Lösungen - fehlen wollen.
Und gleich noch etwas zum nVidia NV40 hinterher: Auch TtecX haben sich des Themas Tape-Out des NV40 angenommen und bieten hierzu einige bekannte und einige auch noch völlig unbekannte Informationen an, deren Glaubwürdigkeit wir allerdings derzeit nicht einschätzen können. Danach wird einer der Hauptpunkte des NV40-Chips seine deutlich bessere Performance bei Shader-Programmen sein - TtecX gehen hier von immerhin 130 bis 150 Prozent mehr Shaderperformance aus. Dies soll der NV40-Chip durch einen höheren Chiptakt von 550 MHz, der Verdopplung der Pipeline-Anzahl und durch Verbesserungen der Shader-Effizienz erreichen ...
... Desweiteren geht man von einem 8x sparsed Anti-Aliasing aus - wie intelligent das dabei gewählte Sampleraster wird, ist natürlich die große und entscheidende Frage. Beim Speichertakt gibt man sich konservativ und schätzt diesen auf ähnlich des Chiptaktes, also um die 550 MHz. In der Tat erscheinen die neuesten Höchstleistungen der Speicherindustrie von bis zu 700 MHz Takt bei speziellem Grafikkarten-Speicher (GDDR2/GDDR3) als derzeit noch kaum für Serienkarten verwendbar - sowohl vom Preis her als auch von der derzeitigen Produktionsausbeute. Daneben haben TtecX sogar noch ein paar (angebliche) NV40-Benchmarks anzubieten, welche allerdings aufgrund der nicht bekannten Bedingungen nur sehr schwer vergleichbar sind.
News des 13. Januar 2004 |
Passend zu unserem aktuellen Artikel sei für die ATi-User auf einen Radeon 9800 /Pro -> 9800XT Flash-Guide bei 3DMaxx hingewiesen. Ähnlich wie unser nVidia GeForceFX 5900 /Ultra -> 5950 Ultra Flash-Guide setzt natürlich auch dieser Guide voraus, daß die ausgewählte Grafikkarte die Taktraten des einzuspielenden BIOS mitmacht, in diesem Fall also die Radeon 9800XT Taktraten von 412/365 MHz. Ein wirklicher Vorteil durch diesen BIOS-Mod ist allerdings noch nicht erwiesen: Weder gibt es Anzeichen für eine bessere Overclocking-Leistung noch hat der Radeon 9800XT Grafikchip mehr Features als die Radeon 9800 /Pro Grafikchips zu bieten ...
... Zwar gibt 3DMaxx an, daß mit der gemoddeten Radeon 9800 /Pro nun auch OverDrive funktionieren würde. Man zeigte dafür jedoch nur einen Screenshot des OverDrive Control Panels, einen echten Beweis der Funktionalität von OverDrive auf dieser gemoddeten Karte mittels entsprechender Benchmarks mit/ohne OverDrive blieb man jedoch schuldig. Zudem bleibt die Frage offen, ob sich Radeon 9800 Pro Karten mit 256 MB DDR2 Grafikkarten-Speicher überhaupt mit dem BIOS einer Radeon 9800XT vertragen, da diese über DDR1-Speicher verfügt, welches im Normalfall mit einer ganz anderen Spannung angesprochen werden düfte. So lange diese Fragen nicht geklärt sind, kann von diesem Mod nur abgeraten werden.
Laut The Inquirer soll der nVidia NextGen-Grafikchip NV40 in den letzten Tagen des Dezembers sein Tape-Out (erstes funktionierendes Silizium vom Chipfertiger) gehabt haben. Üblicherweise dauert es nun noch drei bis vier Monate bis zur Massenfertigung. Bei regelrecht neuen Chips wie dem NV40 kann diese Planung allerdings auch schon einmal danebengehen und sich der Zeitplan massiv verzögern. Beispielsweise der NV30 aka GeForceFX 5800 /Ultra brauchte mehrere Tape-Outs und verzögerte sich letztlich um fast ein ganzes Jahr. Sollte dies beim NV40 nicht eintreffen, so werden Grafikkarten auf Basis dieses Chips jedoch kaum vor dem zweiten Quartal kaufbar sein. Von einem Winter-Chip kann deshalb kaum noch die Rede sein, der NV40 wird ergo halt ein Frühlings-Chip ;-).
Regelrecht ausführliche Informationen zu den kommenden AMD-Prozessoren haben Hard Tecs 4U anzubieten. Zu den bisher schon bekannten Codenamen und technischen Details konnte man nun auch einzelne Taktraten zuordnen, welche hoch bis zu einem Athlon 64 4000+ bzw. einem Athlon 64 FX-55 mit 2.6 GHz im vierten Quartal des Jahres gehen. Dabei läßt sich schon erkennen, daß das schon länger prophezeite, von AMD aber immer in Abrede gestellte Ende der derzeit noch aktuellen Sockel 754 und 940 naht: AMD wird für den Sockel 940 im ersten Quartal noch einen Athlon 64 FX-53 liefern, danach aber - bis auf Opteron-Prozessoren - gar nichts mehr nachfolgen lassen ...
... Sockel 754 User bekommen im zweiten Quartal noch einen Athlon 64 3400+ mit 2.4 GHz und 512 kByte Level2 Cache sowie einen Athlon 64 3700+ mit ebenfalls 2.4 GHz und 1 MB Level2 Cache. Diese beiden Prozessoren werden aller Wahrscheinlichkeit nach nur über ein SingleChannel-Speicherinterface verfügen, während die gleichnamigen Prozessoren für den Sockel 939 ein DualChannel Speicherinterface spendiert bekommen ;-)). Für den Sockel 754 sollen zum Ende des Jahres zwar noch Athlon XP Prozessoren folgen (eigentlich sind das Athlon 64 Prozessoren, nur mit 256 kBytel Level2 Cache und deaktivierten 64-Bit-Fähigkeiten), doch deren Ratings sind mit 2800+ und 3000+ zu niedrig, um von einer echten Fortsetzung des Sockel 754 reden zu können ...
... Wirklich zukunftsfähig ist somit nur der Sockel 939 - aber dieses Lied haben wir schließlich schon seit Monaten heruntergebetet: AMD fängt dort im zweiten Quartal mit 2.2 GHz an und steigert sich bis zum Ende des Jahres auf 2.6 GHz (oder eventuell noch mehr). Im Sockel 939 wird es auch eine neue klare Unterteilung zwischen Athlon 64 und Athlon 64 FX Prozessoren geben: Erstere haben 512 kByte Level2 Cache, letztere 1 MB davon. Ein DualChannel Speicherinterface haben dann sowieso alle Sockel 939 Prozessoren - wobei dies wie hier notiert auch nicht unbedingt das ausschlaggebende Feature ist. Sollte AMD seine Model Ratings halten können - und danach sieht es derzeit aus - so kann man bis zum Jahresende 2004 den Intel-Prozessoren wohl jederzeit Paroli bieten, da Intel die Taktfrequenz nach der Verschiebung des Tejas-Starts auf das nächste Jahr nur bis voraussichtlich 4 GHz zum Ende des Jahres 2004 wird anheben können.
neuer Artikel |
nVidia GeForceFX 5900 /Ultra -> 5950 Ultra Flash-Guide
Seit einigen Tagen wird in vielen Hardware-Foren rund um den Globus eine Modifikation diskutiert, mit welcher man aus einer GeForceFX 5900 /Ultra eine GeForceFX 5950 Ultra machen kann. Dazu ist praktisch gesehen nur ein BIOS-Update notwendig, auch wenn diese Angelegenheit natürlich immer mit einem gewissen Risiko verbunden ist. Wir wollen an dieser Stelle die uns vorliegenden Informationen zum Thema bündeln und in möglichst einfacher und eindeutiger Form wiedergeben, um das Risiko jener Anwender, welche diese Modifikation versuchen wollen, weitestmöglich zu mindern ... zum Artikel
News des 12. Januar 2004 |
Wie Hard Tecs 4U berichten, wird Abit nun definitiv in naher Zukunft auch Grafikkarten auf Basis von ATi-Chips anbieten: Zuerst wird es Radeon 9600XT und Radeon 9800XT Grafikkarten von Abit geben, danach soll es mit den NextGen-Grafikchips R420 und R423 weitergehen. Wie hier schon berichtet, wird Abit zukünftig zudem auch Grafikkarten auf Basis von XGI-Chips anbieten. Dagegen ist die Frage, ob es weiterhin auch Grafikkarten auf nVidia-Basis von Abit geben wird, weiterhin unklar: Zumindestens auf dem Sektor der Mainboard-Chipsätze wird man wohl weiterhin mit nVidia zusammenarbeiten - für die Grafikchips muß dies allerdings nichts bedeuten.
Nebenbei gleich einmal zum Thema ATi R420 und R423: Der R423-Chip wird weithin immer als die PCI Express Abwandlung des R420-Chips angegeben. Dies ist allerdings insofern irritierend, als daß der R420 selber schon ein PCI Express Grafikchip sein wird. Aber womöglich kann die nachfolgende Überlegung dieses Problem auflösen: R420 und R423 sind wohl ein und derselbe Chip, sprich beide mit Grafikchip-internem PCI Express Interface. Den R420-Chip verkauft ATi aber wohl nur zusammen mit einer AGP Bridge, welche auf das Grafikboard gelötet wird, womit jenes Grafikboard letztlich einen AGPx8 Anschluß bekommt. Aus diesem Unterschied - ob dem Grafikchip diese AGP Bridge beiliegt oder nicht - resultiert wahrscheinlich der unterschiedliche Codename. Die einzig funktionierende alternative Auflösung wäre im übrigen, daß der R420 in der Tat entgegen aller bisherigen Informationen doch noch ein AGPx8 Grafikchip wäre.
Den umgekehrten Fall - also einen AGPx8 Grafikchip mit PCI Express Bridge und damit mit PCI Express Anschluß - zeigen im übrigen AnandTech: Leadtek hat hierbei eine GeForceFX 5200, welche intern nur über ein AGPx8 Interface verfügt, mit einem PCI Express Anschluß ausgestattet. Dies zeigt deutlich, daß die technische Umsetzung der Wandlung von AGPx8 in PCI Express Signale (und umgedreht) ein absolut lösbares Problem ist. An dieser Stelle sei damit noch einmal darauf hingewiesen, daß wir uns von den Mainboard-Hersteller entsprechende Eigen-Initiative bei den ersten PCI Express Mainboard-Chipsätze erwarten ...
... Gekoppelt mit einem Bridge-Chip auf dem Mainboard lassen sich auch die kommenden PCI Express Mainbard-Chipsätze für AGPx8 Grafikkarten umrüsten. Dies würde einem Großteil der Anwender dem Umstieg auf die neuen Plattformen erleichtern, bei welchem man nicht in jedem Fall gleich noch in einer neue Grafikkarte investieren will, nur weil das Interface nicht passt. Ebenfalls wünschen würden wir uns Mainboards mit sowohl PCI Express x16 als auch AGPx8 Slot: Dies wäre das Non-Plus-Ultra in Sachen Kompatibilität, weil es dem Anwender die Entscheidung völlig offenläßt, zu welcher Grafikkarte dieser greift.
Anläßlich der gestrigen Veröffentlichung der Version 1.2 von Red Orchestra wollen wir hiermit ausdrücklich auf diesen Mod von Unreal Tournament 2003 hinweisen. Red Orchestra ist ein auf puren Realismus ausgelegter, stark team- bzw. objektbasierter MultiPlayer-Mod, welcher im bisher noch kaum benutzten Szenario der Ostfront des WW2 spielt. Herauszuheben ist neben der in einigen Maps geradezu herausragenden Optik des Mods vor allem das neuartige Kimme-und-Korn-Zielsystem (Call of Duty kam später) sowie der dem Spiel sehr guttuende Zwang zu Team-strategischem Vorgehen. Das einzige, was dem Mod derzeit noch fehlt, sind mehr aktive Spieler. Gleiches trifft auch auf einen weiteren interessanten MultiPlayer-Mod von Unreal Tournament 2003 zu: SAS: Into the Lion´s Den könnte man grob mit Counter-Strike, Urban Terror oder Tactical Ops vergleichen, nur daß eben auch hier das Kimme-und-Korn-Zielsystem zum Einsatz kommt. Beides sind aufstrebende Mods, von denen man in Zukunft sicherlich noch einiges erwarten kann.