News-Archiv 15.-21. Juli 2002 (29. Kalenderwoche)
21. Juli 20. Juli 19. Juli 18. Juli 17. Juli 16. Juli 15. Juli
News des 21. Juli 2002 |
Das erste Review einer Grafikkarte mit KYRO II SE Chip sehen wir bei der PowerVR World. Dort hat man die Hercules 3D Prophet 4800 mit diesem Chip gegenüber der originalen KYRO II verglichen. Aber auch hier konnte man der eTaL genannten T&L-Softwarelösung nichts abgewinnen, da sie mehrheitlich nur bremste. Doch auch ohne eTaL waren im Schnitt aller Benchmarks nur 6 Prozent Mehr-Performance gegenüber der originalen KYRO II drin - bei 14 Prozent Mehrtakt eigentlich eher enttäuschend.
Das TVTool dürfte Nutzern eines TV-Outs auf Grafikkarten mit nVidia-Chip sicherlich als unentbehrliche Stütze für die TV-Ausgabe bekannt sein. Nun gibt es auf der Homepages des Tools einen interessanten Vergleich verschiedener TV-Chips zu visitieren, in welchem die Chips von Philips, Chrontel und Conexant sehr kritisch unter die Lupe genommen werden. Völlig verwunderlich ist allerdings, daß alle drei Chip-Hersteller wie auch nVidia als Hersteller des integrierten TV-Chips in der GeForce4 MX den Machern von TVTool keinerlei Unterstützung zukommen lassen, so daß viele (Hardware-technisch vorhandenen) Features dieser TV-Chips vom Käufer der jeweiligen Grafikkarten mangels Treiber-Unterstützung gar nicht genutzt werden können.
In einem sehr ausführlichem Artikel haben Hard Tecs 4U sich den PC2700, PC3000 und PC3200 Speichern von Samsung, Kingmax, Micron (Crucial), Corsair und Mushkin angenommen. Das Hauptaugenmerk galt dabei den Stabilitätstests im normalen PC2100-Modus auf fünf verschiedenen Mainboards mit vier verschiedenen Chipsätzen sowie den Belastungstests im PC2700-Modus mit schärfstmöglichen Timings - es wurden aber natürlich auch die maximal erreichbaren Taktfrequenzen der Module ermittelt (teilweise über 210 MHz). Besonders erwähnenswert ist der umfangreiche theoretische Teil, welcher auf Speicher-Grundlagen, die technische Hintergründe zu den einzelnen Timingoptionen und das Problem der Speicherspannung eingeht.
Das Thema ist fast so alt wie der Bug selber: Soll man kritische Sicherheitslücken veröffentlichen und damit potentiellen Hackern die "Arbeits"-Hintergründe frei Haus liefern, oder besser den Hersteller der jeweiligen Software still und heimlich über das Problem informieren? Letzteres klingt weitaus logischer - und trotzdem haben die von der Hurwith Group hierzu befragten über 300 System-Administratoren dazu eine vollkommen andere Ansicht. Jene sehen die bewußte Veröffentlichung von Software-Schwachstellen mit großer Mehrheit als oftmals einzige Lösung an, um den Software-Hersteller mittels des sich daraus entwicklenden öffentlichen Drucks zu einem schnellen Bug-Fix zu zwingen. Und angesichts mittlerweile 19 ungepachter Sicherheitslöcher im Internet Explorer scheint bei einigen Hersteller nicht einmal dieses zu fruchten :->
Und dann war da noch daß allmonatliche 3Digest von Digit-Life, welches mit der Juni-Ausgabe inzwischen zwei Jahre alt geworden ist. Neu hinzugekommen sind diesesmal die Werte einer GeForce2 Ti VX (niedriger getaktet Version der originalen GeForce2 Ti), anders als Hersteller-Standard getaktete Varianten von GeForce4 Ti4200 128MB (275 MHz statt 222 MHz Speichertakt), Radeon 7500 (265/180 MHz statt 290/230), Radeon 8500 128MB (300/300 MHz statt 275/275) und Radeon 8500LE 64MB (183 MHz statt 250 MHz Speichertakt) sowie die reguläre Radeon 8500 128MB und die SiS-Chips Xabre 200 und Xabre 400 - womit die Anzahl der getesteten Grafikchips bei stattlichen 37 liegt, diejenigen im Archiv befindlichen (56 an der Zahl) nicht eingerechnet.
News des 20. Juli 2002 |
Laut dem Heise Newsticker wird eine neue ELSA GmbH ab dem 1. August ihre Geschäftstätigkeit aufnehmen sowie den Service für die Produkte der insolventen ELSA AG übernehmen. Die "neue ELSA" soll wesentlich kleiner als das bisherige Unternehmen werden, insbesondere da die Netzwerk-Sparten schon in einer neuen Firma aufgegangen sind bzw. von Konkurrenten übernommen wurden. Die neue ELSA will sich so auf Produkte und Lösungen für private Anwender sowie auf Small-Office-Produkte in den Bereichen Computergrafik und Multimedia konzentrieren - was im eigentlich auch auf Consumer-Grafikkarten wie die bisherigen ELSA-Grafikkarten auf Basis von nVidia-Chips hinauslaufen sollte. Positiv mitzunehmen wäre wohl, daß jemand glücklicherweise endlich den Wert der Marke "ELSA" erkannt hat und so der einzige (?) deutsche Grafikkarten-Produzent weiterleben wird.
Einen guten Vergleich derzeitiger integrierter Grafiklösungen haben Digit-Life anzubieten (wer die Bilder in diesem Artikel vermißt - seltsamerweise Flash-only). Verglichen wurden dabei auf Seite der Pentium 4 Prozessoren die Chipsätze Intel i845G, SiS 650 und VIA P4M266 sowie auf der Seite der Athlon-Prozessoren die Chipsätze nVidia nForce 420 (der nForce2 ist noch im Sample-Stadium) und VIA KM266 mit den externen Grafiklösung nVidia GeForce2 MX200 und GeForce2 MX400. So lange man in den Anforderungen moderat bleibt (800x600 @ 16 Bit), scheinen bis auf die VIA-Chipsätze alle integrierten Grafiklösungen brauchbar - unter der derzeitigen Standard-Auflösungen von 1024x768 @ 32 Bit macht dann aber nur noch der nForce1-Chip Sinn. Jener erreicht fast die Leistungen einer externen GeForce2 MX400 und läßt dabei die externe GeForce2 MX200 teilweise weit hinter sich.
Erste Test des SiS 648 Chipsatzes für Pentium 4 Prozessoren sind bei der Overclockers Workbench und bei Tom´s Hardware Guide zu finden. Der inoffiziell auch PC3200 / DDR400 Speicher unterstützende Chipsatz kann gegen Intel´s eigenen i850E-Chipsatz exzellent mithalten bzw. gewinnt diesen Vergleich mit geringem Vorsprung, selbst wenn man beim i850E PC1066 RAMBUS-Speicher einsetzt, für welchen der i850E eigentlich nicht validiert ist (wie der SiS 648 für DDR400). Dazu muß allerdings gesagt werden, daß auch der Vorgänger-Chip SiS 645DX schon inoffiziell DDR400-Speicher unterstützt, die meisten Mainboards mit diesem Chipsatz bieten die entsprechenden Optionen in ihren BIOSen auch an ...
... Der SiS 648 ist danach eigentlich "nur" die AGPx8- und ATA133-Abwandlung des SiS 645DX - nichts desto trotz muß man natürlich anerkennen, daß der SiS 648 der knapp schnellste derzeit verfügbare Chipsatz für den Pentium 4 ist. Und insbesondere unter den DDR-RAM Chipsätzen für den Pentium 4 scheint der SiS 648 auch bei den unterstützten Features klar führend zu sein: Offiziellen DDR333-Support bietet die derzeitigen Intel-Chipsätze i845E und i845G (mit integrierte Grafik) nicht an, zudem sind die vom SiS 648 unterstützten Features DDR400-Support, ATA133 und AGPx8 bei Intel-Chipsätzen nicht vor dem späten Herbst bzw. erst nächstes Jahr (DDR400) in Planung.
Bei den Ausführungen zur Radeon 9700 am Donnerstag glatt untergegangen ist ein weiterer Chip auf Basis des R300-Cores, welchen ATi irgendwann im 4. Quartal in den Markt bringen wird: Die Radeon 9500. Das Ziel dieses Chips wird es sein, die übergroße preisliche Lücke zwischen Radeon 9700 mit 400 $ Startpreis und Radeon 9000 mit 130 $ Startpreis zu schließen, ganz besonders nachdem die Radeon 8500 mit derzeit ca. 150 bis 200 $ Straßenpreis eingestellt werden soll. AnandTech spekulieren hierzu, daß es sich um einen Chip mit "nur" 4 Rendering-Pipelines handeln könnte ...
... Dazu muß allerdings hinzugesagt werden, daß dies ein aufwendiges Re-Design des Chips notwendig machen würde, welches sicher nicht die kostengünstigste Lösung für ATi wäre. Gleiches würde auch gelten, wenn man die Anzahl der Vertex Shader der Radeon 9700 von 4 auf eventuell 2 oder gar nur einen reduzieren würde. Andere plausible Möglichkeiten wäre ein nur 128 Bit DDR-RAM Speicherinterface, dies wäre ohne größere Eingriffe am Chip selber realisierbar - oder aber ATi senkt bei der Radeon 9500 einfach nur die Taktfrequenzen entsprechend ab. ATi hat allerdings zur Radeon 9500 außer dem Namen bislang keinerlei Informationen publik gemacht.
Direkt aus dem Bereich Schildbürgerstreiche unserer Gerichtsbarkeit scheint der aktuelle Fall der Site NewsClub zu kommen. Jene bietet eine umfangreiche, fortlaufend aktualisierte Linkliste zu den Schlagzeilen diverser News-Magazine im Internet - eigentlich recht ähnlich unserer täglichen Linkliste, nur eben mit weit größerem Spektrum. Gegen diese Art der Links, in welchem nur die Schlagzeile zusammen mit einem Direktlink versehen wird und ansonsten kein Inhalt der gelinkten Seite verwendet oder kopiert wird, klagte nun ein großer Zeitungsverlag - und gewann. Angeblich würde NewsClub mit dieser Art der News unrechtmäßig in die Nachrichten-Datenbank des Klägers eingreifen und damit das Urheberrecht verletzten, so die Begründung des Gerichts ...
... Nicht ganz zu Unrecht stellt NewsClub nun auf einer extra für diesen Prozeß eingerichteten Seite (oops, das war ein Direktlink, das ist illegal !!!) die provokante Frage, ob dieses Gerichtsurteil nicht einem Verbot von Suchmaschinen gleichkommt. Sicherlich verlinken Suchmaschinen wesentlich mehr als nur Nachrichten-Schlagzeilen, jedoch finden sich auch diese in den Archiven aller Suchmaschinen - und zwar aufgrund des Carnivore-Charakters von Suchmaschinen sicherlich in noch kompletterer Form als beim NewsClub. Wenn das ergangene Urteil nun aber einen Link mit reiner Angabe des Titels des gelinkten Dokuments auf eine WebSeite untersagt - welche Art von Links sind dann überhaupt noch legal?
News des 19. Juli 2002 |
Die Aussage in den gestrigen News, der Leistungsgewinn der Radeon 9700 wäre uns unter der Auflösung von 1024x768 etwas zu wenig, hat einigen Gegenwind hervorgerufen, da es den durchaus berechtigten Einwurf gibt, daß die getesteten Spiele unter dieser Auflösung schon mehrheitlich CPU-limitiert seien. Unabhängig davon, daß wir bezüglich Quake III Arena und Serious Sam 2 hier etwas anderer Auffassung sind - diese sind unserer Meinung nach mehrheitlich Grafikkarten-limitiert - wollten wir jedoch bei der gestrigen Aussage eigentlich auf etwas anderes hinaus ...
... Und zwar auf den Gedanken, daß ein 256 Bit DDR-RAM Speicherinterface ein gehöriges Maß an Ineffizienz mit sich bringt - welches wesentlich größer ist als bei einem 128 Bit DDR-RAM Interface. Diesem muß zwingend durch Aufteilungen des Speichercontrollers entgegengewirkt werden - was im gegenteiligen Fall passiert, sehen wir an der Matrox Parhelia. Und selbst dann ist ein solch großes Interface wohl immer noch nicht wirklich so effizient wie ein kleineres Interface mit doppeltem Takt. An dieser Stelle ist es dann auch durchaus möglich, daß ein Chip mit 128 Bit DDR-RAM Speicherinterface und ca. 500 MHz Speichertakt (ca. 15 GB/sec Bandbreite) auf die gleichen Leistungen kommen kann wie die Radeon 9700 mit 256 Bit und ca. 300 MHz Speichertakt (ca. 18 GB/sec Bandbreite).
Gestern ebenfalls offiziell vorgestellt wurde natürlich auch der ATi RV250 Chip, welcher als Radeon 9000 und Radeon 9000 Pro mehr oder weniger ab sofort in den Markt finden wird. Wie erwartet handelt es sich dabei um einen der Radeon 8500 sehr ähnlichen Chip mit allerdings nur jeweils einer Textureneinheit pro Rendering-Pipeline. Ebenfalls gekürzt wurde laut ATi eine der beiden Vertex Shader Einheiten - wobei dies absolut neu ist, daß die Radeon 8500 deren zwei haben soll. Bisher ging man davon aus - und auch die bisherigen ATi-Angaben lauteten so - daß die Radeon 8500 einen Vertex Shader und eine DirectX7 T&L-Einheit besitzt (welche nicht gleichzeitig genutzt werden können) ...
... Möglicherweise ist ja hier gemeint, daß die "alte" T&L-Einheit rausgeflogen ist und daß der RV250-Chip DirectX7 T&L-Berechnungen wie die GeForce3/4 Chips über den Vertex Shader laufen läßt - dies ist aber nur eine Idee und wäre noch zu verifizieren. Sinn der ganzen Aktion ist natürlich die Einsparung von Transistoren, ohne aber die DirectX 8.1 Fähigkeiten des Chips zu verlieren. Und dies scheint ATi klar gelungen zu sein, betrachtet man sich die Bilder vom R200-Core (Radeon 8500) im Vergleich zum RV250-Core. Letzterer hat garantiert nicht mehr die 60 Millionen Transistoren des R200-Chips - wir schätzen mangels offizieller Angaben den RV250 derzeit auf 45 bis 55 Millionen Transitoren, wahrscheinlich eher weniger als mehr. Dieses geringe Transistoren-Aufkommen ermöglicht ATi dann bei der kleinen Variante Radeon 9000 sogar eine passive Kühlung - bei 250 MHz Chiptakt eine durchaus stattliche Leistung ...
... Rein von der Performance der Radeon 9000 /Pro her kann man sich vertrauensvoll an die ersten Reviews bei AnandTech, Chip, Computer-Nachrichten, FiringSquad, Hard|OCP, Hartware, tecChannel und Tom´s Hardware Guide wenden. Wie schon bei den ersten Radeon 9000 Berichten aus Fernost vom Mittwoch liegen die Radeon 9000 Karten jedoch ein gutes Stück hinter den Radeon 8500 Karten zurück - im gewöhnlichen zwischen 10 und 30 Prozent. Für ATi mag damit das Ziel erfüllt sein, bietet man doch für 110 $ (Radeon 9000) bzw. 130 $ (Radeon 9000 Pro) DirectX8-Beschleuniger für den Mainstream-Markt an, welche sich zudem durch die Abspeckung des Chips auch noch sehr kostengünstig herstellen lassen. Daß sich die vorher teilweise gehegten Erwartungen, der RV250-Chip sei schneller als der R200-Chip (Radeon 8500), nicht erfüllt haben, mag dabei verschmerzbar sein ...
... Einen etwas bitteren Beigeschmack hinterläßt jedoch die Wahl des Verkaufsnamens: Selbst wenn die wenigsten wussten, daß gemäß der bisherigen ATi-Namenskonvention "Radeon 9000" auf einen DirectX9-Beschleuniger hindeutet, so ist die Höhe des nummerischen Zusatzes doch zumindestens klar irreführend bezüglich der Leistungseinstufung des Chips. Sicherlich kann ATi seine Chips so nennen, wie man dies gerne mag - es muß jedoch festgehalten werden, daß diese Namensgebung wohl mit Absicht dem im gewöhnlichen nicht ausreichend genug informierten Käufer im Mainstream-Segment eine höhere Leistung als diese der Radeon 8500 suggerieren soll. Leider hat hier nVidia mit der Namenswahl "GeForce4 MX" für eine Karte, welche technologisch und teilweise auch leistungsmäßig weit hinter der GeForce3 zurückliegt, eine gewisse "Unsitte" in den Markt eingeführt - welche ATi nun glaubt, unbedingt nachmachen zu müssen.
News des 18. Juli 2002 |
Heute nun dürfen wir erste offizielle Artikel zur Radeon 9000 (RV250) und Radeon 9700 (R300) bewundern. Erstaunlicherweise hält sich dabei die Anzahl der Previews zur ATi Radeon 9700 derzeit noch in engen Grenzen - offenbar hatten nur ganz wenige Auserwählte Zugang zu den entsprechenden Informationen. Bisher gibt es ausführliche Radeon 9700 Artikel nur bei AnandTech, Hard|OCP, Hot Hardware und Tom´s Hardware Guide. Unsere am 14. Juli (ohne offizielle Unterlagen) erstellte Spezifikations-Liste (ist soeben mit den Launch-Daten aktualisiert wurden) hat sich gegenüber den nun offiziellen Daten recht wacker geschlagen - im wichtigsten Punkt haben wir jedoch auf das falsche Pferd gesetzt ...
... Denn die Radeon 9700 wird in der Tat ein 256 Bit DDR-RAM Speicherinterface abbekommen. Zusammen mit über 300 MHz Speichertakt ergibt sich so eine Speicherbandbreite von ca. 18 bis 20 GB/sec - ein enormer Sprung von der Radeon 8500 (8,2 GB/sec) oder auch der GeForce4 Ti4600 (9,7 GB/sec) aus. Nicht auszudenken, wenn ATi seine Pläne laut der Roadmap von diesem Juni (!) wahr gemacht und uns den R300-Chip mit 400 MHz Speichertakt geliefert hätte (23,8 GB/sec). So aber hat ATi mit diesem moderaten Speichertakt noch genug Luft nach oben hin, die man im nächsten Frühjahr für einen Refresh-Chip mit möglicherweise diesen 400 MHz Speichertakt nutzen kann, welcher zudem dann eventuell schon in 0.13 micron gefertigt ist ...
... Denn nach wie vor ist auch das 110-Millionen-Transistorenmonster Radeon 9700 in 0.15 micron gefertigt - und das bei einem Chiptakt von über 300 MHz. Eine stolze Leistung der Ingenieure bei ATi und TSMC (stellt die Chips für ATI - und auch für nVidia - her), denn nVidia kam bei der GeForce4 Ti4600 im Frühjahr mit 63 Millionen Transistoren auch nur bis auf 300 MHz. In diese 110 Millionen Transistoren integrierte man 8 Rendering-Pipelines mit je einer Textureneinheit (einige Artikel reden von jeweils 2, jedoch findet sich hierzu keine ATi-offizielle Angabe), welche 16 Texturen per pass (Rendering-Vorgang) bewältigen können. Die Radeon 9700 unterstützt zudem als erster Chip DirectX9 vollständig - hierzu gehören als wesentlichste Punkte Vertex und Pixel Shader 2.0, Displacement Mapping sowie 128 Bit Floating Point Rendering ...
... Bei einem insgesamt 512bittigem Speicherinterface (256 Bit DDR) sicherlich kein unwesentlicher Punkt ist eine vernünftige Aufteilung des Speichercontrollers. Der Speichercontroller der Radeon 9700 besteht aus 4 einzelnen Controllern zu je 128 Bit (64 Bit DDR). Im Vergleich zu Matrox´ viel zu uneffizientem einzelnen 512-Bit-Controller ist dies ein riesiger Vorteil, da so die theoretische Rohpower eines 512-Bit-Interfaces besser in echte Leistung umgewandelt wird. Ganz so effizient wie nVidia bei der GeForce3/4 ist die Radeon 9700 hier aber nicht - bei den nVidia-Karten sind es 4 einzelne Controller zu je 64 Bit (32 Bit DDR), so daß im ungünstigen Falle nur 63 Bit verschwendet werden können (Radeon 9700: 127 Bit) ...
... Die ersten Benchmarks der Radeon 9700 bei AnandTech deuten dann auch wieder an, daß ein 256 Bit DDR-RAM Speicherinterface allein keine Seligmacher ist. Zwar liegt die Radeon 9700 unter Unreal Tournament 2003 zwischen 18 und 38 Prozent (1024x768) vor der GeForce4 Ti4600, unter Jedi Knight II, Serious Sam 2 und Quake III Arena sind es jedoch nur noch zwischen 2 und 15 Prozent (1024x768). Gemäß der glatt doppelten Speicherbandbreite sollte in der Theorie eigentlich wesentlich mehr herauskommen - aber offensichtlich funktioniert diese Theorie in der Praxis nicht mehr bei einem 256 Bit DDR-RAM Interface, da dessen Ineffizienz die theoretischen Vorteile auffrisst. Dies erklärt auch nachträglich, weshalb Matrox´ Parhelia mit einem 256 Bit DDR-RAM Interface ohne Aufteilung des Speichercontrollers so ernüchternde Benchmark-Resultate erzielte ...
... ATi hat wie wie schon erwähnt den Speichercontroller der Radeon 9700 vierfach unterteilt und kommt so auf deutlich bessere Zahlen - viel Vorsprung unter "normalen" Settings gegenüber der GeForce4 Ti4600 hat die Radeon 9700 jedoch trotzdem nicht. Geht man jedoch weg von den "normalen" Settings und setzt auf Anti-Aliasing Benchmarks, so kann sich die Radeon 9700 gigantische Vorspünge von ca. dem 2,5fachen der GeForce4 Ti4600 erarbeiten. Daran wird natürlich die hohe Speicherbandbreite ihren Anteil haben, aber auch der Umstand, daß ATi bei der Radeon 9700 weg vom leistungsfressenden SuperSampling hin zum MultiSampling-Verfahren gewechselt ist ...
... Der letzte erwähnenswerte Punkt zur Radeon 9700 wäre dann, daß ATi endlich eine der größten Limitationen des Radeon 8500 Chips abschafft und die Radeon 9700 nun trilinear anisotrop filtern kann (Radeon 8500: nur bilinear anisotrop). Angesichts der Schnelligkeit des anisotropen Filters in der Radeon 8500 können wir uns bei der Radeon 9700 wahrscheinlich auf eine sehr schnelle und qualitativ hochwertige (maximal 16x) AF-Implementierung freuen. Nichts desto trotz ist es momentan allgemein noch zu früh, um aus den in wenigen Stunden hervorgezauberten Benchmarks eine passable Bewertung der ATi Radeon 9700 abgeben zu können. Da ATi die Radeon 9700 schon ab September ausliefern will, wird es sicherlich in Kürze erste ausführliche Tests des neuen HighEnd-Geschoßes geben.
News des 17. Juli 2002 |
Alle bisherigen Previews zum nVidia nForce2 Chipsatz haben wir hier aufgelistet, am interessantesten ist möglicherweise der Launch-Bericht bei PC Watch. Denn jener enthält neben Bildern von nForce2-Mainboards verschiedener Hersteller einige Benchmark-Präsentationsfolien, welche nicht beim offiziellen nForce2-Material dabei waren. Gemäß diesen sieht nVidia den nForce2 im normalen Betrieb (mit externer Grafikkarte) um mehr oder weniger 10 Prozent vor VIA´s KT333-Chipsatz, was im Chipsatz-Business ganze Welten sind. Dies hört sich natürlich interessant an, wird jedoch zuerst einmal durch unabhängige Benchmarks zu belegen sein. Denn theoretisch steht eigentlich die Aussage, daß das nForce2 DualChannel-Speicherinterface dem Nicht-Nutzer der integrierten Grafik gar nichts bringen kann ...
... Denn was soll ein Athlon XP mit maximal 2 GB/sec Bandbreiten-Bedarf auch mit den 6 GB/sec Bandbreite anfangen, welche das nForce2-Speicherinterface in der Lage ist zu schaufeln?! Selbst für das FSB-Overclocking (200 MHz FSB ergeben 3 GB/sec Bandbreiten-Bedarf) ist dies zu viel und kann genauso gut auch über schnell getakteten Speicher gelöst werden. Wodurch der nForce2-Chipsatz schneller sein soll als VIA´s KT333, wird sich erst zeigen, wenn jemand diesen Chipsatz nur mit SingleChannel Speicherinterface und damit "nur" mit der Hälfte der Bandbreite, ergo 3 GB/sec, betreibt. Möglicherweise ist der Chipsatz intern verbessert und entfaltet damit unabhängig der Speicherbandbreite seine hohe Performance - oder aber wir irren uns, und der Bandbreiten-Overkill des nForce2 bringt auch im Normalbetrieb Vorteile.
Aber eigentlich ist heute nicht der nForce2-Tag (der war gestern), sondern es sollte heute der Tag von ATi´s RV250 und R300 sein - nur ist davon momentan noch nicht viel zu sehen. Ganz offensichtlich werden heute wirklich nur die Launch-Parties gefeiert und die Masse der Artikel gibt es erst morgen. Zwei koreanische Seiten sind jedoch schon vorgeprescht mit ihren Radeon 9000 Reviews, sowohl bei Technoa als auch bei Brainbox sind erste offizielle Bilder und Benchmarks zu bewundern. Gemäß der wenigen entzifferbaren Spezifikationen :-) liegen wir derzeit mit unserem Spec-Artikel nicht falsch, höchstwahrscheinlich gibt es aber doch nur jeweils eine Textureneinheit pro Rendering-Pipeline bei der Radeon 9000 (Radeon 8500: zwei pro Pipeline) ...
... Dies ist letztlich auch die einzige sich derzeit anbietenden Erklärung für die teilweise doch arg niedrige Performance der Radeon 9000: Gemäß den bisher vorliegenden Benchmarks liegt die Radeon 9000 satte 15 bis 20 Prozent hinter der Radeon 8500 unter 1024x768 zurück (auf gleichem Takt). Unter höheren Auflösungen erhöht sich dieser Rückstand sogar noch auf bis zu 50 Prozent. Wir wollen natürlich abwarten, was die Hardware-Tester in unseren Breitengraden zur RV250 aka Radeon 9000 schreiben und ob es dann irgendeine griffige Erklärung dafür gibt, weshalb die Radeon 9000 auf gleichem Takt deutlich langsamer ist als die originale Radeon 8500, wenn beide eigentlich technisch sehr ähnlich sind (Diskussion in unserem Forum). Im übrigen ist morgen auf Giga TV eine ATi RV250 Grafikkarte live zu beobachten: Dan Forster von Sapphire (großer OEM- und Retail-Hersteller für ATi) wird dazu morgen (18.7., Donnerstag) zwischen 15 und 17 Uhr bei den Help-Jungs von Giga TV präsent sein.
Bei eBay wird derzeit eine ATi Radeon MaXX Grafikkarte zur Ersteigerung angeboten, der bisherige Preis liegt bei für Sammler höchst verträglichen 30 Dollar. Der Verkäufer gibt hierzu an, daß es sich um ein "Engineering Sample" mit zwei R100-Grafikchips und insgesamt 64 MB RAM handelt (R100 = originaler Radeon), wahrscheinlich aber ohne Treiber. ATi hatte bekanntermaßen kurzzeitig einmal eine Rage Fury MaXX mit zwei Rage 128 Grafikchips im Angebot, sägte diese aber schnell nach Erscheinen der originalen Radeon wieder ab. Seitdem war aber immer wieder über MultiChip-Lösungen von ATi spekuliert wurden, was angesichts der Arbeit von ATi an einer AGPx4-Bridge nicht ganz von der Hand zu weisen ist ...
... Daß diese Arbeit dann aber sogar noch bis ins Sample-Stadium eines Grafikboards vorgedrungen ist, wäre eine regelrecht neue Erkenntnis. Weshalb ATi die ganze Sache allerdings seinerzeit nicht weiter verfolgt hat, ist derzeit unbekannt - entweder funktionierte das Dual-Board nicht zufriedenstellend oder aber man sah möglicherweise auch keinen ausreichend großen Markt, um diese Boards profitabel herstellen und anbieten zu können. Der momentane Standpunkt von ATi zum Thema "MultiChip-Lösungen" ist schließlich bekanntlicher- und eigentlich auch bedauerlicherweise, daß man für diese momentan keinen Markt sieht.
neuer 3DCenter-Artikel |
Die integrierte GeForce4 MX des nForce2-Chipsatzes
Nachdem gestern die Vorstellung des nForce2-Chipsatzes von nVidia erfolgte und es in Folge dessen ca. 20 Previews zum Thema zu lesen gibt, wollen wir uns rein mit dem integrierten Grafikcore des neuen Chipsatzes beschäftigen. Denn immerhin spendierte nVidia dem nForce2 einen GeForce4 MX Core und bohrte durch die offizielle Unterstützung von DDR333 und DDR400 Speichern die zur Verfügung stehende Bandbreite des Chipsatzes noch einmal kräftig auf ... zum Artikel
News des 16. Juli 2002 |
Durchaus interessante Benchmarks der KYRO II SE im Zusammenspiel mit eTaL sind auf der Startseite von deferred Power zu bewundern. So war die KYRO II SE ohne die Software T&L Lösung eTaL unter 3DMark2001 bis auf eine Ausnahme zwischen 11 und 26 Prozent langsamer in den Einzeltest. Eine 200/200 MHz taktenden KYRO II SE mit eTaL konnte daraufhin nicht einmal eine normale KYRO II mit 175/175 MHz Taktraten ohne eTaL unter 3DMark2001 schlagen. Diese sehr verwunderlichen Werte sehen doch einigermaßen nach einem Treiberfehler unter Nutzung von eTaL aus, denn ausgerechnet im Vorzeige-T&L-Benchmark 3DMark2001 sollte eTaL doch seine Vorteile zeigen können (und müssen).
Um noch einmal auf die nVidia-Präsentation zum alljährlichen Aktionärs-Treffen und dort speziell auf die Ausführungen zur Shader-Programmiersprache Cg zurückzukommen. So wie nVidia seine Cg-Sprache herausstreicht ("Leading the Programmable Revolution" oder "biggest revolution in graphics in 10 years"), ermöglicht dies eventuell die Beantwortung einer schon etwas älteren Frage zum NV30-Chip. Zu jenem traf nVidia bekanntermaßen Anfang Mai die Aussage, er "sei der wichtigste Beitrag für die Grafikindustrie seit der Gründung von nVidia" - ohne das wir seinerzeit einordnen konnten, wie nVidia auf diese Klassifizierung gekommen ist. Nun, laut der vorangeführte Präsentation sollte damit höchstwahrscheinlich speziell Cg und allgemein die Programmierbarkeit des NV30-Chips gemeint sei ...
... Ob Cg aus objektiver Sicht allerdings wirklich als große Revolution zu bezeichnen ist - wir bezweifeln es derzeit noch. Letztlich stammt Cg auch nur direkt von Microsoft´s (noch nicht releaster) High Level Shader Language (HLSL) ab, ATi wird zudem die eigene Shader-Programmiersprache "RenderMonkey" auf Basis von HLSL stemmen. Sicherlich hat nVidia´s Cg-Sprache gegenüber Microsoft´s HLSL eine wesentlich größere Plattform-Unabhängigkeit zu bieten, denn Cg unterstützt auch Linux und die XBox sowie OpenGL, während HLSL Microsoft-like Windows- und DirectX-only ist. Ob dieses jedoch allein für die "große Revolution" reicht, wenn das Programm selber keine Eigenentwicklung ist und auch kaum jemals von anderen Grafikchip-Herstellern unterstützt werden wird?
Der Speichercontroller des AMD K8 Hammer-Prozessors ist im gewöhnlichen ein Segen, da der integrierte Controller wesentlich kürzere Latenzzeiten aufweist als die sonst üblicherweise auf dem Mainboard stationierten Speichercontroller und somit entscheidenden Anteil an der zu erwarteten höheren Pro-MHz-Leistung des K8-Cores trägt. Jedoch kann sich dies auch zum Fluch entwickeln, wenn der integrierte Speichercontroller nicht flexibel genug ist. Denn so lange der Speichercontroller wie bei allen bisherigen PC-Prozessoren auf dem Mainboard zu Hause ist, spielt ein unflexibler Controller kein Rolle - man kann schließlich einfach auf ein Mainboard mit entsprechend flexiblem Speichercontroller wechseln. Somit ist es beispielsweise (bekanntermaßen) problemlos möglich, denselben Pentium 4 Prozessor mit SDR-SDRAM, DDR-SDRAM und RAMBUS zu betreiben - und später auch einmal mit DDR/II Speicher ...
... Diese alltäglich erscheinende Eigenschaft bisheriger Prozessoren verliert der K8 Hammer jedoch - der integrierte Speichercontroller kann nur einen vorher fest definierten Speicher unterstützen. Glücklicherweise ist der K8 Hammer im Rahmen seiner Möglichkeiten wenigstens halbwegs flexibel - so wird es wohl kein Problem sein, schnelleren DDR/I-Speicher (DDR400) einzusetzen als den bisher für den K8-Core spezifizierten DDR333. Regelrecht "andere" Speichersorten wie beispielsweise DDR/II kann der K8 Hammer in seiner Urform jedoch nicht unterstützen - womit sich ein zukünftiges Problem auftut: Während alle anderen Prozessoren im Laufe ihres Produktionszyklus mit den jeweils neu auf den Markt kommenden Speicherarten mitwachsen können, kann dies der K8 Hammer nur begrenzt innerhalb einer Speichersorte ...
... Abhilfe für dieses Problem ist jedoch schon in Sicht: Wie die ebNews und der tecChannel aus unterschiedlichen Quelle berichten, plant AMD für 2004 einen K8 Hammer mit integriertem DDR/II Speichercontroller. Dies soll sich laut AMD auch relativ einfach realisierten lassen, ohne den kompletten K8-Core umdesignen zu müssen - angesichts der Nähe von DDR/II zu DDR/I sicherlich plausibel. Ein gewisser Nachteil bleibt allerdings immer: "Alte" K8-Modelle mit DDR/I-Controller werden anno 2004 nicht mit DDR/II Speicher aufrüstbar sein. Dagegen bietet selbst ein jetzt gekaufter Pentium 4 diese Möglichkeit, insofern ein Mainboard-Hersteller Sockel-478-Boards mit Support für DDR/II-Speicher anbieten wird (was wahrscheinlich ist, da selbst der Mitte 2003 anstehende Prescott-Core für den Pentium 4 noch im Sockel 478 sein soll).
News des 15. Juli 2002 |
Eine durchaus interessante Präsentation zum alljährlichen nVidia Aktionärs-Treffen ist in unserem Forum zu visitieren. Natürlich geht es bei einem solchen Treffen in erster Linie um die Belange der Aktionäre, aber auch diese Informationen sind teilweise interessant - zum Beispiel jene zu den Marktanteilen, welche nVidia bei ca. 35 Prozent unter Einrechnung integrierter und mobiler Grafik sowie des Konsolen-Marktes sehen. Ebenfalls beachtenswert ist, wie nVidia die prozentuale Aufteilung des Grafikkarten-Marktes sieht: 25% gehen in den Value-Markt, welcher in erster Linie durch integrierte Grafikchips abgedeckt wird. 40% trägt der Mainstream-Markt (GeForce2 MX), 20% der Performance-Markt (GeForce4 MX) und 15% der Enthusiast-Markt (GeForce4 Ti) ...
... Daneben fallen aber auch einige Grafikchip-Informationen an: So ordnet nVidia seine NV3x Chips hochoffiziell als 0.13 micron ein - und ATi´s R300 als 0.15 micron. Eingedenk der Tatsache, daß die Grafik-Hersteller im gewöhnlichen exzellent über die Projekte der anderen Hersteller informiert sind, kann man diese Informationen (auch für den ATi-Chip) nun als gesichert ansetzen. Ebenfalls finden sich Angaben zum Transistoren-Aufkommen der Chips NV18, NV28 und NV30 (120 Mill.): Bei beiden erstgenannten schwirrt momentan die Fehlinformation durchs Web, NV18 hätte 81 Millionen und NV28 hätte 86 Millionen Transistoren. Dies wäre aber für diese (fast) reinen AGPx8-Abwandlungen der originalen GeForce4 MX (NV17, 28 Mill.) und GeForce4 Ti (NV25, 63 Mill.) viel zu viele Transistoren ...
... Betrachtet man sich jene Folien jedoch genauer und vergleicht mit den anderen (bekannten) zu sehenden Zahlen, so ergeben sich nach Herausrechnung aller Darstellungsfehler durch die zu kleine Auflösung dieser Präsentationsfolien folgende Zahlen: NV18 mit 31 Millionen und NV28 mit 65 Millionen Transistoren, also nur 3 bzw. 2 Millionen Transistoren mehr als die jeweiligen direkten Vorgängerchips. Das heißt, irgendetwas wird nVidia außer dem AGPx8-Interface noch an NV18 und NV28 geändert haben, es wird aber wohl kaum etwas von größerer Bedeutung sein können. Daß NV18 und NV28 jedoch etwas anders getaktet sein werden als die Originale NV17 und NV25 (GeForce4 MX und Ti), wäre zudem sehr gut möglich, gehört aber momentan noch in das Reich der reinen Spekulationen.
Weitere inoffizielle Performance-Zahlen zum ATi RV250 aka der Radeon 9000 Pro mit 300/300 MHz Taktraten findet man bei The Inquirer. Wem die Zahlen bei The Inquirer zu wild in den Text eingemischt sind, der kann sich das ganze auch bei Hard Tecs 4U in Form einer ordentlichen Tabelle geben. Dort gibt es dann auch noch einmal die Werte aus dem Rage3D Forum zum Vergleich zu bewundern - und es fällt auf, daß The Inquirer wesentlich niedrigere Zahlen ermittelt haben. Beispiel 3DMark2001, wo normalerweise kaum Bildqualitäts-Settings falsch gesetzt werden: The Inquirer kommt mit einem Athlon XP 2100+ und dem RV250 auf 5372 Punkte, Rage3D mit einem Athlon XP 1900+ schon auf 7548 Punkte ...
... Auch der 3DMark2001-Wert des 2.4 GHz Pentium 4 bei The Inquirer scheint in diesem Zusammenhang mit 7855 Punkten irgendwie zu niedrig zu sein. Wir hatten schließlich gestern schon die Rage3D-Ergebnisse für erstaunlich niedrig gehalten, diese neuen Zahlen von The Inquirer können aber fast nur fehlerhaft sein. Mit jeder schnellen CPU ab 1.6 GHz Athlon oder 2 GHz Pentium 4 erreicht eine Radeon 8500 gute 9000 3DMarks - und die 5372 Punkte von The Inquirer passen definitiv nicht in dieses Bild. Denn selbst wenn der RV250-Chip langsamer ist als die originale Radeon 8500 - gleich um die 40 Prozent langsamer ist eher sehr unwahrscheinlich. 5372 3DMarks mit einem Athlon XP 1900+ würden dann wohl auch eher zu einer Radeon 7500 passen.
Im übrigen gibt es eine halbe Erklärung dafür, weshalb der RV250-Chip seltsamerweise etwas langsamer ist als die orginale Radeon 8500. Und zwar gibt es Hinweise darauf, daß der RV250-Chip nur jeweils eine Textureneinheit pro Rendering-Pipeline besitzt im Gegensatz zu den jeweils zwei Textureneinheiten der Radeon 8500. Dies würde zum einen die etwas niedrigere Performance des RV250 erklären, steht des weiteren nicht im Widerspruch zu den letzten bekannten Spezifikationen des RV250 und spart letztlich auch noch ein paar Millionen Transistoren - womit der Chip wieder etwas günstiger hergestellt werden kann, was bei dem angepeilten Zielmarkt auch notwendig ist. Aus heutiger Sicht nicht erklären würde diese nur jeweils eine Textureneinheit aber, weshalb der RV250 laut den Benchmarks aus dem Rage3D Forum in höheren Auflösungen einen noch größeren Rückstand zur Radeon 8500 aufbaut als in den niedrigeren Auflösungen - dies wäre theoretisch nur durch eine geringere nutzbare Speicherbandbreite zu begründen.