News-Archiv 25. April - 1. Mai 2005 (17. Kalenderwoche)
30. April/1. Mai 29. April 28. April 27. April 26. April 25. April
News des 30.4./1.5. 2005 |
Die CoolTechZone hat angeblich Informationen, wonach AMD plane, zukünftig auch DDR500-Speicher offiziell zu unterstützen. Wir können derzeit nicht sagen, wie sicher diese Information ist, allerdings wäre es wohl ein Schritt in die absolut richtige Richtung. Selbst wenn Mitte nächstens Jahres bereits neue AMD-Prozessoren antreten, deren integriertes Speicherinterface dann bereits DDR2 oder gar schon DDR3 unterstützen wird, kann AMD mit dem Support von DDR500 bei den aktuellen Prozessoren ohne viel Aufwand noch ein Stückchen mehr Leistung herausholen ...
... Dabei scheint sich der Aufwand rein nur auf ein BIOS-Update der Mainboards zu beschränken, deren generellen Support für DDR500 einmal vorausgesetzt (was allerdings die meisten Retail-Mainboards schon haben) - noch besser wäre natürlich auch ein offizieller Support von Chipsatz-Seite. Damit die Prozessoren gleich vom ersten Boot weg auf DDR500 laufen, muß AMD natürlich auch den vom Prozessor angeforderten Speichertakt ändern, allerdings soll diese Änderung angeblich bereits im Venice-Core enthalten sein, was dann wohl ebenfalls so auf die San-Diego- und Palermo-Cores zutreffen müsste (wird anscheinend nur aktiv bei einem passenden BIOS) ...
... Sollten diese Informationen also zutreffen, könnte es zukünfig (neben den bisherigen DDR400-Varianten) also extra DDR500-Varianten der neuen Cores geben. Alternativ könnte AMD aber auch alle Prozessoren auf Basis der neuen Cores als sowohl DDR400- als auch DDR500-tauglich erklären. Mit welchem Speichertakt ein solcher Prozessor in der Realität läuft, würde dann von den Fähigkeiten und Einstellungen des jeweils benutzten Mainboards abhängen (und natürlich vom eingesetzten Speicher). Aus Performance-Sicht ist jedenfalls durchaus ein gewisser Leistungssprung der AMD-Prozessoren durch DDR500 zu erwarten - insbesondere die DualCore-Prozessoren dürften hiervon profitieren, da deren Speicherinterface nicht breiter ist als das der SingleCore-Prozessoren.
Shortcuts: Bei techPowerUp! gibt es eine umfangreiche Speicher-Datenbank, die zu aktuellen DDR1/DDR-Speicherriegeln exakte Auskunft über die verbauten Speicherchips bzw. deren Spezifikationen gibt. Ein Tutorial zum Thema der Zertifizierung und Einbindung einer eMail-Verschlüsselung ist im Forum von Hard Tecs 4U zu finden. Ein ziemlich seltsames Stück Hardware zeigt die Virtual Zone mittels einer "Galaxy GeForce FX 6200A" mit GeForce 6200 TurboCache Grafikchip und extra Grafikspeicher-Erweiterungsslot. Der dürfte zwar insgesamt eher witzlos sein, da der Grafikchip nur über ein 64bittiges Speicherinterface verfügt, aber zumindestens verdient die Idee ihre Beachtung - vor allem, weil Speicher-Erweiterungsslot bei Grafikkarten seit mehreren Jahren nicht mehr in Benutzung sind.
News des 29. April 2005 |
Die ComputerBase hat sich lobenswerterweise sehr intensiv mit dem Thema der vielfältigen Optimierungen des anisotropen Filters seitens ATI und nVidia auseinandergesetzt. Nachdem beide Hersteller hier in letzter Zeit keine neue Optimierungen an den Start gebracht haben, hat man sich dabei vorwiegend darauf konzentriert, was die vorhandenen Optimierungen an Bildqualität kosten und gleichzeitig an Performance erbringen. Auf nVidia-Seite stellte man dabei erst einmal eine vernünftige Bildqualität mit den Standard-Einstellungen der Treiber ("Qualität") fest, durchaus vergleichbar mit den Standard-Einstellungen bei ATI (Catalyst A.I. on) ...
... Bei nVidia konnte man allerdings die Bildqualität noch weiter steigern durch das Hochsetzen auf "Hohe Qualität" und das manuelle Deaktivieren der vorhandenen AF-Optimierungen. Dies resultierte allerdings dann auch in einem 14prozentigem Performance-Abfall, insofern wird diese Lösung wohl nur die wenigsten ansprechen. Das Absenken der Bildqualität zum Zwecke der Performance-Steigerung ist bei nVidia ebenfalls wenig empfehlenswert: Laut der ComputerBase erzeugen die Modi "Leistung" und "Hohe Leistung" deutlich sichtbare Unterschiede in der Bildqualität, während die Performance-Gewinne mit 2 bzw. 6 Prozent absolut im Rahmen bleiben. Insofern kann wohl gelten, daß die Standard-Einstellung der nVidia-Treiber relativ optimal gewählt ist ...
... Im Fall von ATI zeigte sich ein komplett anderes Bild: So konnte die ComputerBase keine wirklichen Unterschiede zwischen A.I. on/off feststellen - was darauf hindeutet, daß die ATI-Optimierungen in der Tat so sanft arbeiten, daß man sie nicht sieht. Bei der Performance war dann A.I. off um die 6 Prozent langsamer, was allerdings auch daraus resultiert, daß mit A.I. off den ATI-Karten das Shader-Replacement unter Doom 3 und diverse Verbesserungen (ohne Änderung der Bildqualität) unter Half-Life 2 und Unreal Tournament 2004 fehlen. Insofern ist A.I. off sowieso kaum eine wählbare Option, weil man dann eben leider alle Optimierungen und Treiber-Fixes abschaltet - darunter dann eben auch Sachen, die wirklich benötigt werden ...
... Da aber A.I. on wie gesagt keinen wirklichen Nachteil bei der Bildqualität aufweist, ist dies wiederum kaum von Belang. Die weitere Absenkung der Bildqualität mittels A.I. Advanced brachte zudem zwar nur 3 Prozent Mehrleistung mit sich, die ComputerBase stellte jedoch im Gegenzug keinen deutlichen Verlust an Bildqualität fest. Allerdings kann angesichts der nur 3 Prozent Performance-Plus auch im Fall von ATI konstatiert werden, daß die Standard-Einstellung des Treibers bezüglich der Bildqualität wohl das (derzeitige) Optimum darstellt. Dennoch gibt es an dieser Stelle immer noch zwei Punkte zu bemängeln ...
... Erstens war sowohl bei ATI als auch bei nVidia immer noch ein gewisser Flimmer-Effekt in Bewegung festzustellen. Erst mit der Einstellung "Hohe Qualität" bei nVidia war dieses zu beseitigen (bei wie gesagt 14 Prozent Performance-Verlust), ATI bietet hierfür leider keine Möglichkeit an. Mit der genannten Einstellung kommt die Bildqualität einer GeForce6-Karte dann im übrigen der immer noch als Maßstab zu betrachtenden Bildqualität einer GeForce4-Ti-Karte nahe. Und zweitens bleibt als ewiger Kritikpunkt weiterhin stehen, daß selbst auf allerhöchster Bildqualität immer noch ein paar AF-Optimierungen mitlaufen, beide Hersteller also nach wie vor ihren Kunden nicht die Möglichkeit geben, bei Bedarf die maximal mögliche Bildqualität einzustellen.
Eine Meldung seitens The Register sorgt derzeit für einiges Aufsehen, da deren Text von anderen Online-Magazinen schon in ein Ableben der 64-Bit-Modelle des Pentium 4 umgedeutet wurde. Einmal davon abgesehen, daß dies mehr als unlogisch wäre, 64-Bit jetzt zu streichen, gibt der Original-Text seitens The Register dies aber auch nicht her bzw. ist anders zu verstehen: Und zwar streicht Intel schlicht den eher selten anzutreffenden Pentium 4 mit F-Suffix. Dieser wurde im August 2004 als allerster Intel-Prozessor mit der 64-Bit-Erweiterung EM64T in den Markt gebracht ...
... Warum diese von Intel nun abgesägt werden, ist zwar nicht ganz klar, jedoch steht auf jeden Fall schon Ersatz bereits: So wird Intel zukünftig auch bei den originalen Prescott-Prozessoren der 5xx-Modellreihe mittels einer extra 5x1-Serie EM64T mitliefern. Womöglich werden die Pentium 4 mit F-Suffix nur deswegen aus dem Programm genommen, weil sie eben noch keine Modellnummern tragen ;). Damit kann aber auf keinen Fall die Aussage getroffen werden, Intel würde sich von 64 Bit wieder abwenden. Daneben streicht Intel aber auch den Pentium 4 Prescott mit 2.8 GHz für den Sockel 478 - einmal die Variante mit FSB800 samt HyperThreading und auch die Variante mit FSB533 und ohne HyperThreading.
Beim Tech Report gibt es einen hübschen Vergleich der verschiedenen Athlon 64 PCIe-Chipsätze am Markt: ATI Radeon Xpress 200, nVidia nForce4 Ultra, SiS 756 und VIA K8T890. Auffallend war dabei, daß sich die verschiedenen Chipsätze trotz teils erheblicher Differenzen in einigen Benchmarks über alle Messungen hinweg durchweg als gleich schnell herausstellten - was insbesondere im Fall des chronisch unterbewerteten Chipsatz-Entwicklers SiS durchaus bemerkenswert ist. Aber natürlich kommt diese Leistungsgleichheit nicht von ungefähr: Hauptverantwortlich dafür ist das viel zitierte intergrierte Speicherinterface der Athlon 64 Prozessoren. Somit kommt es bei der Wahl eines geeigneten Athlon-64-Unterbaus in erster Linie auf persönliche Vorlieben und auf die konkreten Angebote der Mainboard-Hersteller an, die Chipsatz-Performance braucht als Unterscheidungskritierum eher nicht beachtet werden.
Shortcuts: Im Forum von Xtreme Systems gibt es ein paar Benchmarks des noch nicht offiziell vorgestellten Athlon 64 FX-57. Der Prozessor wird schon in 90nm und im E-Stepping hergestellt, verfügt also über SSE3-Fähigkeiten. Wie der Planet 3DNow! jetzt aufgrund von AMD-Dokumenten bestätigen kann, wird der Sockel 754 für den Athlon 64 schon zur Mitte des Jahres auslaufen. AMD wird diesen Sockel dann nur noch in Mobile-Gefilden weiterführen, nachdem auch die neuen Sempron-Modelle schon den Sockel 939 aufweisen. Desweiteren sei auf einen offenen Brief seitens der GameStar an die Chefredaktion des ZDF verwiesen, in welchem jene zu einer künftig wieder mehr unparteiischen Berichterstattung über Computerspiele und Spieler insbesondere des ZDF-Magazins "Frontal 21" auffordern. Den Brief kann man im übrigen unterzeichnen, über 25.000 haben dies bereits getan. Und letztlich findet sich in unserem Forum noch ein neues nVidia-Marketing-PDF, welche im gewohnt schwarfen Ton gegen ATIs HyperMemory zu Felde zieht.
News des 28. April 2005 |
Ein weiteres Review des S3 GammaChrome S18 haben Beyond3D online gebracht. Zwei Punkte fallen dabei gegenüber dem ersten GammaChrome-Artikel auf: Erstens hatten Beyond3D eine Herstellerkarte seitens Club-3D. Dies läßt hoffen, daß die neuen S3-Grafikkarten nicht nur in Nordamerika, sondern baldigst auch in Europa verfügbar werden - schließlich ist Club-3D in Europa nahezu Exklusiv-Vertreiber von S3-Grafikkarten. Und zweitens hatte man nicht den GammaChrome S18 Pro, sondern die Nitro-Version im Test - wir hatten am Montag noch (fälschlicherweise) befürchtet, S3 würde diese höher getaktete Variante fallenlassen, nachdem diese in den offiziellen S3-Unterlagen zu diesem Zeitpunkt nicht mehr genannt wurde ...
... Und nachdem S3 bei der Pro-Version des GammaChrome S18 sogar die finalen Taktfrequenzen auf 400/300 MHz gesenkt hatte (zur CeBIT-Ankündigung sollten es noch 400/400 MHz sein), geht es positiverweise bei der Nitro-Version in die andere Richtung und S3 hob die Taktfrequenzen von 450/400 MHz (CeBIT-Ankündigung) auf nunmehr 450/450 MHz an. Damit ergibt sich nun auch ein ordentlicher Leistungsunterschied zwischen beiden Versionen des GammaChrome S18 - und die neue Chance für die Nitro-Version, etwas gegen Radeon X300, X600 Pro, GeForce 6200 & 6600 ausrichten zu können ...
... War die Pro-Version noch auf dem Niveau der Radeon X300 angesiedelt, so kommt die Nitro-Version in die Nähe des Leistungsniveaus von Radeon X600 Pro und GeForce 6200, also schon durchaus 10 bis 30 Prozent mehr Leistung (ungenaue Schätzung, hier bräuchte es einen direkten Vergleich zwischen Pro- und Nitro-Version). Allerdings versagt der S3-Chip wieder einmal bei den Leistungsmessungen unter Anti-Aliasing, hier frisst das eingesetzte Supersampling-Verfahren schlicht zu viel an Performance. Die Werte nur beim Einsatz des anisotropen Filters sind jedoch sehr anständig - und wie bekannt hat S3 zudem das aktuell qualitativste AF-Verfahren am Markt ...
... Insgesamt reichen die erreichten Leistungen jedoch auch der Nitro-Version des GammaChrome S18 noch nicht aus, um ATI und nVidia wirklich herausfordern zu können. Allerdings könnten die nächsten S3-Treiber noch einiges an Verbesserungen bringen, denn Beyond3D stellten zwischen den zwei jüngsten Treiber-Versionen von S3 teils erhebliche Performance-Unterschiede (in die richtige Richtung) fest. Es bleibt jedoch weiterhin zu konstatieren, daß S3 selbst nach den relativ vernünftigen Ergebnissen der Nitro-Version weiterhin mehr Takt oder/und mehr Pipelines benötigt, um ATI und nVidia ernsthaft angreifen zu können ...
... Zu der derzeitigen Leistung wird man nur im Markt der 100-Euro-Grafikkarten mitspielen dürfen, was zu wenig ist, um von den Spielern als echte Alternative wahrgenommen zu werden. Und nur ein positives Image unter den Spielern wird S3 wirklich voranbringen können - S3 (und auch die anderen Bewerber um die Position der dritten Kraft im Grafikchip-Markt) benötigen einen Chip bzw. eine Grafikkarte, welche mit den 150-Euro-Angeboten GeForce 6600 GT und Radeon X700 Pro sowohl vom Preis als auch der Leistung her konkurrieren kann, um ernsthaft wahrgenommen und somit langfristig Marktanteile gewinnen zu können.
The Inquirer bringen die Nachricht, daß ATI seine Multi-Grafikkarten-Technologie AMR/MVP sowohl auf den eigenen ATI-Chipsätzen als auch auf Intel-Chipsätzen erfolgreich getestet hätte. Bei dem Intel-Chipsatz kann es sich eigentlich nur um den i955X handeln, aber womöglich bringen auch die noch kommenden Mainstream-Chipsätze i945P/G die Möglichkeit zu zwei Grafikkartenslots mit sich. Mit dieser Meldung erhöht sich auch die Chance, daß AMR/MVP rundherum kompatibel, sprich auf jedem Mainboard mit zwei Grafikkartenslots prinzipiell lauffähig sein wird - dies würde dann auch die Mainboards mit nForce4 SLI Chipsatz mit einschließen.
Wie die DigiTimes vermeldet, bemühen sich derzeit die taiwanesischen Chipsatz-Hersteller (VIA, SiS und ULi) bei den Grafikchip-Entwicklern ATI & nVidia um offizielle Lizenzen für deren Multi-Grafikkarten-Technologien AMR/MVP bzw. SLI. Wie schon einmal ausgeführt, bedarf es zumindestens bei nVidias SLI nicht zwingend einer offiziellen Lizenz, sondern der Mainboard-Hersteller kann sein Board auch bei nVidia zur kostenlosen SLI-Zertifizierung einreichen (wie dies ATI halten wird, ist noch nicht bekannt). Die Chipsatz-Hersteller hingegen wollen natürlich aus Marketing-Gründen eine offizielle Lizenz, wobei jene von ATI & nVidia sicherlich kaum kostenlos vergeben werden wird.
News des 27. April 2005 |
Wie Hard Tecs 4U berichten, wird der taiwanesische Halbleiter-Auftragsfertiger TSMC, welcher unter anderem für ATI, nVidia und verschiedene Chipsatz-Hersteller arbeitet, bereits im Dezember diesen Jahres seinen 65nm Fertigungsprozeß starten. Einen direkten Bezug zur Fertigung von Grafikchips hat diese Meldung allerdings noch nicht, da von der Einführung einer neuen Fertigungstechnologie bei TSMC bis zur Marktreife für Grafikchips gewöhnlich ein Jahr und mehr vergeht - ein Grafikchip mit mehreren hundert Millionen Transistoren ist nun einmal kaum vergleichbar mit anderen Halbleitern wie Mainboard-Chipsätzen oder diversen Spezialchips, welche zumeist deutlich geringere Transistorenmengen und Taktfrequenzen aufweisen ...
... Konkret bedeutet dies, daß TSMC zwar ab nächstes Jahr diverse kleinere Chips in 65nm fertigen wird, daß dies jedoch noch nicht die Grafikchip-Sparte betreffen wird. In jener Sparte läuft bei TSMC eine etwas andere Zeitrechnung und wird erst im Laufe des verbleibendes Jahres die 90nm Fertigung zum Einsatz kommen, welche in anderen Sparten von TSMC schon seit einiger Zeit eingesetzt wird. Konkret wird ATI seine NextGen-Chips R520 und vermutlich auch RV530/RV515 in 90nm fertigen lassen, während nVidia vorerst weiterhin beim 110nm Prozeß bleiben wird. Mit den Grafikchips des Jahres 2006 wird sich dann 90nm bei Grafikchips fest etablieren, während wir das 65nm Fertigungsverfahren bei Grafikchips letztlich nicht vor 2007 erwarten.
Wie Golem vermelden, ist nun offiziell bestätigt, daß die kommende zweite Xbox über eingebetteten Speicher (eDRAM) für das Grafik-Subsystem verfügen wird. Mittels eDRAM kann man mit deutlich breiteren Speicherinterfaces arbeiten und damit sehr hohe Speicherbandbreiten erreichen. Nachteiligerweise ist eDRAM ziemlich teuer in der Fertigung, so daß meistens nur soviel davon verbaut wird, auf das es für den Bildspeicher langt. Im Fall einer Konsole mit begrenzten Auflösungen reichen hierbei wohl 10-12 MB eDRAM aus, für die Speicherung von Texturen und Geometriedaten wird im Fall einer Konsole wie üblich der Hauptspeicher mitbenutzt ...
... Im Fall einer Grafikkarte mit eDRAM würde dafür dann der gewöhnliche Grafikkartenspeicher benutzt werden. In beiden Fällen wäre eDRAM faktisch somit ein Turbo für den Speicher - und natürlich kein Ersatz. Allerdings steht dem Einsatz von eDRAM auf Desktop-Grafikkarten immer noch im Wege, daß bei den heutigen Auflösungen eher 20 MB und mehr eDRAM verbaut werden müssten, was ziemlich ins Geld gehen würde. Nichts desto trotz gilt es das Thema weiter zu beachten, denn mit dem eDRAM-Einsatz bei der Xbox2 (mit ATI R500 Grafikchip) könnte auch die Tür für eine zukünftige Nutzung von eDRAM bei Desktop-Grafikchips aufgestoßen werden.
WinFuture berichten über ein bemerkenswertes Urteil eines französisches Gerichts, welche den Kopierschutz von DVDs für illegal erklärt und die Hersteller-Firmen angewiesen hat, für die konkrete DVD (es ging um den Film "Mulholland Drive") den Kopierschutz binnen eines Monats zu entfernen :). Inwiefern die Filmindustrie dieses Urteil noch anfechten kann, ist leider nicht bekannt, immerhin handelte es sich schon um das Urteil der zweiten Instanz. Auch muß einschränkenderweise dazugesagt werden, daß sich die Richter weniger auf den digigalen Kopierschutz CSS bezogen, sondern vielmehr auf den analogen Kopierschutz von Macrovision, da sich der Rechtsstreit in erster Linie um die Möglichkeit bzw. Nicht-Möglichkeit einer (durch das Recht auf Privatkopie legalen) VHS-Kopie drehte ...
... Nichts desto trotz ist das Urteil dennoch ziemlich eindeutig und kann wohl auch für den digitalen Kopierschutz CSS als auch für alle ausgelieferten DVDs geltend betrachtet werden - wenn auch nur in Frankreich und wenn auch nur vorbehalts der Entscheidung einer höheren Instanz. Die Richter sahen im in Frankreich ebenso geltenden Recht auf Privatkopie zwingend begründet, daß keine Kopierschutztechnologie dieses Recht praktisch aushebeln darf. In diesem Punkt unterscheidet sich leider die deutsche von der französischen Rechtspraxis: Diesseits des Rheins gilt zuerst der Kopierschutz und erst danach kommt das Recht auf eine Privatkopie. Auch wird in Deutschland eher von einer "Duldung" der Privatkopie geredet als denn von einem regelrechten "Recht".
News des 26. April 2005 |
Auch wenn es viele AMD-Nutzer sicherlich begrüßen würden, sämtliche Gerüchte über die Wiederaufnahme der Entwicklung von Mainboard-Chipsätzen bei AMD sind leider der falschen Auslegung der Aussage von AMDs CEO Herctor Ruiz in einem Interview mit der Infoworld entsprungen. Denn dort sagt der AMD-Boss nur aus, daß die Fab30 nach dem Anlaufen der CPU-Produktion in der Fab36 nächstes Jahr eventuell die Chipsätze anderer Chipsatz-Entwickler auftragsfertigen könnte. Mit einer erneuten Chipsatz-Eigenentwicklung seitens AMD hat dies jedoch nichts zu tun - und AMD wird dieses Feld wohl auch weiterhin konsequent seinen Chipsatz-Partner überlassen, da AMD als der Prozessoren-Hersteller mit dem deutlich kleineren Marktanteil zwingend auf die Unterstützung möglichst vieler Partner in der Industrie angewiesen ist, um nicht von der Marktmacht Intels erdrückt zu werden.
Laut einer Meldung des ZDNets hat Microsoft angeblich weite Teile der ursprünglich geplanten NGSCB-Realisierung im Windows XP Nachfolger "Longhorn" gestrichen. Zurückzuführen sei dies auf das Feedback der Software-Hersteller, welche bei Microsoft moniert hätten, daß für NGSCB (Next Generation Secure Computing Base, früher als Palladium bekannt) eine komplette Neuentwicklung ihrer Anwendungen notwendig geworden wäre. Was uns jetzt erst einmal indirekt freut, denn dieses angedeutete Komplexitäts-Problem wird sich auch mit den nachfolgenden Windows-Versionen nicht so einfach aus der Welt schaffen lassen und damit aller Vermutung nach die Einführung der von Microsoft geplanten "Sicherheits"-Features wohl um einige Jahre verzögern ...
... Irritiert hat uns aber dennoch die Aussage, daß überhaupt irgendein Software-Hersteller seine Programme auf NGSCB auslegen wollte - schließlich hat Microsoft seinerzeit mal angekündigt, Longhorn mit deaktiviertem NGSCB ausliefern zu wollen. Vermutlich war dies jedoch eine reine Abwehrtaktik gegenüber den NGSCB-Kritikern, denn mittels der Anwendungen, die dann zwingend auf NGSCB setzen, hätte man den User letztlich doch zum Starten mit NGSCB-Funktionalität zwingen können. Wie dies mit dem nun deutlich abgespeckten NGSCB in Longhorn aussieht, bleibt abzuwarten - jedoch steht generell zu befürchten, daß wenn Microsoft die teilweise sogar nutzvollen Sicherheits-Features schon streicht, die eher zweifelhaften DRM-Features es aber auf jeden Fall in Longhorn schaffen werden ;).
Shortcuts: Laut TweakPC wird nVidia´s kommender neuer HighEnd-Chip G70 ATIs Kompressionstechnologie 3Dc unterstützen, was in Bezug auf die Durchsetzung (und damit Nutzung) dieses Features auf dem Spielemarkt nur positiv sein kann. Die gleiche Seite berichtet zudem über einen für den Desktop-Einsatz gedachten Supercomputer, welcher mit 96 verbauten Prozessoren, 1500 Watt Leistungsaufnahme und einem Kostenpunkt von 100.000 Dollar dann doch etwas die Vorstellungen von einem "normalen" Desktop-System sprengt. Und letztlich soll laut der ComputerBase demnächst ATIs M28 Pro anstehen - der dann erste Notebook-Grafikchip mit immerhin 16 Pixel-Pipelines (M28 und NV41M haben nur jeweils 12 Pipelines).
News des 25. April 2005 |
Die X-bit Labs haben ein interessantes Review des S3 GammaChrome S18 Pro online gebracht. Der auf der CeBIT vorgestellte Chip verfügt bekanntermaßen über nur 4 Pipelines, S3 versprach jedoch durch vielfältige Optimierungen am Chip eine sogar höhere Pro-MHz-Leistung als beim DeltaChrome, welcher mit immerhin 8 Pipelines antritt. Zusammen mit den höheren Taktraten (die Pro-Version wurde seinerzeit mit 400/400 MHz angegeben) sollte es für S3 eigentlich möglich sein, in Konkurrenz zur GeForce 6600 und Radeon X700 zu treten, welche beide derzeit im Preisbereich von um die 100 Euro zu finden sind - so zumindestens der Stand zur CeBIT 2005 ...
... Allerdings scheint sich S3 von dieser Zielsetzung inzwischen schon wieder verabschiedet zu haben, denn mit den nun finalen Taktraten des GammaChrome S18 Pro von 400/300 MHz geht es eher in Richtung GeForce 6200 und Radeon X300 sowie X600 Pro, welche sich im Preisbereich von 70-90 Euro tummeln. Und obwohl die S3-Karte in den theoretischen Tests nur durchschnittliche Ergebnisse erzielt, reicht es in den Spieletests doch hier und da zu Achtungserfolgen gegen die mitgetestete Radeon X300 sowie X600 Pro (eine GeForce 6200 war leider nicht am Start, die GeForce 6600 ist als 8-Pipeline-Design mit höherem Preis wohl eher nicht vergleichbar) ...
... Insgesamt legt die GammaChrome S18 Pro somit ungefähr die Leistung einer Radeon X300 hin, wobei zu beachten ist, daß das Anti-Aliasing der S3-Karte aufgrund des wiederum eingesetzten Supersampling-Verfahrens generell deutlich zu langsam ist. In der Leistungsklasse dieser Karten kommt es jedoch kaum auf ein schnelles Anti-Aliasing an, da die Karten dafür generell zu leistungsschwach sind. Wäre der Verkaufspreis der S3-Karte dem angemessen, wäre dies nun kein Problem, doch leider setzt S3 für den GammaChrome S18 Pro einen Preis von 150 Dollar im eigenen Online-Shop an. Dafür kann man dann aber auch schon eine GeForce 6600 GT oder Radeon X700 Pro erwerben, hier wird sich S3 noch bewegen müssen ...
... Und auch generell betrachtet müssen wir die Aktien von S3 quasi etwas herunterstufen: So berichten die X-bit Labs unter anderem, daß S3 in der eigenen Produktdokumentation keine Nitro- oder Ultra-Versionen des GammaChrome S18 mehr erwähnt, dafür aber mit dem GammaChrome S18 CE eine weitere LowCost-Variante (mit Taktraten von 300/300 MHz). Auch mit Rückblick auf die DeltaChrome-Vergangenheit bleibt zu hoffen, daß S3 nicht die schließlich schon angekündigten höher getakteten Varianten einfach so fallenläßt. Das GammaChrome-Design ist offenbar schlagkräftig genug, um mit ATI und nVidia mithalten zu können - was S3 nun in erster Linie fehlt, sind höhere Taktraten und Chips mit mehr Pipelines (GammaChrome S19).
Bei Hot Hardware, der AMDZone, Sharky Extreme und AnandTech hat man sich mit dem neuen AMD Sempron 3300+ Prozessor mit 2.0 GHz Takt beschäftigt, dem ersten Sempron mit Palermo-Core. Dieser bringt sowohl die 90nm Fertigung als auch SSE3 zum Sempron, erstaunlicherweise hat der 3300+ dafür aber als erster K8-basierender Sempron nur 128 kByte Level2 Cache an Board. Ein Blick in AMDs Roadmaps zeigt jedoch, daß kommende Sempron-Modelle ebenfalls nur 128 kByte Level2 Cache aufweisen sollen, scheinbar will hier AMD einen deutlicheren Unterschied zum Athlon 64 erreichen.