News-Archiv 13. - 19. Dezember 2004 (51. Kalenderwoche)
18./19. Dezember 17. Dezember 16. Dezember 15. Dezember 14. Dezember 13. Dezember
News des 18./19. Dezember 2004 |
Golem berichten über die - durchaus mißverständlichen - Bezeichnungen der nVidia GeForce 6200 TC Grafikkarten, welche mit dem (beispielhaften) Wortlaut von "GeForce 6200 w/ TurboCache supporting 128MB, including 32MB of local TurboCache" bei dem einen oder anderen potentieller Käufer möglicherweise den falschen Eindruck entstehen lassen könnten, eine solche Karte würde über 128 MB Grafikkartenspeicher verfügen. Leider läßt sich das Problem kaum elegant lösen, denn die reine Angabe des echten verbauten Speichers trägt der TurboCache-Technologie, welche andere PCIe-Grafikkarten schließlich nicht beherrschen, keinerlei Rechnung - und zudem zählt in diesem Marktbereich die Speichermenge (leider) als ziemlich stark gewichtetes Performance-Symbol ...
... Und selbst wenn diese weit verbreitete Ansicht keine reale Grundlage hat, so kann man sich dieser doch kaum entziehen, wenn man Grafikkarten in diesem Marktsegment anbietet - siehe auch die vielen LowCost-Grafikkarten mit 256 MB Speicher. Doch wie man es dreht und wendet, ein klein wenig Wissen über das zu kaufende Produkt ist einfach notwendig - und zu oft wird ein "Herstellerbetrug" unterstellt, wenn der Käufer ohne jegliches Basiswissen einfach zugegriffen hat und dann enttäuscht wurde. Wir gehen jetzt nicht davon aus, daß unsere Leser diesbezüglich nicht genügend informiert sind ;), aber eventuell können ja durch unsere Leser an den "Rest der Menschheit" die folgenden Faustregeln weitergetragen werden ...
... So sind GeForce 6200 Karten mit TurboCache prinzipiell nur etwas für Office-PCs mit allerhöchstens seltenen Abstechern in die Welt der Computer-Spiele. Einzig allein GeForce 6200 Karten, wo "TurboCache" explizit nicht genannt und zudem vom Hersteller/Händler ein 128bittiges Speicherinterface versichert wurde (da es die normale GeForce 6200 auch mit 64bittigem Speicherinterface gibt), eignen sich für etwas höhere Aufgaben, ohne deswegen aber zu Spielerkarten zu werden. Als niedrigste sinnvoll einsetzbare Spielerkarte wäre derzeit unsererseits eine Karte mit GeForce 6600 Chip zu empfehlen, da schon in der Nähe von 100 Euro zu haben. Nachteiligerweise trifft dieser Preis nur auf die PCIe-Versionen dieser Karten zu, denn die wenigen bisher erhältlichen AGP-Versionen haben dagegen noch ziemliche Mondpreise, was sich jedoch womöglich mit dem Markteinritt von weiteren AGP-Varianten der GeForce 6600 ändern könnte ...
... Auf der ATi-Seite gibt es bei den neueren Karten mit 8 Pixel-Pipelines als Counterpart die Radeon X700, welche jedoch derzeit ebenfalls nur in PCI Express verfügbar ist und preismäßig auch noch klar überhalb des zu ihrem Launch im September angesetzten Listenpreises von 149 Dollar liegt. Die Alternative wäre eine der "älten" Karten mit nur 4 Pixel-Pipelines, dafür aber höheren Takt, auch wenn davon auszugehen ist, daß deren Leistung nicht ganz das Niveau von GeForce 6600 und Radeon X700 erreicht. Dafür sind die Karten jedoch vernünftig verfügbar und kosten mit um die 100 Euro für die Radeon X600 Pro für PCI Express nicht die Welt ...
... Zudem hat ATi mit der Radeon 9600 Pro für AGP und den ungefähr selben Preis das derzeit einzige vernünftige Einsteiger-Angebot für den AGP-Bus im Angebot, solange GeForce 6600 und Radeon X700 für diesen noch nicht erhältlich sind. Unterhalb der genannten Grafikkarten sollte man jedoch eher nicht einsteigen, wenn Spiele auf der Anforderungsliste des Kaufobjekts stehen. Dies gilt insbesondere für die doch recht niedrig getaktete Standard-Version sowie alle abgespeckten Versionen des Radeon 9600 Chips, welche sich da VE, LE, Pro-LE oder sonstwie nennen (Ausnahme: XT, diese ist höherwertiger als die Pro), allesamt jedoch weniger Leistung bieten, ohne deswegen (in den meisten Fällen) deutlich weniger zu kosten.
Ein paar kleine Nachträge zu den News vom Freitag: Bezüglich der ATi-Philosophie der letzten Jahre, neue Technologien erst dann zu bringen, wenn der Markt dafür wirklich reif dafür ist - dies war natürlich ab dem R300 aka Radeon 9700 /Pro gemeint. Seitdem hat sich ATi in der Tat bezüglich der Technologie weitestgehend auf das Halten des einmal errungenen Standards konzentriert, der R300 selber war aber natürlich technologisch ein Meilenstein und sogar durch die NV30-Verzögerung seiner Zeit voraus. Bezüglich der 3D-Oberfläche von Windows Longhorn gilt anzumerken, daß wir dies stark vereinfacht dargestellt haben ...
... Im genauen wird bei Longhorn keine 3D-Oberfläche im Sinne eines 3D-Desktops zum Einsatz kommen, sondern Fenster-Animationen und -Effekte werden wie bei Apples "Quartz Extreme" (im immerhin vier Jahre alten MacOS X) durch die interne Verarbeitung der Fenster als einzelne 3D-Objekte dargestellt. Dadurch kann ein Beschleunigungs-Effekt eintreten, da schließlich die 3D-Hardware der Grafikkarte an der Darstellung dieser 3D-Fenster mitwirken kann - gleichzeitig besteht dabei aber auch die Gefahr, daß die Longhorn-Programmierer die neu gewonnenen Möglichkeiten zu einer pompösen Optik nutzen, welche dann letztlich wieder mehr Performance kostet als die Berechnung der Fenster über die 3D-Hardware der Grafikkarte einbringt ...
... Leider ist diese "Gefahr" doch ziemlich real, denn Microsoft-Programmierer haben sich selten die Gelegenheit entgehen lassen, ihre Produkte in erster Linie mit einer berauschenden Optik auszustatten ;). Und letztlich sei zu WGF 1.0 noch ergänzend gesagt, daß man für eine Kompatibilität zu WGF 1.0 zwar "nur" eine Shader 2.0 fähige Grafikkarte benötigt, WGF 1.0 selber aber mehr kann. Im genauen stellt WGF 1.0 die DirectX9-Version von Longhorn dar, angepasst an das neue Treibermodell von Longhorn und erweitert um ein paar Longhorn-spezifische Sachen für die Darstellung der 3D-Oberfläche. Dieses "DirectX9L" beinhaltet dann natürlich auch die Shader 3.0, so daß Shader 3.0 Grafikchips ihre gegenüber Shader 2.0 erweiterten Fähigkeiten auch unter WGF 1.0 nutzen können.
News des 17. Dezember 2004 |
Eine hochinteressante Meldung zum nVidia NV50 kommt aus unserem Forum: Danach ergibt sich die Möglichkeit (nicht Gewissheit!), daß der NV50 bereits über Vertex- und Pixel-Shader verfügt, welche "unified" arbeiten, sprich wahlweise Vertex- oder Pixel-Anweisungen ausführen können, je nachdem wo die Leistung gerade gebraucht wird. Dies ist eigentlich erst für das Shader Model 4.0 vorgesehen, welches in WGF integriert ist - die Vereinheitlichung der bisherigen Vertex- und Pixel-Shader zu unified Shadern. Diese Meldung erhöht ebenso die Möglichkeit, daß der NV50 eventuell doch schon ein WGF-Grafikchip sei, ohne daß man dabei allerdings nur in die Nähe von Gewissheit kommen würde ;) ...
... Generell bieten sich für den NV50 zwei Gedankenmodelle an: Nach dem ersten wäre der NV50 ein Shader 3.0 Chip, welcher kaum noch technologische Neuerungen gegenüber dem NV40 bringt, einfach weil die Shader 3.0 Spezifikation bereits mit dem NV40 voll ausgeschöpft wurde. Der einzige Weg, um aus dem NV50 in diesem Gedankenmodell noch etwas zu machen, wäre deutlich mehr Performance, was über mehr Shader-Einheiten pro Pipeline oder auch über mehr Pipelines erzielbar wäre, was jedoch in jedem Fall den Chip größer und damit noch schwerer herzustellen machen würde. Wenn wir ehrlich sind, wird dieses lange Zeit von uns vertretene Gedankenmodell in letzter Zeit immer unwahrscheinlicher und alles neigt sich eher dem zweiten möglichen Gedankenmodell zu ...
... Denn es gilt auch zu sagen, daß nVidia bei allen Grafikchips mit einer "0" als letzter Ziffer des Codenamens eine neue Technologie gebracht hat: Bei der GeForce (NV10) DirectX7, bei der GeForce3 (NV20) DirectX8, bei der GeForceFX (NV30) DirectX9 Shader 2.0 und bei der GeForce6 (NV40) DirectX9 Shader 3.0. Dies unterstützt direkt das zweite Gedankenmodell, nachdem der NV50 ein Shader 4.0 Chip nach WGF-Standard sein würde. Dies würde auch eine mögliche Verzögerung bzw. Nach-Hinten-Verschiebung des NV50 erklären, denn mit dem ursprünglich für das Frühjahr 2005 geplanten Chip werden nVidia wie Endkunden zu diesem Zeitpunkt mangels eines einsatzbereiten Windows Longhorn nichts anfangen können (außer der Nutzung der weiterhin vorhandenen Shader 3.0 Möglichkeiten) ...
... Durch diese fast zwingende Verschiebung des NV50 auf das Jahr 2006 (sofern der NV50 wirklich ein Shader 4.0 Chip ist) würde nVidia natürlich zu einer längeren Lebensdauer der GeForce6-Serie gezwungen werden, was sich jedoch aufgrund des modularen Designs heutiger Grafikchips von ATi und nVidia recht einfach erreichen lassen würde. So gesehen sind die Gerüchte über einen NV47-Chip mit 24 Pixel-Pipelines (aka 6 Quads) als R520-Gegenpart nicht völlig von der Hand zu weisen, dieser würde einfach den Platz des NV50 einnehmen, da jener jetzt noch nicht gebraucht wird bzw. nicht benutzt werden könnte. Auf Seiten ATi ist es dagegen relativ sicher, daß der kommende R520 "nur" Shader 3.0 bieten wird ...
... Der Chip wurde im Gegensatz zum NV50, welcher auf einer sehr langfristigen Planung beruht, relativ kurzfristig angestoßen - womit ATi aber die Möglichkeit hatte, den Markt-Anforderungen genauer nachzukommen, da diese Anforderungen zur Zeit der Planung des R520 deutlich klarer waren als zur Zeit der Planung des NV50. Insofern ist es eher sehr unwahrscheinlich, das ATi, wenn die Verzögerung von Longhorn auf das Jahr 2006 schon bekannt war, für das Frühjahr 2005 einen Shader 4.0 Chip geplant hat. Dies entspricht auch der generellen ATi-Philosophie der letzten Jahre, neue Technologien erst dann zu bringen, wenn der Markt dafür wirklich reif ist - und wird zudem durch ein weiteres Forums-Posting bestätigt, laut welchem in den letzten ATi-Treibern bereits Code für einen Shader 3.0 Chip gefunden wurde.
Abseits dessen noch ein paar erklärende Worte zu WGF aka Windows Graphics Foundation: Der Nachfolger von DirectX wird bekanntermaßen alleinig für Windows Longhorn zur Verfügung stehen, wobei dies weniger technisch zu begründen ist als vielmehr dahinter die Überlegung steht, den Gamer "sanft" zum Umstieg auf Longhorn zu zwingen. WGF selber unterteilt sich in WGF 1.0 und WGF 2.0 - wobei wir in unserem News eigentlich immer WGF 2.0 meinten und meinen, wenn wir von WGF-fähigen Grafikkarten sprechen. Denn WGF 1.0 beeinhaltet sinnbildlich nur die 2D-Fähigkeiten von WGF - wobei dies natürlich nicht ganz korrekt ist, denn für eine WGF 1.0 fähige Grafikkarte wird das Shader Model 2.0 von DirectX9 benötigt ...
... Im genauen ist WGF 1.0 nur zur Visualisierung von Longhorn da. Dazu gehören neben althergebrachten 2D-Fähigkeiten aber auch 3D-Fähigkeiten in Form des Shader Models 2.0, da die neue Oberfläche von Longhorn alle Objekte als 3D-Prozesse darstellen wird. Zur Darstellung von Spielen wird WGF 1.0 wohl nicht genutzt werden, dafür wird weiterhin DirectX9 sorgen, welches Longhorn als zusätzliche 3D-API beiliegen wird. Da WGF 1.0 als Voraussetzung "nur" die Shader 2.0 hat, wobei die Vertex Shader in diesem Fall auch über die CPU laufen können (eine Ausnahme zugunsten in Mainboards integrierter Grafikchips ohne eigenen Vertex Shader), sind faktisch alle Grafikchips mit Shader Model 2.0 Fähigkeiten WGF-kompatibel - auf WGF 1.0 bezogen, wohlgemerkt ...
... Im genauen wird es wohl nur eines WGF-kompatiblen Treibers benötigen, damit heutige Shader 2.0 Chips bis hinunter zur allereinfachsten GeForceFX 5200 kompatibel zum WGF 1.0 Standard sind - und damit die 3D-Oberfläche von Longhorn darstellen können. Nicht verschwiegen werden soll jedoch, daß Longhorn auch einen Fallback-Modus für seine Oberfläche kennt, wofür allein eine DirectX7-Grafikkarte benötigt und in welchem dann anscheinend auf die 3D-Darstellung verzichtet wird. Eine DirectX9-Grafikkarte ist also kein absolutes Muß für Windows Longhorn - und in wie weit die neue 3D-Oberfläche sinnvoll nutzbar ist, wird sich noch zeigen müssen ...
... Gut möglich, daß die neue 3D-Oberfläche zuviel Performance frisst, ohne (außer der Optik) entscheidende Vorteile zu bringen, und damit von vielen Usern zugunsten einer herkömmlichen 2D-Oberfläche deaktiviert werden wird, für welche wie gesagt eine DirectX7-Grafikkarte genügt. Neben diesem WGF 1.0 wird dann WGF 2.0 der eigentliche 3D-Standard sein, sprich jener, auf welchen WGF-fähige Spiele aufsetzen werden. Erst unter WGF 2.0 steigt die Anforderung auf das Shader Model 4.0 an. Mit dem Näherrücken von Longhorn wird dieser Unterschied zwischen WGF 1.0 und 2.0 zu beachten sein, denn mit einer WGF-Kompatibilität werden sicherlich viele werben wollen, auch wenn dies meist nur eine Kompatibilität zu WGF 1.0 bedeuten mag.
News des 16. Dezember 2004 |
Bei der FiringSquad hat man sich mit dem Overclocking der GeForce 6600GT in der AGP-Version auseinandergesetzt, während man bei AnandTech selbiges in einem Roundup von 11 GeForce 6600GT Karten auf PCIe-Basis untersuchte. Dabei reichten die Werte für die Chipübertaktung (default 500 MHz) von 535 bis zu 590 MHz, bei der Speicherübertaktung erreichte die AGP-Karte (default 450 MHz) 515 MHz, während die PCIe-Karten (default 500 MHz) zwischen 560 und 610 MHz lagen. Als (niedrigen) Schnitt kann man von ca. 60 MHz Chip- und 80 MHz Speicherübertaktung ausgehen, welches diese Karten zumeist auch erreichen dürften. Einen besonderen Einfluß schienen 1.6ns Speicherchips im übrigen nicht zu haben, denn solcherart Karten waren zwar an der Spitze zu finden, einige Karten mit "nur" 2.0ns Speicherchips erreichten jedoch dieselben Ergebnisse.
Eine gewissermaßen Pflichtlektüre für SLI-interessierte User haben Hard Tecs 4U mit ihrem Artikel zum Asus A8N-SLI Deluxe Mainboard abgeliefert. Nachdem es zuvor schon den einen oder anderen Artikel gegeben hatte, welcher auf die Lücken und Ungereihmtheiten von SLI hingewiesen hat, zeigt die Arbeit von Hard Tecs 4U nun alle vorhandenen Haken der Technik auf. Damit soll nicht gesagt werden, daß SLI nicht nutzbar wäre - nur leider ist es eben doch nicht so einfach, wie einstmals gedacht. Teilweise schon bekannt war, daß SLI (sofern im Treiber aktiviert), nicht generell für alle Spiele verfügbar ist, sondern von nVidia für jedes Spiel einzeln freigeschaltet werden muß ...
... nVidia spricht derzeit von ca. 50 Spielen, ohne aber eine offizielle Liste hierzu vorzulegen - im Artikel von Hard Tecs 4U findet sich dann eine (unvollständige) Liste von Spielen, welche man auf ihre SLI-Fähigkeit getestet hat. Insbesondere ältere Spiele scheinen mit SLI schlecht zusammenzuarbeiten - ok, dies wäre wohl verschmerzlich, wenn zumindestens die Kompatibilität mit neueren Spielen gesichtert wird. Leider ist derzeit aber überhaupt nicht bekannt, wie nVidia künftig bezüglich der SLI-fähigen Spiele vorgehen wird: Kommt demnächst ein Treiber, mit welchem dann auf einen Schlag gleich einmal die wichtigsten 200 Spiele für SLI freigeschaltet werden und gibt es danach regelmäßige Updates, welche möglichst alle neu erscheinenden Spiele umfassen? ...
... Oder aber sollen diese 50 Spiele die ganze Wahrheit sein und kommen mit den nächsten Treibern dann nur noch Nachträge zu den wichtigsten neu erschienenen Spielen (und darunter natürlich zwingend alle Benchmark-fähigen Spiele)? An dieser Frage, wie weit nVidia die Basis von mit SLI nutzbaren Spielen ansetzen will, entscheidet sich sehr viel bezüglich des Nutzeffekts von SLI. Gerade, weil die Technik so dermaßen viel Geld kostet, sollte sie doch auch von der Software bestmöglichst unterstützt werden. Aber als wäre dies nicht schon genug, haben Hard Tecs 4U auch noch einen zweiten Haken an SLI gefunden. Dieser Haken dürfte dabei vor allem diejenigen treffen, welche sich jetzt ein SLI-Mainboard mit einer einzelnen Grafikkarte zulegen wollen, um später dann bei gestiegenem Leistungsbedarf nachzurüsten ...
... Und zwar hängt die Funktionalität von SLI auch von der Gleichheit der BIOS-Versionen beider benutzter Grafikkarten ab (zudem muß die BIOS-Version neueren Datums sein, BIOS-Versionen von sehr frühen GeForce 6600 GT/Ultra Karten unterstützen noch kein SLI). Daraus ergibt sich schon, daß es eher unwahrscheinlich ist, daß Grafikkarten mit gleichen Chips, aber unterschiedlichen Hersteller zusammen als SLI-Gespann funktionieren dürften, aber auch, daß es zu Inkompatibilitäten mit einer jetzt gekauften und einer in einem halben Jahr gekauften Grafikkarten gleichen Typs und Herstellers kommen kann - eben weil die BIOS-Version in einem halben Jahr möglicherweise eine andere ist. Natürlich kann man die BIOSe der Grafikkarten so patchen, das sie identisch sind ...
... Doch dies ist sicherlich (bei Grafikkarten) kein Allerweltsvorgang, zumal die wenigsten Grafikkarten-Hersteller diesbezüglich ordentliche Anleitungen, Patches und Patch-Tools zur Verfügung stellen. Es ist ein sicherlich bezwingbares Hindernis - aber es zeigt dennoch, wie wenig doch das heutige nVidia SLI mit dem früheren 3dfx SLI (welche im übrigen exakt vor 4 Jahren die Segel strichen) gemein hat: Seinerzeit wurde einfach die zweite Grafikkarte in einen freien PCI-Slot gesteckt, die automatisch mitgelieferte SLI-Bridge eingesteckt und das System neu gestartet - danach lief alles und ohne jegliche Probleme, aber mit Performance-Gewinn. Davon ist das heutige SLI noch meilenweit entfernt. Es kann natürlich durch einige technische Einschränkungen auch nie ganz so weit kommen, sollte aber durch eine konzentrierte Arbeit an den SLI-Treibern seitens nVidia wenigstens eine umfassendere Spiele-Kompatibilität entwickeln.
Bei Gigabyte geht man zumindestens dem Problem der unterschiedlichen BIOS-Versionen komplett aus dem Weg und plant laut Tom´s Hardware Guide eine Grafikkarten mit SLI onboard auf den Markt zu bringen, sprich: Zwei Grafikchips auf einem Grafikboard. Allerdings dürften auch diese beiden Grafikchips nach dem SLI-Prinzip arbeiten, so daß bei von SLI nicht unterstützten Spielen der zweite Grafikchip vor sich hin idelt. Auch verbaute Gigabyte bei dieser Karte zwei GeForce 6600GT Chips, was wenig sinnvoll ist, da diese auch zusammen nicht schneller sind als ein einzelner GeForce 6800GT Chip. Gigabyte bringt somit technologisch gesehen ein hochinteressantes Produkt, welches aber in dieser Form leider kaum Sinn macht ...
... Interessant wäre das Ganze eher mit zwei GeForce 6800 GT/Ultra-Chips, wobei eine solche Karte wohl schon vom Platz her (für die Chips samt Lüfter und 512 MB RAM) eine Herausvorderung wäre, vom Leistungsbedarf und der (auf engstem Raum) entstehenden Abwärme ganz zu schweigen. Womöglich hat sich Gigabyte ja auch an einer solchen Karte versucht und dabei festgestellt, da sie kaum zu realisieren ist - und sich somit auf die jetztige Version mit zwei GeForce 6600GT verlegt, welcher zu Präsentations- und Marketingzwecken immer noch ganz gut geeignet ist ;). Im Normalfall dürfte es aber generell günstiger sein, mit zwei Grafikkarten zu arbeiten als mit zwei Chips auf einer Karte, denn der Mehrpreis für das extra Boardlayout übersteigt spielend den Mehrpreis der zwei Grafikkartenslots auf dem Mainboard.
News des 15. Dezember 2004 |
Noch eine Reihe mehr an Artikeln zur Radeon X800 XL mit R430-Core gibt es hier, welche die bisher schon festgestellte gute Performance dieser Karte bestätigen. Interessanterweise hat ATi zudem gegenüber dem Launch der R430/R480-Cores die Listenpreise der beiden R430-Abkömmlinge noch etwas nach unten gesetzt: Bei der Radeon X800 XL von 349 auf 299 Dollar und bei der Radeon X800 von 249 auf 199 Dollar. Was eine äußerst aggressive Preisgestaltung darstellt, denn für dieses Geld stehen bei nVidia eine GeForce 6800 bzw. eine GeForce 6600GT in den Preislisten. Die beiden genannten ATi-Karten stehen jedoch bezüglich ihrer Leistung nach mehr oder weniger einhelligem Fazit eher in Kontakt zur jeweils nächsthöheren nVidia-Klasse, so daß ATi in diesem Fällen - und sofern nVidia nicht die Preise senkt - das klar bessere Preis/Leistungsverhältnis im Marktsegment von 200-350 Dollar/Euro hat.
nVidia hat nunmehr seine TurboCache-Technologie offiziell gemacht, welche zukünftig auf den GeForce 6200TC Karten (und nur dort) eingesetzt werden wird. Grob gesagt handelt es sich dabei um eine Fortführung jener Idee, welche schon zu AGP-Texturing führte (was alle heutigen AGP-Grafikkarten unterstützen) - die Benutzung des Systemspeichers als Erweiterung des Grafikkartenspeichers. Bei AGP funktionierte seinerzeit diese Idee in der Praxis nicht, weil die Bandbreite des AGP- und Systembusses noch zu gering war, um die Daten schnell genug zu übertragen - sobald AGP-Texturing ins Spiel kaum, wurde es halt sofort ruckelig. Mit der erhöhten Bandbreite von PCI Express (wobei in diesem Fall auch der schnelle Rückkanal von PCI Express interessant ist, denn TurboCache kann auch direkt in den Systemspeicher rendern) hofft man nun, diese Idee endlich praxistauglich umsetzen zu können ...
... Dabei sollte man sich jedoch keiner Illusion hingeben, daß TurboCache für Performance-Zuwächse sorgen kann - denn es geht eher in die umgekehrte Richtung: Mittels der Mitbenutzung des Systemsspeichers kann man sich einen Teil des lokalen Grafikkartenspeichers sparen, womit entsprechende Karten sehr günstig (oder mit höherem Gewinn) hergestellt werden können. Zweifelsohne büßt diese Lösung Performance an, nur hofft man halt, daß dieser Performance-Verlust halbwegs gering ausfällt und innerhalb des mit der GeForce 6200TC angestrebten Marktsegments sowieso nicht auffällt - im Gegensatz zum günstigen Preis, welcher speziell im OEM-Markt neben der Feature-Checklist der alles entscheidende Punkt ist ...
... Im konkreten werden die Grafikkarten-Hersteller die GeForce 6200TC mit ein, zwei oder vier 16-MB-Speicherchips ausrüsten können, welche bei 16 MB mit 32 Bit (2,7 GB/sec) und bei 32/64 MB mit 64 Bit (5,3 GB/sec) angebunden sind. Da der Sinn der Technologie aber darin liegt, möglichst den Systemspeicher mitzubenutzen, werden am Markt wohl zumeist Karten mit nur 16 und 32 MB lokalen Speicher auftreten. Zuzüglich der genannten Bandbreiten rechnet nVidia dann auch noch die 8 GB/sec von PCI Express, wobei Hin- und Rückkanal zusammengerechnet werden und nicht beachtet wird, daß die Speicherbandbreite des Systemspeichers gewöhnlich sowieso geringer ist (bei DualChannel DDR400 ca. 6 GB/sec) ...
... Damit kommt man dann natürlich auf relativ hohe Bandbreiten-Angaben von 10 bis 13 GB/sec bei einer GeForce 6200TC, wobei diese Werte jedoch auf keinen Fall mit denen echter Grafikkarten vergleichbar sind. Wie gesagt geht es bei TurboCache keineswegs darum, mehr Leistung zu erhalten, sondern eine etwas geringere Leistung mit deutlich weniger Aufwand zu erzielen. An der Menge des verbauten lokalen Speichers hängt auch ab, wieviel Systemspeicher die Grafikkarte für sich benutzen darf: Bei bis zu 32 MB sind dies (insgesamt) 128 MB, bei 64 MB sind dies (insgesamt) 256 MB. Voraussetzung dafür sind jedoch mindestens 512 MB verbauten Systemspeicher, will man der Grafikkarte 256 MB zur Verfügung stellen, sogar 1 GB Systemspeicher ...
... Natürlich ist dies zweifelslos eine für Spieler weitgehend uninteressante Lösung, jedoch könnten solcherart Grafikkarten durchaus für Office-PCs sehr interessant werden: Dort benötigt im gewöhnlichen niemand die 128 MB heutzutage verbauten Grafikkartenspeicher - wozu also diesen mitbezahlen wollen, wenn jener sowieso nicht gebraucht wird? Dennoch eignet sich die GeForce 6200TC mit immerhin 4 Rendering-Pipelines nach wie vor für ein Spielchen zwischendurch, wenn es nicht gerade der neueste Titel sein soll, oder aber die Ansprüche bezüglich der Bildqualität zu hoch liegen. So gesehen ist TurboCache eine vernünftige Lösung - wenn es denn nVidia gelingt, die Preise entsprechender Karten in diese Regionen abzusenken, in welchen derzeit GeForceFX 5200 Grafikkarten erhältlich sind ...
... Mit dem derzeitigen Listenpreis von 129 Dollar wird da nicht viel auszurichten sein, wobei uns schon europäische Hersteller-Preise von 75 Euro für eine 32-MB-Karte und 89 Euro für eine 64-MB-Karte erreichten. Im übrigen wird es die "normale" GeForce 6200 mit 128 MB lokalem Speicher an einem 64- oder 128-bittigem Speicherinterface auch weiterhin geben. Desweiteren sei noch daran erinnert, daß auch ATi schon des längeren an einer ähnlichen Technologie arbeitet, HyperMemory genannt. Diese wurde im September angekündigt, mit dem (damaligen) Ziel, noch dieses Jahr entsprechende Grafikkarten vorzustellen. Daraus scheint nun kaum noch etwas zu werden, nichts desto trotz wird ATi sicherlich demnächst ebenfalls denselben Weg wie nVidia mit TurboCache einschlagen.
Hard Tecs 4U berichten in einem Review zur Asus Extreme N6600GT Grafikkarte mit nVidia GeForce 6600GT Chip von der - absolut verzichtbaren - Eigenschaft der nVidia-Treiber, beim Abspielen einer DVD über den TV-Out der Karte an ein TV-Gerät (und nicht über den PC-Monitor) die Bildaugabe mit dem Hinweis auf einen vorhandenen Kopierschutz der DVD (den dabei im konkreten Fall gar niemand umgehen will) zu verweigern. Kopierschutz hin oder her - ein Produkt sollte man in erster Linie nutzen können, erst in zweiter Linie darf der Kopierschutz kommen. So gesehen ist der TV-Out der nVidia-Grafikkarten faktisch nur eingeschränkt nutzbar.
Laut The Inquirer hat Intel den Nehalem-Core wieder reaktiviert, allerdings in veränderter und an die neue Strategie angepasster Form. Der Nehalem-Core war ursprünglich einmal als vollkommen neue Architektur zur Ablösung des Pentium 4 gedacht, hing jedoch durch den Strategie-Wandel bei Intel bislang etwas in der Luft. Wahrscheinlich werden dem Nehalem nun noch MultiCore-Fähigkeiten hinzugegeben werden, was aller Vermutung nach nicht auf dem ursprünglichen Nehalem-Plan stand, inzwischen jedoch erklärte Intel-Strategie ist. Generell benötigt Intel irgendwann sicherlich einen echten neuen Core, denn all die 2005 und 2006 kommenden Prozessoren stammen von ihrer grundlegenden Architektur her letztlich immer noch von Pentium II/III und Pentium 4 ab.
Shortcuts: Der Planet 3DNow! berichtet über die zweite Generation von PCI Express, welche voraussichtlich 2007 Marktreife erreichen wird und dabei ungefähr eine doppelt so hohe Bandbreite bieten wird wie das derzeitige PCI Express. Die ComputerBase berichtet von einer kommenden neuen Version des RivaTuners, mit welcher sich auch bisher störige GeForce 6800LE Grafikkarten freischalten lassen sollen. Und wie Golem letztlich berichten, sind die Meldungen über den möglichen Passwort-Diebstahl bei eBay nun doch wahr, es gibt mittlerweile sogar ein Live-Demo der Sicherheitslücke. Wie so oft ist wieder einmal Javascript als Träger des bösartigen Codes benutzt wurden, womit einmal mehr die Empfehlung ergeht, Javascript und sonstige aktive Inhalte zur eigenen Sicherheit generell zu deaktivieren.
News des 14. Dezember 2004 |
Bei Golem hat man mit ATi zu deren zukünftiger Treiber-Entwicklung gesprochen. So plant ATi eine bessere Unterstützung von Linux sowie automatische Treiber-Updates unter Windows, wobei letztere Funktion natürlich abschaltbar ausgeführt ist. Daneben will man an einer Optimierung des Catalyst Control Centers arbeiten - schön, daß auch ATi inzwischen erkannt hat, das eine Startzeit von runden 10 Sekunden und eine Reaktionszeit auf das Setzen einer 3D-Option von rund zwei Sekunden deutlich zu viel sind, ganz besonders im Vergleich zu externen Tweakern oder dem eigenen herkömmlichen Control Panel ;) ...
... Als wichtigste Maßnahme wird zukünftig die 3D-Vorschau abschaltbar sein - wobei trotzdem die Frage erlaubt sein muß, warum man auf die Idee für diesen Schalter nicht schon nach der ersten Beta-Version des CCC kommen konnte, da die 3D-Vorschau einfach viel zu lange braucht, um das CCC vernünftig nutzen zu können. Allerdings will ATi mit der Verschlankung des CCC bis auf .NET 2.0 warten, welches für Anfang 2005 erwartet wird - und sich hoffentlich nicht verspätet. Derzeit liefert ATi zwar positiverweise die Catalyst-Treiber immer noch in einer CP-Version aus, doch diese ist nicht langfristig gesichtert und dieser fehlen dann auch schon einige neuere Optionen, die nur im CCC enthalten sind.
Eine weniger erfreuliche Nachricht zum Thema Markenrecht - oder das, was einige Firmen davon halten - bringt der Heise Newsticker. Wie bekannt, hatte sich Intel aufgrund des "Intel inside" Logos bereits die Wortmarke "inside" generell schützen lassen und ging dabei nun auch gegen Webseiten wie DVD-inside etc. vor - was zwar keinesfalls ein Ruhmesblatt darstellt, jedoch aufgrund der immer deutlicher werdenden Zukunftsausrichtung von Intel auf digitales Entertainment (hierzu werden auch große Antrengungen unternommen, Chips für den Multimediabereich zu entwickeln, um zukünftig nicht mehr so abhängig vom Kern-Geschäft mit Prozessoren und Mainboard-Chipsätzen zu sein) noch halbwegs verständlich ist ...
... Eine neuerliche Intel-Aktion geht jedoch gegen Fehmarn-inside, welche als Informationsseite für die Fehmarn-Insulaner definitiv nichts mit dem Kern- oder Nebengeschäft von Intel zu tun hat. Intel beansprucht somit praktisch das Wort "inside" für alle Bereiche des Lebens, und setzt diesen Anspruch dann auch aktiv durch. Nun kann man dagegen leider nicht viel tun (und der Betreiber vorgenannter Webseite hat sicherlich anderes zu tun, als sich auf einen Rechtsstreit mit einer Multimilliarden-Dollar-Firma einzulassen), und das einzige, was wohl wirklich effektiv gegen solche überzogenen Ansprüche hilft, ist es, diese möglichst oft publik zu machen - was wir hiermit getan haben. Intel hingegen sollte sich eventuell überlegen, ob es ein guter Tausch ist, wegen Lapalien das Markenrecht so dermaßen auszunutzen und sich dafür die Mißbilligung der Anwender einzuhandeln.
Wie Hard Tecs 4U berichten, sind die Lagerbestände von DDR2-Speicher derzeit etwa zwei- bis dreimal so hoch wie bei DDR1-Speichern, was zum einen natürlich minimal auf die Preise von DDR2 drückt, andererseits aber auch aussagt, daß das DDR2-Geschäft generell doch eher schleppend verläuft. Bislang ist es den Vorantreibern von DDR2 schlicht nicht gelungen, echte Vorteile für diesen neuen Speicher herauszustellen: Konkret müsste DDR2 entweder bei der Performance oder beim Preis irgendeinen Vorteil für den Endkunden vorweisen können (was derzeit nicht so ist), denn der Vorteil der (etwas) geringeren Leistungsaufnahme von DDR2 ist für den Endkunden doch recht schwer greifbar. Generell kann man somit sagen, daß DDR2 nichts zwingendes ist, bevor nicht mit DDR2/667 oder DDR2/800 relevante Performance-Vorteile nachgewiesen werden oder aber DDR2 zumindestens nicht mehr teurer ist als DDR1.
Shortcuts: Bei GamePC hatte man mit dem DFI 855GME-MGF nun das Konkurrenz-Mainboard zu AOpen´s Pentium-M Platinen im direkten Vergleich. Hard Tecs 4U berichten dagegen von einer neuen Intel-Roadmap, nachdem die Pentium 4 6xx Prozessoren-Serie mit 2 MB Level2-Cache, XD-Bit und 64-Bit-Erweiterung nun nicht im Januar, sondern erst im Februar 2005 erscheinen wird. Sowohl bei ExtremeTech als auch dem Tech Report gibt es erste Artikel zu "echten" Radeon X800XL Grafikkarten, welche den Eindruck unseres Previews verstärken, daß es sich um eine exzellente Karte bezüglich des Preis/Leistungsverhältnisses handelt. Und wie die WinHelpline letztlich vermeldet, gehen Sicherheitsexperten davon aus, daß die von einigen Firmen angekündigten Desktop-Suchmaschinen zukünftig ein deutliches Ziel von Virenschreibern werden dürften.
News des 13. Dezember 2004 |
Golem berichten über mehrere CPU-Ankündigungen seitens AMD und Intel im Rahmen von Analysten-Konferenzen: So habe AMD seine Pläne zu den 90nm DualCore Prozessoren bekräftigt, welche Mitte 2005 für den Opteron und Athlon 64 auf den Markt kommen sollen. Zudem wolle AMD zukünftig auch vier oder acht Cores integrieren, sofern dies die eingesetzten Fertigungsverfahren erlauben würden - was wohl schon bei 65nm passieren könnte. Interessant sind zudem die von AMD hochoffiziell getroffenen Kompatibilitätsangaben: So würden die kommenden DualCore Opterons maximal 95 Watt ziehen und zudem (nach BIOS-Update) in jedes Mainboard passen, welches nach den 90nm-Spezifikationen seitens AMD gebaut ist ...
... Obwohl sich diese Angabe erst einmal nur auf die Opteron-Prozessoren bezieht, wird dies bei den ebenfalls geplanten DualCore Athlon 64 Prozessoren bezüglich des Sockels 939 wohl absolut deckungsgleich sein. Damit dürften die meisten Sockel 939 Mainboards wohl problemlos in der Lage sein, nach einem BIOS-Update einen DualCore Athlon 64 zu tragen. Nebenbei versprach AMD auch den Support von DDR2/DDR3, welches wir zeitmäßig ungefähr Anfang 2006 mit einer aktualisierten Variante der 90nm DualCore Prozessoren einordnen. Vorher wird DDR2 für Athlon 64 Systeme sowieso nicht benötigt, denn so lange DDR2-Speicher teuer als DDR1-Speicher ist, bringt ersterer keine Vorteile für den Endkunden ...
... Auf Seiten Intels wurde hingegen die Verzehnfachung der Prozessorleistung zum Jahr 2008 hin angekündigt - was ebenfalls nur mittels MultiCore-Prozessoren erreichbar sein wird, welche deutlich über die derzeit in Vorbereitung befindlichen zwei Cores hinausgehen. Eine Verzehnfachung der Leistung dürfte allerdings eher nur bei Server-Prozessoren realisierbar sein, da dort die Parallelisierung mittels mehrerer Cores nicht auf Limitierungen der Software stößt - und ganz abgesehen davon in diesem Bereich die Mehrleistung auch benötigt wird. Bei Desktop-Prozessoren werden aller Wahrscheinlichkeit nach schon die im nächsten Sommer zu erwartenden DualCore-Prozessoren zahlreiche Limitierungen durch dafür nicht ausgelegte Software offenbaren, was die weitere Parallelisierung von Desktop-Prozessoren zumindestens kurzfristig doch erheblich aufhalten (jedoch nicht stoppen) wird ...
... Doch zumindestens demonstrierte Intel erst einmal seinen ersten DualCore-Prozessor für den Desktop mit dem Codenamen Smithfield, wobei es sich dabei - wie hier ausgeführt - um einen Abkömmling des Pentium 4 handelt. Jener soll bereits Mitte 2005 erscheinen, während erste DualCore Pentium-M Abkömmlinge erst Anfang 2006 in den Ring steigen sollen. The Register ergänzen hierzu, daß Intel zudem eben jenen DualCore Pentium-M mit Codenamen Yonah ebenfalls bereits demonstriert hat. Derzeit ist der 65nm-Chip Yonah offiziell nur für den mobilen Einsatz vorgesehen. Die Möglichkeit, diesen jedoch auch in den Desktop-Bereich zu bringen, ist jedoch nach wie vor noch vorhanden - und langfristig wird sowieso kein Weg an stromsparenden Architekturen vorbeigehen, um die Verlustleistungen nicht in astronomische Bereiche schiessen zu lassen.
Im Forum von VIA Arena hat John Gatt von VIA Bilder eines neuen VIA-Chipsatzes bzw. eines Testsamples dessen gepostet, welches sowohl PCI Express als auch AGP unterstützt. Hierbei soll es sich allerdings allem Anschein nach nicht um eine dieser Fake-Lösungen handeln, wo zwei gewöhnliche PCI-Plätze zusammengelegt wurden, um einen (sehr leistungsschwachen) AGP-Platz zu erhalten, sondern dieser Chipsatz soll einen echten AGP-Support besitzen - neben dem Support von PCI Express selbstverständlich. Entsprechende Berichte, daß VIA an solchen Lösungen sowohl für Pentium 4 als auch Athlon 64 arbeiten würde, gab es schon zu Zeiten der CeBIT, doch in der Zwischenzeit gab es nicht mehr viele Meldungen zu diesem Thema ...
... Aber anscheinend hat VIA diesen PT890 (John Gatt nannte ihn "PT880", aber dies dürfte ein Schreibfehler sein, da der PT880 längst im Markt ist) genannten Pentium 4 Chipsatz nun endlich zur Marktreife entwickelt - und will die Lösung mit PCIe und AGP womöglich auch in den Endkunden-Markt bringen, weswegen John Gatt am Ende seines Postings auch die Frage stellt, ob ein solches Mainboard für die mitlesende User eine Option wäre. Für den (kleinen) Retail-Markt trifft dies sicherlich zu, denn so kann man bei einer Umrüstung eines bestehenden Systems bezüglich CPU & Mainboard eine vorhandene AGP-Grafikkarte weiternutzen, während man trotzdem die Zukunftssicherheit von PCIe an Board hat. Ob dies allerdings ausreichend ist, um ein solches Kombi-Mainboard auf den Gesamtmarkt loszulassen, bleibt abzuwarten.