News-Archiv 11. - 17. Oktober 2004 (42. Kalenderwoche)
16./17. Oktober 15. Oktober 14. Oktober 13. Oktober 12. Oktober 11. Oktober
News des 16./17. Oktober 2004 |
Seit dem Launch der GeForce 6200 am vergangenen Montag wird die Entscheidung von Tom´s Hardware Guide, trotz vorhandenem Testsample keinen entsprechenden Artikel anzubieten, reichlich im Web diskutiert - so auch in unserem Forum oder mittels eines knallharten Kommentars von TtecX. Die THG hatte den Test der GeForce 6200 abgelehnt, weil die Karte viel zu kurzfristig bei ihnen gelandet war und man dieses alte Spiel der Vorserien-Tests mit immer der Gefahr von Änderungen von Treiber, BIOS und Spezifikationen einfach nicht mehr mitmachen wollte. Eine prinzipiell richtige Entscheidung, welche jedoch bei genauerer Betrachtung nicht ganz so glasklar ist, wie dies zunächst erscheint ...
... Generell gilt erst einmal, daß die Aktion der THG allen Hardware-Webseiten sowie potentiell auch den Endkunden hilft, weil sich so eventuell in Zukunft eine verlängerte Testdauer für die Hardware-Tester ergibt und - wie gesagt potentiell - auch das Nachdenken der Hersteller darüber, ob Paperlaunches Monate vor der eigentlichen Produkt-Auslieferung wirklich Sinn machen und ob man diese Zeitspanne nicht deutlich schrumpfen sollte. Dies ist gut und richtig - vor allem, weil die THG eine von drei Webseiten ist (die Print-Magazine lassen wir hier mal heraus), welche sich einen solchen Schritt überhaupt leisten können, ohne ihre Premium-Beziehungen zu den Herstellern ernsthaft zu gefährden ...
... Zudem gibt es aber noch ein paar weitere Punkte, welche man zu diesem Fall wissen sollte: So mockierte man sich bei der THG darüber, daß im konkreten Fall das Testsample erst 4 Tage vor dem Launch bei ihnen war, und daß es in der Vergangenheit innerhalb der Testphase von brandneuen Produkten schon einmal zu Änderungen von Treiber, BIOS oder Spezifikationen gekommen war (was natürlich ein heftige Unsitte der Hersteller ist, keine Frage). Entscheidender Punkt hieran ist, daß sich diese "Probleme" eigentlich nur daraus ergeben, daß die THG von den Grafikchip-Herstellern in dieser Form bevorzugt wird, als daß die THG Testsamples üblicherweise eine Woche vorher erhält (Stichwort "Premium-Beziehungen") ...
... Jedoch, und das dürften sicherlich die wenigsten wissen, erhalten andere Hardware-Redaktionen ihre Testsamples öfters einmal nur 3 Tage vor dem Produktlaunch, manchmal müssen sie das Testsample auch schon nach nur 2 Tagen wieder abgeben. Und wenn man ein Testsample nur 3 Tage vor dem Launch bekommt, ist natürlich die Chance auf Änderungen an Treiber, BIOS oder Spezifikationen eher gering - uns ist dies beispielsweise noch nie passiert (was aber nur persönliche Erfahrung ist und nicht zu verallgemeinern wäre). Die THG ist in diesen Punkten jedoch jahrelang im Vergleich geradezu fürstlich behandelt worden. Und es muß die Frage erlaubt sein, wo denn die hehren Absichten der THG waren, als es für die anderen Webseiten ganz normal war, Testsamples nur 2-3 Tage zu bekommen ...
... Nun gut, abseits dieser Einwürfe bringt der Vorstoß der THG - wie schon vorstehend ausgeführt - eventuell doch eine gewisse Verbesserung der "Testlage". Es wäre schon zu begrüßen, wenn die Hersteller ihre Launch-Termine so legen würden, daß genügend Testsamples für alle Interessenten vorhanden sind. Sicherlich kann niemand 40 Berichte zu einem neuen Produkt am selben Tag lesen, doch andererseits sollte man auch keine Webseite, zumindestens wenn sie eine gewisse Größe und Erfahrung hat, ausschließen. Launches wie derjenige der GeForce 6200, wo es offenbar weltweit nur 4 Testsamples gab oder derjenige der Radeon X700 Serie, wo es für Deutschland keinerlei Testsamples gab, sind doch deutlich überdenkenswert ...
... Jedoch, wenn wir ehrlich sind, glauben wir nicht an Verbesserungen im Bereich des Punkts "Paperlaunches". Die Hersteller - und dazu gehören nicht nur die Grafikchip-Entwickler - werden wohl weiterhin ihre neuen Produkte vorstellen und testen lassen, sobald diese nur halbwegs fertig sind. Dies ist einfach günstiger für die eigenen Börsenmeldungen, die insgesamte mediale Aufmerksamkeit auf den Hersteller und die Chancen bei den eigenen Sub-Herstellern (Grafikkarten- und Mainboard-Herstellern, auch KomplettPC-Bauer), daran dürfte auch ein Test-Moratorium der THG nichts grundlegendes ändern.
Bei Legion Hardware ist man der Frage nachgegangen, was in aktuellen Spielen mehr limitiert: CPU oder Grafikkarte. Wobei sich die Grafikkarten-Tests auf die GeForce 6800 Ultra beschränkten, dafür kamen von 2.0 bis 3.8 GHz jedoch reichlich CPUs zum Einsatz. Kurzer Überblick: Unter dem 3DMark2001 skalierte die GeForce 6800 Ultra bis zur höchsten Taktung von 3.8 GHz, beim 3DMark03 ist dagegen die Skalierung schon überhalb von 2 GHz nur noch minimal. Bei Halo und Unreal Tournament 2004 gibt es eine vernünftige Skalierung bis auf 3.8 GHz, während unter dem Codecreatues-Benchmark die Skalierung zwar da ist, jedoch reichlich gering ausfällt ...
... Gleiches gilt für Tomb Raider, wobei es hier wenigstens noch einen deutlichen Unterschied zwischen 2.0 und 2.8 GHz gibt. Bei Far Cry und auch bei Doom 3 unterscheiden sich die Ergebnisse gravierend zwischen den Auflösungen: Bei 1600x1200 ist faktisch ab 3.2 GHz Schluß mit der Skalierung, während 1280x1024 noch bis 3.8 GHz recht anständig skaliert. Zusammenfassend läßt sich sagen, daß wohl alles über 3 GHz (bei Athlon 64 Prozessoren vergleichsweise ein 3000+) nur noch eher geringe Leistungs-Gewinne unter Spielen abwirft. Hinzuzurechnen wäre zudem, daß unter dem Einsatz von Anti-Aliasing und/oder anisotropem Filter die Grafikkarten-Belastung weiter steigt, so daß die Prozessor-Skalierung wohl schon deutlich früher aufhört. Gleiches gilt für "schwächere" Grafikkarten als die GeForce 6800 Ultra - auch bei diesen dürfte die Prozessor-Skalierung schon früher aufhören ...
... Sicherlich wird es auch Spiele geben, welche auch mit den derzeit schnellsten verfügbaren Grafikkarten noch nicht ausgelastet werden können und deshalb mit höherer Prozessoren-Power auch 1:1 skalieren, doch dies dürften wohl eher die Ausnahmen sein - was nicht sagen soll, daß sich für intensive Benutzer solcher Spiele nicht ein extra dafür angepasstes System mit extra-großer CPU lohnen würde. Doch für den Gamer-Alltag dürfte im gewöhnlichen alles ab und überhalb von 3 GHz bzw. einem 3000+ sehr gut ausreichend sein - und selbst wenn HighEnd-Grafikkarten ein Heidengeld kosten, dürften sie sich für einen Gamer doch mehr lohnen als ein 4-GHz-Prozessor, welcher dann unter Spielen keine wirkliche Mehrleistung bringt.
Shortcuts: Bei HardOCP hat man jenes interne Intel-Dokument im Angebot, mit welchem Intel (offenbar den eigenen Mitarbeitern) die Änderung der eigenen Roadmap bzw. den Verzicht auf den 4 GHz Pentium 4 ankündigte. Die Webseite The Dodge Garage hat eine sehr umfangreiche (und nebenbei ziemlich vollständige) Sammlung an Informationen und Bildern rund um 3dfx und deren Grafikkarten aufgebaut. Und wenn wir schon beim Thema sind: Bei The id Museum will man ein Archiv rund um die Spiele der bekannten texanischen Spieleschmiede aufbauen, auch wenn diese Sammlung noch eher am Anfang steht. Bei TtecX gibt es einen wunderbar informativen Artikel zum Thema Office-PC. Und als Rausschmeißer für diese Woche noch folgendes: Vibrator shuts down Australian airport ;-)).
News des 15. Oktober 2004 |
Digit-Life haben ein wenig in ihren Archiven gekramt und nachfolgend satte 101 Grafikkarten, welche seit 1999 bis jetzt releast wurden, einem umfassenden Leistungstest unterzogen. Mit dabei sind damit haufenweise ältere Semester wie die Riva TNT2, die Anfänge der GeForce- und Radeon-Serien sowie die Voodoo 4/5 Grafikkarten, zuzüglich der "Außenseiter" vergangener Jahre wie die KYRO-, Matrox- und Xabre-Karten. Der ausführliche Vergleich eignet sich aufgrund der sehr vielen Zahlen weniger, um aktuelle Grafikkarten zu vergleichen, jedoch sehr gut, um Nutzern älterer Grafikkarten eine Richtschnur zu geben, wieviel man durch eine Aufrüstung - im direkten Vergleich zur aktuell benutzten Hardware - an Leistung gewinnen kann.
Eigentlich dachten wir bisher, daß alle neuen Grafikchips "durch" seien und daß nachfolgend nur noch Refreshs jener zu erwarten sind. Doch gefehlt, denn The Inquirer vermelden die Markteinführung des ATi RV351 Grafikchips noch im vierten Quartal diesen Jahres. Zu diesem Chip berichteten wir bereits im Sommer 2003, während es seitdem keiner Meldungen mehr zum RV351 gab. Laut diesen älteren Informationen handelt es sich beim RV351 um eine Variation des seinerzeit erfolgreichen RV350-Chips (Radeon 9600 /Pro), welche wir schon damals dem LowCost-Markt zuordneten, wo ATi keine DirectX9-Grafikkarte hatte. Genau dies scheint nun auch zuzutreffen, auch wenn ATi mit der Radeon X300 /SE inzwischen schlagkräftige DirectX9-Grafikkarten für den LowCost-Markt im Angebot hat ...
... Doch die Radeon X300 Serie hat ein natives PCI Express Interface - und der Verbau einer AGP-Bridge auf diesen Karten ist wohl zu teuer für LowCost-Ansprüche, zudem ist die Rialto-Bridge noch nicht einsatzbereit. So gesehen ist der RV351-Chip, auch wenn dessen plötzliches Wieder-Auftauchen überraschend kommt, doch eine sinnvolle Ergänzung des ATi-Produktprogrammes, denn dieser soll nun anscheinend im LowCost-Markt in den Sparten DirectX9/AGP seinen Platz finden - dazu würden auch die von The Inquirer genannten Taktraten von 300/200 MHz passen. Unklar ist allerdings noch der Punkt, wieso ATi für diesen Einsatzzweck nicht den bestehenden RV350-Chip reaktiviert - bzw. mit diesem nicht schon wesentlich früher in diesen Markt gegangen ist ...
... Daß man dies bei ATi nicht getan hat, deutet demnach auf zwei Punkte hin: Erstens scheinen die Berichte, wonach der RV350-Chip zu teuer für diesen Einsatzort ist (in direkter Konkurrenz zur GeForceFX 5200 mit Preisen von bis zu 50 Euro oder im OEM-Bereich auch darunter), zu stimmen. Und zweitens dürfte der RV351 einen technologischen Unterschied zum RV350 aufweisen. Hier würden sich nicht unbedingt Abspeckungen der Pipeline-Anzahl anbieten, weil dies in der Konkurrenz zur GeForceFX 5200 nachteilig wäre, sondern viel eher ein neuer Fertigungsprozeß von 110nm. Was dann auch erklären würde, weshalb der RV351-Chip so lange gebraucht hat, denn im Sommer 2003 nannten wir zum RV351 noch ein Releasedatum von Q1/2004 ;-).
Bei AnandTech hat man sich mit den 90nm Prozessoren von AMD beschäftigt und konnte dort bei den Overclocking-Tests deutlich besseres vermelden als frühere Artikel zu diesem Thema: So ließen sich ein 90nm Athlon 64 3000+ mit 1.8 GHz Nominal-Takt und ein 90nm Athlon 64 3500+ mit 2.2 GHz Nominal-Takt auf jeweils 2.61 GHz übertakten, was insbesondere für den 3000+ eine reife Leistung darstellt. Daß der 3500+ jedoch kein einziges MegaHertz weiter kam als der 3000+, deutet dennoch darauf hin, daß AMD mit dem 90nm Prozeß keinen Selbstläufer in Bezug auf weitere Taktsteigerungen in den Händen hat.
Shortcuts: Bei Hard Tecs 4U sind ein paar interessante Gedanken zu lesen, weshalb Intel sich derzeit vom früher allgegenwärtigen Taktrennen zurückzieht und deshalb auch den 4 GHz Pentium 4 offiziell gecancelt hat. Wie Golem berichten, hält Microsoft-Mastermind Bill Gates den Internet Explorer für sicher ... wenn man keine Software anderer Hersteller aus dem Internet lädt. Muß man das noch kommentieren? ;-)) Und letztlich informiert der Heise Newsticker noch über einen Fall, wo MSI seinen Radeon 9800 Pro Grafikkarten ein falsches BIOS mit niedrigeren Taktraten (Radeon 9800 ohne Pro) mitgegeben hat. MSI bietet hierfür nun den Download des richtigen BIOS an, tauscht aber auch alternativ die betroffenen Karten um.
News des 14. Oktober 2004 |
Bei HardOCP sind ein paar von nVidia stammende SLI-Benchmarks aufgetaucht, welche die Schlagkräftigkeit der DualGrafikkarten-Technologie untermauern sollen. Wenn wir einmal davon ausgehen wollen, daß diese Benchmarks seitens nVidia korrekt aufgestellt worden sind, ergibt sich somit folgendes Bild: SLI skaliert - im Idealfall, wie bei der von nVidia gewählten 1600x1200er Auflösung - auf der GeForce 6600GT um ca. 74 Prozent, bei der GeForce 6800GT um ca. 66 Prozent und bei der GeForce 6800 Ultra um ca. 62 Prozent. Daß der Performance-Gewinn durch SLI bei den schnelleren Karten etwas sinkt, ist dabei wenig verwunderlich ...
... Denn bei solch extremer Grafikkarten-Power wie mit zwei GeForce 6800 GT/Ultra Grafikkarten kommen selbst eigentlich als Grafikkarten-limitiert anzusehende Spiele dann doch schon einmal hier und da an eine CPU-Limitierung heran. Wer mit noch höheren Settings spielt, wird natürlich den Faktor SLI womöglich noch stärker ausnutzen können - und für geringere Auflösungen lohnt sich das Ganze wohl sowieso eher nicht. Nichts desto trotz sehen zwischen 62 und 74 Prozent Mehrgewinn doch schon einmal nicht schlecht aus: Dies ist erst mit einer echten neuen Grafikchip-Generation erreichbar, nicht aber mit den kommenden Refresh-Chips NV48 und R480 ...
... Man kann also, wenn man denn so will, schon jetzt die Grafikkarten-Power des Jahres 2005 einkaufen - billig ist der Spaß natürlich nicht, einmal abgesehen vom immer noch stockenden Mainboard-Support sowie den weiterhin fehlenden SLI-Bridges. Ein gewichtiger Punkt pro SLI ist allerdings, daß wir heute eine Situation haben, wo sich ein prinzipieller Nachteil von SLI eben nicht ergibt. Und zwar hat SLI immer das Problem, daß man damit zwar die Performance der nachfolgenden Generation schon heute erreichen kann, diese jedoch im gewöhnlichen neue Technologien mitbringt, worauf das SLI-Gespann schnell technologisch zum alten Eisen gehört ...
... Doch genau jetzt trifft dieser prinzipieller Nachteil von SLI wohl nicht zu, denn die nachfolgende Grafikchip-Generation um NV50 und R520 wird nach aller Voraussicht keine wirklichen technologischen Änderungen mit sich bringen, sondern generell bei DirectX 9.0 Shader Model 3.0 bleiben. Dies ergibt sich einfach aus dem Punkt, daß Microsoft als der "Herrscher über DirectX" keine weiteren DirectX-Versionen herausbringen wird, sondern "nur" den DirectX-Nachfolger WGF mit dem Windows XP Nachfolger "Longhorn" im Jahre 2006 ...
... Selbst wenn einer der Grafikchip-Entwickler vorher eine WGF-fähige Grafikkarte auf den Markt bringt, werden sich deren WGF-Fähigkeiten (außerhalb von OpenGL) erst mit Longhorn nutzen lassen. Insofern wird der Grafikchip-Markt technologisch für eine erstaunlich lange Zeit (gemessen an der Schnelligkeit der bisherigen Entwicklungszyklen) auf derselben Technologie (DirectX 9.0 Shader 3.0) verharren. Somit kann man prinzipiell davon ausgehen, daß ein GeForce 6600GT/6800GT/6800U SLI-Gespann erst im Jahr 2006 durch WGF technologisch in die zweite Reihe rücken wird - und nicht schon im nächsten Jahr ...
... Zurückkommend auf die Gegenwart wäre noch zu klären, ob sich ein SLI-Gespann der 200-Dollar-Karte GeForce 6600GT gegenüber einer einzelnen 400-Dollar-Karte GeForce 6800GT lohnt - oder auch nicht: Und erstaunlicherweise scheint dies in der Tat der Fall zu sein, wenngleich nicht eindeutig. So liegt die GeForce 6800GT unter Doom 3 weiterhin vorn, unter Halo und dem 3DMark05 jedoch zurück, was ingesamt in einen 8prozentigen Vorteil für die GeForce 6600GT SLI mündet. Ob dies allerdings die durch SLI entstehenden Mehrkosten decken kann, ist eher zu bezweifeln - und somit wäre dann doch wieder die einzelne GeForce 6800GT der doppelten GeForce 6600GT vorzuziehen.
News des 13. Oktober 2004 |
Bei Linux Hardware hat man sich die Performance diverser nVidia-Grafikkarten unter Doom 3 einmal unter Linux und einmal unter Windows XP angesehen. Das Spiel dürfte aufgrund des traditionell sehr guten Linux-Supports von id Software wohl noch am ehesten unter beiden Betriebssystemen ungefähr gleich schnell sein - doch falsch gedacht: Linux ist hier 20 bis 50 Prozent langsamer als Windows XP. Der hohe Unterschied läßt sich zudem nicht einmal automatisch durch mögliche Filter-Optimierungen in den Windows-Treibern erklären, denn die genannten Unterschiede sind auch bei GeForce 3/4 anzutreffen, welche in den derzeitigen nVidia-Treibern nicht mit dieserart Filter-Optimierungen "bedacht" werden ...
... Womöglich sind die Windows-Treiber von nVidia aufgrund des harten Wettbewerbs auch allgemein zu optimiert, während dies bei den Linux-Treibern aufgrund mangelnder Konkurrenz (noch) nicht nötig ist - oder aber es hängt auch am Spiel selber, zumindestens ist dieser unerwartet hohe Unterschied derzeit nicht erklärbar. Abgesehen davon weist der Artikel auf einen interessanten Umstand bezüglich des Doom 3 Benchmarkings hin: So ergibt das Konsolen-Kommando "timedemo demo1 usecache" einen Benchmark-Durchlauf, welcher gleich komplett aus dem Cache heraus abläuft. Somit kann man sich den ersten Benchmark-Durchlauf sparen, welcher aufgrund des Caching-Effekts zumeist nutzlos (weil zu niedrig) ist.
Der am Montag schon erwähnte GeForce-6200-Artikel seitens des Tech Reports bietet neben den Betrachtungen zur GeForce 6200 auch noch die (seltene) Gelegenheit, eine der neueren integrierten Grafiklösungen im direkten Vergleich gegen LowCost-Grafikkarten zu erleben. Im genauen hat der Tech Report einfach den Intel GMA900 Grafikchip der benutzten Test-Plattform gegen GeForce 6200, Radeon X300 und Radeon X600 Pro mitlaufen lassen. In den Theorievergleichen zeigt der GMA900 erst einmal eine konkurrenzfähige Füllrate auf (die Bandbreite ist hingegen aufgrund der Anbindung an den PC-Hauptspeicher klar limitiert), bei den Shader-Tests des 3DMark05 liegt der GMA900 jedoch um ganze Dimensionen zurück ...
... Somit verfügt der GMA900 zwar über vier Pixel-Pipelines mit pro Forma DirectX9-Fähigkeiten, doch die Performance speziell der Shader-Rechenwerke ist deutlich zu limitiert für echte DirectX9-Anwendungen. Vielmehr dürfte der Chip eher für DirectX 6/7 Anwendungen zu gebrauchen sein, wo es also auf schnelles MultiTexturing (mit reichlich Füllrate) ankommt und es keine Shader-Aufgaben zu bewältigen gibt. Das ganze läßt im übrigen auf erhebliche Einsparungen von die Shader-Fähigkeiten betreffende Recheneinheiten und damit Transistoren schließen - bei einem integrierten Grafikchip allerdings auch kein Wunder ...
... Die Performance des GMA900 in RealWorld-Anwendungen liegt somit wenig verwunderlich weit unter denen der neuen LowCost-Grafikkarten. Faktisch dürfte kein neueres, grafisch anspruchsvolles Spiel mit dem GMA900 selbst auf einer Auflösung von 800x600 mit den maximalen Grafik-Details spielbar sein. Dies soll nicht aussagen, daß diese Spiele mit dem GMA900 nicht nutzbar sind, nur wird man dort auf jeden Fall gezwungen, neben der niedrigen Auflösung auch die Grafik-Details herunterzudrehen. Trotz erheblicher Fortschritte taugt integrierte Grafik somit nach wie vor nicht als Ersatz selbst für LowCost-Grafikkarten.
Das Thema Dual-Grafikkarten scheint bei nVidia mit SLI hervorragend abgedeckt (einmal abgesehen davon, daß bis jetzt noch kein solches System jemals gesichtet wurde), doch auch ATi steht diesbezüglich nicht ganz nackt da, auch wenn ATi selbst keinerlei eigene Bestrebungen in Richtung SLI oder ähnlichen zeigt. Doch mittels der Video-Array-Technologie von Alienware ist es bekanntlich möglich, auch ATi-Grafikkarten zusammenarbeiten zu lassen. Gemäß Golem hat Alienware nun in Iwill einen ersten Lizenznehmer dieser Technologie gefunden, welcher jene zukünftig auf den eigenen Mainboards einsetzen wird ...
... Abzuwarten wird allerdings sein, ob sich darunter auch für den Desktop geeignete Mainboards befinden, da Iwill zum einen recht stark bei Workstation-Mainboards ist und zum anderen viele Hersteller den hauptsächlichen Anwendungszweck von Dual-Grafikkarten eben im Workstation-Bereich und nach wie vor weniger bei Spieler-PCs sehen. Sprich: Im dümmsten Fall kommt dabei so etwas wie bei den SLI-fähigen Chipsätzen von Intel heraus, welche auf für den Desktop-Markt eher zumeist uninteressanten DualProzessor-Mainboards verbaut werden. Hier hat nVidia mit SLI die besseren Karten, da man den Mainboard-Support der SLI-Technologie über die eigenen Chipsätze und den direkten Kontakt mit den Mainboard-Herstellern doch direkter steuern kann.
Shortcuts: Auch mal etwas neues: Hard Tecs 4U berichten davon, daß Atotech seine Ardex-Wasserkühlungen durch den TÜV Rheinland/Berlin-Brandenburg hat prüfen lassen und nun als erste Flüssigkeitskühlung das TÜV-Siegel tragen darf. Ebenfalls Hard Tecs 4U berichten über die "Zero Buffer" (ZB) Technologie von Speicherhersteller OCZ, mit welcher dieser die Zuverlässigkeit von registered Speichern ohne deren Performance-Einbußen für DDR1- wie auch DDR2-Speicher bieten will. Und letztlich berichten die x-bit Labs von einem neuen XGI-Grafikchip namens Volari Z7, welcher allerdings über keinerlei 3D-Fähigkeiten verfügt und somit allein für diverse Nischenmärkte gedacht ist.
News des 12. Oktober 2004 |
Die ComputerBase vermeldet, daß die GeForce 6800LE Grafikkarte auf Basis des NV40-Chips, welche seitens nVidia zuerst eigentlich nur für das OEM-Geschäft gedacht war, ab diesen Monat auch als vollwertiges Retail-Produkt gilt. Demzufolge ist es auch wenig verwunderlich, wenn wir inzwischen beim Geizhals-Preisvergleich Angebote mit dieser Grafikkarte gleich dutzendfach finden. Preislich scheinen sich dabei die momentan vier Hersteller AOpen, Gainward, Leadtek und MSI auf ca. 235 Euro eingeschossen zu haben ...
... Was für die gebotenen Hardware durchaus nicht schlecht ist: Die GeForce 6800LE verfügt über 8 Pixel-Pipelines an einem 256bittigen Speicherinterface, vergleichbar beispielsweise mit der Radeon 9800 Serie. Gegenüber der GeForce 6600GT, welche eigentlich in diesem Segment verkauft werden soll - und deren erste, jedoch noch nicht lieferbare Angebote zwischen 190 und 240 Euro schwanken - hat die GeForce 6800LE den Vorteil des 256bittigen Speicherinterfaces, jedoch den Nachteil der niedrigeren Taktraten: Die GeForce 6800LE hat hier nur 300/350 MHz im Gegensatz zu den 500/500 MHz der GeForce 6600GT aufzubieten ...
... Wer zwischen GeForce 6600GT und GeForce 6800LE bezüglich der Performance die Nase vorn hat, ist mangels auch nur eines einzigen Tests dieser beiden Karten zusammen schwer zu sagen, jedoch: Bezüglich der Speicherbandbreite dürfte der höhere Speichertakt der GeForce 6600GT das breitere Speicherinterface der GeForce 6800LE wieder egalisieren. Ansonsten steht die GeForce 6600GT dann noch mit dem deutlich höheren Chiptakt da, welches ihr wohl einen Vorteil verschaffen wird. Insbesondere, wenn die GeForce 6600GT tatsächlich mit günstigeren Preisen als die GeForce 6800LE in den Markt kommt, sollte sie die bessere Wahl sein. Im übrigen gibt es hierzu die Anekdote, daß nVidia angeblich den Preis der GeForce 6800LE kürzlich angehoben hat, damit diese Karte nicht günstiger bzw. gleich teuer wie die GeForce 6600GT wird ;-)) ...
... Abseits dessen hat die GeForce 6800LE natürlich noch den (aus momentaner Sicht enormen) Vorteil, als AGP-Variante jetzt verfügbar zu sein, während die ersten AGP-Versionen der GeForce 6600GT sicherlich noch bis November auf sich warten lassen werden. Auch kann mit der GeForce 6800LE der beliebte Modding-Sport betrieben werden: Die Karte basiert schließlich auf dem NV40-Chip mit seinen 16 Pixel- und 6 Geometrie-Pipelines, wovon bei der GeForce 6800LE nur 8 Pixel- und 4 Geometrie-Pipelines aktiv sind. Mittels des RivaTuners kann man hier den Versuch wagen, die deaktivierten Pipelines freizuschalten ...
... Ohne diesbezüglich Versprechungen abgeben zu wollen, läßt sich hierzu berichten, daß die Erfolgsquote des Pipeline-Freischaltens bei der GeForce 6800LE durchaus ansprechend sein soll, wenn man nur 4 weitere Pipelines freischaltet (auf insgesamt 12 aktive Pipelines = wie die GeForce 6800). Das Freischalten der vollen 16 Pixel-Pipelines sowie das Freischalten zusätzlicher Geometrie-Pipelines soll dagegen mit einer deutlich geringeren Erfolgsquote bei der GeForce 6800LE glücken. Doch auch das Freischalten der GeForce 6800LE zur GeForce 6800 wäre natürlich schon ein Erfolg, immerhin kostet letztere Karte zumeist noch um die 300 Euro.
Bei Hard Tecs 4U ist ein neuerliches Athlon 64 Motherboard Roundup erschienen, welches in seiner inhaltlichen Tiefe und damit Aussagekraft sicherlich eine der besten Arbeiten auf diesem Gebiet darstellt. Auf 50 Seiten wurden hierbei nicht nur 7 aktuelle Sockel 754/939 Platinen ausführlich beleuchtet, sondern auch eine generelle "Wasserstandsmeldung" bezüglich dem Stand der Dinge auf dem Athlon 64 Markt abgegeben. So gab es u.a. einige interessante Dinge zum Speichersupport des Athlon 64 im Sockel 939 sowie zu den relativ hohen Auswirkungen der DRAM Command Rate bei selbiger CPU zu vermelden.
Als die jüngsten geplanten Änderungen des bundesdeutschen Urheberrechts bekannt wurden, nachdem der Download illegaler Kopien aus Tauschbörsen nun glasklar unter Strafe gestellt werden sollte, ruderte die Justizministerin noch zurück mit der Aussage, daß damit natürlich "nicht die Schulhöfe kriminalisiert" werden sollten, sprich: Nicht bestraft werden soll, wer sich "nur in geringer Zahl und ausschließlich zum eigenen privaten Gebrauch" aus P2P-Netzen "bedient". Die Filmwirtschaft sieht das aber gemäß einer Meldung des Heise Newstickers anders und will nun scheinbar eine Gesetzeslage erreichen, in welcher jeder einzelne Urheberrechtsverstoß strafrechtlich verfolgt wird ...
... Dieses Ansinnen mag prinzipiell dem generellen Sinn des Urheberrechts entsprechen, jedoch ist eine praktische Duchführung nahezu ausgeschlossen, denn dann würden sich die Strafverfolgungsbehörden samt Gerichten für die nächsten Jahre nur noch mit Urheberrechtsverletzern herumschlagen - und für den "Rest" wäre dann keine Zeit mehr. Wirklich "rührend" ist im übrigen auch ein weiterer Gedankengang der Filmindustrie (wobei hier wahlweise auch die Musikindustrie eingesetzt werden könnte): Danach könne "eine einzige private Kopie wiederum zahlreiche Vervielfältigungen zu Folge haben" ;-)) ...
... Möglicherweise legen wir diesen Satz jetzt auch falsch aus, aber erst einmal sieht es ganz danach aus, als würden da irgendwelche Medienindustrie-Manager tatsächlich noch mit dem Gedanken durch die Welt laufen, daß es auf absehbare Zeit möglich wäre, geradezu jegliche durch das Internet schwirrende Raubkopien zu verhindern. Wahrscheinlich kommt aus der selben Ecke (des Wahnsinns) auch die Idee des CD-Kopierschutzes, womit sich die Manager an die Vorstellung klammern, dieser könnte eventuell verhindern, daß illegale Kopien im Internet auftauchen. Was angesichts der Schnelligkeit, mit welch dies auch bei pro Forma kopiergeschützten Titeln passiert, nichts anderes als eine Illusion ist, aus welcher die Herren Manager langsam aber sicher einmal (in die Realität) aufwachen sollten.
neuer Artikel |
nVidia stellt die GeForce 6200 vor
Mit der gestern nachmittag vorgestellten GeForce 6200 komplettiert nVidia sein Produktprogramm an SM3-Beschleunigern nun auch in den LowCost- und OEM-Markt hinein. Wir haben in einem kurzem Artikel alle wissenswerten Eckpunkte der GeForce 6200 angerissen und bieten zudem einen tabellarischen Überblick über die anderen Möglichkeiten im Markt der PCI-Express-Beschleuniger bis 150 Euro Preislage an ... zum Artikel
News des 11. Oktober 2004 |
Mit der GeForce 6200 hat nVidia heute die LowCost-Version der NV4x-Serie vorgestellt, erste Berichte mit eigenen Benchmarks findet man beim Tech Report, HardOCP sowie AnandTech. Die GeForce 6200 hat 4 Pixel- und 3 Geometrie-Pipelines an einem 128bittigem Speicherinterface bei eher gemächlichen Taktraten von 300/275 MHz, der einzige Technologie-Unterschied zu GeForce 6600 & 6800 ist das Fehlen der Hardware-Kompression (die GeForceFX 5200 als logischen Vorgänger der GeForce 6200 hatte nVidia noch wesentlich stärker beschnitten). Nun gut, SLI ist bei der GeForce 6200 ebenfalls nicht möglich, aber dies will wohl angesichts des LowCost-Charakters dieser Karte keiner verlangen :-) ...
... Interessanterweise gibt nVidia als Chip-Grundlage für die GeForce 6200 explizit den NV43-Chip an, welcher eigentlich auf der GeForce 6600 /GT (8 Pixel- und 3 Geometrie-Pipelines) verbaut wird. Faktisch werden einfach 4 Pixel-Pipelines des NV43 deaktiviert - und flugs hat man die GeForce 6200. Allerdings können wir uns - auch angesichts der Preisklasse der GeForce 6200 - beim besten Willen nicht vorstellen, daß diese Methode wirklich langfristig benutzt werden wird. Als Chip-Grundlage für die GeForce 6200 ist laut früheren nVidia-Roadmaps jedenfalls der NV44-Chip vorgesehen gewesen. Mangels exakter Informationen zu diesem Thema können wir derzeit nur spekulieren, aber wir gehen davon aus, daß die Benutzung des NV43 für die GeForce 6200 nur eine vorübergehende Lösung ist ...
... Entweder produziert nVidia derzeit beim NV43 zu viele fehlerhafte Chips, bei denen zwar 4, aber nicht die vollen 8 Pixel-Pipelines funktionieren (diese Chips kann man dann nicht als GeForce 6600 verwenden, jedoch aber problemlos als GeForce 6200), oder aber der NV44 ist derzeit schlicht noch nicht einsatzbereit (womöglich gar beide Erklärungen zusammen). Doch irgendwann wird der NV44 sicherlich die Grundlage für die GeForce 6200 bilden - ohne natürlich, daß sich an der Karte selber irgendetwas ändert. Aber aus wirtschaftlichen Gesichtspunkten ist die GeForce 6200 sicherlich nicht mit einem 8-Pipeline-Chip wie dem NV43 profitabel herstellbar, ganz besonders nicht, wenn mit der GeForce 6200 auch der sehr preissensitive OEM-Markt abgedeckt werden soll ...
... Da die GeForce 6200 eben mehr oder weniger nur für den OEM-Markt gedacht ist (als günstige Mainstream-Karte kann die GeForce 6600 herhalten), spielt es auch keine Rolle, daß der Chip allein ein natives PCI Express Interface hat. Wie üblich steht es den Grafikkarten-Herstellern jedoch frei, eine AGP-Bridge auf die Karte zu setzen und somit auch GeForce 6200 Karten auf AGP anzubieten - trotzdem dürfte es in diesem Fall (im Gegensatz zur GeForce 6600 /GT) eher wenige bis keine Angebote auf AGP geben. Viel eher steht zu erwarten, daß nVidia auch abgespeckte Versionen mit nur 64bittigem Speicherinterface anbieten wird, damit setzte und setzt man bei der GeForceFX 5200/5500 gigantische Stückzahlen ab ...
... Faktisch ist die GeForce 6200 eigentlich allein nur für diesen Markt geschaffen, die heute vorgestellte und getestete Version mit regulären Taktraten und vollem 128bittigem Speicherinterface dürfte somit eher die Ausnahme im Markt darstellen. Dafür spricht auch die preisliche Auszeichnung mit 129 Dollar US-Listenpreis für die 128-MB-Version, welches als reichlich viel erscheint, im OEM-Markt mit 64bittigem Speicherinterface jedoch sicherlich schnell auf unter 100 Dollar/Euro gedrückt werden wird. Dort wird der direkte Konkurrent ATi Radeon X300SE (mit ebenfalls 64bittigem Speicherinterface) heißen, diese Karte ist schon seit einiger Zeit erhältlich ...
... Die heute getestete 128bittige Version der GeForce 6200 läßt sich dagegen hervorragend gegen die ATi Radeon X300 vergleichen, was AnandTech und der Tech Report dann auch getan haben: Beide Artikel unterscheiden sich allerdings teilweise in ihren Aussagen, denn beim Tech Report liegt zumeist die GeForce 6200 um 10 bis 20 Prozent vorn, während AnandTech auch eine Reihe von Benchmarks mit Gleichständen zwischen beiden Karten hat. Beachtenswert ist zudem, daß die GeForce 6200 bei höheren Anti-Aliasing Modi unter dem Fehlen der Hardware-Kompression leidet und dann unterhalb die Radeon X300 rutscht - wobei höhere Anti-Aliasing Modi auch sicherlich nicht das bevorzugte Anwendungsgebiet dieser beiden Karten sein dürften ...
... Doch ironischerweise dürfte ein Performance-Unterschied in die eine oder andere Richtung speziell für den Absatz bei OEM-Rechnern sowieso eher uninteressant sein, denn für die Hersteller von Komplett-PCs zählen maßgeblich Dinge wie Feature-Liste, Kompatibilität, Support, Nutzerfreundlichkeit - und natürlich in erster Linie der Preis ;-). Und für den Retail-Käufer sind GeForce 6200 sowie Radeon X300 keine echte Empfehlung wert - wenn es günstig sein soll, bieten sich die "kleinen" Mainstream-Varianten GeForce 6600 und Radeon X700 viel eher an, da kaum teurer, aber mit deutlich höheren Leistungen aufgrund doppelter Pipeline-Anzahl ...
... Diesbezüglich ist der Artikel von AnandTech nochmals lobend zu erwähnen, da dieser als erster uns bekannter Artikel diese beiden Karten gegeneinander getestet hat: Und dabei scheint ATi alles richtig mit der Radeon X700 gemacht zu haben, da jene die Benchmarks deutlich dominiert. Unter allen Spiele-Benchmarks waren es bei einer Auflösung von 1024x768 (ohne Anti-Aliasing / ohne anisotropen Filter) immerhin 35 Prozent zugunsten der ATi-Karte, selbst unter Nicht-Berücksichtigung der irritierend hohen Werte von Star Wars: Battlefront noch 23 Prozent. Unter Anti-Aliasing holt die Karte dann sogar noch den üblichen ATi-Rückstand unter Doom 3 auf - in der 150-Dollar-PCI-Express-Klasse scheint ATi derzeit mehr als klar vorn zu liegen.
Shortcuts: Gemäß einer Meldung der FAZ kommt die Rundfunk-Gebühr für Internet-fähige PCs ab 1. Januar 2007 (gemäß Korrektur durch den Heise Newsticker). Wie schon berichtet wird diese allerdings nur diejenigen betreffen, welche nicht schon für andere Geräte Rundfunk-Gebühren bezahlen. Bei AnandTech gibt es eine aktualisierte AMD Prozessoren-Roadmap, welche schon bis in dritte Quartal des nächsten Jahres schaut. Nachzutragen zu den Wochenend-News über das Ableben von Dark Tweaker wären noch die Website Dark Tweaking (nebst Forum), welche die bestehende Community von Dark Tweaker weiterpflegen will.