News-Archiv 29. Oktober - 4. November 2007 (44. Kalenderwoche)
3./4. November 2. November 1. November 31. Oktober 30. Oktober 29. Oktober
News des 3./4. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die ComputerBase berichtet über die Veränderungen, welche die GeForce 8800 GTS Grafikkarten demnächst durchmachen werden. Aktuell bieten ja schon einige Grafikkarten-Hersteller Modelle mit 112 Shader-Einheiten und ansonsten gleichen Taktraten an, die Basis hierfür stellt immer noch der G80-Chip. Aufgrund der unveränderten Taktraten dürfte diese neue GeForce 8800 GTS aber nur gleich schnell wie die GeForce 8800 GT sein, zum allgemein höheren Preis dieser Karten sollte diese neue GeForce 8800 GTS aber wohl ebenfalls uninteressant sein. Allerdings soll es Anfang Dezember noch eine weitere Ausführung der GeForce 8800 GTS folgen - und diesesmal mit 128 Shader-Einheiten auf Basis des G92-Chips.
Zwar ist über die Taktraten dieser nochmals neuen GeForce 8800 GTS derzeit noch nichts sicheres bekannt, sollten sie aber auf dem Niveau der GeForce 8800 GT liegen, würde damit auch die GeForce 8800 GTX eingeholt werden, welche dann zwar immer noch die höhere Speicherbandbreite, aber dafür die niedrigere Shader-Power hätte. Insofern sollte diese zweite neue GeForce 8800 GTS dann durchaus die GeForce 8800 GTX aus dem Markt verdrängen - zu einem sicherlich deutlich besseren Preis. Daneben soll es auf Basis des G92-Chips noch eine Billig-Variante in Form der GeForce 8800 GS geben. Die kommt dann mit nur 96 Shader-Einheiten und 48 TMUs an und liegt diesbezüglich auf dem Niveau der alten GeForce 8800 GTS. Das Speicherinterface wird aber anscheinend beschnitten werden: Zwar wurden diesbezüglich erst einmal "256 Bit" angegeben, aber die nur 12 ROPs deuten eigentlich auf ein nur 192 Bit DDR breites Speicherinterface hin. Und dies scheint auch nötig, um der Karte einen guten Abstand zur GeForce 8800 GT 256MB zu geben
Denn wenn letztgenannte einen Listenpreis von 199 Dollar hat und die GeForce 8800 GS nochmals billiger sein wird, braucht es schon einen gewissen Performance-Abstand, um beiden Karten ihre Existenzberechtigung zu geben. Derzeit ist der Preis der GeForce 8800 GS zwar noch nicht klar, aber zu Euro-Konditionen dürfte es wohl in Richtung eines Straßenpreises von 150 bis 160 Euro gehen, was für einen HighEnd-Chip wie den G92 schon wirklich günstig wäre. Und das ist der G92-Chip nun doch: Wie schon vermutet schlummern in diesem Chip in der Tat 128 Shader-Einheiten und 64 TMUs, einzig das Speicherinterface ist gegenüber dem G80-Chip kleiner. Wenn nVidia hier schnellgetakteten GDDR4- oder auch schon GDDR5-Speicher ansetzt, könnte man wohl auch schon mit dem G92-Chip die Leistungswerte einer GeForce 8800 Ultra erreichen und übertreffen. Nominell benötigt nVidia somit eigentlich gar keinen extra HighEnd-Chip mehr - wenigstens nicht, so lange ATI hier keinen eigenen echten HighEnd-Chip vorlegt.
Zu den letzten News über die Problematik von Notebook-Grafikchips bzw. deren immer wieder von den Hersteller-Vorgaben abweichenden Angaben läßt sich auch ein aktueller Fall aus dem Redaktionskreis nachtragen, wo wieder einmal etwas ganz anderes verkauft wurde als eigentlich das Label hergeben sollte. Konkret geht es um ein Sony Vaio VGN-FZ18E mit an sich sehr vernünftigen Daten und inklusive einer als "nVidia GeForce 8400M GT" ausgewiesenen Grafiklösung. Die ist nun selber schon nicht besonders leistungsstark, laut unserem entsprechenden Artikel kann man hierbei von einer Performance etwas oberhalb der GeForce 8500 GT des Desktop-Segments ausgehen - die ist dort aber auch nur eine bessere LowCost-Lösung. Allerdings wurde diese Grafiklösung dann seitens Sony noch einmal zusätzlich beschnitten: Anstatt des regulären 128 Bit DDR breiten Speicherinterfaces gibt es nur ein 64 Bit DDR breites.
Dies hängt hier wohl damit zusammen, daß Sony nur 64 MB Grafikkarten-Speicher verbaut hat (zudem zwackt sich die Grafiklösung noch 256 MB des Hauptspeichers ab) und diese 64 MB aus Kostengründen in einem einzigen Chip liegen. Da es derzeit gewöhnliche DRAM-Speicherchips aber nur mit Interface-Breiten von 32 und 64 Bit gibt, konnte dieser einzelne Speicherchip nur mit einer Bandbreite von 64 Bit DDR angebunden werden - um das volle Speicherinterface des Grafikchips auszunutzen, hätte man schlicht zwei Speicherchips benutzen müssen, was aber wohl die teure Variante gegenüber einem größerem Speicherchip darstellt. In diesem Punkt schwächeln im übrigen viele Notebooks: Nicht weil der Notebook-Hersteller bewußt einen Grafikchip mit nur 64 Bit DDR Speicherinterface einkauft, sondern weil man einen Grafikchip mit 128 Bit DDR Speicherinterface aus Kostengründen mit nur einem Speicherchip ausrüstet, halbiert sich das Speicherinterface.
Im konkreten Fall kommt es somit auf das gleiche hinaus, als hätte Sony gleich die nächstkleinere Variante GeForce 8400M GS verbaut - diese Grafiklösung hat die fast identischen Taktraten, aber eben per default nur ein 64 Bit DDR Speicherinterface. Allerdings macht sich Sony hier auch angreifbar, denn die eigene Produktwebseite erwähnt diese Beschränkung mit keinem Wort - und bei Chip-Entwickler nVidia finden sich dagegen eindeutige Daten, aufgrund deren der Endkunde durchaus von einem 128 Bit DDR Speicherinterface bei eben jener verbauten GeForce 8400M GT ausgehen kann. Und selbst wenn man nicht jede kleinere Änderung an den Taktraten extra erwähnen muß, handelt es sich hierbei doch um eine sehr deutliche Einschränkung, die der Notebook-Hersteller eigentlich dem Endkunden vor dem Kauf hätte mitteilen müssen.
Bei den Hardware-Infos widmet man sich mal wieder dem leidigen Thema Gigabyte vs. Gibibyte, welches in jüngster Zeit wegen der (freiwilligen) Strafzahlungen seitens Festplatten-Hersteller Seagate erneut Nahrung bekommen hatte. In der Kolumne werden wiederum die bekannten Argumente pro der normgerechten Kibi/Mibi/Gibi-Abkürzungen anstatt der bisher weitgehend benutzten Kilo/Mega/Giga-Abkürzungen auf die Vielfache von 2^10 Bytes (1024 Byte) gebracht, welche erst einmal alle stechen - wenn da nicht die Praxis wäre, in welcher die Kibi/Mibi/Gibi faktisch nirgendwo benutzt werden, ganz und besonders nicht seitens der Hard- und Softwarehersteller. Da verwundert es dann nicht, wenn die korrekten Abkürzungen außerhalb der IT-Szene einen Bekanntheitsgrad von Null haben - und so lange sich das nicht ändert (primär müssten hier wohl die Betriebssysteme den Vorreiter machen), stiften die korrekteren Abkürzungen derzeit wohl mehr Verwirrung als sie Nutzen bringen. Was natürlich auch weiterhin ein höchst streitbarer Standpunkt bleibt, selbst innerhalb unserer Redaktion gehen hierzu die Meinungen auseinander ;).
News des 2. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
TweakTown haben eine ATI-interne Aufstellung über das Produkt-Portfolio des Grafikchip-Entwicklers für das vierte Quartal in der Hand. Diese bestätigt die kommenden RV670-basierenden Grafikkarten Radeon HD 3850 und 3870, welche hier im Preisbereich von 199 bis 299 Dollar angesiedelt sind. Gleichfalls wird im Preisbereich von satten 799 Dollar ein R680-Chip erwähnt, ohne daß dieses allerdings genauer ausgeführt wird. Da eine DualChip-Grafikkarte auf Basis des RV670-Chips kaum das 2,7fache einer einzelnen SingleChip-Ausführung kosten dürfte, kann man dies als ernsthaften Hinweis werten, daß ATI in der Tat doch noch einen reinrassigen HighEnd-Grafikchip in der Hinterhand hat. Ähnlich wie bei nVidia wird man in den nächsten Tagen aber erst einmal die Performance-Lösungen der Refresh-Generation in den Markt bringen, während ein genauerer Zeitpunkt für die HighEnd-Lösungen R680 und G90 nach wie vor nicht bekannt ist.
Die c't berichtet in ihrer Ausgabe 23/07 über spieletaugliche Notebooks bzw. die dabei zum Einsatz kommenden Grafikchips und was man bei diesen zu beachten hat. Ein Teil des Artikels ist auch online einsehbar, den Rest gibt es dann nur im Print-Format. Etwas verwunderlich ist allerdings die Performance-Einschätzung der c't, wonach man einen GeForce 8700M GT auf dem Niveau eines GeForce Go 7900 GTX sieht - auf dem Desktop würde das dem Vergleich GeForce 8600 GT/GTS gegen GeForce 7900 GT entsprechen, was eigentlich immer die "alte" DirectX9-Karte mit einigem Abstand gewinnen sollte. Allerdings spielen bei Notebook-Messungen natürlich immer auch die anderen Komponenten mit hinein (zumeist testet man immer nur das komplette Notebook und nicht wie auf dem Desktop die Grafiklösungen in einem speziellen Testsystem), zudem können natürlich die Taktraten von den nVidia-Vorgaben abweichen.
Dies passiert - wie von der c't richtigerweise erwähnt - bei Notebook-Grafikchips eigentlich regelmäßig, da hierbei die Vorgaben des Grafikchip-Entwicklers eher denn nur Richtwerte für die maximale Taktfrequenz sind, die man aber jederzeit nach unten oder oben verändern kann. Letztlich muß schließlich immer nur der Notebook-Hersteller die Balance zwischen möglichen Taktraten und Kühlleistung des Systems finden, schließlich gibt auch nur der Notebook-Hersteller dann letztlich eine Garantie darauf. Demzufolge gibt es massenhaft Geräte am Markt, deren Taktfrequenzen deutlich (bis zu 30 Prozent) von den ATI- und nVidia-Vorgaben abweichen - man kann fast sagen, daß die angegebene Grafiklösung aufgrund abweichender Taktraten im Durchschnitt nur so viel leistungfähig ist wie die jeweils nächstkleinere Grafiklösung.
Sofern man allerdings die wenigen Geräte mit Taktraten auf von ATI bzw. nVidia angegebenem Niveau betrachtet, sollten die "alten" DirectX9 HighEnd-Beschleuniger GeForce Go 7900 GTX und GeForce Go 7950 GTX immer noch klar über dem Leistungsniveau der neueren Direct3D10-Mobilchips liegen - einfach, weil ATI und nVidia bei der Direct3D10-Mobilgeneration im Mainstream-Bereich stehengeblieben sind und derzeit keine Direct3D10 Performance- oder/und HighEnd-Lösungen für den Mobile-Einsatz liefern können. Seit dem Sommer hat sich an diesem Bild und damit unserem Artikel zu den Mobile-Grafiklösungen nichts geändert, eventuell können ATI und nVidia mit dem Umstieg auf die 55nm- bzw. 65nm-Fertigung bei ihrer jeweiligen Refreshgeneration ja in nächster Zeit dann doch noch mal etwas leistungsfähigeres nachschieben.
Shortcuts: Bei Heise gibt es einen der ersten Tests zum Asus EeePC. Zwar muß man bei diesem Gerät deutliche Abstriche in der Performance, der Speicherkapazität und beim Bildschirm machen, aber für den gelegentlichen Einsatz ist es wohl trotzdem ausreichend. Interessant ist vor allem die Preislage zwischen 170 und 300 Euro, hiermit stößt das Gerät in eine offensichtlich große Marktlücke hinein. Bei Expreview gibt es einen Screenshot zu AMDs OverDrive - welcher schon erst einmal sehr gut aussieht, weil man offensichtlich jede Menge verschiedener Taktraten und sowie Multiplikatoren hübsch getrennt vonneinander regeln kann. Inwiefern OverDrive auch für bisherige AMD-Prozessoren zur Verfügung gestellt werden wird, ist nicht klar, derzeit gehen einige Quellen davon aus, daß es dieses Feature gar nur für die Phenom X4/FX Prozessoren auf der 790FX Mainboard-Plattform geben wird.
News des 1. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Hard Tecs 4U berichten über erste seitens Qimonda ausgelieferte Testsamples von GDDR5-Speicher. Der neue Grafikkarten-Speicher, welcher wie GDDR4 prinzipiell auf dem DDR3-Speicherstandard basiert, soll angeblich sogar noch dieses Jahr auf ersten Produkten zu finden sein. GDDR5 soll dabei Bandbreiten von bis zu 20 GByte pro Sekunde erreichen - wobei sich diese Angabe auf einen einzelnen 32bittigen Speicherchip beziehen dürfte, bei heutigen Grafikchip-Interfaces von 256 bis 512 Bit erhöht sich die insgesamte Speicherbandbreite entsprechend um mehrere Faktoren. Im Klartext: GDDR5 sollte laut dieser Angabe Taktfrequenzen von bis zu 2500 physikalischen MHz erreichen, womit man sich deutlich von GDDR3 und GDDR4 abheben würde. Allerdings ist nicht davon auszugehen, daß diese 2500 MHz schon demnächst erreicht werden, vermutlich sind zum Jahreswechsel 1600 bis 1800 MHz bei GDDR5 möglich.
Mit der Performance verschiedener Grafikkarten unter der Crysis SinglePlayer-Demo hat man sich bei Legion Hardware, PC Perspective und dem TechSpot beschäftigt. Wie schon in unserem aktuellen Artikel angedeutet, benötigt das Spiel faktisch ausschließlich HighEnd-Hardware, um in den Genuß der höheren Bildqualitäts-Modi kommen zu können. So hat man die High Quality gleich nur noch unter GeForce 8800 und Radeon HD 2900 Karten ausgemessen, für die kleineren Karten kam überall nur die Medium Quality zum Einsatz - weil mehr auch meist nicht drin war. Damit unterteilt sich das Bild ein wenig, weil die Karten auf recht verschiedenen Bildqualitäten getestet wurden.
Unter der High Quality im DirectX9-Modus kamen wie gesagt nur die aktuellen Direct3D10 Performance- und HighEnd-Karten zum Zuge, wobei die Radeon HD 2900 XT gewöhnlich auf gleicher Höhe mit der GeForce 8800 GTS liegt, die GeForce 8800 GT und GeForce 8800 GTX jedoch weit vor diesen beiden Karten rangieren. Beachtenswert ist hier der geringe Performance-Abstand zwischen GeForce 8800 GT und GeForce 8800 GTX: Zu fast dem doppelten Preis kann die GeForce 8800 GTX unter Crysis nicht einmal 10 Prozent mehr Performance bieten. Bei der High Quality im Direct3D10-Modus ergibt sich prinzipiell ein ähnliches Bild, allerdings wachsen die Abstände: So liegen GeForce 8800 GT und GTX viel deutlicher vor der GeForce 8800 GTS, während die Radeon HD 2900 XT etwas zurückhängt. Gleichfalls ergeben sich hier deutlichere Unterschiede zwischen GeForce 8800 GT und GTX von 10 bis 30 Prozent.
Im Quervergleich kostet der Direct3D10-Modus die nVidia-Karten im übrigen kaum an Performance, die ATI-Karten dafür um so mehr. Allerdings könnte bei diesen noch nicht das letzte Wort gesprochen sein, immerhin hat nVidia bereits zwei auf Crysis angepasste Treiber geliefert, während es bei ATI derzeit noch keine spezielle Treiber-Unterstützung für dieses Spiel gibt. Nichts desto trotz schlagen sich die ATI-Karten unter der Medium Quality im DirectX9-Modus ausgesprochen gut - hier führt erstaunlicherweise die Radeon HD 2600 XT das Feld an, welche bisher in vielen anderen Spielen teilweise deutlich gegenüber der GeForce 8600 GTS das Nachsehen hatte. Auch die "alten" DirectX9 Performance-Karten sind unter der Medium Quality zumeist noch gut mit dabei, die (nicht mitgetesteten) alten Top-Modelle Radeon X1900 XT/XTX, Radeon X1950 XT/XTX und GeForce 7900 GTX könnten eventuell auch noch unter der High Quality vernünftige Frameraten bieten.
Von der reinen Performance-Analyse abgesehen noch einige weitere kleine Nachrichten rund um Crysis: So gibt es beim Crysis Cove einige Screenshots, welche den Unterschied zwischen DirectX9- und Direct3D10-Version des Spiels illustrieren. Die gleiche Webseite informiert dann auch noch darüber, wie man auch ohne Direct3D10-fähiger Kombination an die Very High Grafikqualität herankommt. Diese ist allerdings aus Performance-Gründen nur bei wirklich leistungsstarker Hardware zu empfehlen. Noch etwas mehr in die Tiefe der möglichen Einstellungen geht man im Forum zu nV News, wo es eine Aufstellung der rund 100 vom Spiel benutzten Bidlqualitäts-Optionen inklusive deren Werte für die einzelnen Bildqualität-Settings gibt. Und letztlich bieten WinFuture noch eine Demo-Modifikation an, mittels welcher einige weitere Waffen und Fahrzeuge freigeschaltet werden.
neuer Artikel |
Während die allermeisten der derzeit neu erscheinenden Spielen durchaus auch mit gutklassigen DirectX9-Grafikkarten oder auch der aktuellen Direct3D10 Mainstream-Generation vernünftig spielbar sind (manchmal sicherlich unter dem Verzicht auf hohe Anti-Aliasing Stufen, aber immerhin), stellt Crysis hier eine klare Ausnahme dar. Das Spiel verlangt selbst HighEnd-Grafikkarten alles ab und ist auch nur mit diesen in den höchsten Bildqualitätsstufen gut spielbar. Was man unter Crysis mit verschiedener Grafik-Hardware an Frameraten erwarten kann, ist bereits den Performance-Reports verschiedener Webseiten zu entnehmen. Die Aufgabe unseres Artikels soll nicht eine Performance-Analyse sein, sondern wir werden der Frage nachgehen, was man machen kann, wenn die Performance nicht mehr reicht ... zum Artikel
News des 31. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
The Inquirer haben wohl eine neuere Präsentation zu den kommenden ATI-Grafikkarten gesehen. Dabei wurden wie die RV670-Varianten Radeon HD 3850 und Radeon HD 3870 erwähnt, interessanterweise sollen diese nun im Preisbereich von 150 bis 250 Dollar liegen, was 50 Dollar niedriger liegt als bisher bekannt war. Womöglich haben ATI hier die guten Leistungen der GeForce 8800 GT zu dieser Preissenkung noch vor dem Start der Hardware gezwungen. Gleichfalls erwähnt wurde eine "Radeon HD 3870 X2", hinter welcher sich wohl die erwartete DualChip-Variante auf Basis des RV670-Chips verbirgt. Diese Karte soll über 400 Dollar kosten, was aber wahrscheinlich sogar günstiger wäre als zwei einzelne Radeon HD 3870 Karten.
Die ComputerBase hat genauere Daten zum nVidia G98-Chip, welcher den bisher bei der GeForce 8300/8400/8500 zum Einsatz gekommenen G86-Chip im LowCost-Segment ablösen soll. Danach entspricht der G98 von den Ausführungseinheiten her komplett dem G86, nur das Speicherinterface wurde wie bekannt auf 64 Bit DDR limitiert. Trotz der kleineren 65nm-Fertigung will nVidia auch keine höheren Taktraten anbieten - aber das Problem des G86-Chips im OEM-Geschäft war ja auch nie die Performance, sondern vor allem der höhere Preis für Chip und Platine gegenüber ATIs RV610 (Radeon HD 2400 Serie). Diesem hat sich nVidia mit der Abspeckung des G86-Chips zum G98-Chip nunmehr angenommen und wird mit diesem einen neuen Angriff auf den bekannt umsatzstarken OEM-Markt antreten - welcher bisher bei der Direct3D10-Generation die einzige bedeutende Stärke von ATI darstellt.
Nordic Hardware berichten über eine "xDNA" genannte Technologie seitens des Grafikkarten-Herstellers Diamond, mit welcher sich angeblich CrossFire auf jeder beliebigen Mainboard-Plattform möglich werden soll, einschließlich der von nVidia. Genauere Ausführungen gibt die Webseite dazu allerdings nicht, bei Diamond selber ist diesbezüglich noch gar nichts zu finden - angeblich enstammt das ganze ja eine Pressemitteilung, die auf den 11. November 2007 datiert ist ;). Wahrscheinlich wird sich erst zu diesem Zeitpunkt ergeben, wie das ganze nun gemeint ist. Für den Augenblick ist aber schon erst einmal klar, daß man für den CrossFire-Support auf nVidia-basierende Mainboards zweifellos keine Wunderdinge benötigt: Nur der ATI-Treiber muß das freischalten, denn technisch besteht absolut kein Hinderniss, CrossFire auch auf SLI-Mainboards auszuführen.
Aller Wahrscheinlichkeit nach wird hierbei noch nicht einmal eine Lizenz oder der Segen von nVidia benötigt, schließlich geht es ja um CrossFire und nicht um SLI. Natürlich läuft der Chipsatz und damit das Mainboard dann außerhalb seiner Spezifikationen, womit der Grafikkarten-Hersteller das Risiko entweder dem Endkunden übertragen oder selbst übernehmen muß. Aber davon abgesehen lag noch nie ein Problem darin, daß ATI nicht seine Grafikkarten-Treiber auch zur CrossFire-Nutzung auf nVidia-Mainboards freischalten hätte können bzw. nVidia die seinigen Treiber zur SLI-Nutzung auf ATI-Mainboards. Beide Hersteller haben nur bisher strikt so argumentiert, daß sich ein SLI-Nutzer eben auch ein nVidia-Mainboard und ein CrossFire-Nutzer eben auch ein ATI-Mainboard kaufen solle - das Grafikkarten-Geschäft hier also Synergien mit dem Chipsatz-Geschäft bilden sollte.
Genau diesen Punkt könnte ATI nunmehr womöglich aufgeben - indem man schlicht mit den eigenen Grafikkarten-Treibern die CrossFire-Nutzung auf allen Mainboards mit zwei oder mehr Grafikkarten-Slots ermöglicht, gleich ob der verbaute Mainboard-Chipsatz nun eine offizielle CrossFire-Lizenz hat oder nicht. Generell hätte ATI dies auch schon vom CrossFire-Start an so tun können - der Synergie-Gedanke verhinderte dies bisher wie gesagt. Da ATI aber inzwischen keine Mainboard-Chipsätze für Intel-Prozessoren mehr anbietet und somit vom größten Teil des Mainboard-Marktes abgeschnitten ist, lohnt es eventuell mehr, auf diese Synergieeffekte zu verzichten und durch die (potentielle) CrossFire-Öffnung mehr Kasse auf dem Grafikkarten-Markt zu machen. Nach wie vor bleibt allerdings unklar, was Diamond mit dieser Sache zu tun hat, denn die Freischaltung von Mainboards für CrossFire oder SLI ist immer Aufgabe der Grafikkarten-Treiber - welche nun einmal von ATI bzw. nVidia gestellt werden.
Wie Hard Tecs 4U berichten, arbeitet AMD unter dem Namen "AMD OverDrive" an der Möglichkeit, die Kerne eines MultiCore-Prozessors auch vollkommen verschieden voneinander übertakten zu können. Dabei sollen sich die Multiplikatoren für einzelne Kerne getrennt einstellen bzw. Kerne auch komplett deaktivieren lassen. Damit lassen sich unter Umständen auch interessante Dinge bewerkstelligen: Wenn man davon ausgeht, daß die allermeiste Software nur einen Prozessorkern wirklich vollständig auslasten kann und der zweite meist nur die Windows-Hintergrunddienste bedient, so könnte man bei einem DualCore-Modell die beiden Kerne stark asymetrisch beispielsweise mit 3 und 1 GHz takten. Hierbei kann zum einen Strom gespart werden, zum anderen ergibt sich aber auch die Chance, daß bei der Übertaktung von nur einem Kern eines MultiCore-Modells eine höhere Taktrate für diesen einen Kern erzielbar ist.
Nochmals Hard Tecs 4U berichten über die neuesten Marktanteils-Zahlen auf dem Prozessorenmarkt, wonach AMD sich wiederum minimal nach vorn robben konnte, allerdings immer noch um einiges von den letztes Jahr erreichten Höchstständen entfernt ist. Daneben sehr interessant sind einige mit veröffentliche Zahlen zu den durchschnittlichen Verkaufspreisen der CPUs von Intel und AMD: An diesen läßt sich perfekt ablesen, weshalb Intel nach wie vor die mit Abstand profitablere Firma ist - die durchschnittlichen Verkaufspreise lagen selbst zu Glanzzeiten von AMD bei Intel immer deutlich höher als bei AMD. Allerdings ist über die Jahre durchaus die Tendenz zu beobachten, daß AMD sich in diesem Punkt Intel annähert, im Server-Bereich liegen die durchschnittlichen AMD-Verkaufserlöse gar schon seit 2004 vor denen von Intel.
News des 30. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Im Fall der GeForce 8800 GT haben inzwischen reihenweise Hersteller entsprechende Karten vorgestellt und zum größten Teil auch schon in den Verkauf geschickt. Neben einigen ab Werk übertakteten Varianten sticht dabei besonders eine komplett passiv gekühlte Variante seitens Sparkle heraus, wie die ComputerBase vermeldet. Selbst wenn man die offizielle Verlustleistungsangabe von nVidia für die GeForce 8800 GT von 110 Watt in diese Richtung hin interpretiert, daß nVidia hier regelmäßig kräftige Sicherheitsaufschläge ansetzt, so stellt eine passive Kühlung der GeForce 8800 GT immer noch eine herausragende Leistung dar, befanden sich die bisherigen Spitzenmodelle in passiver Bauweise allesamt im Bereich von (realen) 50 Watt Verlustleistung.
Um so mehr erstaunt dies, als daß die Lüfterlautstärke einiger GeForce 8800 GT Modelle entgegen den Erwartungen doch lauter ausgefallen ist als bei der GeForce 8800 GTS - welche ihre Kühlkonstruktion natürlich auch zwei Slots unterbringen kann und somit technisch im Vorteil ist. Andererseits betrifft die Lautstärken-Problematik auch nicht alle GeForce 8800 GT Modelle - es scheint so, als ob wenigstens die Karten mit default-Taktraten hier keine Probleme haben und eine Lautstärke im Rahmen der GeForce 8800 GTS aufweisen. Dies würde wenn dann darauf hindeuten, daß die BIOSe der ab Werk übertakteten Karten (wo die höhere Taktfrequenz im BIOS festgeschrieben wird) eventuell noch mit heißer Nadel gestrickt sind bzw. die (ebenfalls zumeist im BIOS festgeschriebene) Lüftersteuerung noch nicht im Griff haben.
Denn für die zumeist nicht deutlich höheren Taktraten der ab Werk übertakteten Modelle werden sicherlich nicht deutlich schneller drehende Lüfter benötigt - womöglich können zukünftige BIOS-Updates hier also noch Abhilfe schaffen, sprich die teilweise laut aufdrehenden Lüfter entsprechend bändigen. Auf der anderen Seite soll es aber auch zukünftig noch GeForce 8800 GT Modelle mit ZweiSlot-Kühlung geben, welche dann mit noch höheren Taktraten an den Start gehen können. Dies deutet wiederum darauf hin, daß die defaultmäßige SingleSlot-Kühlung bei der GeForce 8800 GT durchaus knapp bemessen ist - was die technische Leistung der vorgenannten lüfterlosen Sparkle-Karte nochmals betont.
Apropos GeForce 8800 GTS: Mit den wirklich guten Leistungen der GeForce 8800 GT konnte man eigentlich denken, es gäbe keine Verwendung mehr für die neue GeForce 8800 GTS mit 112 Shader-Einheiten. Doch weit gefehlt, bei BFG befindet sich unter dem Kürzel "EE" eine solche Karte inzwischen schon im Angebot. Ob man damit aber die GeForce 8800 GT wirklich bezwingen kann, sei dahingestellt, denn durch die niedrigeren Taktraten liegt auch die neue GeForce 8800 GTS bei der Shader-Power 25 Prozent hinter der GeForce 8800 GT, bei der Texturierleistung sind es auch noch 20 Prozent. Im besten Fall reicht es durch die weiterhin mit 11 Prozent zugunsten der GeForce 8800 GTS sprechende Speicherbandbreite zu einem Gleichstand - da aber der Preis der GeForce 8800 GTS nicht sinken soll, erscheint auch die neue GeForce 8800 GTS als nunmehr genauso überflüssig wie die beiden "alten" Varianten.
Wie Hard Tecs 4U berichten, hat nVidia mit den neuesten ForceWare-Treibern 169.02 und 169.04 das Transparenz Anti-Aliasing etwas überarbeitet. Das von der Bildqualität her bessere, aber dafür klar langsamere Supersampling-Verfahren hat man dabei nicht angetastet, dafür aber das Multisampling-Verfahren: Dieser Modus, mit welchem man bisher recht brauchbare, aber noch keine hochklassigen Resultate zu einem zumeist nur geringen Performanceverlust erzielen konnte, soll nunmehr eine nahe an das Supersampling-Verfahren heranreichende Bildqualität erzielen, der Performanceverlust soll sich aber nach wie vor stark in Grenzen halten. Damit würde nVidia in diesem Punkt zu ATI aufschließen, deren Transparenz Anti-Aliasing bereits des längerem über einen recht starken Multisampling-Modus verfügt. Gerade bei neueren, leistungsfressenden Spielen sollten sich gute Multisampling-Modi als Vorteil für den Gamer erweisen, sind unter diesen Spielen doch oftmals keine Leistungsreserven für den Supersampling-Modus mehr vorhanden.
Gemäß TweakPC ist die Radeon HD 2900 Pro faktisch schon wieder ausverkauft - obwohl nach den Recherchen von TweakPC viele Händler die Karte noch mit einer Lieferfähigkeit bewerben, ist sie praktisch nirgendwo mehr an Lager. Sollten die gerüchteweise bekannten Informationen stimmen, dann dürfte es auch nicht mehr zu Nachlieferungen dieser Karte an die Händler kommen, denn angeblich wurde nur eine geringe Stückzahl gefertigt und bei dieser soll es dann auch bleiben. Angesichts der in wenigen Tagen zu erwartenden Refresh-Generation von ATI dürfte das auch nicht so dramatisch sein, mit dieser dürfte es ähnliche bis bessere Leistung zum selben Preis geben. Es bleibt allerhöchstens noch die Frage offen, was mit der Radeon HD 2900 GT wird, welche wie die Radeon HD 2900 Pro ein R600-Derivat darstellt, bislang aber noch nicht in den Markt gekommen ist.
News des 29. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie erwartet, hat nVidia am Nachmittag des Montags die GeForce 8800 GT offiziell vorgestellt, zumindestens in englischer Sprache gibt es inzwischen auch reichlich Testberichte. Die zuletzt erwartenden Daten zum zugrundeliegenden G92-Chip sowie der GeForce 8800 GT haben sich dabei prinzipiell bestätigt: Die GeForce 8800 GT verfügt über 112 Shader-Einheiten, 56 (bilineare) Textureneinheiten und ein 256 Bit DDR breites Speicherinterface bei Taktraten von 600/1500/900 MHz. Dabei wurden von nVidia die schon bei den Grafikchips G86 (GeForce 8300/8400/8500) und G84 (GeForce 8600 Serie) benutzten TMUs angesetzt, welche genausoviel Pixel addressieren wie texturieren können - der G80-Chip ist diesbezüglich bekanntlich leicht limitiert, hier gibt es nur halb so viel Adressierungs- wie Texturiereinheiten.
Etwas überraschend sind allerdings die 754 Millionen Transistoren des G92-Chips - der G80-Chip mit 128 Shader-Einheiten und 64 (bilinearen) Textureneinheiten hat deren nur 681 Millionen. nVidia erklärt dies damit, daß zum einen die bessere Video-Einheit (VP2 aka Video-Processor 2) der G84- und G86-Chips verbaut wurde und zum anderen der für Bildausgabe und SLI-Steuerung zuständige NVIO-Chip nicht wie beim G80 extra ausgeführt wurde, sondern in den G92-Chip gewandert ist. Trotzdem wären dies runde 100 Millionen oder mehr Transistoren nur dafür, was ein wenig zu viel vorkommt. Rein theoretisch ergibt sich hier durchaus die minimale Chance, daß nVidia mit der GeForce 8800 GT noch nicht alle Karten auf den Tisch gelegt hat und der G92-Chip womöglich noch weitere Hardware-Einheiten besitzt, die bisher unaktiviert im Silizium schlummern.
Allerdings ist die GeForce 8800 GT auch schon für den Augenblick sehr schlagkräftig, vor allem wenn man sich zur gebotenen Leistung den Preis ansieht. So schickt nVidia die 512-MB-Edition der Karte in der Tat für einen Listenpreis von 249 Dollar ist Rennen, hierzulande sollte das in kürzester Zeit in Straßenpreisen von 230 Euro resultieren (ist ja fast schon erreicht), bei weiter fallendem Dollar ;) auch schnell noch darunter. Hinzu kommt in ein bis zwei Wochen die 256-MB-Version, welche einen Listenpreis von 199 Dollar hat, was hierzulande auf ca. 185 Euro herauskommen sollte. Diese Version dürfte nochmals sehr interessant werden, weil damit die pyschologisch wichtige Schwelle von 200 Euro unterboten wird - selbst wenn die 256 MB Speicher für eine Karte mit dieser Performance langfristig als etwas zu knapp bemessen erscheinen.
Aber Performance gibt es eigentlich satt mit der GeForce 8800 GT 512MB. Grob gesehen überflügelt die Karte eine GeForce 8800 GTS 320MB deutlich, eine GeForce 8800 GTS 640MB knapp und liegt dann zwischen 5 und 30 Prozent hinter einer GeForce 8800 GTX zurück. Insbesondere bei nicht all zu hohen Auflösungen (sprich bis 1280x1024, maximal noch 1600x1200) und neueren Spielen mit stärkerem Hunger nach Shader-Power ist die Differenz zur GeForce 8800 GTX eher kleiner und der Abstand zur GeForce 8800 GTS eher größer - kein Wunder bei einer nur 3 Prozent hinter der GeForce 8800 GTX liegenden Shader-Power. Zwar ist die GeForce 8800 GTX nach wie vor die schnellere Karte, aber alle anderen Punkte - geringere Stromaufnahme, SingleSlot-Design, neuere Video-Einheit, neuere TMUs, dramatisch geringerer Preis - sprechen eigentlich für die GeForce 8800 GT.
Die GeForce 8800 GTS, welche die GeForce 8800 GT eigentlich ablösen soll, wird hingegen regelrecht überrannt. Und bedenkt man, daß nVidia im Preisbereich von 200 Euro noch im Frühjahr eine GeForce 8600 GTS ansetzte und zum gleichen Preis in Kürze die mehr als doppelt so schnelle 256-MB-Edition der GeForce 8800 GT erhältlich sein wird, dann wird deutlich, daß die GeForce 8800 GT in allererster Linie ein Preis/Leistungskracher ist, wie er im Buche steht. Fast könnte man sagen, nVidia hätte den Preis für die eigene Hardware ohne Not pulverisiert - aber natürlich wird ATI in Kürze seine eigene Refresh-Generation herausbringen und mit dieser wird wohl ein ähnliches Preis/Leistungsverhältnis geboten werden. Für den Augenblick hat nVidia mit der GeForce 8800 GT jedoch erst einmal ein sensationelles Angebot vorgelegt - nun ist ATI am Zug.
Jener Konter ist wie bekannt in Kürze zu erwarten, für die Zwischenzeit gibt es einen neuen Informationshappen in Form eines seitens TeamATI verbreiteten ATI PDF-Files zum Thema Direct3D 10.1. Jenes ATI-Dokument geht auf die Vorteile des Updates der Direct3D10-Schnittstelle ein, welche allerdings auch wieder kaum so großartig sind, als daß Direct3D 10.1 dadurch zum Muß werden würde. Möglicherweise wird man Direct3D 10.1 seitens der Spieleprogrammierer erst dann beachten, wenn die ersten reinen Direct3D10-Titel herauskommen - in diesem Fall müsste man nur eine Erweiterung für Direct3D 10.1 programmieren, bei einem DirectX9-Spiel wären es hingegen schon zwei (eine für Direct3D10 und eine für Direct3D 10.1).
Davon abgesehen erwähnt das ATI-Dokument auch nochmals explizit die "Radeon HD 3800" Serie, so daß diese Umbenennung des Verkaufsnames des RV670-Chips nunmmehr als wohl gesichert gelten kann. Wahrscheinlich leitet ATI diese Umbenennung aus der Direct3D-10.1-Fähigkeit der kompletten Refresh-Generation von ATI ab - ein Feature, welches nVidia zumindestens bei den Refreshchips G92 (Performance) und G98 (LowCost) nicht wird bieten können, aber womöglich bei den später nachfolgenden Chips G90 (HighEnd) und G96 (Mainstream). Ob auch die Verkaufsnamen der kommenden neuen Mainstream- und LowCost-Chips RV635 bzw. RV620 von ATI dementsprechend in Sinne einer kompletten Radeon HD 3000 Serie umbenannt werden, ist zwar noch nicht bekannt, aber durchaus anzunehmen.
Ein bißchen was in eigener Sache: Generell ist es immer positiv, wenn sich im Linkbereich der 3DCenter-News neue Abschnitte so klar etablieren wie es derzeit beim Wissenschafts-Bereich der Fall ist. Wirklich erstaunlich und zugleich unter einem gewissen Blickwinkel bedauerlich ist es aber, daß dies auch bei den Bereichen "IT-Sicherheit" und "Überwachung" so der Fall ist. Beide waren eher zur Entlastung des chronoisch vollen "andere News"-Bereichs gedacht, sind inzwischen aber ständig selber gut gefüllt. Mehr News zu verbreiten ist zwar prinzipiell immer gut, allerdings ist es durchaus bezeichnend, wenn der Schwerpunkt der Zunahme auf solchen Themen wie eben der (fehlenden) IT-Sicherheit oder dem grassierenden Überwachungswahn liegt.
Davon abgesehen noch ein Wort zu den Ende letzter Woche angekündigten und am freitäglichen Nachmittag durchgeführten Wartungsarbeiten: Diese sind offensichtlich reibungslos über die Bühne gegangen, die Ausfallzeit war verträglich gering. Mit diesen Wartungsarbeiten wird nun auch in Teilen ein Content Managment System (CMS) bei 3DCenter Einzug halten, welches primär dafür da ist, die Artikel der verschiedenen Redakteure schneller online zu bringen (auf das nicht alles wie bisher am Chefredakteur hängenbleibt). Dieses CMS wird wohl noch ein paar Tage brauchen, danach aber eine deutliche Vereinfachung der Arbeit insbesondere im Artikel-Bereich ermöglichen. Ausdrücklicher Danke dafür gilt hiermit seitens des Redaktionsteams dem für die technischen Belange von 3DCenter zuständigen Personen, sprich den Webmastern und dem CMS-Team.