News-Archiv 18. - 24. Februar 2008 (8. Kalenderwoche)
23./24. Februar 22. Februar 21. Februar 20. Februar 19. Februar 18. Februar
News des 23./24. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Ein Schwung weiterer Reviews zur nVidia GeForce 9600 GT bringt einige neue Erkenntnisse zu dieser neuen Mainstream-Karte mit sich. So steht beispielsweise bei der FiringSquad die SLI-Performance der GeForce 9600 GT im Vergleich zu den großen Single-Lösungen GeForce 8800 GTX und Ultra. Wobei dieser Vergleich schon allein von den technischen Ansetzungen her zugunsten der GeForce 9600 GT deutet: Diese hat im SLI-Verbund gegenüber einer einzelnen GeForce 8800 Ultra 7 Prozent mehr Rechenleistung und eine um 11 Prozent höhere Speicherbandbreite zu bieten. Natürlich spielt hier noch die Effizienz von SLI mit eine Rolle, aber die fällt bei der GeForce 9600 GT ausreichend hoch genug aus, als daß diese Karte eine GeForce 8800GTX klar schlagen und die Werte einer GeForce 8800 Ultra in den meisten Fällen erreichen kann.
Dabei ist in erster Linie beachtenswert, zu welchem Preispunkt die GeForce 9600 GT dies erreicht: Für zwei Stück dieser Grafikkarten sind nur runde 300 Euro fällig, da muß sich selbst die GeForce 8800 GTX strecken (derzeit schwer uneinheitlich zwischen 280 und 400 Euro), von der GeForce 8800 Ultra (zwischen 470 und 600 Euro) gar nicht erst zu reden. Die GeForce 9600 GT hat hier klar das bessere Preis/Leistungsverhältnis - welches allerdings in erster Linie durch die nach wie vor nicht passenden Preise für GeForce 8800 GTX und Ultra hervorgerufen wird. An diesen Preisen wird nVidia nun jedoch auch nichts mehr ändern, kommen doch demnächst mit GeForce 9800 GTX und GX2 entsprechende Ablösungen für das HighEnd-Segment in den Markt.
Bei aller Freude über die guten SLI-Ergebnisse der GeForce 9600 GT sollte man jedoch nicht vergessen, daß sich im immer breiteren Praxiseinsatz von SLI (und CrossFire) zwei Probleme immer stärker herauskristallisiert haben: Erstens einmal optimieren die Grafikchip-Entwickler ihrer SLI/CrossFire-Treiber zwar deutlich besser als früher, aber eben nach wie vor verstärkt auf die Benchmark-Titel. Die selten oder gar nicht getesteten Titel bekommen damit nur eher durchschnittliche SLI/CrossFire-Optimierungen ab, auf jeden Fall ist hier der Gewinn durch die zweite Grafikkarte im Schnitt geringer als bei den üblichen Benchmark-Titeln. Faktisch kann man grob über den Daumen (und das ist jetzt wirklich sehr grob geschätzt) sagen, daß man von der Performance von SLI/CrossFire-Lösungen etwa 10 Prozent abziehen kann, wenn man eine Performance-Aussage zur breiten Masse der Spiele haben will.
Und zweitens existiert vor allem auch noch das Problem der Mikroruckler bei SLI und CrossFire, welches zuerst in diesem Thread unseres Forums thematisiert wurde und (entgegen anderen Gerüchten) unsererseits auch schon einmal kurz (und sicher auch noch nicht ausreichend) in den News erwähnt wurde. Grob gesagt geht es bei Mikrorucklern darum, daß unter SLI und CrossFire oftmals Situationen auftreten, wo die einzelnen Bilder (Frames) eines Spiels in sehr unterschiedlichen Zeiten von den Grafikchips errechnet und dann auf dem Monitor ausgegeben werden, womit trotz einer rechnerisch einwandfreien Frameraten (über 30 fps) ein Ruckeleffekt wie bei einer ungenügenden Framerate auftritt. Diese beiden Punkte, welche derzeit stark gegen SLI (und natürlich auch CrossFire) sprechen, sollte man bei aller Begeisterung ob der SLI-Benchmarks zur GeForce 9600 GT nicht vergessen.
Das Thema 256-MB-Ausführung der GeForce 9600 GT wird dagegen beim chinesischsprachigen PCInlife (maschinelle Übersetzung ins englische) zur Sprache gebracht - die Karte ist als preislich (wahrscheinlich) passende Konkurrenz zur Radeon HD 3850 256MB sicherlich genauso interessant wie die "große" 512-MB-Ausführung. Allerdings hatte man bei PCInlife keine 256-MB-Karte mit den default-Taktraten von 650/1625/900 MHz im Einsatz, sondern eine ab Werk übertaktete Karte mit Taktraten von 675/1600/1000 MHz. Der Unterschied beim Chip- und Shadertakt dürfte hierbei weniger störend sein, allerdings hat der höhere Speichertakt durchaus seine Auswirkungen (gerade bei einer 256-MB-Ausführung) und verwischt den eigentlich angestrebten Vergleich zwischen 256- und 512-MB-Ausführung etwas.
Allerdings läßt sich auch so schon erkennen, daß der 256-MB-Ausführung der GeForce 9600 GT in vielen neueren Spielen mit ihrem kleinen Grafikkarten-Speicher die Luft ausgeht. Dabei teilt sich das Feld klar in diese zwei Drittel der Benchmarks, wo die 256-MB-Ausführung keinen oder nur einen minimalen Performance-Rückstand zur 512-MB-Ausführung hat (bzw. in einigen Fällen durch ihre Übertaktung sogar minimal vorn liegt), und jenes Drittel der Benchmarks, wo diese dann krass zurückliegt (jeweils unter 1600x1200 mit Anti-Aliasing soweit möglich): Unter Unreal Tournament III mit 12 zu 52 fps, unter Stalker mit 24 zu 48 fps, unter World in Conflict mit 13 zu 25 fps - und unter Crysis mit gar keinem Ergebnis, da dort die 256-MB-Ausführung selbst unter der Auflösung von 1280x1024 und dem "Very High" Setting nicht arbeiten wollte.
Rechnen wir einmal den Fall Crysis heraus, welcher zum einen zu speziell ist und wo zum anderen womöglich noch ein Patch Abhilfe bringen wird, so gilt doch festzustellen, daß der GeForce 9600 GT 256MB gerade unter neueren Spielen und Auflösungen von 1600x1200 bzw. 1680x1050 (und höher) schnell der Speicher ausgeht und man dann deutlichste Frameraten-Verluste hinnehmen muß. Und selbst wenn man die betreffenden Spiele derzeit nicht nutzt, wird man auf die Zukunft bezogen unter dieser Auflösung mit der 256-MB-Ausführung der GeForce 9600 GT sicherlich nicht all zu lange seine Freude haben. Die Auflösung von 1280x1024 haben PCInlife leider nicht getestet, so daß abzuwarten bleibt, ob dort nicht ein deutlich anderes Ergebnis herauskommt - was möglich und sogar wahrscheinlich ist.
Für den Augenblick aber kann die GeForce 9600 GT 256MB zumindest auf höheren Auflösungen keine Empfehlung bekommen - und hat damit ein deutliches Nachsehen gegenüber der Radeon HD 3850 256MB, deren Performance-Rückstand gegenüber der 512-MB-Ausführung dieser Karte selbst unter hohen Auflösungen zumeist immer noch maßvoll ist. Eventuell bringt nVidia hier eine engagierte Arbeit am Treiber noch etwas voran, denn ATI zeigt es derzeit ja, daß man auch mit 256-MB-Grafikkarten zumindest derzeit noch nicht deutlich zurückliegen muß. Natürlich wären hier auch weitere Tests zum Thema noch interessant, welche zum einen niedrigere Auflösungen als 1600x1200 zum Thema haben und wo zum anderen dann auch eine Radeon HD 3850 256MB zum Direktvergleich mit dabei sein sollte.
neuer Artikel |
GeForce 9600 GT: 256 Bit in der Mittelklasse
Der Launch der GeForce 9600 GT markiert den Start eines 256 Bit breiten Speicherinterfaces auch in der Mittelklasse - und dies gerade zu einem Zeitpunkt, wo auch die HighEnd-Lösungen wieder auf diese Interface-Breite zurückgehen. Gleichzeitig handelt es sich natürlich auch um die erste "GeForce 9" Grafikkarte - auch wenn für diesen Namenswechsel nur eher geringe Gründe vorliegen, welche primär wohl im Marketing begründet liegen ... zum Artikel
News des 22. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei der PC Games Hardware sowie Hexus und PC Perspective gibt es Previews mit ersten Benchmarks zu CrossFire X, der nun endlich anstehenden Quad-CrossFire-Lösung von ATI. Getestet wurde jenes CrossFire X mit der Benutzung von vier Grafikchips dabei mittels zweier Radeon HD 3870 X2 Grafikkarten, auf welchen bekannterweise ja auch schon zwei Grafikchips im CrossFire-Verbund werkeln. Ebenfalls getestet wurde zudem eine Triple-CrossFire-Kombination aus einer Radeon HD 3870 X2 und einer Radeon HD 3870 Grafikkarte - welche eine durchaus beachtenswerte Lösung darstellt. Denn mit Triple-CrossFire ergab sich ein Performance-Gewinn (zur Einzelkarte) von im Schnitt 125 Prozent, bei Quad-CrossFire waren es dagegen mit 155 Prozent nicht wirklich deutlich mehr.
Damit fällt die Effizienz des vierten Grafikchips ausgesprochen mager aus: Zwar kann dieser im theoretischen Bestfall sowieso nur 33 Prozent mehr gegenüber Triple-CrossFire erbringen, ATI erreichte in dieses Tests aber nur einen Mehrgewinn von 13 Prozent durch den vierten Grafikchip. Der dritte Grafikchip legt da eine deutlich höhere Effizienz an den Tag: Jener kann theoretisch eine Mehrleistung von 50 Prozent gegenüber einfachem CrossFire erreichen, in den vorliegenden Tests waren es immerhin 31 Prozent. Dies ist deutlich effizienter als der Sprung vom dritten zum vierten Grafikchip, insofern könnte CrossFire X wohl auch in vielen Triple-CrossFire-Systemen resultieren und nicht immer in Quad-CrossFire-Systemen.
Allerdings stellen die Ergebnisse dieser Tests auch wieder deutlich die Sinn-Frage zu solch extremen HighEnd-Anstrengungen. Denn bislang gibt es außerhalb von Crysis keine Software, welche derart schnelle Beschleuniger wirklich benötigt, die allermeisten Titel dürften mit einer Radeon HD 3870 X2 selbst auf HD-Auflösungen einwandfrei laufen. Crysis nun hingegen könnte durchaus noch eine größere Dosis Performance gebrauchen, allerdings skaliert ausgerechnet dieser Titel ausgesprochen schlecht mit den zusätzlichen ATI-Grafikchips: Mit einfachem CrossFire bekommt man eine Leistungssteigerung um 65 Prozent hin, Triple-CrossFire legt dann aber nur noch unterdurchschnittliche 14 Prozent drauf, für Quad-CrossFire gibt es dann nur noch 3 Prozent weitere Mehrleistung.
Dies resultiert dann bei den vier Grafikchips von Quad-CrossFire in insgesamt 92 Prozent Leistungsgewinn gegenüber einem einzelnen Grafikchip - dies könnte man mit einem ausgereiften Treiber und bei gutem Willen des Spiels aber auch schon mit zwei Grafikchips erreichen. An dieser Stelle wäre noch herauszufinden, ob dieser Fall an ATI oder an Crysis liegt, aber mit diesen Werten fällt erst einmal die Sinnhafigkeit von Triple- und Quad-CrossFire in sich zusammen: Wenn man ausgerechnet das einzige Spiel, welches derzeit nach wirklich mehr Performance schreit, nicht ernsthaft beschleunigen kann, lohnt sich das ganze Aufwand für CrossFire X nicht und reicht auch eine "gewöhnliche" Radeon HD 3870 X2 vollkommen aus. An diesem Punkt wird ATI sicherlich noch nachlegen müssen, ansonsten kann es keinerlei Empfehlungen für CrossFire X geben.
Einige Sicherheits-Forscher der US-Universität Princeton haben eine Möglichkeit ausgetüftelt (Forschungsbericht, PDF), selbst hochprofessionelle Verschlüsselungs-Software auszutricksen und Zugriff auf deren Passwörter zu erlangen. Dabei macht man sich das allerdings schon länger bekannte Prinzip zunutze, daß der Hauptspeicher eines Computers erst nach einigen Sekunden seinen Inhalt verliert - setzt man den Computer zudem extra Kühlung aus, kann man diesen Zeitraum sogar erheblich verlängern (mit Druckluft einige Minuten, mit flüssigem Stückstoff über eine Stunde). Ein Angriff würde zwar einen physikalischen Zugang zu dem Rechner voraussetzen, ist danach aber sehr erfolgversprechend.
Dabei wird zuerst der Rechner mittels der Reset-Taste von der Stromversorgung getrennt, beim anschließenden Neuboot wird der Speicherinhalt mit einer nur geringen Fehlerrate über ein mittels eines bootfähigen USB-Stick mitgebrachtes Programm kopiert und kann später ausgelesen und analysiert werden. Seitens der Verschlüsselungsprogramme gibt es bislang keine Gegenmaßnahme gegen diese Methode, allerdings gibt es durchaus eine gewisse LowTech-Abwehr: Der Angriffsversuch bedingt, daß der Angreifer direkt nach dem Reboot den Windows-Start verhindern und von einem mitgebrachten Gerät (beispielsweise ein USB-Stick) booten kann. Diese Möglichkeit läßt sich aber über das BIOS verhindern, indem man dort als alleiniges Boot-Laufwerk die eingebaute Festplatte festlegt. Um wirklich sicher zu gehen, sollte man dann aber auch das BIOS noch mit einem Passwort gegenüber Änderungen schützen.
Eine echte Lösung erscheint dagegen nicht so einfach zu realisieren: Die Verschlüsselungs-Software selber kann hier gar nichts tun, jene kann nicht in dieser Form in die Hardware und vor allem physikalische Gesetzmäßigkeiten eingreifen. Erfolgversprechender erscheint da eher die Idee, den Speicherinhalt beim Herunterfahren oder auch einem unvermittelten Reset durch eine extra Schaltung auf dem Mainboard fix zu löschen (bzw. mit Zufallsdaten zu überschreiben) - wobei es hier wohl noch einfacher wäre, wenn dieses Überschreiben des Hauptspeichers mit Zufallsdaten standardmäßig bei jedem Reboot des Systems passiert. Mal schauen, ob die Hardware-Hersteller diese Problematik in Zukunft aufgreifen werden, Interesse aus der Industrie und von Regierungsstellen müsste eigentlich vorhanden sein.
News des 21. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Am Donnerstag hat nVidia wie erwartet in Form der GeForce 9600 GT die erste Karte der GeForce9-Serie vorgestellt - wobei man den Wechsel des Verkaufsnamens im übrigen damit begründet, daß die GeForce 9600 GT doch sehr viel schneller ist als deren direkter Vorgänger im Mainstream-Bereich, die GeForce 8600 GTS. Was jetzt sicherlich stimmt, allerdings als Begründung für "GeForce9" kaum noch bei den anderen demnächst antretenden GeForce9-Karten herhalten kann. nVidia hat hier schlicht gegenüber ATIs Radeon HD 3000 Serie und deren neuem Verkaufsnamen Marketing-technisch gleichziehen wollen - allerdings hatte ATI mit dieser Grafikkarten-Serie auch wirklich eine technische Neuerung in Form von Direct3D 10.1 zu bieten, was nVidia mit der GeForce9-Serie derzeit nicht vorweisen kann.
Insofern kann man generell sagen, daß GeForce8- und GeForce9-Chips auf der identischen technischen Basis stehen, selbst wenn bei dem bei der GeForce 9600 GT benutzten G94-Chip wohl die Pixelfarbwerte-Kompression verbessert wurde, was in sehr Speicherbandbreite-lastigen Szenen weiterhelfen sollte. Speicherbandbreite dürfte die GeForce 9600 GT allerdings auch so genug haben: Erstmals gibt es für eine dedizierte Mainstream-Grafikkarte ein 256 Bit DDR breites Speicherinterface, der hohe Speichertakt von 900 MHz garantiert hier eine Speicherbandbreite wie bei der GeForce 8800 GT. Für eine Mainstream-Lösung ist dies wie gesagt sehr viel und auch mehr als man vorher erwarten konnte.
Dafür zeigt sich die Mainstream-Ausrichtung dann bei der Anzahl der Shader-Einheiten, welche bei 64 liegt - die GeForce 8800 GT hat hier 112, die (G92-basierende) GeForce 8800 GTS sowie GeForce 8800 GTX und Ultra jeweils 128. Da die GeForce 9600 GT allerdings mit etwas höheren Chip- und Shader-Taktraten als die GeForce 8800 GT antritt, liegt sie immerhin bei 62 Prozent der Rechenleistung der GeForce 8800 GT, hier ist ergo der primäre Unterschied zwischen diesen beiden Karten zu finden. Trotz der halbierten Anzahl an Shader-Einheiten ist der G94-Chip aber immer noch ein Schwergewicht mit seinen 505 Millionen Transistoren geworden - zum Vergleich, der G84-Chip der GeForce 8600 Serie bringt es gerade einmal auf 289 Millionsn Transistoren.
Dieser hohe Aufwand hat natürlich ein konkretes Ziel: Der Radeon HD 3850 von ATI im Preissegment von bis zu 150 Euro etwas entgegenzusetzen - eine Aufgabe, welche der G92-Chip der GeForce 8800 GT/GTS nicht wirklich gewachsen war, auch wenn nVidia hierfür (nur kurzfristig) die GeForce 8800 GS ins Feld schickte. Und diese Aufgabe erledigt die GeForce 9600 GT nach Ansicht der ersten Benchmark-Welle nunmehr absolut hervorragend, weit besser als eigentlich "notwendig" gewesen wäre. Denn die Radeon HD 3850 512MB wird von der GeForce 9600 GT 512MB nicht nur einfach geschlagen, sondern meist mit einem Abstand von 15 bis 25 Prozent versetzt. Damit schwingt das Pendel wieder zurück zu nVidia: Bei den 150-Euro-Lösungen ist nun nicht mehr die Radeon HD 3850 512MB, sondern die GeForce 9600 GT ziemlich klar führend. Dies passt vor allem auch, weil die GeForce 9600 GT 512MB nun doch ihr Preisziel von 150 bis 160 Euro Straßenpreis erreicht hat, womit man exakt auf dem Niveau der Radeon HD 3850 512MB liegt.
Interessant bleibt somit nur noch, was nVidia der Radeon HD 3850 256MB entgegensetzen kann, welche derzeit für um die 130 Euro zu bekommen ist. Hier soll es noch eine 256-MB-Version der GeForce 9600 GT geben, welche wahrscheinlich 20 Euro günstiger kommt und damit den Preispunkt der Radeon HD 3850 treffen dürfte. Allerdings fehlen derzeit Benchmarks wie auch Kaufangebote zu dieser Karte, insofern bleibt ATI momentan im 130-Euro-Bereich weiterhin vorn (weil allein). Allerdings ist schon abzusehen, daß auch die GeForce 9600 GT 256MB die Radeon HD 3850 256MB schlagen sollte, insofern wird sich ATI hier etwas einfallen lassen müssen, um dem Ansturm der GeForce 9600 GT Karten etwas entgegensetzen zu können. Die wahrscheinlichste Maßnahme hierbei dürfte eine Preissenkung der Radeon HD 3850 Modelle sein, diesbezüglich gilt es also den Markt in der nächsten Zeit zu beobachten.
Denn letztendlich - das zeigt die Erfahrung der Vergangenheit - gibt es solche Zustände, wo zwei Lösungen im selben Preissegment liegen und die eine deutlich besser ist als die andere, nie auf Dauer. Den Performance-Unterschied, den nVidia mit der GeForce 8800 GT gegenüber der Radeon HD 3870 herausarbeitete, hat ATI schließlich auch durch einen entsprechend günstigeren Preis gekontert, so daß letztenendes wiederum beide Karten ihre Berechtigung am Markt haben. Gleiches ist nun auch im Zweikampf GeForce 9600 GT gegen Radeon HD 3850 zu erwarten: ATI wird die Preise für die Radeon HD 3850 dermaßen absenken, daß der Performance-Vorteil von nVidia durch einen Preisvorteil von ATI wieder halbwegs ausgeglichen erscheint - und somit beide Lösungen für den Mainstream-Bereich ihre Markt-Berechtigung haben werden.
News des 20. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Golem vermelden die erste Hersteller-Ankündigung einer GeForce 9600 GT Grafikkarte seitens Vvikoo, welches dann im übrigen nochmals die vorgestern schon genannten technischen Daten zu dieser Karte bestätigt. Interessanterweise hat aber auch Vvikoo neben einer Standardausführung mit 650/1650/900 MHz eine ab Werk übertaktete Version im Angebot, diese hat Taktfrequenzen von 700/?/1000 MHz. Hier deutet sich schon an, daß es wohl einige ab Werk übertaktete Ausführungen der GeForce 9600 GT geben wird, welche (durch den hohen Speichertakt) bei maßvollem Preisaufschlag dann auch schnell der GeForce 8800 GT recht nahe kommen können.
Preismäßig liegen die ersten Listungen zur GeForce 9600 GT im übrigen zwischen 156 und 179 Euro für die 512-MB-Ausführung. Nach Abzug der Launch-Aufregung könnte sich dies auf einem Preis von 150 bis 160 Euro einpendeln, was dann doch etwas günstiger wäre als bislang erwartet (immerhin liegt der Listenpreis für die 512-MB-Ausführung bei 189 Dollar vor Mehrwertsteuer). Das dürfte dann doch knapp reichen, um sich auftragsgemäß mit der Radeon HD 3850 512MB anzulegen, welche derzeit um die 150-Euro-Marke pendelt. Natürlich benötigt nVidia weiterhin noch eine kleinere Lösung als Konkurrenz zur sehr erfolgreichen Radeon HD 3850 256MB, dies dürfte dann aber wohl die Aufgabe der 256-MB-Ausführung der GeForce 9600 GT werden.
Geht es nach der VR-Zone, so basiert die GeForce 9800 GTX weiterhin auf dem G92-Chip und soll schon Mitte März antreten. Die bisherige Informationslage zu dieser Karte war ausgesprochen dünn - bislang konnte man sich alles mögliche unter der GeForce 9800 GTX vorstellen. Nun aber scheint es so, als wolle nVidia mit dieser Karte die in der Tat sehr große Lücke zwischen GeForce 8800 GTS und GeForce 9800 GX2 (Performanceunterschied geschätzt 50 bis 70 Prozent) mit einer weiteren Karte füllen. Die Voraussetzungen hierfür sind mit dem G92-Chip allerdings denkbar schlecht, schließlich hat dieser keine wirklich großen Taktreserven mehr.
Allerdings wird nVidia - um eine sinnvolle HighEnd-Lösung präsentieren zu können - nicht umhin können und der GeForce 9800 GTX einen erheblichen Taktsprung gegenüber der GeForce 8800 GTS mit deren 650/1625/970 MHz zu verpassen. In diesem Sinne erscheint die von der VR-Zone genannte Chip-Taktfrequenz von zwischen 750 und 850 MHz angemessen - ob dies nVidia allerdings aus dem G92-Chip wird herauskitzeln können, bliebe noch abzuwarten. Noch problematischer dürfte dann der Speichertakt sein, da zumindest in den angestrebten HighEnd-Gefilden das 256 Bit DDR Speicherinterface des G92-Chips dann doch wieder als reichlich eng erscheint und man dementsprechend mit einem heftigen Speichertakt gegensteuern wird müssen.
In der Summe müsste die GeForce 9800 GTX somit mit Taktraten von vielleicht 800 MHz Chip- und 1200 MHz Speichertakt antreten müssen, um sich überhaupt deutlich genug von der GeForce 8800 GTS abzusetzen und sich damit irgendwo in der Mitte zwischen GeForce 8800 GTS und GeForce 9800 GX2 positionieren können. Ob nVidia dies meisten wird können, bliebe abzuwarten - wenn dann wird das nur mit ausgewählten G92-Chips und einem (vor allem auch durch den hoch getakteten Speicher) recht teurem Design möglich. Sinnvoll wäre es wie gesagt trotzdem, weil nVidia zum einen derzeit gar kein (nicht auslaufendes) Angebot im Preisbereich von 300 bis 400 Euro hat und zum anderen die DualChip-Grafikkarte GeForce 9800 GX2 sich nicht für nVidias derzeitiges Lieblingsprojekt Triple-SLI eignet.
News des 19. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Neue Spezifikationen zur DualChip HighEnd-Lösung GeForce 9800 GX2 kommen aus Fernost von Expreview. Prinzipiell entspricht dies früherem Wissen, wonach die GeForce 9800 GX2 über zwei G92-Chips verfügt, welche zweimal 128 Shader-Einheiten und zwei 256 Bit DDR Speicherinterfaces zur Verfügung stellen. Unklar waren bislang allerdings noch die Taktfrequenzen dieses Hardware-Monsters (immerhin satte 1,5 Milliarden Transistoren), spekulativ ging man von einem Niveau etwas unterhalb der GeForce 8800 GTS (650/1625/970 MHz) aus. Und genau so soll es nun wohl auch kommen, die GeForce 9800 GX2 soll mit Taktfrequenzen von 600/1500/1000 MHz antreten.
Die Performance sollte somit etwas unterhalb der eines SLI-Gespanns aus zwei GeForce 8800 GTS Karten liegen, was auch automatisch den Preis der GeForce 9800 GX2 begrenzt: Wahrscheinlich in Richtung 450 Euro, dies würde zur (angenommenen) Performance passen und wohl auch gegenüber der Radeon HD 3870 X2 fair sein, da die nVidia DualChip-Grafikkarte die ATI DualChip-Grafikkarte aller Wahrscheinlichkeit nach klar schlagen dürfte. Abzuwarten bliebe noch, wie nVidia die teilweise berichteten Abwärme-Probleme bei dieser Karte in den Griff bekommt, unterhalb von 150 Watt realem Stromverbrauch scheint es wohl nicht zu gehen. Erscheinen soll die GeForce 9800 GX2 wie bekannt Anfang März, allerdings wahrscheinlich erst nach der CeBIT, welche dieses Jahr ungewöhnlich früh (4. März) startet.
Ebenfalls nochmals bestätigt wurden die Spezifikationen zur neuen Mainstream-Lösung GeForce 9600 GT seitens der DigiTimes, wonach diese Karte mit 64 Shader-Einheiten und einem 256 Bit DDR breiten Speicherinterface antreten soll. Ebenfalls bestätigt wurde die Preisansetzung von 169 bis 189 Dollar Listenpreis, was uns - wie gestern schon ausgeführt - ziemlich hoch vorkommt, da man damit nicht in die Preisgefilde einer Radeon HD 3850 herunterkommt. Die GeForce 9600 GT soll schon am Donnerstag offiziell vorgestellt werden, allerdings dürfte sich der eigentliche Verkaufsstart bis auf Anfang März verschieben, da ein (inzwischen behobener) Bug in den ursprünglich ausgelieferten G94-Chips die Grafikkarten-Hersteller zu einem Neudesign der entsprechenden Grafikboards zwang.
Der Heise Newsticker berichtet von einem neuen Versuch, Gegenschall-Geräte in Computer einzubringen. Das dahinterstehende Verfahren, nachdem eine unerwünschte Schallquelle mit einem gleichen, aber gegenphasig schwingenden Ton in der Theorie einhundertprozentig ausschaltbar ist, existiert schon lange, ist allerdings auch nicht so einfach vom klinischen Aufbau eines Labors in die reale Welt zu übertragen. Vor allem bestand aber bisher die Schwierigkeit darin, eine hochprozentige Lösung auf ein vernünftiges Preisniveau zu bringen - was die israelische Firma Silentium wohl geschafft haben soll, denn deren "S-Cube Kit" sieht nicht gerade nach überteuerter Lösung aus und kann mit Zielmarkt OEM auch keine Unsummen kosten.
Bleibt nun natürlich noch die Frage, ob dieses Kit wirklich hält, was es verspricht: Davon wird man sich zum einen auf der CeBIT überzeugen können (sofern sich Silentium inmitten des Messelärms einen halbwegs schalldichten Vorführraum leistet), zum anderen würden natürlich erste Tests dieses Kits interessieren. Allerdings sind keine Wunderlösungen zu erwarten, denn die angestrebte Schallpegelreduzierung um 10 dBA entspricht zwar einer gefühlten Halbierung des Geräuschs, wird aber natürlich keine Staubsauger-Lösung in ein totales Silent-Gerät verwandeln können. Interessant könnte das Kit eher denn für absolute Silent-Freaks sein, welche ihre sowieso schon leisen PCs dann noch in einen total unhörbaren Bereich bringen wollen. Hier werden wie gesagt erste Tests zeigen müssen, ob das S-Cube Kit dies leisten kann.
Nachdem man am Montag die Gerüchte vom Wochenende noch eher halbherzig dementierte, hat Toshiba als Mitbegründer des HD-DVD Formats (der andere Mitbegründer auf Hardware-Seite ist NEC, diese waren jedoch schon vor einiger Zeit ausgestiegen) nunmehr das Ende seiner HD-DVD Aktivitäten bekanntgegeben, bis zum Ende des März will man Entwicklung, Herstellung und Vertrieb der HD-DVD sowie entsprechender Geräte vollständig einstellen. Deutlicher geht es dann wohl nicht mehr: Der eindeutige Gewinner des HD-Formatstreits ist das Blu-Ray Format, selbst die zuletzt in den Fokus gerückten Kombigeräte dürften nach der aktuellen Entwicklung keinerlei Marktchancen mehr haben. Der wirkliche Kampf steht Blu-Ray allerdings wohl noch bevor: Und zwar gegen das altehrwürdige DVD-Format, welches nach wie vor zu mehr als 95 Prozent den Markt beherrscht und aufgrund der günstigeren Preise für Medien und Player auch nicht so schnell zu verdrängen sein dürfte.
News des 18. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Einen weiteren Vorab-Test zur GeForce 9600 GT, der wohl in den nächsten Tagen kommenden neuen Mainstream-Lösung von nVidia, findet sich bei TweakTown. Dabei hat die dort im Test befindliche Karte wieder Taktfrequenzen von 675/1625/1000 MHz, stellt aber eine ab Werk übertaktete Version seitens Galaxy dar. Die nVidia-defaults für die GeForce 9600 GT sollen hingegen bei 650/1650/900 MHz liegen, was allerdings immer noch eine relativ hohe Speicherbandbreite für diese Mainstream-Karte ergibt. Von der ab Werk übertakteten Galaxy-Karte werden die Benchmarks bei TweakTown natürlich etwas beeinflußt, zudem hat man (wieder einmal) viel zu wenig mit Anti-Aliasing gemessen, so daß viele der angestellten Tests keine brauchbaren Aussagen ergeben.
Allerdings läßt sich durchaus erkennen, daß die GeForce 9600 GT wohl eine sehr starke Performance an den Tag legen wird, in den meisten Fällen kommt zumindest die ab Werb übertaktete Galaxy-Karte einer GeForce 8800 GT nahe und schlägt eine Radeon HD 3870 mehr oder weniger überall. Größere Unterschiede zur GeForce 8800 GT ergeben sich zudem fast nur unter höheren Auflösungen wie 1920x1200 - aufgrund der mehrheitlich fehlenden Tests mit Anti-Aliasing könnte dies unter Zuschaltung der Kantenglättung aber auch schon ab 1600x1200 zutreffen. Doch selbst dann wäre das Ergebnis der GeForce 9600 GT überragend: Diese Karte, welche eigentlich antreten soll, um der Radeon HD 3850 Paroli zu bieten, kann sich problemlos auch mit einer Radeon HD 3870 anlegen und reicht in nicht all zu hohen Auflösungen auch an die GeForce 8800 GT heran.
Was sich erst einmal großartig anhört, dürfte für nVidia jedoch mehr Probleme aufwerfen als lösen: Denn als Gegenpol zur Radeon HD 3870 hat man derzeit schon sehr erfolgreich die GeForce 8800 GT im Markt, hier wäre eigentlich keine weitere Initiative erforderlich. Das eigentliche Ziel, die Radeon HD 3850 und derem sehr günstigen Preispunkt etwas gleichwertiges entgegenzusetzen, scheint die GeForce 9600 GT jedoch eher zu verfehlen: Die Karte ist dafür zu schnell und kommt damit auch nicht in die entsprechende Preisregion herunter, um mit der Radeon HD 3850 zu konkurrieren. Womöglich muß hier nVidia noch fix mit einer spekulativ genannten "GeForce 9600 GS" mit schlicht niedrigeren Taktraten nachlegen, ansonsten läuft das Geschäft im Sub-150-Euro-Bereich weiterhin komplett an nVidia vorbei.
Im Triple-SLI Test des Tech Reports muß man lange suchen, ehe man Vorteile für die drei verbauten Grafikkarten findet, denn oft - viel zu oft - zeigt sich ein normales SLI-Gespann mit zwei Grafikkarten als gleich schnell oder gar schneller gegenüber Triple-SLI. Generell muß man schon auf eine Auflösung von 2560x1600 gehen, um regelmäßig geringe Vorteile aus Triple-SLI zu ziehen, allerdings reißen diese einen bislang noch nicht vom Hocker. Einzig allein Crysis zeigt schon unter 1920x1200 erhebliche Vorteile durch Triple-SLI (42 Prozent Plus unter "Very High Quality" samt 4x Anti-Aliasing) und deutet damit die Schlagkraft von Triple-SLI klar an.
Für den Augenblick scheint es aber eher so zu sein, daß nicht die Hardware, sondern die Spiele bremsen. Erst wenn mehr solch extreme Hardware-Verschlinger wie Crysis erscheinen, dürften sich die Vorteile von Triple-SLI breiter demonstrieren lassen. Bis zu diesem Zeitpunkt lohnt sich Triple-SLI natürlich nicht, schließlich muß man den Hardware-Herstellern jetzt kein Geld dafür in den Rachen werfen, daß man in Zukunft eventuell Vorteile aus Triple-SLI ziehen kann. Denn das Rad der Zeit dreht sich nun einmal unaufhörlich weiter und irgendwann steht dann sicherlich auch diese SingleChip-Grafikkarte vor der Tür, welche dieselbe Leistung auf die Waage bringt wie heute drei GeForce 8800 Ultra Grafikkarten im Triple-SLI-Verbund.