News-Archiv 5. - 11. November 2007 (45. Kalenderwoche)
10./11. November 9. November 8. November 7. November 6. November 5. November
News des 10./11. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
In den News des 2. November hatten wir die Behauptung getroffen, der Vergleich GeForce 7900 GT vs. GeForce 8600 GT/GTS würde mit Abstand zu Gunsten der "alten" DirectX9-Karte ausgehen - und dafür einige Kritik kassiert. Verwiesen wurde hierbei insbesondere auf die Arbeiten der ComputerBase (No.1 und No.2), nach welcher in der Zwischenzeit und gerade bei modernen Spielen in diesem Vergleich eher die Direct3D10-Karte GeForce 8600 GTS vorn zu sehen wäre. Dazu folgendes: Erst einmal sind die Benchmarks der ComputerBase zu loben, da hier auf eine vergleichbare Bildqualität geachtet wurde und demzufolge die G7x-basierenden Grafikkarten mit "HighQuality" vermessen wurden, die G8x-basierenden Grafikkarten jedoch mit "Quality". Erst unter dieser Voraussetzung ist ein fairer Vergleich zwischen GeForce 7x00 Grafikkarten zu GeForce 8x00 Grafikkarten überhaupt möglich.
Dagegen können wir den seitens der ComputerBase präsentierten Performanceratings jedoch nicht zustimmen. Wenn wir das einmal anhand des zweiten Testberichts und dort unter 1280x1024 samt 4x Anti-Aliasing und 16x anisotropen Filter nachrechnen, so kommt die GeForce 7950 GT dort auf einen Vorteil von 20 Prozent gegenüber der GeForce 8600 GTS. Dabei wurde der Fall von Colin McRae: DIRT noch gar nicht mit eingerechnet, wo die GeForce 7950 GT rein rechnerisch einen Vorteil von 121 Prozent gegenüber der GeForce 8600 GTS aufweist - was aber auf sowieso unspielbar niedrigen Frameraten passiert und demzufolge kaum (in dieser Form) zu werten ist. Die ComputerBase kommt in ihrem Performanceratings jedoch auf einen Vorteil von 14 Prozent - zugunsten der GeForce 8600 GTS.
Offensichtlich wurden hierbei die drei (von ingesamt zwölf) Benchmarks mit einbezogen, wo keine Werte der GeForce 7950 GT vorliegen, weil diese Karte unter diesen drei Titeln kein Anti-Aliasing unterstützt. Natürlich ist dies als klarer Nachteil dieser Karte zu benennen, auf der anderen Seite ist dies aber auch schwerlich in eine prozentuale Performance-Angabe mit einrechenbar. Das von der ComputerBase in diesem (inzwischen auch etwas älterem) Artikel errechnete Performancerating kann faktisch nur als falsch bezeichnet werden - gerade wenn es wie im konkreten Fall die Verhältnisse zwischen die beiden Grafikkarten komplett umdreht: Nicht die GeForce 8600 GTS ist 14 Prozent schneller als die GeForce 7950 GT, sondern die GeForce 7950 GT 20 Prozent schneller als die GeForce 8600 GTS - gemäß der ComputerBase-eigenen Benchmarks.
Aber auch der korrigierte Wert weisst dann doch darauf hin, daß im ursprünglichen Vergleich GeForce 7900 GT vs. GeForce 8600 GTS nicht wie von uns behauptet die ältere Karte klar vorn liegt. Wenn wir vorgenannten 20prozentigem Vorsprung der GeForce 7950 GT gegenüber der GeForce 8600 GTS damit verrechnen, daß die GeForce 7900 GT um die 20 Prozent hinter der GeForce 7950 GT zurückliegt, sollten GeForce 7900 GT und GeForce 8600 GTS derzeit letztlich auf ein sehr ähnliches Performanceniveau kommen. Dies würde im Umkehrschluß auch bedeuten, daß sich seit dem Start der GeForce 8600 Serie, wo diese noch so ihre Probleme selbst gegenüber der GeForce 7900 GS hatte, doch einiges getan hat - sicherlich zum größten Teil der inzwischen ausgereiften Treiber geschuldet, aber auch dem Trend, daß die GeForce 8600 GTS in neueren Spielen immer näher an die GeForce 7950 GT heranrückt.
Bei nV News gibt es eine interessante Statistik zum den von den Besuchern der Webseite verwendeten Betriebssystemen. Klar ist natürlich, daß Windows Vista im Laufe der Zeit immer mehr an Nutzern hinzugewinnen wird und Windows XP respektive an Nutzern verlieren sollte. Interessanterweise ist in der Statistik dieser Webseite jedoch seit dem August eine Gegenbewegung sichtbar - zwar äußerst geringfügig, jedoch nachweislich gewinnt Windows XP wieder an Nutzern, während Windows Vista ebenso geringfügig Nutzer verliert. Gerade bei einer Webseite zum Thema Computer-Hardware, wo also die Leserschaft generell ein starkes Interesse an neuen Hard- und Software-Entwicklungen haben sollte, ist dies reichlich verwunderlich. Von einem echten Trend ist natürlich noch nicht zu sprechen, dafür ist es nur eine Webseite und der gemessene Ausschlag auch noch zu gering.
Etwas recht bemerkenswertes zum Thema Internet-Werbung hat man bei Orthy verfasst. Dabei geht es speziell um das Dilemma, welches mit Werbung verantwortungsvoll umgehende Webseiten in Zeiten haben, wo die Nutzer - ernsthaft genervt durch PopUps- und Layer-Werbung - immer mehr auf Werbeblocker setzen: Geblockt werden damit eben auch diese Webseiten, welche bislang die Ansprüche der Leser mit berücksichtigt haben und auf solcherart invasive Werbeformen freiwillig verzichteten. Oder anders formuliert: Jene Webseiten, welche kein Problem mit immer aggressiveren Werbeformen haben, schaden damit auch diesen Webseiten, welche sich diesbezüglich den freiwilligen Selbstverzicht auferlegen.
Und dies gilt ja nicht nur für Orthy, sondern auch für 3DCenter: Es gab in acht Jahren 3DCenter bislang keinerlei solch invasiven Werbeformen wie PopUps, PopUnders und Layer und wir werden auch weiterhin solcherart Werbeformen ablehnen, selbst wenn sich die Erträge hieraus schnell auf fünfstellige Summen hochschaukeln können - und gewöhnliche Bannern weit weniger wertvoll sind. Auf der anderen Seite sehen wir das Engagagement unserer Werbepartern auf 3DCenter auch weniger denn als Werbung, sondern eher als Sponsoring an. Schließlich arbeiten wir gewöhnlich sehr langfristig mit unseren Partnern zusammen - beispielsweise ist unser Hauptsponsor, die Firma Listan (Marken beQuiet und Revoltec) seit nunmehr sieben Jahren (!) dabei.
Aber auch mit den anderen aktuellen Partnern - OCZ, PreisRoboter und Ciao - arbeiten wir inzwischen langfristig zusammen, dies galt zumeist auch für die Werbepartner der Vergangenheit. Das Engagement dieser Firmen sei an dieser Stelle nochmals lobend erwähnt, weil ansonsten wäre 3DCenter sicherlich nicht machbar, es ist schließlich kein reines Hobbyprojekt mehr (auch wenn es viel ehrenamtliches Engagement in der Redaktion und im Forum gibt). Womöglich ist es an dieser Stelle vielleicht mal eine gute Idee, nur rein testweise 3DCenter ohne Werbeblocker anzusehen - um festzustellen, daß Werbung auf einer Internetseite nicht zwingend eine visuelle oder gar akustische Belästigung für den Leser sein muß, sondern daß es durchaus auch Webseiten gibt, die versuchen, diesbezüglich Maß zu halten.
News des 9. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Sowohl Legion Hardware als auch AnandTech haben sich die mit Unreal Tournament 3 zu erwartende Performance anhand der Beta-Demo angesehen, wobei erstgenannte Seite ihr Gewicht mehr auf Grafikkarten und letztgenannte mehr auf die CPUs gelegt hat. Generell präsentiert sich das Spiel von der Performance her derzeit durchaus als "NextGen" - ohne allerdings wie noch Crysis selbst gutklassige Mainstream-Karten gleich zum Runterschalten auf Medium-Settings zu zwingen. Trotzdem reicht es unterhalb der aktuellen Performance- und HighEnd-Generation nicht aus, um im HighQuality-Modus noch Anti-Aliasing zu aktivieren - mit Ausnahme der DirectX9 Performance- und HighEnd-Karten von ATI auf nicht all zu hoher Auflösung. Hier liegt gleich eine der allerersten Beobachtungen: Die ATI-Karten - ob DirectX9 oder Direct3D10 - laufen unter Unreal Tournament 3 generell besser als gewöhnlich.
So konnte man zwischen Radeon X1950 XTX und GeForce 7900 GTX eine satte Differenz von 50 Prozent ermitteln, während bei den Direct3D10-Karten die Radeon HD 2600 XT regelmäßig vor der GeForce 8600 GTS und die Radeon HD 2900 XT regelmäßig und deutlich vor der GeForce 8800 GTS lag. Gleichfalls fällt die gewisse Bevorzugung von Direct3D10-Karten auf: Selbst die GeForce 8600 GT liegt noch weit vor der GeForce 7900 GT, während die Radeon HD 2600 XT fast auf das Leistungsniveau einer Radeon X1950 Pro kommt - was angesichts des Performanceabstands, welcher sonst zwischen diesen beiden Karten liegt, auch schon eine Leistung ist. Bei der CPU-Performance gibt es hingegen sehr widersprüchliche Aussagen zwischen den beiden Testberichten. Wenigstens läßt sich jedoch sagen, daß das Spiel durchaus mit QuadCore-Prozessoren umgehen und aus diesen noch einiges an Leistung gegenüber DualCore-Modellen herauskitzeln kann, während hingegen die Größe des Level2-Caches nur mittelmäßiges und der FSB-Takt kaum ein Gewicht haben.
Bei Hard Tecs 4U hat man sich mit der GeForce 8800 GT im Praxiseinsatz und dort insbesondere dem Themenkomplex Temperaturen, Kühlung & Lüfter beschäftigt. Dabei zeigte sich primär, daß die bei dieser Karte seitens nVidia und den Grafikkarten-Herstellern angesetzte Kühllösung sicherlich nicht unterdimensioniert ist, sondern sogar einige Reserven zu haben scheint. Diese werden dann jedoch bei 3700 Lüfter-Umdrehungen in der Minute samt 42,7 dB(A) bzw. 5,0 sone Geräuschbelastung allein nur durch den Lüfter erzielt. Das Problem der GeForce 8800 GT ist also weniger, daß die Karte nicht auch unter ungünstigen Bedingungen oder/und Overclocking kühlbar wäre, sondern dann recht schnell die Umdrehungen und damit das Lüftergeräusch hochzieht. Zu Standard-Taktraten, bei guter Gehäusedurchlüftung und nicht zu hohen Außentemperaturen sollte das alles kein Thema sein - aber schon bei geringen Abweichungen davon reagiert der Lüfter. Insofern ist sicherlich die gesamte Kühlung der GeForce 8800 GT im SingleSlot-Design nicht als auf Kante gebaut zu bezeichnen - sobald es aber um eine leise Kühlung geht, ist die Karte sicherlich an der Grenze des machbaren.
Wie der Heise Newsticker berichtet, will Intel den zukünftigen Einsatz von Rambus-Speichern erneut überdenken, ohne daß bislang allerdings konkrete Produkte geplant sind oder es überhaupt Informationen darüber gibt, in welche Richtung Intel hier denkt. Allgemein sind die Chancen von Rambus' XDR-RAM auf dem PC eher gering einzuschätzen: Beim PC-Hauptspeicher regieren mit dem Erscheinen der Nehalem-Architektur vollständig die integrierten Speicherinterfaces - welche nun einmal auf SDRAM festgelegt sind, womit der Weg für andere Speicherarten praktisch verbaut ist. Bliebe noch der Grafikkartenspeicher: Bei diesem wird aber nun GDDR5 mit Taktraten von bis zu 2500 MHz den Markt aufrollen, was an einem 512 Bit DDR Speicherinterface satte 298 GB/sec ergibt - hier kann selbst die neue XDR-Taktstufe mit ihrerseits beachtlichen 286 GB/sec nicht dagegen ankommen. Gut ist Rambus' XDR in erster Linie dann, wenn aus Platz- oder Kostengründen nur recht kleine Speicherinterfaces zur Verfügung stehen, weil XDR auch mit diesen kleinen Speicherinterfaces schon hohe Bandbreiten zur Verfügung stellen kann. Womöglich will Intel ja genau auf solche Anwendungszwecke hinaus.
News des 8. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Gemäß einer Meldung seitens Hard Tecs 4U will ATI für den Augenblick die kleinere RV670-Variante Radeon HD 3850 etwas bevorzugen und demzufolge die größere RV670-Variante Radeon HD 3870 erst etwas später in den Markt bringen. Offiziell begründet man dies damit, daß die Absatzchancen bei der kleineren und günstigeren Variante höher sind - was wohl erst einmal zutreffend sein mag. Auf der anderen Seite nährt diese Meldung zusammen mit der Information über die geringer gewordenen Taktraten der RV670-Varianten (bei der Radeon HD 3850 von 750/900 MHz auf 668/882 MHz, bei der Radeon HD 3870 von 825/1200 MHz auf nunmehr 775/1200 MHz) durchaus den Verdacht, ATI hätte Probleme, den RV670 auf ordentliche Taktraten zu bringen - daß man sich in einem solchen Fall dann stärker auf die jeweils kleinere Variante konzentriert, wäre eine absolut folgerichtige Reaktion.
Aber auch so muß gesagt werden, daß die Luft für ATI nach dem überzeugenden Start der GeForce 8800 GT und der Absenkung der Taktraten bei Radeon HD 3850/3870 deutlich dünner geworden ist. Wurde der RV670-Chip noch vor wenigen Wochen faktisch als "Heilsbringer" für ATI angesehen, muß man sich inzwischen sogar Gedanken darüber machen, ob es überhaupt reicht, um gegenüber nVidia und deren GeForce 8800 GT entgegenhalten zu können. Aufgrund der Nähe zwischen R600- und RV670-Chip läßt sich dies ja ziemlich gut schon jetzt prognostizieren, sofern die genannten Taktraten so kommen werden: Dann hätte eine Radeon HD 3870 nur noch 4 Prozent mehr Shader-Power gegenüber einer Radeon HD 2900 XT, bei weiterhin 37 Prozent Rückstand bei der Speicherbandbreite.
Selbst wenn letzteres eigentlich nicht wirklich ins Gewicht fallen sollte, da die Radeon HD 2900 XT faktisch schon zuviel Speicherbandbreite hat, reicht das trotzdem nur gerade so aus, um mit der Radeon HD 3870 die Performance der Radeon HD 2900 XT zu ereichen. Mit einer Einschränkung natürlich: Wenn ATI beim RV670-Chip etwas an den Textureneinheiten getan hat, könnte sich die Radeon HD 3870 wohl einigermaßen (vielleicht 5 bis 15 Prozent, je nach Umfang der Änderungen) von der Radeon HD 2900 XT absetzen, viel mehr kann es aber aufgrund der bekannten Daten zu Shader-Einheiten und Speicherinterface nicht werden. Und selbst in diesem Idealfall und wenn ATI den Listenpreis der Radeon HD 3870 wirklich von ursprünglich 299 auf nunmehr 249 Dollar zurückgenommen hat - das dürfte trotzdem knapp werden, um die bei 249 Dollar Listenpreis thronende GeForce 8800 GT 512MB überhaupt einzuholen.
Sollte ATI bei der Texturierleistung nicht zugelegt haben oder aber irgendwo anders keine 15 Prozent mehr Performance gegenüber dem R600-Design herausholen, hat die Radeon HD 3870 - bei aller Liebe zu den Anstrengungen von ATI - schon jetzt absehbar keine Chance gegenüber der GeForce 8800 GT 512MB. Nicht unähnlich ist die Situation bei der Radeon HD 3850, welche mit 256MB und 512MB erscheinen soll. Diese liegt bei den Taktraten gleich nochmal 16 bzw. 36 Prozent hinter der Radeon HD 3870, insofern muß man mit einem Performance-Abschlag von 25 Prozent bei der 512-MB-Edition und 35 Prozent bei der 256-MB-Edition rechnen. Hier steht gleich noch einmal viel stärker zu bezweifeln, ob das gegen die im gleichen Preisbereich (Listenpreis 199 Dollar) antretende GeForce 8800 GT 256MB reichen wird, welche schließlich nur den kleineren Speicher gegenüber der 512-MB-Edition hat und damit nur 10, höchstens 15 Prozent hinter dieser zurückliegen sollte.
Damit dürften die kommenden ATI-Beschleuniger sicherlich nicht schlecht ausfallen, ATI kann schließlich (wie bisher auch) die Produkteinstufung nachträglich noch über entsprechende Preisnachlässe regeln. Allerdings wäre für ATI nach einer mehr als ein Jahr andauerenden Durststrecke ein reiner Performance-Sieg auch wieder einmal wichtig für die Moral sowie das Ansehen bei Presse und Verbrauchern. Aktuell sieht es aber leider nicht danach aus, die derzeit vorliegenden Daten sprechen da eine andere Sprache. Dabei ist ATIs RV670-Chip sicherlich nicht schlecht, immerhin wird ATI mit diesem die R600-Performance in den Preisbereich von 199 bis 249 Dollar Listenpreis herunterdrücken. Nur ist ATI hierbei nVidia mit dem G92-Chip schlicht zurvorgekommen, man hat ATI mit der vollkommen identischen Idee kalt ausgekontert.
Gemäß dem Heise Newsticker hat ATI schon erste Produkte auf Basis des RV670-Grafikchips vorgestellt: Bei der "FireStream 9170" handelt es sich um einen GPGPU-Beschleuniger, welcher nunmehr auch in der für wissenschaftliche Berechnung wichtigen doppelten Genauigkeit arbeiten kann. Der von ATI angegebene Wert von 500 GFlops (eine Radeon HD 2900 XT auf R600-Basis hat 475 GFlops) gilt aber nur für die einfache Genauigkeit, wahrscheinlich wird die doppelte Genauigkeit hier einfach nur mittels zweier Durchläufe erreicht, womit sich die Rechenleistung bei doppelter Genauigkeit halbiert. Ähnliches ist aber auch von nVidias kommenden GPGPU-Lösungen auf G92-Basis zu erwarten, auch hier wird es die doppelte Genauigkeit wohl nur bei einer Halbierung der nominellen Performance geben (was natürlich für 3D-Spiele keine Relevanz hat).
Wieder einmal ein paar Vorab-Benchmarks des kommenden Phenom-Prozessors hat man beim chinesischen Expreview anzubieten. Dabei hatte man einen QuadCore Phenom X4 im Test, der für eben jenen auf 3.0 GHz übertaktet und dort den Intel-Prozessoren Core 2 Extreme QX6850 und QX9650 mit ebenfalls jeweils 3.0 GHz Takt gegenübergestellt wurde. Die wenigen angestellten 3DMark06-Benchmarks verlor der neue AMD-Prozessor gegen diese beiden Intel-Modelle mit einer Differenz von 5 bis 10 Prozent - wobei der AMD-Prozessor sicherlich etwas unperfekt mit DDR2/750 betrieben wurde, obwohl die Desktop-Ausführungen doch bis zu DDR2/1066 offiziell ansteuern können sollen. Eher hinderlich für AMD dürfte aber der Umstand sein, daß es derzeit weniger danach aussieht, als könnte man in kürzerer Zeit eben jene 3.0 GHz mit dem K10-Kern erreichen. Wahrscheinlich wird es ein solches Modell erst im nächsten Jahr zu kaufen geben - wenn Intel eventuell ebenfalls schon eine weitere Taktstufe der Core-2-Prozessoren auf 45nm zündet.
News des 7. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Laut Fudzilla soll nVidias nächster HighEnd-Grafikchip, der D8E (das "E" steht hier für Enthusiast aka HighEnd) erst am Anfang nächsten Jahres antreten. Interessanterweise soll es sich beim D8E aber nicht um einen einzelnen Grafikchip handeln, sondern um eine Kombination zweier G92-Chips unter schlicht einem eigenen Namen. Damit nährt man erneut die Gerüchte, daß auch nVidia diesesmal eine echte HighEnd-Variante ausfallen läßt und dafür auf eine DualChip-Lösung für das HighEnd-Segment setzt. Machbar erscheint es zumindest, mit zwei vollkommen freigeschalteten G92-Chips (aka mit allen 128 Shader-Einheiten) und am besten noch etwas höheren Taktraten die Performance einer GeForce 8800 Ultra zu überbieten.
Abzuwarten bleibt allerdings, ob nVidia bei einer DualChip-Grafikkarte das Abwärmeproblem des G92-Chips in den Griff bekommt: Schlagkräftig wäre eine solche Karte schließlich nur, wenn es wie gesagt 2x 128 Shader-Einheiten und etwas mehr Takt gibt - das alles jedoch in einem DualSlot-Design noch sauber zu kühlen, dürfte durchaus ein Problem werden. Die aktuelle GeForce 8800 GT hat mit nur 112 freigeschalteten Shader-Einheiten und (angesichts der 65nm-Fertigung) nicht gerade herausragenden Taktraten auch schon ihre Probleme mit der Wärmeabfuhr, schon bei geringer Übertaktung werden die Karten schnell deutlich wärmer und dreht der Lüfter demzufolge fixer mit höheren Drehzahlen. Oder anders formuliert: Die aktuelle GeForce 8800 GT ist mit Standard-Taktraten schon knapp auf Kante, was nicht gerade die besten Voraussetzungen sind, um daraus eine DualChip-Grafikkarte zu machen.
Wenn man sich an die letzte offizielle DualChip-Lösung von nVidia, die GeForce 7900/7950 GX2 auf G71-Basis zurückerinnert, so wurden hierfür GeForce 7900 GT Grafikchips angesetzt, welche gewöhnlich sehr gut übertaktbar und dabei dennoch recht genügsam selbst in einem SingleSlot-Design waren. Der G92-Chip ist in einem SingleSlot-Design schon jetzt an seiner Grenze, bei zwei dieser Chips in einem DualSlot-Design sollte es kaum anders werden. Aber nun gut, eventuell hat nVidia bis dahin noch bessere Steppings des G92-Chips in der Hinterhand, mittels welchen dann diese Leistung möglich wird. Hier muß man sich einfach überraschen lassen, was da zum Jahresanfang kommt. Daneben erwähnten The Inquirer im übrigen noch einen D9E-Grafikchip für das HighEnd-Segment für die Jahresmitte 2008, dieser dürfte dann wohl in Konkurrenz zu ATIs R700-Chip gehen.
Nochmal zum Thema GeForce 8800 GT und die Geräuschbelastung: Hierzu sammeln sich inzwischen die Userstimmen, welche jedoch nicht in jedem Fall positives zu berichten wissen. Offensichtlich reicht schon eine geringfügige Übertaktung aus, um die Temperaturen der Karte sehr schnell deutlich hochzutreiben - auf den Standard-Taktraten gibt es aber wohl keine Probleme. Damit sind aber die ab Werk übertakteten GeForce 8800 GT Karten durchaus kritisch zu sehen, sofern sie auf einem SingleSlot-Design aufsetzen. Lösen kann man die Temperaturprobleme selbstverständlich immer mit einem etwas stärker drehendem Lüfter, wobei dieser natürlich auch nicht dauernd zu laut drehen sollte. Hilfreich könnte hierbei eventuell ein Diagram aus dem Forum von nV News sein, wo man sich mit dem Optimum aus Kühlung und Geräuchbelastung beschäftigt hat - welches anscheinend bei 50 Prozent Lüfter-Speed liegt (mit nTune einstellbar).
Bei den HardwareCanucks gibt es nun ein vollständiges Review zur eVGA GeForce 8800 GTS "SSC Edition" mit 112 Shader-Einheiten, sprich der ersten neuen GeForce 8800 GTS. Die Karte ist allerdings ab Werk einigermaßen gut übertaktet (von default 500/1200/800 MHz auf 576/1350/900 MHz), was den Vergleich nicht gerade einfach macht. In den Benchmarks liegt die eVGA-Karte im Schnitt etwa 10 Prozent vor einer GeForce 8800 GT 512MB, wobei der Unterschied in den höheren Auflösung deutlicher ausgeprägt ist. Zumindest diese 10 Prozent Durchschnitts-Unterschied dürften jedoch klar auf das Konto der Übertaktung der eVGA-Karte gehen, eine standardmäßige neue GeForce 8800 GTS sollte laut diesen Benchmarks also nur das gleiche Performanceniveau wie eine GeForce 8800 GT 512MB bieten können. Preislich spricht sowieso alles für letztgenannte Karte, da die GeForce 8800 GT 512MB zu einem Listenpreis von 249 Dollar antritt, die neue GeForce 8800 GTS jedoch weiterhin zu 349 Dollar Listenpreis angesetzt wird (und die ab Werk übertakteten Karten noch etwas teurer sind).
Wie The Inquirer im Gespräch mit Intel erfahren haben, spielte der Prozessorenbauer letztes Jahr durchaus mit der Möglichkeit, entweder ATI oder nVidia aufzukaufen. Man kam aber letztlich von dieser Idee wieder ab, weil man primär Probleme mit den Wettbewerbshütern befürchtet, wenn man als No.1 im Grafikchip-Markt (natürlich nur durch die integrierten Grafikchips, aber immerhin) dann die No.2 oder die No.3 desselben Business' übernehmen würde. Dies dürfte wohl auch langfristig einer möglichen Verbindung von Intel mit nVidia entgegenstehen. Interessanterweise stand bei Intel vor allem die Nutzung von Grafikkarten als GPGPU-Beschleuniger im Vordergrund der Überlegungen, einen der beiden Grafikchip-Entwickler zu übernehmen. Als man die Übernahme-Idee dann fallenließ, hat man anscheinend umgehend das Larrabee-Projekt aus der Taufe gehoben, um eine eigene GPGPU-Lösung zu besitzen.
News des 6. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Laut Hard Tecs 4U soll es nun sogar AGP-Modelle der Radeon HD 3850/3870 geben. Bislang ist das allerdings nur ein Gerücht und gibt es noch nichts handfestes zum Thema. Sollte dies allerdings so zutreffen, würden die letzten verbliebenen AGP-Nutzer wohl noch eine letztmalige Möglichkeit zu einer gehaltvollen Aufrüstung erhalten. Darüber hinausgehend dürften dann aber langsam schon die maximal verfügbaren Prozessoren den Bremspunkt für AGP darstellen: Auf Intel-Seite sind die letzten Mainboard-Chipsätze mit durchgehendem AGP-Support die 8xx-Reihe mit Sockel 478, für welche es heutzutage keine leistungsfähigen Prozessoren mehr gibt. Auf AMD-Seite kommt man da ein wenig weiter, aber auch hier gibt es AGP-Systeme gewöhnlich nur mit Sockel 939, womit man maximal einen Athlon 64 X2 4600+ mit 2.4 GHz einsetzen kann. Das dürfte wohl gerade noch so reichen, um eine Radeon HD 3850/3870 anständig zu befeuern - darüber hinausgehend lohnt sich dann allerdings wirklich eher das Komlett-Upgrade auf PCI Express, womöglich gleich in der Variante 2.0.
Bei den Elite Bastards hat man sich mit der Performance und Bildqualität der Crysis Singleplayer-Demo beschäftigt und dabei hochinteressantes zu Tage gefördert. Denn anscheinend verändert die in den 169er Treibern von nVidia vorhandene spielspezifische Optimierung auf Crysis auch die Bildqualität - am besten zu sehen auf diesen beiden Screenshots: No.1 (default) gegen No.2 (unoptimiert), wenn man auf die Reflektionen der umliegenden Hügel im Wasser achtet. Die unoptimierte Version wurde dabei einfach mit der Umbenennung der "crysis.exe" erreicht, wobei man auf diesem Wege natürlich auch alle anderen spielspezifischen (und nicht die Bildqualität beeinträchtigenden) Optimierungen abschaltet.
Insofern sind die diesbezüglich angestellten Benchmarks seitens Elite Bastards noch etwas unter Vorbehalt zu betrachten: Dabei ermittelte man einen Performance-Unterschied von gewöhnlich 7 Prozent, in einem Fall waren es aber sogar 51 Prozent - welches wie gesagt zwischen default und komplett unoptimierter Variante gilt. Hiermit können also auch vollkommen regelgerechte Optimierungen mit betroffen sein, der festgestellte Performance-Unterschied ist somit nicht einfach der festgestellten irregulären Optimierung anlastbar. Im dümmsten Fall handelt es sich hierbei noch nicht einmal um einen bewußten Cheat seitens nVidia (dafür ist der Performance-Gewinn doch irgendwie zu klein), sondern schlicht um einen Fehler bei der Optimierungsarbeit. Zu fixen wäre dieser natürlich trotzdem - besser heute als morgen und dann natürlich ohne (verräterischen) Performanceverlust ;).
Die Radeon HD 2900 GT auf R600-Basis geht nun doch noch in den Handel, Hard Tecs 4U berichten über eine entsprechende Karte seitens HIS. Bei der Radeon HD 2900 GT handelt es sich um eine Abspeckung des R600-Chips, man bekommt hier nur 240 der original 320 Shader-Einheiten und nur ein 256 Bit DDR breites Speicherinterface, die Taktraten liegen bei 600/800 MHz. Damit dürfte die Performance noch einmal deutlich unterhalb der der Radeon HD 2900 Pro liegen - was angesichts der aktuellen Straßenpreise von Radeon HD 2900 GT Karten von 150 bis 160 Euro (zumeist aber nicht lieferbare Angebote) wohl gerade noch so in Ordnung geht. Das größere Problem für die Radeon HD 2900 GT stellt allerdings die demnächst kommende GeForce 8800 GT 256MB dar, welche mit einem prognostizierten Straßenpreis von um die 185 Euro in eine ähnliche Preisregion geht, allerdings (bis auf den kleineren Speicher) keinerlei Abspeckungen zur GeForce 8800 GT 512MB aufweist und damit bis auf vielleicht 10 bis 15 Prozent Differenz in höheren Auflösungen die gleiche Performance bieten wird.
Es ist durchaus fraglich, ob hier noch Platz für die Radeon HD 2900 GT existiert - wobei dies natürlich auch immer eine Frage der exakten Leistungsdifferenz und der exakten Preisdifferenz ist und wir diese derzeit eben noch nicht exakt wissen. Die Tendenz geht aber eher in Richtung abwarten, vermutlich wird die GeForce 8800 GT 256MB zu einem nicht deutlich höherem Preis ein gutes Stück mehr Performance bieten können. Hinzu kommt dann sogar noch die kürzlich erwähnte GeForce 8800 GS, welche gegenüber der GeForce 8800 GT zwar mit klaren Abspeckungen daherkommt, dafür aber auch mit einem wohl klar besserem Preis antreten dürfte. Allerdings ist derzeit noch kein Liefertermin für die GeForce 8800 GS bekannt (was bedeutet, daß es sich auch bis ins nächste Jahr hinziehen kann), so daß man derzeit für eine kurzfristige Entscheidung die GeForce 8800 GS noch nicht mit einbeziehen kann.
Bei CDR-Info hat man in Form des Gigabyte GA-MA790FX-DQ6 Mainboards wohl den ersten Tests eines Mainboards mit AMDs 790FX-Chipsatz, welche eigentlich erst in einigen Tagen offiziell vorgestellt werden wird. Die wichtigsten Merkmale dieses Chipsatzes sind der Support von AM2+ Prozessoren, PCI Express 2.0 und bis zu vier Grafikkarten-Steckplätzen. Allerdings sind auf dem vorliegenden Mainboard diese vier Grafikkarten-Steckplätze eher ungünstig angebunden: Zwei Stück als x16 und zwei Stück als x4, wobei der vierte seine Bandbreite dann sogar noch mit der Netzwerk-Lösung und den SATA-Geräten teilen muß. Für Quad-CrossFire ist das erst einmal eine suboptimale Lösung - wieviel genau man verliert, können aber nur entsprechende Tests zeigen. Allerdings dürfte es im konkreten Fall wohl kaum am Chipsatz liegen, da dieser auch dazu in der Lage sein soll, bei vier benutzten Grafikkarte die vorhandenen PCI Express Lanes mit viermal x8 vollkommen gerecht aufzuteilen.
News des 5. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie der Heise Newsticker ausführt, waren auf der Webseite von Grafikkarten-Hersteller Diamond kurzzeitig die Daten zur Radeon HD 3850 und 3870 zu finden. Diese bestätigen die bisher bekannten Informationen zu ATIs RV670-Chip (320 Shader-Einheiten an einem 256 Bit DDR Speicherinterface), allerdings liegen die Taktraten der beiden Grafikkarten mit 668/882 MHz bzw. 775/1200 MHz etwas unter dem, was man bisher gerüchteweise annahm (750/900 MHz bzw. 825/1200 MHz). Sieht man sich die neuen Taktraten des Flaggschiffs Radeon HD 3870 an, so fällt im Vergleich zu ATIs bisherigen Top-Angebot in Form der Radeon HD 2900 XT (742/825 MHz) auf, daß es eigentlich kaum noch eine höhere Rechenleistung gibt - und der deutlich höhere Speichertakt wird nun einmal benötigt, um den Nachteil des halbierten Speicherinterfaces wettzumachen.
Insofern sollte die Radeon HD 3870 zu diesen Taktraten kaum wirklich über das Niveau einer Radeon HD 2900 XT hinauskommen. Da diese derzeit eigentlich überall hinter der GeForce 8800 GT von nVidia zurückliegt, blüht der kommenden Radeon HD 3870 das gleiche Schicksal - womöglich der Grund für die Preisreduktion der Radeon HD 3870 von 299 auf 249 Dollar Listenpreis. Auf der anderen Seite würde ATI somit weiterhin eine wirklich schlagkräftige HighEnd-Lösung fehlen, der RV670-Chip scheint eher nur zum günstigen Ersatz des R600-Chips gedacht, bringt aber letztendlich doch nicht mehr Performance. Da auch die anscheinend kommende DualChip-Grafikkarte auf RV670-Basis dies kaum noch herausreißen wird können, erhöhen sich somit erneut die Chancen auf einen echten HighEnd-Chip von ATI, den R680.
Die HardwareCanucks haben eine der ersten neuen GeForce 8800 GTS Karten mit 112 Shader-Einheiten (aber noch auf G80-Basis) durch einen kleinen Crysis-Benchmark laufen lassen. Hier liegt die mit 576/1350/900 MHz ab Werk übertaktete eVGA-Karte allerdings geringfügig vor einer GeForce 8800 GT ebenfalls von eVGA, welche genauso ab Werk auf 650/1620/950 MHz übertaktet antritt. Allerdings geht der einzelne Benchmark zu knapp aus und sind gerade diese beiden ab Werk übertakteten Karten kein guter Hinweis auf die Performance von Standard-Lösungen. Dennoch ist kaum zu erwarten, daß die neue GeForce 8800 GTS auf Standardtakraten sich deutlich vor die GeForce 8800 GT wird positionieren können - was angesichts des weiterhin vorhandenen Preisunterschiedes (die standardmäßige GeForce 8800 GTS soll immer noch klar über 300 Euro kosten) keine guten Voraussetzungen für die neue GeForce 8800 GTS sind.
Einen recht deutlichen Hinweis, daß es zudem zu einer GeForce 8800 GTS auf G92-Basis kommen wird, haben Expreview auf einer (inzwischen wieder veränderten) nVidia-Webseite gefunden: Danach wurde dort eine "GeForce 8800 GTS 512MB" angegeben - welches es mit 512 MB Speicher nur mit 256 Bit Speicherinterface geben kann. Noch deutlicher wird es durch die nVidia-eigene Beschreibung der beim Abspielen von HD-Material zu erwartenden Performance: Da wurden die GeForce 8800 GTS 320/640MB sowie GeForce 8800 GTX und Ultra als "gut" eingestuft, die "GeForce 8800 GTS 512MB" mit der GeForce 8800 GT gemeinsam als "exzellent" - was deutlich auf einen bei der "GeForce 8800 GTS 512MB" verbauten G92-Chip hinweist.
Hard Tecs 4U berichten in drei Meldungen über erste Listungen sowie die Taktfrequenzen von AMDs Phenom X4 Prozessoren: No.1, No.2 und No.3. Diese scheinen anfänglich in der Tat mit den ziemlich niedrigen Taktfrequenzen von 2,2 bis 2,4 GHz in den Markt zu gehen, auch wenn um den Jahreswechsel dann höher getakteter Nachschub kommen soll. Egal aber ob AMD nun zum Start schon 2,6 GHz bieten kann oder nicht, zu diesen Taktraten ist es eher unwahrscheinlich, daß AMDs Phenom-Riege Intel Paroli wird bieten können. Derzeit muß man sich wohl darauf einstellen, daß das seit dem Start der Core-2-Prozessoren bekannte Bild auch in den nächsten Monaten Bestand haben wird. AMD bekommt dann mit der schon laufenden 45nm-Fertigung im kommenden Jahr eine neue Chance, aber bei den Taktraten hat Intel durch die eigene 45nm-Fertigung auch noch jede Menge bislang unausgeschöpfter Reserven.
Shortcuts: Golem berichten von neuen Solid State Disks seitens Samsung, bei welchen der Hersteller aufgrund der Anbindung an SATA Transferraten von 100 MB/sec beim Schreiben und 120 MB/sec beim Lesen verspricht. Bei der Kapazität verbleibt man allerdings bei 64 GB, Preise wurden zudem nicht genannt. Hard Tecs 4U berichten über neue AGP-Modelle seitens Sapphire, mit denen erstmals auch eine Radeon HD 2600 XT GDDR3 (zu Standardtakten) für den älteren Steckplatz angeboten wird. Zwar dürften nach wie vor einige AGP-Modelle der DirectX9-Generation mehr Leistung bieten, aber immerhin wird man für die heutigen AGP-Updates nicht mehr wie früher noch mit erheblichen Preisaufschlägen gegenüber den jeweiligen PCIe-Modellen zur Kasse gebeten. Und letztlich vermeldet WinFuture noch eine weitere Initiative auf dem Gebiet der Billig-Notebooks: So will Hersteller Everex im nächsten Jahr ebenfalls Geräte für unter 300 Dollar anbieten, welche allerdings im Gegensatz zum EeePC und dem OLPC auf Standard-Hardware aufbauen. Vermutlich dürfte man hierbei schlicht auf auslaufende Hardware-Komponenten setzen - für einfache Office-Geräte dürfte das jedoch komplett ausreichend sein.