News-Archiv 17. - 23. Dezember 2007 (51. Kalenderwoche)
22./23. Dezember 21. Dezember 20. Dezember 19. Dezember 18. Dezember 17. Dezember
News des 22./23. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
In diesem Forum ist eine ATI-Präsentation zur Radeon HD 3870 X2 aufgetaucht, der DualChip-Grafikkarte auf Basis des sogenannten R680-Grafikchips, hinter welchem sich natürlich nichts anderes als zwei RV670-Grafikchips auf einer Platine verbergen. Daß ATI für diese DualChip-Lösung den RV670-Chip benutzt, war inoffiziell zwar schon lange mehr oder weniger klar, läßt sich nun aber durch die Angaben aus der Präsentation bestätigen: 666 Millionen Transistoren in 55nm, 320 Shader-Einheiten, Direct3D 10.1, PCI Express 2.0 und ein 256 Bit DDR Speicherinterface (pro Chip) deuten glasklar auf den bei der Radeon HD 3850 und 3870 schon benutzten RV670-Chip hin, welcher dann bei der Radeon HD 3870 X2 einfach in doppelter Ausführung zum Einsatz kommen wird.
Unklar bleiben somit nur noch die Taktraten dieses Boliden, aber wenn ATI in der Präsentation nicht schummeln sollte, dürfte es nicht weniger als bei der (normalen) Radeon HD 3870 sein. Denn diese hat auf 775 MHz Chiptakt eine Shader-Power von 496 GFlops, die Radeon HD 3870 X2 soll angeblich "über ein TeraFlops" haben - insofern darf der Chiptakt der Radeon HD 3870 X2 eigentlich gar nicht niedriger liegen. Die Anfang des neuen Jahres zu erwartenden Karte dürfte dementsprechend auch ungefähr in der doppelten Preisregion wie die Radeon HD 3870 liegen, bei ergo knapp unter 400 Euro. Interessant dürfte noch sein, ob auch diese DualChip-Grafikkarte wieder ein CrossFire-fähiges Mainboard voraussetzt, wie dies bisher bei eigentlich allen anderen DualChip-Grafikkarten der Fall war - und was den Kundenkreis dieser Karte dann doch erheblich einschränken dürfte.
Bei der tschechischen Webseite Extra Hardware ist man (englischsprachig) der Frage nachgegangen, was die sinnvollste Aufrüstoption für die weitverbreitete Radeon X1950 Pro darstellt: Eine Radeon HD 3850 256MB, eine GeForce 8800 GT 512MB - oder einfach eine zweite Radeon X1950 Pro im CrossFire-Verbund? Dabei zeigte sich die GeForce 8800 GT 512MB als zweifellos schnellste Option - was man allerdings von einer Karte ihres Preissegments auch erwarten darf. Mit einigem Abstand streiten sich dann um den zweiten Platz die Radeon HD 3850 256MB sowie die CrossFire-Lösung aus zwei Radeon X1950 Pro Karten. Sobald letztere auf Spiele trifft, wo CrossFire anständig funktioniert, ist diese auch ein wenig schneller als die einzelne Radeon HD 3850 256MB.
Das primäre Problem liegt hier aber darin, daß dies nur bei ungefähr der Hälfte der doch umfangreichen Spiele-Benchmarks seitens Extra Hardware zutraf. In allen anderen Spielen ließ CrossFire die Radeon X1950 Pro im Stich, so daß sich der Effekt der zweiten Radeon X1950 Pro doch deutlich minimierte: Gibt es unter diesen Spielen, wo CrossFire halbwegs anständig bis gut funktioniert, noch einen Performance-Gewinn von 54 Prozent gegenüber einer einzelnen Radeon X1950 Pro, sinkt dieser Schnitt über alle Spiele betrachtet auf nur noch 33 Prozent. Somit stellt im Schnitt der Benchmarks wieder die Radeon HD 3850 256MB die bessere Wahl gegenüber der CrossFire-Lösung dar - allerdings begünstigt eben durch den Umstand, daß in der reinen Praxis CrossFire auf dieser R5xx-basierenden Karte keine überzeugenden Performance-Gewinne vorzuweisen hatte.
Shortcuts: Bei Bit-Tech gibt es nun den zweiten Teil des Artikels "The Secrets of PC Memory", welcher schon im ersten Teil recht interessante Einblicke in die Speichertechnologie erlaubte. Gulli berichten über eine Diplomarbeit zur moralischen und ethischen Wahrnehmung von Computerspielen durch den Spieler. Deren wichtigstes Fazit wohl ist, daß die bisherige Diskussion über diesen Themenkomplex fast ausschließlich von Trockenschwimmern, sprich Nicht-Gamern, geführt wird - was auch zum großen Teil dadurch begründet ist, daß es hierzulande immer noch keine schlagkräftige Gamer-Lobby gibt. Das dies auch anders geht, zeigt Südkorea, wo kürzlich sogar ein passionierter Computerspieler (StarCraft) zum Staatspräsidenten gewählt wurde, wie GameCaptain ausführen. Und letztlich noch etwas passend zum Fest: So berichtet der Stern über den Sicherheitswahn des US-Zolls, welcher es sich nicht nehmen läßt, "sicherheitshalber" in die USA versandte Christstollen zu sprengen, wenn nicht auch bei Versand von privat zu privat eine 13seitige Zollerklärung vorliegt ;).
News des 21. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die spanischsprachige Webseite MadBoxPC hat Bilder und Spezifikationen zu den kommenden Direct3D 10.1 LowCost- und Mainstream-Lösungen von ATI anzubieten: So wird der RV620-Chip in Ablösung des RV615-Chips (Radeon HD 2400 Serie) in den beiden Ausführungen Radeon HD 3450 (525/400 MHz, 256 MB Speicher, 50 Dollar Listenpreis) und Radeon HD 3470 (600/500 MHz, 256 oder 512 MB Speicher, 60 Dollar Listenpreis) antreten. Der RV635-Chip in Ablöung des RV630-Chips (Radeon HD 2600 Serie) kommt dagegen in den Ausführungen Radeon HD 3650 Pro (600/1000 MHz, 256 oder 512 MB Speicher, um die 100 Dollar Listenpreis) und Radeon HD 3650 XT (800/1000 MHz, 256 oder 512 MB Speicher, um die 100 Dollar Listenpreis).
Beide Fälle lassen die Möglichkeit offen, daß ATI die Anzahl der Hardware-Einheiten bei den Grafikchips RV620 und RV635 etwas erhöht hat, schließlich haben die bisherigen Grafikkarten auf der Basis der "alten" Grafikchips schon jetzt teilweise höhere Taktraten anzubieten. Das Speicherinterface wird allerdings nicht verändert - es bleibt beim RV620-Chip bei 64 Bit DDR, beim RV635-Chip bei 128 Bit DDR. Daraus sowie aus der Preislage der im Januar/Februar des neuen Jahres zu erwartenden Karten läßt sich aber schon ableiten, daß es sich bei Radeon HD 3450/3470 um typische OEM-Ware handeln wird und die Radeon HD 3650 die kleinste für Gamer sinnvolle Lösung darstellen dürfte.
Wie der Planet 3DNow! berichtet, sind die AM2-Mainboards von Sappphire trotz allgemein gegenteiligen Äußerungen seitens AMD nicht Phenom-tauglich, dies soll sich auch durch spätere BIOS-Updates nicht mehr ändern lassen. Interessanterweise steht Sapphire damit aber nicht allein da, auch bei anderen Mainboard-Herstellern ist nicht durchgehend eine Phenom-Kompatibilität auf AM2-Mainboards gegeben. Laut einer Auflistung des Planet 3DNow! sind zwar derzeit nur 6 Prozent der AM2-Platinen bekannterweise nicht Phenom-fähig, allerdings liegen zu 62 Prozent der bekannten AM2-Platinen derzeit auch noch keine entsprechenden Informationen vor, kann sich diese Zahl also noch erhöhen.
Dies ist natürlich ein deutlicher Schlag für eines der besten Argumente, welche AMD bislang zu bieten hatte - die angeblich problemlose Aufrüstfähigkeit von Sockel AM2 Mainboards mit Phenom-Prozessoren. Wenn es sich nur um einzelne Platinen handeln würde, welche den Phenom nicht tragen können, wäre dies wohl nicht so weiter wild, aber die jetzigen Zahlen lassen hochgerechnet vermuten, daß bis zu 15 Prozent der am Markt befindlichen AM2-Platinen den Phenom nicht tragen können (OEM-Produkte noch nicht mitgezählt, bei denen ist die Chance sowieso klein). Damit ist es auch beim Phenom wieder ein Glücksspiel, ob die eigene Platinen den neuen Prozessor tragen kann oder nicht - und damit kein Unterschied zu Intels 45nm-Prozessoren mehr, welche ja auch (mit Glück) auf vielen früheren Mainboards laufen sollen.
Der Heise Newsticker berichtet über manipulierte USB-Sticks, welche mehr Speicher vortäuschen als sie wirklich sicher speichern können. Offenbar ist es allerdings möglich, einen solchen manipulierten USB-Stick in seiner Nenn-Speichergröße zu beschreiben - erst beim (erfolglosen) Auslesen der Daten würde man dann das Problem erkennen. Derzeit soll sogar eine gewisse Menge an solchen falschen USB-Sticks unter verschiedenen Herstellernamen und vermischt mit funktionierten USB-Sticks im Markt unterwegs sein, allerdings können solcherart Manipulationen sicherlich auch in der Zukunft jederzeit erneut vorkommen. Was wohl letztendlich bedeutet, daß man neu erworbene USB-Sticks zukünftig generell immer erst mit dem vom Heise Newsticker bereitgestellten Programm H2Testw auf ihre wahre Speichergröße hin prüfen sollte.
News des 20. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Gleich drei Artikel zur GeForce 8800 GT 256MB seitens Bjorn3D, der FiringSquad und von Legit Reviews ermöglichen einen genaueren Blick, was mit der kleinere Ausführung der GeForce 8800 GT möglich und was nicht möglich ist. Die GeForce 8800 GT 256MB verfügt erst einmal über dieselben Hardware-Einheiten wie die 512-MB-Edition, die Unterschiede finden sich im Speicherausbau und aber auch im Speichertakt: Entgegen früheren Informationen und auch entgegen unserer eigenen Aufstellung beläuft sich der reguläre Speichertakt der 256-MB-Version der GeForce 8800 GT auf 700 MHz, nicht auf 900 MHz. Damit ist hier von Anfang an ein gewisser Leistungsunterschied garantiert, auch unabhängig des geringeren Speicherausbaus.
Problematischerweise tritt die von allen drei Artikeln benutzte XFX-Karte mit einer werkseitigen Übertaktung auf 650/1600/800 MHz an - per nVidia-default wären es eigentlich 600/1500/700 MHz. Damit dürfte sich diese spezielle XFX-Karte eher zwischen die reguläre GeForce 8800 GT 256MB und die reguläre GeForce 8800 GT 512MB legen - wobei wenigstens die FiringSquad so clever war, diese Karte zusätzlich auch auf default-Taktraten durchzutesten und uns somit eine Leistungseinschätzung der regulären GeForce 8800 GT 256MB zu ermöglichen. Danach liegt die GeForce 8800 GT 256MB gewöhnlich 10 bis 20 Prozent hinter der 512-MB-Ausführung zurück, in einigen Spielen zeigen sich aber davon abweichend dramatische Unterschiede.
So bricht die GeForce 8800 GT 256MB unter Oblivion, BioShock und Crysis unter der Zuschaltung von Anti-Aliasing über alle Maßen auf unspielbare Frameraten von unter 10 fps (und teilweise noch niedriger) ein. Inwiefern dies an der Größe des Grafikkarten-Speicher hängt, ist allerdings noch nicht ganz klar: Zumindest unter Oblivion verzeichnete eine ATI-Karte mit "nur" 256 MB Speicher keinen Performance-Einbruch - während für BioShock diesbezüglich keine Werte vorliegen und unter Crysis auch die ATI-Karte mit nur 256 MB Speicher total versagte. Insofern läßt sich momentan noch nicht sicher sagen, ob dies den Endzustand darstellen soll - oder ob nicht einfach nur ein Fehler im Treiber vorliegt, welcher behoben werden kann.
Denn abseits dieser drei genannten Ausreißer ist der Performance-Rückstand der 256-MB-Edition wie gesagt verkraftbar und dürfte zu auch einem nicht geringem Teil dem immerhin 28 Prozent niedrigerem Speichertakt gegenüber der 512-MB-Edition geschuldet sein. Allerdings dürfte der größte Bremspunkt wohl beim Preis liegen: Während die 512-MB-Edition derzeit ca. 220 Euro kostet, liegt der Preis der 256-MB-Editon derzeit bei ca. 190 Euro, ergo 16 Prozent niedriger. Dies entspricht zwar ziemlich exakt dem Performance-Unterschied, hier sind die Probleme unter den drei vorgenannten Spielen aber noch nicht mit eingerechnet. Die GeForce 8800 GT 512MB erscheint somit vor der Klärung dieser Probleme doch als die klar solidere Wahl. Und wenn es wirklich eine günstige 256-MB-Karte sein soll, empfiehlt sich eventuell eher die Radeon HD 3850 256MB - die bringt zwar nochmal 15 Prozent weniger Performance als die GeForce 8800 GT 256MB, ist dafür aber inzwischen schon im Preisbereich von ca. 150 Euro zu finden.
Bei Expreview gibt es einen ersten Benchmark-Wert zu ATIs RV635-Chip, welcher die Nachfolge des RV630 (Radeon HD 2600 Serie) antreten soll und sich im Verkauf wohl "Radeon HD 3600" nennen dürfte. Bislang war zum RV635 noch unklar, ob es bei diesem mehr Hardware-Einheiten gibt, gerade das Erscheinen des Performance-Chips RV670 macht dies nun nicht mehr unbedingt notwendig. Leider läßt sich auch mit diesem einen Benchmark-Wert von 11.001 Punkten unter dem 3DMark05 nicht eindeutig sagen, ob der RV635-Chip mehr Hardware-Einheiten hat, denn diese Punktzahl ist zwar zum einen recht nahe an früheren RV630-Tests (9651 3DMarks bei HardwareOverclock bzw. 9683 3DMarks bei den X-bit Labs), auf der anderen Seite lag der Takt der RV635-Karte mit 725/701 MHz doch niedriger als bei der Radeon HD 2600 XT GDDR3 (800/700 MHz). In jedem Fall läßt sich aber prognostizieren, daß der RV635-Chip keinen großen Performancesprung hinlegen und damit weiterhin deutlich im Mainstream-Gefilde angesiedelt sein wird.
Hard Tecs 4U berichten über den nächstes Jahr anstehenden P45 Mainboard-Chipsatz seitens Intel, welcher wohl die Mainstream-Ablösung des aktuellen P35-Chipsatzes darstellen dürfte. Interessanterweise unterstützt der P45 allerdings keinen FSB1600 - was dem X48 vorbehalten sein wird - bietet aber als Verbesserung gegenüber dem P35-Chipsatz generell PCI Express 2.0 sowie eine bessere CrossFire-Anbindung an. Während dies beim P35 und anderen Mainstream-Chipsätzen von Intel noch recht suboptimal mittels x16/x4 gelöst wird, eine Grafikkarte also nur eine x4-Anbindung erhält, unterstützt der P45 dann eine Anbindung unter CrossFire von x8/x8. Allerdings bieten einige Mainboard-Hersteller dies mittels eines extra-Chips auch schon jetzt beim P35, mittels des P45 wird diese Lösung dann sozusagen nur allgemeinverbindlich.
Allerdings ist damit das Optimum für den DualGrafikkarten-Betrieb noch lange nicht erreicht - dieses wäre erst gegeben, wenn man eine x16/x16-Anbindung (natürlich auf PCI Express 2.0) vorzuweisen hat. Dies gilt ganz besonders dann, wenn AMD/ATI offenbar zwei R680-Grafikkarten im CrossFire-Betrieb bündeln will. Dies ergibt sich nämlich aus den von AMD/ATI ausgewiesenen 1280 Shader-Einheiten, was auf vier R600/RV670-Grafikchips hinauslaufen würde - zwei Stück auf jeder R680-Karte und dann eben zwei dieser Karten im CrossFire-Verbund. Wie hoch hier die Effizienz dieser CrossFire-Lösung ist, bliebe abzuwarten - wobei es nVidia mit Triple-SLI doch ganz gut hinbekommen hat, womit auch ATI gute Chancen bei diesem faktischen Quad-CrossFire auszurechnen sind.
News des 19. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie Hard Tecs 4U berichten, räumt Speicherchip-Hersteller Samsung sein Lager an GDDR2-Speicherchips derzeit massiv auf, indem diese Speicherchips deutlich unter Wert verschleudert werden. Damit dürfte das Ende von GDDR2-Speichern auch im LowCost-Bereich eingeläutet werden, diese Rolle werden zukünftig niedrig getaktete GDDR3-Speicher übernehmen. Dies funktioniert natürlich nur, weil die GDDR3-Produktion inzwischen günstig genug geworden ist, um mit der GDDR2-Produktion mitzuhalten - und weil die Speichertaktraten selbst bei LowCost-Grafikkarten immer öfter über jene 500 MHz gehen, welche GDDR2 maximal bieten kann. Eine weitere Bedingung für das Absinken von GDDR3 in den LowCost-Bereich ist sicherlich, daß mit GDDR5 endlich eine potente Ablösung für den HighEnd-Bereich vor der Tür steht, nachdem GDDR4 diese Rolle nur mittelprächtig erfüllen konnte.
Wirklich sehr interessante Ausführungen zum Overclocking eines Core 2 Extreme QX9650 bzw. zu den Problemen beim Übertakten von Prozessoren allgemein hat man bei AnandTech zu bieten. Dabei lieferte man unter anderem Daten zum Stromverbrauch auf verschiedenen Takstufen: Auf dem originalen Takt von 3.0 GHz verbrauchte die CPU 54 Watt, während sich der Stromverbrauch bei deutlichem Overclocking auf 4.4 GHz mehr als erheblich auf 259 Watt erhöht, bei totaler Untertaktung auf 1.2 GHz mit 13 Watt jedoch auch deutlich minimierte. Weitere Probleme bei zu starker Übertaktung ergaben sich zudem im Performance-Bereich: Ab ungefähr 4.25 GHz wurde die CPU (trotz System-Stabilität) sogar teilweise langsamer, was natürlich wenig dem eigentlichen Sinn von Overclocking entspricht. Daneben liefert der Artikel aber auch noch andere bemerkenswerte Details zu den auftauchenden Problemen beim CPU-Overclocking.
Wie unter anderem der Heise Newsticker vermeldet, hat die deutsche Bundesregierung eine erste Änderung am Jugendschutzgesetz beschlossen, welche sich teilweise auch auf Computerspiele bezieht. Sehr unglücklich ist in diesem Zusammenhang aber, daß von vielen (zu vielen) Medien diesbezüglich von einem "Verbot" berichtet wird. Es handelt es hierbei aber nicht um Totalverbote, sondern um eine Ausweitung der automatischen Indizierung - was bedeutet, daß diese Spiele zwar nicht öffentlich angeboten oder beworben werden dürfen, unter Vorlage eines Altersnachweises jedoch weiterhin durch erwachsenen Personen erworben, benutzt und besessen werden dürfen. Dies ist ein deutlicher Unterschied zu einigen weitergehenden Forderungen, welche ein Totalverbot auch für Erwachsene sowie ein generelles Herstellungsverbot beinhaltete.
Einen Haken hat das ganze allerdings dann doch noch: Die neuen Indizierungsvorschriften betreffen nicht die Arbeit der BPjM, welche Indizierungen erst nach einer (normalerweise) umfangreichen Prüfung ausspricht. Vielmehr wird der Erfassungsbereich der automatischen Indizierungen deutlich ausgeweitet, welche bislang faktisch nur "kriegsverherrlichende Spiele" betraf. Solcherart automatische Indizierungen werden üblicherweise von einer Staatsynwaltschaft geprüft und umgehend festgestellt, sofort danach gilt das betreffende Spiel als indiziert. Dadurch, daß diese automatischen Indizierungen nun deutlich ausgeweitet werden, steigt natürlich das Risiko für Hersteller, Händler und Computermagazine deutlich an.
Denn schließlich gibt es einige hunderte Staatswanwaltschaften in Deutschland - und jede könnte anders entscheiden, ganz besonders wenn der Gesetzestext wie in diesem Fall Interpretationen in alle Richtungen hin erlaubt. Ob dies in der Praxis zu mehr staatsanwaltschaftlichen Indizierungen führen wird, bliebe allerdings abzuwarten, denn in der jüngeren Vergangenheit war so etwas gerade bei Computerspielen nur noch höchst selten zu beobachten. Das Potential zu einer Indizierungslawine ist natürlich trotzdem vorhanden, dies ergibt sich gerade schon aus der Biegsamkeit des Gesetzestextes. Klar ist aber auch, daß es derzeit noch zu keinen Totalverboten auch für Erwachsene kommt, selbst wenn solcherart Forderungen damit noch lange nicht vom Tisch sind.
Über ein hochinteressantes Gerichtsurteil zum Thema Filesharing berichtet die Sueddeutsche Zeitung. Dort kam ein Fall vor Gericht, wo durch einen Fehler des Providers der falsche Internet-Nutzer des Filesharings beschuldigt wurde - die Staatsanwaltschaft stellte daraufhin das eigene Verfahren ein, die Anwälte der Contentindustrie wollten sich aber um die entstandenden Prozeßkosten drücken (schon sehr seltsam, daß jemand, der auf Schadensersatz wegen Urheberrechtsverletzungen klagt, einen durch einen selber entstandenden Schaden nicht ausgleichen will). Dies wies das Amtsgericht Hamburg-Altona entschieden zurück und übte zudem massive Kritik am gesamten vorher gelaufenen zivil- und strafrechtlichen Verfahren.
Der bemerkenswerteste Punkt war hierbei, daß das Gericht die derzeit übliche Praxis, daß die Vertreter der Contentindustrie bei der Staatsanwaltschaft den aus der IP-Adresse gewonnenen Realnamen des beschuldigten Internetnutzers erfahren und in der Folge für eigene zivilgerichtliche Fälle verwenden können, als regelrechten Verstoß gegen Strafprozessordnung ansah. Bislang wurde dieser Informationsfluß durch das anwaltliche Recht auf Akteneinsicht begründet - welches aber in der Tat nur dazu da ist, um sich auf einen anstehenden Strafprozeß vorzubereiten und nicht Vorteile zugunsten von Zivilgerichtsverfahren zu erzielen. Natürlich wäre es überaus positiv, sollte sich die Rechtssprechung dieses Amtsgerichts durchsetzen - allerdings ist es momentan auch nur ein Urteil, aus welchem sich demzufolge keine allgemeine Rechtspraxis ableiten läßt.
News des 18. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei AnandTech hat man sich angesehen, was Ageias PhysX Physikbeschleuniger-Karte unter Unreal Tournament III erreichen kann. Denn wie bekannt gibt es für dieses Spiel einen Ageia-Mappack (bestehend derzeit aus zwei Maps), welcher nur mit einem entsprechenden Physikbeschleuniger spielbar sein soll. Dies trifft auf die erste Ageia-Map in Form von CTF-Tornado nicht wirklich zu: Zwar erreicht man dort mit einer PhysX-Karte immerhin 35 Prozent mehr Performance (auch unter hohen Auflösungen!), allerdings kommt man in dieser Map auch ohne die PhysX-Karte auf spielbare Frameraten im 30-fps-Bereich. Klarer wird die Angelegenheit dann aber bei CTF-Lighthouse, einer Map mit sehr vielen zerstörbaren Elementen.
Diese Map liegt dann ohne PhysX-Karte und selbst mit einer schnellen QuadCore-CPU bei maximal 10 fps - und mit PhysX-Karte sofort in einem problemlosen Frameraten-Bereich, wenngleich es nach den Ausführungen von AnandTech trotzdem nicht jederzeit fühlbar flüssig laufen soll. Damit wäre wenigstens bewiesen, daß sich PhysX-limitierte Szenarien auch abseits von extra hergestellte Demos oder Games in einem normalen Spiel wie Unreal Tournament III erstellen lassen - und daß dort auch sehr schnelle QuadCore-Prozessoren keine Chance haben, gegenüber einer PhysX-Karte mitzuhalten. Nach wie vor aber fehlt der PhysX-Idee die Grundbasis an entsprechendem Content, wo man die eigene Stärke dann auch ausspielen kann.
Dabei kristallisiert sich immer mehr heraus, daß es nichts bringt darauf zu setzen, daß die Spieleentwickler in ihren "normalen" Projekten immer mehr PhysX-freundlichen Content einbauen. Denn dies passiert immer eher zurückhaltend, um die Spieler ohne PhysX-Karten und ohne schnellen QuadCore-Prozessoren nicht vor zu große Performance-Probleme zu stellen. Der Vorteil von PhysX ergibt sich aber erst, wenn man regelrecht für PhysX angepassten Content ansetzt, welcher dann natürlich für alle andere Hardware nicht mehr oder nur sehr schlecht zu bewältigen ist. Mit der Beschleunigung von normalen Content wird PhysX jedenfalls nie glücklich werden, die entsprechenden Tests von AnandTech mit den "normalen" Maps von Unreal Tournament III ergaben zwar teilweise einige Performance-Gewinne, welche aber angesichts allgemein hoher Frameraten mehr oder weniger nutzlos erscheinen.
Gestern schon verlinkt, aber noch nicht extra erwähnt wurde der offizielle Release von nVidias 700er Chipsätzen für Intel-Prozessoren. Die neuen Chipsätze nForce 750i SLI und nForce 780i SLI unterstützen prinzipiell PCI Express 2.0, FSB1333, DDR2-Speicher bis zu DDR2/800 (der nForce 780i SLI bei EPP-unterstützenden Speichern auch DDR2/1200), wobei insbesondere der Support von PCI Express 2.0 auch beim kleineren Chipsatz nForce 750i SLI interessant sein dürfte, kann Intel dies bislang doch nur im HighEnd-Bereich mit dem X38-Chipsatz bieten. Der wesentliche Unterschied zwischen nForce 750i SLI und nForce 780i SLI findet sich dann bei der Anzahl der PCI Express Lanes bzw. deren Aufteilung auf die Grafikkarten-Steckplätze.
So bietet der nForce 750i SLI seine SLI-Fähigkeit nur über das Modell "1x16 + 1x8" an, sprich im SLI-Modus wird eine Grafikkarte mit x16 angeschlossen, die andere dann nur mit x8 - anscheinend allerdings beide wenigstens mit PCI Express 2.0. Der nForce 780i SLI bietet hingegen eine für normales SLI perfekte Lösung in Form von zwei PCI Express 2.0 Grafikkarten-Steckplätzen, welche auch beide jeweils mit x16 angebunden. Nur im Fall von Triple-SLI verläßt man das Optimum ein wenig: Die dritte Grafikkarte wird dann zwar immer noch mit x16 angebunden, muß dann allerdings mit nur einem PCI Express 1.1 Steckplatz vorlieb nehmen. Allerdings ist diese Lösung immer noch sinnvoller als eine wenig zum HighEnd-Gedanken von Triple-SLI passenden x16/x16/x8-Anbindung wie beim nForce 680i SLI Chipsatz.
News des 17. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Schon mit dem Start der GeForce 8800 GT war klar, daß sich die GeForce 8800 GTX aufgrund ihres deutlich schlechteren Preis/Leistungsverhältnisses kaum im Markt würde halten können, mit dem Erscheinen der GeForce 8800 GTS 512MB (G92) ist das Schicksal dieser Karte nun auch offiziell besiegelt - sie wird sogar recht kurzfristig aus dem Markt verschwinden. Interessanterweise scheint womöglich gerade diese Aussicht die Grafikkarten-Hersteller und Online-Händler dazu bewogen haben, kurz vor Toreschluß noch einmal massiv mit dem Preis für diese Karte herunterzugehen: Kostete die GeForce 8800 GTX vor einem Monat noch um die 420 bis 440 Euro, sind inzwischen schon Angebote für 360 Euro zu finden.
Für diesen Preis erscheint die GeForce 8800 GTX dann sogar wieder interessant - natürlich immer nur, wenn man in Richtung HD-Auflösungen geht, wenigstens aber überhalb von 1600x1200 bzw. 1680x1050, bis zu welchen die GeForce 8800 GT das klar beste Preis/Leistungsverhältnis innehat. Aber bei einer 1920er oder 2560er Auflösung wird es dann schon eng mit der GeForce 8800 GT und auch der GeForce 8800 GTS 512MB (G92), beide Karten behindert dann das nur 256 Bit DDR breite Speicherinterfaces des G92-Chips. Hier kann die GeForce 8800 GTX, welche sich unter "normalen" Auflösungen zumeist nicht wirklich von den beiden vorgenannten Karten absetzen kann, oftmals 30 bis 50 Prozent mehr Performance erwirtschaften.
Als der Preisunterschied zur GeForce 8800 GT noch beim doppelten lag, war das immer noch kein Argument, aber nunmehr gibt es diese 30 bis 50 Prozent Mehrperformance unter HD-Auflösungen für "nur" noch 70 Prozent mehr monetären Einsatz. Natürlich liegt damit das bessere Preis/Leistungsverhältnis weiterhin bei der GeForce 8800 GT, aber das Verhältnis hat sich mit diesem erheblichen Preisnachlaß bei der GeForce 8800 GTX doch angenähert - und schließlich ist es generell so, daß man für die letzten paar Prozentpunkte Performance im HighEnd-Bereich immer deutlich mehr bezahlt als man dafür herausbekommt. Aber wer diese Mehrperformance im Bereich von HD-Auflösungen benötigt, fährt derzeit mit der GeForce 8800 GTX für 360 Euro sicherlich besser als mit der GeForce 8800 GTS 512MB (G92) für 290 Euro.
Letztere erscheint immer mehr als eher unglückliches Produkt, da die Mehrleistung gegenüber der deutlich günstigeren GeForce 8800 GT 512MB nicht berauschend ausfällt. In dieselbe Kerbe schlägt auch ein Kurztest seitens Expreview, wo der GeForce 8800 GTS 512MB (G92) eine GeForce 8800 GT 512MB mit denselben Taktraten gegenübergestellt wurde - gemessen wurden somit pur 112 gegen 128 Shader-Einheiten, ohne Einfluß der Taktraten. Und für diese 14,3 Prozent mehr Hardware-Einheiten ist der Performance-Gewinn mit im Schnitt 3,6 Prozent einfach zu wenig, selbst unter einem Hardware-Fresser wie Crysis waren es im Schnitt nur 5,9 Prozent. Sehr deutlich limitiert hier das nur 256 Bit DDR breite Speicherinterface, welches für 128 Shader-Einheiten mit hohen Taktraten eben doch ein kleines Stück zu schmal ist.
Damit ergibt sich im übrigen die nachträgliche Bestätigung für nVidia, beim G80-Chip auf ein bis dato eher ungewöhnliches 384 Bit DDR breites Speicherinterface zu setzen - für die verbauten 128 Shader-Einheiten erscheint dieses ideal zu sein. Der G92-Chip hingegen ist durch sein Speicherinterface limitiert und wird damit nie ein wirklicher HighEnd-Chip werden (DualChip-Grafikkarten einmal ausgenommen, dort verdoppelt sich ja faktisch das Speicherinterface) - was natürlich kein Tadel sein soll, der G92 ist ein hervorragender Grafikchip für das Performance-Segment. Allerdings wird es eben bei der GeForce 8800 GTS 512MB (G92) schon recht knapp, weil diese Karte preismäßig zum HighEnd-Segment gehört, dafür aber nicht die entsprechend deutliche Mehrperformance zur Performance-Karte GeForce 8800 GT liefern kann.