News-Archiv 27. März - 2. April 2006 (13. Kalenderwoche)
1./2. April 31. März 30. März 29. März 28. März 27. März
News des 1./2. April 2006 |
In einem Artikel seitens Hot Hardware zum ATI CrossFire Xpress 3200 Mainboard-Chipsatz finden sich ein paar weitere der seltenen Benchmarks zu den CrossFire/SLI Anti-Aliasing Modi Super AA vs. SLI-AA. Trotz der wenigen Zahlen ist ziemlich gut erkennbar, daß ATI diesbezüglich - zumindestens bei den beiden benutzten Benchmarks! - klar vorn liegt: nVidias SLI-AA frisst nach wie vor zu viel Performance, während die Ergebnisse von ATIs Super AA regelmäßig (und selbst bei "14xAA") ans CPU-Limit stoßen. Ebenso gut erkennbar ist auch, daß nVidias "gewöhnliches" 8xS Anti-Aliasing schneller ist als das mittels SLI-AA erzeugte 8x, obwohl von der dabei herauskommenden Bildqualität 8xS sogar geringfügig besser sein dürfte (da 8x SLI-AA keinen Supersampling-Anteil besitzt, die Kantenglättung dürfte hingegen in etwa gleichwertig sein) ...
... nVidia steht dabei im Vergleich 8xS gegen ATIs per Super AA erzeugtem 8x/10x Anti-Aliasing von der Performance her ganz vernünftig da, verliert aber den Vergleich von SLI-AA 16x gegen Super AA 12x/14x haushoch. Dabei sei an dieser Stelle nochmals erwähnt, daß ATIs Bezeichungen der Super AA Modi nicht nur irreführend, sondern selbst bei wohlwollender Betrachtung regelrecht falsch sind: ATI zählt hier bei den Modi mit zusätzlichem Supersampling-Anteil die Texturensamples mit und kommt somit auf eben diese Benennungen "10x" und "14x", obwohl die Anzahl der Subpixel bei diesen Modi jeweils gleich ist zu Super AA 8x bzw. 12x. Zwar braucht man sicherlich eine Unterscheidung zu den letztgenannten Modi, die von ATI gewählte kann es jedoch nicht sein ...
... Denn schließlich werden bei keinem anderen Anti-Aliasing Modus von ATI und nVidia die Texturensamples mitgezählt, weder die zusätzlichen noch generell. ATI zählt aber bei "10x" die 8 Subpixel sowie die 2 Texturensamples zusammen: Würde man diese Rechnung auf einen so bekannten wie normalen Modus wie 4x Anti-Aliasing anwenden, müsste man dort 4 Subpixel und ein Texturensample zählen - dabei würde dann ein "5x" Anti-Aliasing herauskommen. Oder auch nVidias 8xS Anti-Aliasing, welches aus 8 Subpixeln und 2 Texturensamples besteht: Niemand kommt hier auf die Idee, dieses als "10x" Anti-Aliasing zu bezeichnen. Dabei ist nicht zwingend gesagt, daß die aktuelle Berechnungsmethode unbedingt in Stein gemeißelt wäre, doch aktuell wendet ATI für die Modi mit Supersampling-Anteil eine andere Berechnungsmethode an als für die Modi ohne Supersampling-Anteil, was zweifellos unlogisch und damit falsch ist ...
... Wenn man an der gängigen Berechnungsmethode festhält, welche allein die Anzahl der Subpixel berücksichtigt (da allein diese das Kanten-Aliasing bekämpfen), dann dürfen sich jedoch die Super AA Modi "10x" und "14x" nicht so nennen, sondern wären Bezeichnungen wie 8xS und 12xS besser und zumindestens nicht so irreführend. Kleine Ironie an der Geschichte: Selbst wenn ATI seinen "14x" Modus auf die Benennung von 12xS "zurückstufen" würde, hätte man immer noch die gleiche bzw. sogar bessere Bildqualität als nVidia bei seinem 16x SLI-AA. Denn zum einen ist die Glättungswirkung auf Texturen aufgrund der höheren Differenz der Texturensample bei ATIs 12xS besser ist als bei nVidias 16x, zum anderen kann man aber auch die Kantenglättung bei ATI trotz geringerer Zahl der Subpixel (aufgrund der besseren Anordnung) als höherwertiger als bei nVidia einzuschätzen.
News des 31. März 2006 |
The Inquirer berichten ein wenig zum ATI R580+ Grafikchip - wobei ein bißchen unklar ist, inwiefern diese Bezeichnung offiziell ist oder eine Erfindung seitens der Grafikkarten-Hersteller oder seitens The Inquirer zwecks besserer Unterscheidung zum originalen R580. Denn beim "R580+" handelt es sich schlicht um einen R580 in 80nm - der originale R580 wird bekanntlich in 90nm low-k seitens TSMC gefertigt. Zu den 80nm-Planungen von ATI gab es schon vor einiger Zeit ein paar halbe Informationen, allerdings war dies seinerzeit noch nicht richtig einordenbar. Nun aber scheint sich mittlerweile herauszukristallisieren, daß mit dieser 80nm Fertigung keine besonders billige Fertigung für die kleineren Karten der jeweiligen Serie, sondern in der Tat eine echte Ablösung der 90nm-Chips geplant ist ...
... Das impliziert natürlich, daß auch dieser bisher wenig bekannte 80nm Fertigungsprozeß von TSMC sich des low-k Verfahrens bedient, ansonsten sind schwerlich HighEnd-Grafikchips wirtschaftlich herstellbar. Interessant ist es trotzdem, daß ATI diesen recht kleinen Sprung von 90nm auf 80nm macht: Normalerweise betrachtet man solch kleine Sprünge als wirtschaftlich nicht sinnvoll, schließlich kostet auch die Produktionsvorbereitung eines intern unveränderten Grafikchips nur auf ein neues Fertigungsverfahren wiederum einige Millionen. An dieser Stelle bringt man gern das Beispiel von nVidia mit der NV3x-Serie ins Spiel: Die Entwicklung und Produktionsvorbereitung der kompletten NV3x-Chipserie kostete 400 Millionen Dollar, wobei allerdings der Großteil auf die Tests mit den neuen Chips NV34 (GeForce 5200), NV31 (GeForce 5600) und NV30 (GeForce 5800) entfallen sein dürfte ...
... Nichts desto trotz läßt sich aus dieser Zahl ableiten, daß auch die reine Neuauflage eines funktionierenden Designs "nur" in einer neuen Fertigungstechnologie auch einigermaßen an Geld kosten dürfte, die Grafikchip-Entwickler sich auf so etwas also nur einlassen werden, wenn das dafür ausgegebene Geld auch wieder hereinholbar ist. Daß ATI schließlich gemäß mehrerer früherer Meldungen sein komplettes Lineup bis zum Sommer auf 80nm umstellen will, könnte man also durchaus dahingehend deuten, daß uns diese ATI-Generation (zumindestens nach den aktuellen Planungen seitens ATI) noch ein ganzes Stück begleiten wird. Oder anders: Der für den Herbst zu erwartende Launch der ersten Direct3D10-Beschleuniger wird von ATI offensichtlich nicht als sofortiger Umsturz des Marktes hin zu Direct3D10-Hardware angesehen ...
... Aber natürlich könnten durchaus auch eher kurzfristig wirkende wirtschaftliche Erwägungen für diesen Wechsel der Fertigungstechnologie sprechen. Insbesondere im HighEnd-Bereich sind ATIs aktuelle Chips derzeit wohl zu sehr auf Kante gebaut: Eine Radeon X1900 XTX verbraucht laut Messungen der VR-Zone satte 135 Watt unter Last, was noch einmal mehr ist als bei der schon stromhungrigen Radeon X1800 XT mit 113 Watt. nVidia konnte mit dem G71-Chip dagegen den Stromdurst seiner HighEnd-Karten senken: Während eine GeForce 7800 GTX 512MB noch 128 Watt zog, sind es bei der GeForce 7900 GTX nunmehr "nur" noch 89 Watt - das ist schon ein kleiner Dimmensionsunterschied zur ATI-Karte. Und es bedeutet ja nicht nur, daß der Lüfter der nVidia-Karte potentiell langsamer drehen und damit leiser zu Werke gehen kann, sondern auch, daß der Aufwand für Kühlung und Stromversorgung der Karte geringer ausfällt, was wieder günstiger Karten ermöglicht - und so letztlich klare Wettbewerbsvorteile ...
... All dies zusammen dürfte wohl den Ausschlag dafür gegeben haben, daß ATI die 80nm Fertigung breitflächig in diesem Sommer einführen wird. Denn es betrifft ja nicht nur den HighEnd-Bereich in Form des "R580+" Chips, sondern auch die anderen Teilmärkte: Für den LowCost-Bereich soll es die 80nm-Chips RV505 und RV506 geben, wobei der eine von TSMC und der andere von UMC gebaut werden wird. Schon in der Vergangenheit hatte ATI gern einmal den einen oder anderen LowCost-Chip zu UMC ausgelagert, diesesmal will man offenbar sogar einen direkten Wettbewerb der Auftragsfertiger beim letztlich gleichen Endprodukt (Radeon X1300 Serie). Ob hierbei der bisher für diese Grafikkarten-Serie benutzte RV515-Chip komplett abgelöst werden wird, ist allerdings noch nicht ganz klar ...
... Für den Mainstream-Bereich ist dagegen der RV535-Chip in 80nm für die Radeon X1600 Serie angesagt, dafür dürfte der bisherige RV530-Chip aller Wahrscheinlichkeit nach wohl komplett aus dem Programm fallen. Im gleichen Marktsegment wird hier allerdings noch der RV560-Chip ins Spiel kommen, welcher die Radeon X1700 Serie begründen soll. Prinzipiell ist zur Radeon X1700 Serie nur bekannt, daß diese die etwas unglücklose Radeon X1600 Serie beerben und ATI im Mainstream-Markt wieder besser ins Geschäft bringen soll - was ja insbesondere nach dem Launch der GeForce 7600 not tut. Ob ATI den RV560 in 90nm oder gleich in 80nm fertigen wird, ist noch nicht raus - zu den genaueren Daten dieses Chips gibt es derzeit eh nur Spekulationen und keinerlei handfeste Daten. Und letztlich scheint der "R580+" in 80nm den bisherigen R580 in 90nm komplett abzulösen - auch wenn hierbei noch nicht bekannt ist, ob dies nun in neuen Grafikkarten resultieren wird oder die neuen Chips einfach wortlos bei der bisherigen Radeon X1900 Serie zum Einsatz kommen.
News des 30. März 2006 |
Bei PureOverclock hat man mit einer der eher seltenen 512-MB-Ausführungen der GeForce 7800 GT den Vergleich 256 MB vs. 512 MB Grafikkartenspeicher angetreten. Die benutzte Gainward GeForce 7800 GT 512MB wurde dabei per BIOS auf die Standard-Taktraten einer GeForce 7800 GT gebracht, auch an das richtige Geometrie-Delta (etwas höherer Takt der Geometrie-Einheiten bei nVidia G70/G71-Grafikkarten) wurde gedacht - die zum Vergleich herangezogene 256-MB-Variante der GeForce 7800 GT war sowieso schon eine Standard-Ausführung. Die dabei herausgekommenen Ergebnisse differieren allerdings stark von Spiel zu Spiel: Beispielsweise unter F.E.A.R. bewegt sich im Prinzip gar nichts, wahrscheinlich geht es diesem Spiel in erster Linie um Shader-Power. Dagegen ist der Effekt des Mehrspeichers bei Quake 4 eindeutig vorhanden, wenngleich ironischweise unter 1024x768 (bei 4xAA und 8xAF) mit 18 Prozent am größten und unter 2048x1536 mit 9 Prozent untypischerweise am kleinsten ...
... Nur die Werte unter Half-Life 2 fallen so aus, wie man dies (vorab) erwarten würde: Unter 1024x768 (bei 4xAA und 8xAF) mit einer geringen Differenz von nur einem Prozent und dann steigenden Differenzen je höherer Auflösung bis auf 17 Prozent unter 2048x1536. Aufgrund dieser eher verwirrenden Werte fällt es schwer, eine klare Aussage zum Thema 256 MB vs. 512 MB bezüglich Grafikkartenspeicher abzugeben. Andererseits wird diese Aussage wiederum erleichtert durch den Umstand, daß es im absoluten HighEnd-Segment sowieso nur 512-MB-Versionen zu kaufen gibt, die Frage bezieht sich somit nur auf das untere HighEnd- sowie das Mainstream-Segment (512-MB-Grafikkarten gibt es auch im LowCost-Segment zu kaufen, nur ist dies dort klarer Overkill, da die Grafikchips dieses Segments schlicht zu schwach sind, um daraus einen Nutzen ziehen zu können) ...
... Und bei diesen Karten des unteren HighEnd- sowie des Mainstream-Segments gilt, daß diese (unter 4x Anti-Aliasing) zumeist nur bis zu Auflösungen von 1280x1024 schnell sind und dort benutzt werden. In diesen Auflösungen sind die Gewinne durch 512-MB-Grafikkarten aber typischerweise (auch wenn Quake 4 hier dagegenspricht) gering, insofern muß es nicht unbedingt eine solche Karte sein. Natürlich ist dies auch eine Frage des Preises: Wenn einem die 512-MB-Versionen nachgeworfen werden, warum nicht? Aber wenn es einen erheblichen Preisunterschied gibt, ist dieser zumindestens noch nicht durch die aktuell erreichbare Mehrleistung zu rechtfertigen. Natürlich muß genauso auch klar sein, daß in der Zukunft die Anzahl der Spiele, die von 512 MB Grafikkartenspeicher profitieren, zunehmen wird. Gerade für eine langfristige Anschaffung lohnt demzufolge dann doch schon wieder der Griff zur 512-MB-Grafikkarte - wenn denn der Mehrpreis nicht all zu hoch ausfällt.
Zur CeBIT noch nachzutragen wäre die Berichterstattung seitens Hard Tecs 4U über den "Future Port" seitens ASRock in zwei Meldungen: No.1 und No.2. Bei jenem "Future Port" handelt es sich um einen speziellen Port bei den bisherigen Sockel-939-Mainboards von ASRock, welcher zur Aufnahme von speziellen ASRock-eigenen Steckkarten geeignet ist. ASRock realisiert auf dieser Basis nun den Sockel-AM2-Support auf Sockel-939-Mainboards, indem man ein Mini-Mainboard mit Sockel AM2 und DDR2-Speicherbänken für eben jenen Future Port anzubieten gedenkt. Im Sinne der Aufrüstbarkeit ist dies sicherlich eine Idee, welche die Zustimmung der Anwender finden wird - aber natürlich ist diese leider nur auf ASRock-Mainboards beschränkt. Allerdings wird man auch sehen müssen, welchen Performance-Einfluß eine solche Umsetzung hat, schließlich laufen dann Grafikkarte sowie alle an die Southbridge angebundenen Gerätschaften über das Nadelöhr jenes speziellen ASRock-Steckplatzes. PS: Ein Update zur Anbindung des Future Ports findet sich in den News des 27. April.
Unsererseits ebenfalls noch nachzureichen ist die Meldung über den Intel Pentium D 805, welcher nun inzwischen breit für um die 130 Euro verfügbar ist (PreisRoboter / Ciao / Geizhals), obwohl Intel diese CPU nach wie vor offiziell nicht listet. Mit FSB533 und 2.66 GHz Takt wird dabei der technische Unterschied zum regulären Pentium D mit FSB800 und 2.8 GHz Takt erreicht, preislich trennen diese Prozessoren laut Preisliste sogar runde 110 Euro, in der Realität sind es aber derzeit nicht mehr als 40 Euro. Nichts desto trotz eignet sich der Pentium D 805 ziemlich gut, um ein möglichst günstiges DualCore-System auf die Beine zu stellen, so lange die DualCore-Technologie noch nicht in den jeweiligen Billig-Serien der beiden großen CPU-Hersteller (Celeron bzw. Sempron) Einzug hält (was im übrigen wohl noch einige Zeit dauern dürfte).
Shortcuts: Laut DailyTech hat AMD seine ersten DualCore-Prozessoren für den Mobile-Markt vom April auf den Juni verschoben. Diese dürften nun zeitgleich mit den anderen DDR2-gepowerten Prozessoren von AMD antreten, schließlich gehören die Turion 64 X2 Modelle schon dieser neuen AMD-Generation an. Die VR-Zone zeigt für die bastlerisch begabten User einige Spannungs-Modifikationen für aktuelle nVidia-Grafikkarte: Zum einen für die AGP-Karte GeForce 7800 GS und zum anderen für die brandneuen Karten GeForce 7600 GT, GeForce 7900 GT und GTX. Bei der AMDZone hat man sich dagegen mit der Übertaktung des Athlon 64 FX-60 unter verschiedenen Kühllösungen beschäftigt: Im besten Fall ging es dabei mittels einer Prometeia Mach II GT von original 2.6 GHz auf satte 3.6 GHz hinauf.
News des 29. März 2006 |
Mittels zweier Meldungen seitens Hard Tecs 4U lassen sich nun die kompletten Daten der neuen GeForce Go 7900 Serie - auch im Vergleich zur Mobility Radeon X1800 XT - nachlesen: No.1 und No.2. Die GeForce Go 7900 GTX stellt dabei die größere Variante dar und verfügt auch über die identischen Hardware-Basis wie das entsprechende Desktop-Modell. Allerdings sind die Taktraten mit 500/600 MHz deutlich niedriger als auf dem Desktop, wo die GeForce 7900 GTX mit immerhin 650/800 MHz antritt. Dementsprechend sind hier also mitnichten Desktop-ähnliche Leistungen zu erwarten, bei diesem Unterschied in den Rohdaten von rund 25 Prozent muß mit einem Leistungsunterschied von geschätzten 20 Prozent gerechnet werden. Bezogen wieder auf den Desktop-Bereich dürfte die GeForce Go 7900 GTX somit irgendwo im Umfeld der GeForce 7900 GT (450/660 MHz) einzuordnen sein ...
... Die GeForce Go 7900 GS ist hingegen eine auch Hardware-technisch abgespeckte Lösung: Bei dieser wurden vier Rendering-Pipelines samt 4 Pixelshader-Einheiten sowie zusätzlich eine Vertexshader-Einheit deaktiviert, auf dem Desktop ähnelt dies der GeForce 7800 GT. Mit Taktraten von 375/500 MHz und wie gesagt dieser Hardware-Abspeckung sollte die Leistung klar unterhalb einer GeForce 7900 GT ungefähr auf dem Niveau der vorgenannten GeForce 7800 GT liegen, da diese mit 400/500 MHz ganz ähnliche Taktraten aufweist. Seitens ATI steht dagegen weiterhin die Mobility Radeon X1800 Serie auf Basis des im Desktop-Bereich schon abgelösten R520-Chips als Gegenpol. Daß ATI den neueren R580-Chip so schnell für den Mobile-Bereich adaptieren wird, wäre zudem zu bezweifeln, schließlich kommen damit runde 60 Millionen Transistoren nur für die dreifach ausgelegten Shader-Einheiten hinzu ...
... Der dadurch erzielbare Performance-Kick dürfte wohl zu dünn sein, um über den für Mobile-Grafiklösungen eher relevanten Punkt der höheren Leistungsaufnahme des R580-Chips hinwegzusehen. Gut möglich, daß ATI aus diesen Gründen den R580-Chip nicht ins Mobile-Segment bringt und diesen weiterhin mit dem R520 bzw. der Mobility Radeon X1800 Serie bedient. Jene besteht aus der Mobility Radeon X1800 mit 12 Rendering-Pipelines und Taktraten von 450/550 MHz sowie der Mobility Radeon X1800 XT mit den vollen 16 Rendering-Pipelines und Taktraten von 550/650 MHz, womit aber auch ATI bei den Taktraten etwas unter den aktuellen Spitzenwerten aus dem Desktop-Bereich zurückhängt. Was natürlich alles eine Frage des Stromverbrauchs und der in Notebooks eingeschränkten Kühlmöglichkeiten ist ...
... nVidia jedenfalls gibt die GeForce Go 7900 GS mit verhältnismäßig verträglichen 35 Watt Leistungsaufnahme an, die GeForce Go 7900 GTX jedoch schon mit immerhin 68 Watt. Dabei dürfte dies bei der vorhergehenden GeForce Go 7800 Serie auf Basis des in 110nm hergestellten G70-Chips noch höher gewesen sein, demzufolge dürfte diese Serie wohl auch recht schnell wieder vom Markt verschwinden - obwohl eigentlich erst zum Jahresanfang vorgestellt. Einzig die GeForce Go 7800 dürfte wohl noch länger erhältlich sein, handelt es sich hier doch um eine auf 16 Rendering-Pipelines abgespeckte Lösung mit moderaten Taktraten (350/550 MHz), welche sich also gut für Mittelklasse-Notebooks mit Spiele-Anspruch eignet ...
... Wobei jener Spiele-Anspruch bei einem Notebook schon eine witzige Sache ist: Da die meisten guten Notebooks mittlerweile mit 17-Zoll-Widescreen-Bildschirmen samt recht hohen Auflösungen à 1440x900, 1680x1050 und 1920x1200 ausgeliefert werden, ergeben sich aus diesen schon sehr hohen Auflösungen für den Spiele-Anspruch verschärfte Anforderungen, will man auch unter Spielen die native Notebook-Auflösung nutzen. Dies gilt inbesondere, wenn man eines jener Geräte mit einer Auflösung von 1920x1200 erwischt hat: Hier ist eine HighEnd-Grafiklösung faktisch Pflicht (für das Spielen unter der nativen Auflösung), weil diese Auflösung schließlich größer und damit leistungsfordernder ist als selbst 1600x1200 bei Desktop-Rechnern. Eine recht ideale Kombination (für das Spielen unter der nativen Auflösung) ist ein Bildschirm mit auf Auflösung von "nur" 1440x900 und dann eine möglichst große Grafiklösung, was allerdings leider den Kreis der kaufbaren Spiele-Notebooks schon wieder arg einschränkt ...
... Zudem gilt die generelle Empfehlung, auf die jeweils schnellste Grafiklösung der beiden großen Grafikchip-Entwickler beim Notebook-Kauf eher zu verzichten - es sei denn, das Gerät wird wirklich nur in Mitteleuropa als faktischer Desktop-Ersatz benutzt. Denn bei den jeweiligen Spitzenmodellen lassen ATI und nVidia regelmäßig alle Hemmungen bezüglich der Leistungsaufnahme fallen, womit die herauskommenden Grafikchips selbst auf dem Desktop schon als Stromfresser gelten würden (vergleiche GeForce Go 7900 GTX mit 68 Watt Leistungsaufnahme, bei der Mobility Radeon X1800 XT könnte es sogar noch mehr sein, da ATIs R520-Chip allgemein als etwas stromhungriger gilt als die aktuellen HighEnd-Chips von nVidia). Für einen Einsatz in wärmeren Gefilden erscheinen Notebook-Grafikchips mit über 40 Watt Leistungsaufnahme jedenfalls nicht geeigent, schließlich heizen diese nicht nur sich selbst, sondern auch die zumeist nur indirekt gekühlten Innereinen eines Notebooks zusätzlich mit auf.
News des 28. März 2006 |
Nun hat sich auch noch ATI in einem Interview mit der FiringSquad zum Thema Physikberechnung mittels gewöhnlicher Grafikkarten zu Wort gemeldet, wobei an dieser Stelle nicht zu vergessen wäre, daß ATI die prinzipielle Machbarkeit eines solchen Vorhabens schon zum R520-Launch Ende letzten Jahres erwähnte. Es gilt hier zudem klar zu betonen, daß speziell die Software-Lösung "Havok FX" keineswegs derart mit nVidia verbunden ist, als das sie nicht auch auf den Shader Model 3.0 Grafikchips (Radeon X1000 Serien) von ATI laufen würde: Vielmehr hat nVidia Havok FX nur medienwirksam präsentieren "dürften", die entsprechende Produkt-Webseite zu Havok FX betont dagegen klar die Plattform-Unabhängigkeit von Havok FX ...
... Allerdings hängt sich ATI nun nicht so direkt an Havok FX heran, wie nVidia dies derzeit tut - man wird Havok FX prinzipiell unterstützen, plant aber nach den Ausführungen von Golem zusätzlich noch eine eigene Physik-Schnittstelle, die Voraussetzung ist auch hier ein Shader Model 3.0 Grafikchip. Interessanterweise plant auch ATI hierbei CrossFire einzusetzen - klar, alles, was den Absatz weiterer Grafikkarten ankurbelt, ist bei den Grafikchip-Entwicklern immer gern gesehen. Gegenüber der nVidia-Lösung hat die ATI-Lösung hierbei jedoch den entscheidenden Vorteil, daß man auch unterschiedliche Grafikkarten zum Zweck der Physikberechnung koppeln kann: Beispielsweise eine Radeon X1900 für die Grafik und eine Radeon X1600 für die Physik. Entscheidender Nachteil der ATI-Lösung ist natürlich, daß sie höchstwahrscheinlich nur auf ATI-Grafikkarten funktionieren dürfte und es somit für die Spieleentwickler sinnvoller erscheint, auf die offene Lösung von Havok zu setzen ...
... Davon abgesehen gilt jedoch zu Havok FX zu sagen, daß die Informationslage hierzu bislang arg dürftig ist - viel zu dürftig, um zu einer halbwegs sicheren Einschätzung kommen zu können, was Havok FX denn nun zu leisten in der Lage ist. Schließlich sind GPUs nun einmal keine CPUs oder dedizierte Physik-Berechner wie Ageias PhysX. Prinzipiell sind die Shader-Einheiten von GPUs zwar auch zu vielem anderen benutzbar, dieses "benutzbar" bedeutet jedoch noch lange nicht, daß man damit auf eine zufriedenstellende Performance kommt. Schließlich ist schon der Shader-Teil der GeForce3 prinzipiell zu Physik-Berechnungen zweckentfremdbar - aber natürlich würde wohl niemand annehmen, daß diese Karte dies schneller erledigen kann als eine CPU. Aus der prinzipiellen Machbarkeit ist also leider nicht auf die praktische Anwendbarkeit zu schließen: In diesem Punkt wird Havok mit Fakten und nicht (wie bisher) mit Marketing-Material kommen müssen ...
... In Dingen Physik-Beschleunigung möchten wir also an dieser Stelle generell zur Gelassenheit raten. Was der Ageia PhysX wirklich kann, werden die kommenden Monate zeigen – über den Chip und seine Leistungsdaten ansich ist bis auf wenige Zahlen, die für sich allein genommen nichts sagen, noch nichts bekannt. Havok ist dagegen Marktführer was Software-Pakete angeht, die effiziente Physikroutinen zur Verfügung stellen. Und natürlich ist rein prinzipiell jede weitere Forschung sowohl im Software- als auch im Hardware-Bereich zu begrüßen, da Level-umfassende Physikberechnungen stark zur Glaubwürdigkeit der 3D-Szene beitragen können – bislang sind immer nur einzelne Objekte im Spiel "physikfähig", und auch das nur begrenzt. Daß man allerdings auch SM3-GPUs für Physikberechnungen nutzen kann, ist nun aber nichts erstaunlich neues ...
... Bestimmte einfache Physikberechnungen lassen sich wie gesagt schon mit einer GeForce3 und ihrem Vertexshader 1.1 beschleunigen – das Wort "Physikberechnung" ist ein weites Feld. ATI und nVidia möchten nun natürlich den Absatz ihrer Shader Model 3.0 GPUs ankurbeln, indem sie hoffen, dass sich die prinzipielle Eignung von SM3-GPUs auch für komplexere Physik herumspricht. Doch wir möchten an dieser Stelle erst einmal abwarten, was für Physik-Berechnungen durch GPUs wirklich beschleunigt werden: Nur Effekt-Physik zum Beispiel für realistischere Explosionen oder auch Spielwelt-Physik? Für das letztere erscheint uns eine dedizierte PPU-Zusatzkarte à la PhysX prinzipiell geeigneter – sofern Rohleistung und Treiber stimmen. Bei PPUs sehen wir im Gegensatz zu GPUs auch bessere Möglichkeiten, Rechen-Ergebnisse schon im nächsten Frame zur Verfügung zu haben ...
... Wenn man unbedingt GPUs zur Berechnung nutzen will, sehen wir allerdings derzeitig ATIs SM3-Chips als im Vorteil, weil bei diesen die dynamische Branching-Performance im Vergleich zur GeForce7-Serie um Klassen besser ist. Das heißt, bei Programmsprüngen, deren Ziel erst im Laufe der Shader-Berechnung festgelegt wird, muss die GeForce7 im Vergleich zur Radeon X1000 kräftig Federn lassen. Während es bei Grafik bis heute in erster Linie auf hohe Rohleistung ankommt, die GeForce7 als 3D-Beschleuniger also nicht schlecht dasteht, sind viele (aber nicht alle) Physik-Probleme auf Verzweigungen in der Berechnung angewiesen. Doch abseits aller technischen Diskussionen ist auch klar: Die Spieleentwickler wollen auch die Grafik immer weiter verbessern und würden zusätzliche Grafikleistung und SM3-Features wohl erst einmal für schönere Grafik nutzen. Unserer Meinung nach sollten sich ATI und Nvidia also eher darauf konzentrieren, weiterhin die Grafikleistung und Bildqualität zu verbessern und zudem von fragwürdigen "Optimierungen", die zulasten eben dieser Bildqualität gehen, die Finger lassen - als zu versuchen, mit auf der Physik-Welle zu reiten.
Laut Hard Tecs 4U hat sich nVidia dazu entschlossen, die Produktion der beliebten Southbridges M1573 und M1575 beim neuerlich erworbenen Tochterunternehmen ULi einzustellen. Dabei wird gerade die M1575-Southbridge von sehr vielen Mainboards mit ATI-Northbridge benutzt, da die ATI-eigene Southbridge SB450 nicht mehr zeitgemäß und vor allem zu teuer ist. Wirtschaftlich macht die Entscheidung von nVidia keinen wirklichen Sinn, da die M1575-Southbridge absolut vernünftig im Markt dasteht - hier scheint es wohl nur darum zu gehen, ATI beim Absatz von Mainboard-Chipsätzen in Schwierigkeiten bringen, da ATI momentan auf die ULi-Zulieferungen angewiesen ist. Was dem Verhältnis der beiden großen Grafikchip-Entwickler keinesfalls gut tun wird - sofern man diesen Hahnenkampf, der bei der CeBIT sogar nahe an Handgreiflichkeiten war, überhaupt als "Verhältnis" bezeichnen kann.
Shortcuts: Bei der ComputerBase hat man sich mit der Frage beschäftigt, was bei aktuellen AMD-Prozessoren speicherseitig mehr bringt: Takt oder Timings - bezogen dabei insbesondere auf teuren Übertakterspeicher. Hard Tecs 4U berichten hingegen über kommende Mobile-Grafikchips von nVidia: So soll es künftig auch eine GeForce Go 7900 GS sowie eine GeForce Go 7900 GTX für den Mobile-Einsatz geben. Golem berichtet über die Planungen der Hollywood-Studios bezüglich einer reduzierten Auflösung bei der Wiedergabe von HD-DVD/Blu-Ray-Inhalten auf nicht-HDCP-kompatiblen Geräten. Momenten plant nur ein Hollywood-Studio diesen Schritt, die anderen halten sich diese Möglichkeit jedoch weiterhin offen (und werden sie wohl später auch nutzen). Interessant ist jedoch der Punkt, daß über jene Auflösungsreduzierung (per ICT) zumindestens in den USA auf dem Cover hingewiesen werden muß.
News des 27. März 2006 |
Laut Hard Tecs 4U wird nun auch Intel schon Anfang nächsten Jahres erste QuadCore-Prozessoren in den Markt bringen - ob speziell aus diesem Grunde allerdings Windows Vista verschoben wurde, bleibt arg zu bezweifeln. Die von Intel vorerst geplanten QuadCore-Prozessoren sehen sowieso eher nur nach einer Marketing-Antwort auf AMDs im gleichen Zeitraum antretenden QuadCore-Prozessoren aus, da Intel auch 2007 deutlich mehr DualCore-Prozessoren herauszubringen gedenkt, der eigentliche Umstieg des breiten Marktes auf QuadCore somit sicherlich noch nicht 2007 erfolgen wird. Womöglich wird Intel die QuadCore-Prozessoren nur bei den Extreme Editions oder gar nur im Server-Bereich einsetzen - ebenso ist es aber nicht unwahrscheinlich, daß auch AMD ähnlich verfahren wird ...
... Denn mit den QuadCore-Prozessoren im Desktop-Bereich wird wohl noch viel offensichtlicher als jetzt werden, daß der größte Anteil der im Home-Bereich benutzten Software nicht auf Prozessoren mit mehreren Cores vorbereitet ist und somit aus diesen keinen Nutzen ziehen kann. In diesem Sinne ist Intel nachträglich bezüglich HyperThreading zu danken, denn ohne diesen Vorlauf würden die Programmierer von im Home-Bereich eingesetzter Software erst jetzt anfangen, sich dem Thema von MultiThreading (egal ob über virtuelle oder "echte" Cores) zu widmen. Der DualCore-Prozessor wird aber bisher noch maßgeblich dadurch gestützt, daß ein guter Taskmanger die (leistungsfressende) Vordergrundanwendung auf den einen Core und die verschiedenen System-Hintergrundprozesse (u.a. Firewall, Virenscanner und sonstige autostartende Tools) auf den anderen Core verlagern kann, womit man auch ohne spezielle Anpassung der Software an DualCore-Prozessoren ein wenig Leistung gewinnen kann ...
... Mit QuadCore-Prozessoren fällt dieser Vorteil zwar nicht weg, läßt sich dafür jedoch auch nicht mehr steigern. Spätestens ab diesen Prozessoren muß dann die Software entsprechend angepasst sein, ansonsten bewegt sich bei der Performance absolut gar nichts. Insofern dürfte der Übergang zu QuadCore-Prozessoren speziell im Home-Bereich wohl viel langsamer vonstatten gehen als es rein technisch möglich wäre. QuadCore schon für Anfang 2007 hört sich sicherlich toll an, aber bis auf Anwender, die schon darauf vorbereitete Software einsetzen, sollte man sich im klaren darüber sein, daß an dieser Stelle angelangt nun wirklich erst einmal ein MultiThreading-Ruck durch die Software-Branche gehen muß, ohne welchen diese Prozessoren schlicht nicht nutzvoll im Heim-Bereich sein.
Nach dem Artikel seitens der THG kommt nun die nächste Betrachtung eines Sockel-AM2-Prozessors aus Hongkong: Bei HKEPC (maschinelle englische Übersetzung) hat man sich die Sockel-AM2-Version des Athlon 64 X2 4800+ gegenüber seinem gleichnamigen und auch gleich getakteten Pendant auf Sockel-939-Seite ansehen. Dabei kam beim Sockel-AM2-Prozessor auch gleich DDR2/800-Speicher zum Einsatz, womit zumindestens dieser Punkt der Verkaufsrealität im Juni entsprechen dürfte. Allerdings handelte es sich bei dem Testmaterial natürlich weiterhin um einen Vorserien-Prozessoren sowie - ziemlich wichtig - um ein Vorserien-Mainboard, wo also bis zum Verkaufsstart gerade beim Mainboard immer noch etwas Geschwindigkeit herausholbar ist ...
... Die Performance gemäß dieses Vorserien-Tests ist aber - wie schon beim THG-Artikel - stark ernüchternd: Das Sockel-AM2-Gespann postet faktisch dieselben Werte wie das Sockel-939-Gespann, selbst in eher theoretischen Benchmarks ist kein wirklicher Ausschlag zugunsten des DDR2-gepowerten Prozessors zu sehen. So langsam wird die Luft eng für AMD: Denn die Bestätigung der THG-Zahlen fällt durch den HKEPC-Artikel zu eindeutig aus, als daß man dies ignorieren könnte. Den großen Performance-Boost scheint es mit den Sockel-AM2-Prozessoren bzw. deren DDR2-Support wohl nicht zu geben. Will AMD nicht ab dem Sommer ziemlich öffentlichkeitswirksam zurückhängen, wird man wohl oder übel die eigenen Roadmaps überdenken müssen, welche für dieses Jahr nur eine Taktsteigerung auf 2.6 GHz bei den X2-Prozessoren vorsehen. Denn sollte AMD gegenüber der Core-Architektur - so wie jetzt zu befürchten - wirklich um 20 Prozent Leistung pro MegaHertz zurückhängen, kann es nur über höhere Taktfrequenzen gehen, um Intel weiterhin Paroli bieten zu können.