News-Archiv 11. - 17. Dezember 2006 (50. Kalenderwoche)
16./17. Dezember 15. Dezember 14. Dezember 13. Dezember 12. Dezember 11. Dezember
News des 16./17. Dezember 2006 |
Bei Orthy gibt es eine ziemlich gelungene Kaufberatung zur Radeon X1950 Pro bzw. den hierbei am Markt befindlichen Varianten. Aufgrund dessen, daß es bei dieser Karte keine übertakteten Exemplare gibt und die 512-MB-Versionen nur interessant sind, wenn sich der Preisaufschlag in engen Grenzen hält, hat man sich vor allem auf die Kühler sowie deren Lüftergeräusch der verschiedenen Karten konzentriert - wobei hier nicht mit Kritik gespart wurde und somit kaum eine Karte dem prüfenden Blick wirklich uneingeschränkt standhalten konnte. Etwaige Benchmarks hat man sich dagegen gespart, dafür gibt diese Kaufberatung dem interessierten Anwendern jedoch wertvolle Hinweise, welche Karte für den jeweils gedachten Anwendungszweck als die beste erscheint.
Gemäß einer Meldung seitens Hartware basiert die hier schon genannte Radeon X1050 nicht wie von uns zuerst erwartet auf den ATI-Grafikchips RV505/506 oder RV515/516, sondern erstaunlicherweise auf dem schon älteren RV370-Chip, welcher bei den Shader 2.0 Grafikkarten Radeon X300, X500 und X600 verbaut wurde. Damit unterminiert ATI zwar etwas das Markenzeichen der Radeon-X-Serie als generelle Shader 3.0 Beschleuniger, andererseits kommt dies natürlich dem LowCost-Anspruch der Radeon X1050 näher und stellt zudem eine gute Abgrenzung zu den nächsthöheren Angeboten in Form der Radeon X1300 Serie sowie (demnächst) der Radeon X1550 dar, welche ihrerseits natürlich Shader 3.0 Beschleuniger sind.
The Inquirer bringen mal wieder ein paar Gerüchte zum Thema der Auslagerung von Grafikkarten in externe Gehäuse. Damit sind jedoch nicht externe Grafikkarten via USB gemeint, welche es ebenfalls gibt (nur für 2D-Aufgaben geeignet), sondern man will vielmehr die eigentliche Haupt-Grafikkarte aus dem System haben, was mehrere Vorteile hat: Die Kühllösung und auch das Netzteil könnten jeweils an die Grafikkarte perfekt angepasst sein, zudem ergeben sich auch keine Platzprobleme für besonders große Modelle mehr. Das Problem der Anbindung ist zudem mittels PCI Express eigentlich keines mehr: Jener Standard erlaubt ausreichend lange Signalwege auch für eine externe Anbindung. Ob es allerdings irgendwann wirklich einmal dazu kommt, daß neben dem PC-Gehäuse auch noch ein extra Grafikkarten-Gehäuse steht, ist damit noch lange nicht gesagt.
Einen recht interessanten Artikel über den Kampf gegen eMail-Spam hat die Telepolis anzubieten. Danach haben die Spammer in letzter Zeit technisch mehrere Schippen oben drauf gelegt, womit sich zum einen das Aufkommen an Spam-eMails erhöht hat und zum anderen die Rate der mittels Spamfiltern erkannten Spam-eMails zurückgegangen ist. Dies dürften sicherlich auch die meisten eMail-Nutzer aus ihren eigenen Praxis bestätigen können: Beim Schreiber dieser Zeilen kommen beispielsweise derzeit rund 89 Prozent per Filter erkannter und 7 Prozent nicht vorab erkannter Spam an - bleiben nur noch 4 Prozent an realen eMails übrig ;). Gerade gegenüber Bilderspam oder auch Spam-eMails mit größeren Teilen "guten" Textes zeigen sich dann die Limits von textbewertenden Spamfiltern, welche wohl über kurz oder lang durch noch bessere Antispam-Technologien abgelöst werden müssen.
Die Telepolis berichtet desweiteren von neuen Einschränkungen für Chinas Blogger. Interessanterweise werden dabei dieselben Argumente vorgeschoben, mit welchen sich auch schon Blogger & Foren hierzulande herumschlagen müssen: Angebliche Rufschädigungen oder/und Beleidigungen. Nur daß in China mit Hilfe solcherart recht einfach zu konstruierender Anschuldigungen die herrschende politische Meinung durchgedrückt wird - und hierzulande die Meinung großer Firmen gegenüber Privatbürgern, welche sich (frevelhafterweise) öffentliche Kritik herausgenommen haben. Auch bei der Verwirklichung von Kontrollmöglichkeiten ist man sich näher als man denkt: Während in China zukünftig alle Blogger vorab unter Klarnamen registriert werden sollen, ist hierzulande die vollständige Aufzeichnung der vergebenen IP-Nummern in Sicht.
Shortcuts: Beim Planet 3DNow! kann man sich kompletten Präsentations-Folien von AMDs Analyst Day 2006 zu Gemüte führen. Laut der PC Games Hardware soll dem im Frühjahr anstehenden nVidia MCP73 Mainboard-Chipsatz mit integrierter GeForce7-Grafik zu einem noch nicht genau bekannten Zeitpunkt der MCP79 Mainboard-Chipsatz nachfolgen, welcher dann sogar schon über eine Direct3D10-fähige Grafiklösung, wohl auf Basis der G80-Technologie, verfügen wird. HardOCP berichten hingegen von einem Problem des neuen nVidia nForce 680i SLI Mainboard-Chipsatzes in Bezug auf die Nutzung des Chipsatz-eigenen Serial ATA Conrollers im RAID-Modus. nVidia hat das Problem inzwischen auch gegenüber HardOCP zugegeben und arbeitet intensiv an dessen Behebung mittels neuer Mainboard-BIOSe, wie auch die X-bit Labs mittels des Verweises auf ein entsprechendes Beta-BIOS von eVGA bestätigen können.
News des 15. Dezember 2006 |
Der Heise Newsticker hat reichlich Informationen zu AMDs Zukunftsplänen zu bieten, welche zwar teilweise schon bekannt waren, nun aber durch AMD selber bestätigt wurden. So wird AMD QuadCore-Prozessoren für den Desktop-Einsatz in der Tat erst deutlich später als für den Server-Einsatz bringen, gemäß früherer Informationen soll dies im dritten Quartal 2007 passieren. Interessanterweise machen diese Prozessoren bzw. die dazugehörigen Mainboard-Chipsätze dann schon den Umstieg auf PCI Express 2 mit, während bestätigt wurde, daß AMD auf DDR3-Speicher erst "spät in der zweiten Jahreshälfe 2008" mittels des dann anstehenden Sockel AM3 umsteigen werde ...
... Regelrechte Neuigkeiten kommen dagegen aus dem Serverbereich: Dort will AMD im Jahr 2009 einen 8-Kern-Prozessor bringen. Allerdings dürfte mit diesem Prozessor dann wohl auch die Ära der Verdopplung immer derselben Kerne auch wieder zu Ende gehen. AMD deutete diesbezüglich schon an, daß man die Zukunft dann eher in Spezialkernen als einer möglichst großen Anzahl immer wieder derselben Kerne sieht. Das Ziel sind dabei Prozessoren, welche über eine gewisse, aber begrenzte Zahl an Standard-Kernen verfügen - und dazu dann je nach Einsatzgebiet entsprechende Spezialkerne. Für die mittelfristige Zukunft will AMD dies über extra Chips und deren Anbindung an HyperTransport lösen, in der Zukunft will man dies natürlich dann alles auf ein Die integrieren.
Wie Golem berichten, hat Microsoft mittels eines Updates einen der umherlaufenden Cracks für Windows Vista ausknocken können. Allerdings war dafür natürlich die Mithilfe der Anwendern vonnöten - diese hatten sich bei Microsoft Update eingeloggt und kamen somit in den "Genuß" des vorgannten Updates. Keine Hilfe für Microsoft ist jenes Updates natürlich bei Anwendern, welche dem Betriebssystem den Zugriff auf Microsoft Update bzw. die Microsoft-Server allgemein verbieten - dann bleibt eine einmal gecrackte Version auch ewig gecrackt. Nachteiligerweise und wie an dieser Stelle schon erwähnt entstehen damit natürlich massenhaft Rechner, welche nie upgedatet werden, was diese Rechner (im gewöhnlichen) anfällig für Trojaner-Attackten macht und damit der Entstehung großer Botnetze Vorschub leistet.
Wir hatten vor einiger Zeit schon über den Fall des Online-Spielevertriebs Triton gesprochen, welcher ziemlich unerwartet seine Pforten schloß. Damit standen die bisherigen Nutzer allerdings vollkommen im Regen, denn die über Triton erworbenen Spiele erfordern bei jedem Start eine Online-Authentifizierung bei einem ab 5. Oktober abgeschaltetem Triton-Server. Bezüglich des derzeit aktuellen Titels Prey konnte man zwar eine Einigung mit dessen Publisher erreichen - 3D Realms wollen kostenlos CD-Versionen von Prey an die Triton-Kunden verschicken. Entscheidend ist aber, daß in allen anderen Fällen von über Triton vertriebenen Spielen bis dato absolut überhaupt nichts mehr passiert ist. Und da nunmehr immerhin schon zwei Monate vergangen sind, ist hierbei nun wohl auch keine Besserung mehr zu erwarten ...
... Insofern kann man mit Fug und Recht sagen, daß Triton das erste und damit Exemplarbeispiel einer Vertriebsstruktur ist, welche dem Anwender auf den ersten Blick sogar noch als Vorteil erscheint (uns so verkauft wird), jedoch keinerlei Nachhaltigkeit besitzt und daher immer das Risiko des Totalverlusts für den Anwender & Käufer mit sich bringt. Normalerweise wäre hier natürlich zuerst einmal die Politik in der Pflicht, solcherart Vertriebsformen harte Vorsichtsmaßnahmen für solcherart Fälle vorzuschreiben - allerdings dürften dafür wohl noch Jahre vergehen. Andererseits könnte man natürlich auch auf einen Lerneffekt seitens der Anwendern hoffen, daß der Zwang zu Online-Aktivierungen oder gar wie im Fall von Triton ständigen Online-Authentifizierungen dem Nutzer eigentlich gar nichts außer dem zusätzlichen Risiko des Totalverlusts bringt.
News des 14. Dezember 2006 |
Sowohl die ComputerBase als auch Tweaktown haben das seit dem Catalyst 6.11 verfügbare Feature des "Software-CrossFire", sprich die logische Verbindung zweier ATI-Grafikkarten nur über die jeweiligen PCI Express Steckplätze, ausgetestet. Dabei stellte sich das zu erwartende Bild ein: Natürlich ist die regelgerechte CrossFire-Verbindung performanter als das Software-CrossFire, im Schnitt laut der ComputerBase bei 12 Prozent und laut TweakTown bei 22 Prozent (bei letztgenanter Seite wurden allerdings nur die 3DMarks getestet). Dabei schwanken die Leistungsunterschiede jedoch enorm von Spiel zu Spiel - in einigen Anwendungen gibt es keinerlei Unterschiede, in anderen gehen die Differenzen bis auf 50 Prozent hinauf ...
... Auffällig war hierbei, daß der Unterschied in Spielen mit bekannt hoher Grafikkarten-Limitierung in der Tendenz größer ausfällt, so daß bei entsprechend großer CPU eventuell mit sogar noch höheren Performance-Unterschieden gerechnet werden muß. Demzufolge kann das Weglassen der regulären CrossFire-Verbindungen - ob "altmodisch" über die CrossFire-Kabel oder seit neuestem auch nur über die CrossFire-Konnektoren - nicht empfohlen werden, bei ohne CPU-Limitierung vielleicht 20 Prozent Leistungsverlust erwirtschaft die zweite Grafikkarte dann nämlich nicht mehr wie gewünscht 70 bis 80 Prozent Mehrperformance, sondern nur noch runde 50 Prozent. Gleiches dürfte natürlich auch für entsprechende Versuche mit nVidia-Grafikkarten gelten.
Bei AnandTech hat man sich mit der Grafikkarten-Performance unter Splinter Cell: Double Agent beschäftigt. Das Spiel hat erst einmal noch einige Probleme mit nVidia-Grafikkarten: So erbrachten die neuen GeForce 8800 Karten Grafikfehler, während die GeForce 7950 GX2 langsamer lief als eine GeForce 7950 GT. Zudem ermöglicht das Spiel derzeit noch kein HDR-Rendering zusammen mit Anti-Aliasing unter nVidias GeForce7-Karten, obwohl das Vorgängerspiel jene Featurekombination noch mittels eines Patches darzustellen vermochte. In der Folge dessen haben AnandTech die nVidia-Karten mit Anti-Aliasing, aber ohne HDR-Rendering vermessen, die ATI-Grafikkarten dagegen mit beiden Features ...
... Dabei erstaunt durchaus, daß die ATI-Karten diesen etwas unfairen Vergleich trotzdem gewinnen - obwohl in den Tests ohne Anti-Aliasing (aber mit HDR-Rendering) regelmäßig die nVidia-Karten vorn liegen (wenn auch zumeist nicht mit großem Abstand): Sowohl die Vergleiche Radeon X1950 XTX vs. GeForce 7900 GTX, Radeon X1900 XT vs. GeForce 7950 GT und Radeon X1950 Pro vs. GeForce 7900 GS gehen mit jeweils geringem, aber aufgrund des Unterschieds in der Bildqualität dennoch beachtbarem Vorsprung an ATI, beim Vergleich Radeon X1650 XT vs. GeForce 7600 GT zieht die ATI-Karte sogar weit davon. Interessant sind zudem die Tests einiger LowCost-Grafikkarten auf niedriger Auflösung und mit teilweise abgesenkten Bildqualitätssettings: Auch hier scheint die neueste Splinter Cell Ausgabe ATI-Grafikkarten deutlich mehr zu mögen, haben diese teils erhebliche Performance-Vorteile gegenüber den nVidia-Modellen.
Shortcuts: Wie die X-bit Labs berichten, will OCZ angeblich mit übertakteten GeForce 8800 Grafikkarten in den Markt wiedereinsteigen. Sollte nVidia das zulassen, dürfte das natürlich böses Blut bei den anderen, alteingesessenen Grafikkarten-Herstellern geben, denn dann scheint nVidia die (bisher den Herstellern untersagte) Übertaktung von GeForce 8800 GTS/GTX Grafikkarten allein für OCZ zurückgehalten zu haben. Wie es ausschaut, wenn die eigene Laptop-Batterie den Sony-Weg ;) geht, hat man bei PC Pit Stop in einem Video absolut eindrucksvoll festgehalten. Wer das Video im übrigen nicht nur via YouTube ansehen, sondern ebenso auf den eigenen Rechner speichern will, kann es sich auch bei uns downloaden (27 MB).
News des 13. Dezember 2006 |
Bei Legion Hardware hat man sich mit der CPU-Skalierung der GeForce 8800 GTX beschäftigt. Da in diesem Artikel allerdings mit Timedemos und nicht mit Savegames gemessen wurde, sind die Ergebnisse nur eingeschränkt von Nutzen: Dies schon allein deshalb, weil bei Timedemos wichtige Elemente wie die künstliche Intelligenz sowie dynamische Effekte (Physik, Sound) nicht mitberechnet werden, womit die Last auf der CPU klar geringer ist als beim realen Durchspielen der jeweiligen Games. Weitere Argumente pro der Benutzung von Savegames anstatt Timedemos gerade bei CPU-Vergleichen finden sich u.a. hier ...
... Nichts desto trotz deuten die Ergebnisse von Legion Hardware doch schon recht klar an, daß selbst unter den dort gewählten für die CPU eher erleichternden Voraussetzungen eine GeForce 8800 GTX es problemlos noch mit den größten derzeit erhältlichen Prozessoren aufnehmen kann - und aus diesen immer noch hier und da mehr Performance herausholt, extrem Grafikkarten-limitierte Spiele wie F.E.A.R. und Prey allerdings ausgeschlossen. Dies muß jedoch keineswegs bedeuten, daß man für eine GeForce 8800 GTX unbedingt einen maßlos übertakteten Core 2 Duo Prozessor benötigt: Um auf vernünftige Frameraten zu kommen, reicht in den allermeisten Fällen ein Mittelklasse-Modell dieser Prozessoren-Serie vollkommen aus. Nur im Sinne eines absoluten HighEnd-Anspruchs oder aber bei SLI-Systemen wären die größeren Core 2 Duo Modelle vorzuziehen.
Wie der Heise Newsticker berichtet, hat der Bundesgerichtshof die "Online-Durchsuchung" von Computersystemen mittels Hacker-Technologien und/oder Schädlingssoftware auf Basis der bestehenden Gesetze erst einmal untersagt. Interessanterweise kam das Verbot allerdings zustande, weil unsere staatlichen Ermittler diese Ermittlungsmethode in Einzelfällen aktuell schon eingesetzt haben - offensichtlich interessierte es dabei keinen der letztlich vom Bürger bezahlten und ausdrücklich auf das Grundgesetz vereidigten Gesetzeshüter, ob jene Ermittlungsmethode in irgendeiner Form gesetzeskompatibel ist ...
... Genau hier liegt allerdings auch schon ein zukünftiger Stolperstein: Denn das nun ausgesprochene Verbot bezieht sich wie gesagt nur auf die derzeitige Gesetzeslage. Schafft der Gesetzgeber hingegen entsprechende Gesetze, wie derzeit in Nordrhein-Westfalen für den Verfassungsschutz geplant und auch auf Bundesebene weiterhin im Gespräch, wird auch diese Ermittlungsform wiederum legal. Ein solches Gesetz könnte dann nur noch wegen Verfassungswidrigkeit zurückgewiesen werden - was nicht bedeutet, daß es unter Umständen nicht jahrelang genutzt wird, ehe es zu einem diesbezüglichen Beschluß der Verfassungsrichter kommt ;).
News des 12. Dezember 2006 |
Nachdem AMD diesbezüglich lange Zeit nichts mehr von sich gegeben hat, gibt es nun endlich wieder einmal einen neuen, takt-schnelleren Prozessor für den Desktop-Markt: Wie der Heise Newsticker berichtet, listet AMD in der eigenen Großhandelspreisliste nunmehr die Modelle Athlon 64 X2 5400+ und 5600+, welche beide mit 2.8 GHz Taktfrequenz antreten und damit dem Athlon 64 FX-62 Konkurrenz machen. Der Athlon 64 5400+ hat dabei 2x 512 kByte Level2-Cache, das 5600+ Modell 2x 1 MB Level2 Cache. Damit entspricht der Athlon 64 5600+ exakt dem Athlon 64 FX-62, welcher wohl demnächst auslaufen wird - auch weil AMD die FX-Serie ja inzwischen auf Vierkern-System verfrachtet hat. Daneben wird noch von neuen Namen für die bisherigen ATI Mainboard-Chipsätze berichtet: Wie erwartet laufen die Chipsätze für AMD-Prozessoren nunmehr unter AMD-Label, bei den Chipsätzen für Intel-Prozessoren ändert sich an Label und Namen allerdings nichts.
Bei Bjorn3D hat man mit dem Vantec Piano 101 einen Notebook-Cooler mit sehr interessantem Ansatz im Test: Bisher brachten die höherwertigen Notebook-Cooler meist noch zusätzliche USB-Ports oder gar einen Kartenleser mit sich. Das Vantec Piano 101 verfügt nun allerdings über extra Sound-Boxen, was insofern naheliegend ist, als daß selbst teure Notebooks in aller Regel nur über mehr oder minder erbärmliche interne Boxen verfügen. Allerdings scheint diese Idee speziell beim Vantec Piano 101 noch nicht wirklich perfekt umgesetzt worden zu sein, da die Boxen mit 15 Watt kummulierter Nennleistung als etwas zu leistungsschwach für einen ordentlichen Sound erscheinen. Möglicherweise wird die Idee aber von anderen Herstellern aufgegriffen oder aber seitens Vantec noch verfeinert, denn prinzipiell hört sich die Sache erst einmal griffig an.
Daneben allgemein etwas zum Thema Notebook-Cooler, welche sich schließlich steigender Beliebtheit erfreuen. Um so erstaunlicher ist es aber, daß es bis dato keinerlei dieser Kühler für 17-Zoll-Boliden gibt - obwohl solcherart Notebooks inzwischen breit angeboten werden. Zwar sind solcherart Geräte dann zumeist weniger für den rauhen Außendienst-Einsatz gedacht, allerdings gebietet hierbei schon allein die Preislage den Schutz der eigenen Investition. Nichts desto trotz sind alle (uns bekannten) Notebook-Cooler nicht für 17-Zoll-Geräte zugelassen. Und es empfiehlt sich nicht wirklich, einen zu kleinen Notebook-Cooler zu benutzen, liegt das Gerät auf diesem dann im gewöhnlichen plan auf und steht nicht mehr auf seinen kleinen Füssen - was allerdings den Luftfluß unter dem Gerät verhindert und somit eher zum vorzeitigem Ableben des Gerätes führen wird.
Wie es mit der mittlerweile ja schon wieder vielbeschworenen "Sicherheit" von Windows Vista (hat eigentlich keiner der Schreiberlinge von Windows XP gelernt?!) wirklich steht, offenbart eine Berichterstattung des Heise Newstickers über einen Virentest mit dem neuen Betriebssystem. Denn gemäß Microsoft war an dem Umstand, daß dabei drei der derzeit zehn meistverbreiteten Schädlinge doch noch durchkamen, letztlich der Nutzer schuld - auch wenn man es höflicher formulierte. Denn laut Microsoft besteht die "Sicherheit" von Windows Vista nicht darin, daß Vista das Wirken von Schädlingen generell verhindert (oder aber daß man Sicherheitslücken schließt, über die jahrealte Würmer in ein brandneues Betriebssystem eindringen konnten), sondern vielmehr in den Warnhinweisen des "User Account Control" (UAC) ...
... Ignoriert der Benutzer diese Warnhinweise, so breiten sich auch unter Windows Vista Schädlingen aus - und dies wohl noch mehr, wenn erst speziell für dieses Betriebssystem zugeschnittene Schadsoftware "auf den Markt" kommt. Und damit es der Anwender nicht zu einfach hat, warnt das UAC natürlich nicht nur bei Schädlingssoftware, sondern generell bei jeder nicht von Microsoft stammenden Software und damit laut allen Vorab-Testberichten deutlich zu oft. In einem Punkt hat Microsoft allerdings vollkommen Recht: Es handelt sich hierbei natürlich um ein "klassisches Social-Engineering-Problem". Nur daß es Microsoft mit dem UAC eher verschlimmert als verbessert - denn wer glaubt wirklich, daß eher unerfahrene Computernutzer ständig aufpoppende Warnhinweise auch nach dem hundersten Mal noch ernstnehmen? ...
... Letztendlich ist das UAC und damit auch die sogenannte "Sicherheit" von Windos Vista nur ein cleverer Weg für Microsoft, sich aus der Verantwortung für Sicherheitslücken zu ziehen: Ab sofort kann man dem User schlicht ein "selbst schuld" entgegenschleudern - während man in den Zeiten schlimmer Würmerattacken auf Windows XP noch teilweise kleinlaut gegenüber der Presse und den Anwendern die Schuld auf sich nehmen musste. Damals konnte man noch nicht die Verantwortung auf die Nutzer abwälzen, in der Reaktion auf den vorgenannten Virentest hat man dies nun erstmalig getan, obwohl die Sicherheit nur in einer zusätzlichen und vor allem wertfreien Abfrage bestand ...
... Sicherlich ist es richtig, daß generell immer zuerst der Anwender die Verantwortung über sein System trägt. Andererseits nimmt sich Microsoft aber an allen übrigen Stellen das Recht heraus, den Nutzer kleinkindmäßig an der Hand zu führen - und beschwört zudem maßlos das Thema Sicherheit, so daß der Nutzer durchaus dem Trugschluß verfallen könnte, an der Sicherheits des Betriebssystems hätte sich grundlegend etwas geändert. Zwar sind gewisse Anstrengungen seitens Microsoft nicht abzustreiten, das diesbezügliche Paradefeature ist jedoch sicherheitstechnisch ein Placebo: Erfahrene Anwender werden sich nur gegängelt fühlen - und bei den eher unerfahrenen Anwendern ist es unwahrscheinlich, daß die Warnhinweise des UAC nach einer gewissen Zeit noch ernst genommen werden. Und ab diesem Zeitpunkt ist alles wieder so wie bei Windows XP ;).
News des 11. Dezember 2006 |
Seitdem nun mittels des nVidia G80-Chips die ersten Direct3D10-Grafikkarten erschienen sind, ist eine der wichtigstens Fragen für den Grafikkarten-interessierten Anwender diejenige geworden, wann denn nun erste Direct3D10-Software erscheinen wird bzw. wann sich speziell aus dem Feature "Direct3D10" ein Vorteil ziehen lassen wird. Gerade nach der kürzlichen Verschiebung des Direct3D10-Vorzeigetitels Crysis darf durchaus die Frage gestellt werden, wie umfangreich der Software-Support an Direct3D10-Software noch zu Lebzeiten der jetzt vorgestellten Direct3D10-Beschleuniger letztendlich sein wird ...
... Das es hier ein paar entsprechende Titel geben wird, ist zu erwarten - wann allerdings die Masse an Direct3D10-Games kommt, ist derzeit noch eher ungewiss und dürfte vor allem aufgrund der langen Entwicklungszeiten heutiger Spiele eher in weiterer als denn in näherer Zukunft angesiedelt sein. Den Anfang werden sicherlich nächstes Jahr einige Titel machen, welche (zum standardmäßigen DirectX9-Renderpfad) einen extra Direct3D10-Renderpfad bieten werden. Diese Form des Direct3D10-Supports sollte aber nur in den wenigen Fällen in einer besseren Grafik für Direct3D-Grafikkarten resultieren - am Anfang werden von den Spieleentwicklern sicherlich erst einmal nur die Performance-Vorteile, welche Direct3D10 bietet, genutzt werden ...
... Danach sollte es über das Jahr 2008 hin eine längere Phase geben, in welcher es einen stark zunehmenden Direct3D10-Support bei neu erscheinenden Spielen geben wird. Viele Spiele werden auch dann noch Direct3D10 allein zur zusätzlichen Beschleunigung nutzen, eine bessere Grafik durch Direct3D10 wird voraussichtlich nur einigen wenigen ausgesuchten Titeln vorbehalten sein, bedeutet dies doch letztlich eine nicht unerhebliche Mehrarbeit. Der eigentliche Umbruch dürfte dann irgendwann in diesem Zeitraum des Jahres 2008 zu erwarten sein: Erst dann dürfte die Masse der Spielentwickler umschwenken und primär für Direct3D10 entwickeln ...
... In den allermeisten Fällen dürfte die dann erscheinenden Spielen aber weiterhin noch über einen DirectX9-Renderpfad verfügen, so daß der Support für DirectX9-Grafikkarten gewährleistet ist. Allerdings sollte man für die Spiele des Jahres 2008 sicherlich schon eine HighEnd DirectX9-Lösung benötigen, mit heutigen LowCost- und Mainstreamlösungen dürfte man dann sicherlich nicht mehr weiterkommen. Ob es allerdings so schnell zu Spielen kommen wird, welche Direct3D10-Hardware bedingungslos voraussetzen, ist eher zu bezweifeln: Denn schließlich ist es generell so, daß Direct3D10 (grob gesagt) keinen einzigen neuen Effekt direkt ermöglicht, sondern vielmehr den Spieleentwicklern nur leistungssparendere Methoden an die Hand gibt, gute Effekte zu realisieren ...
... Die allermeisten Effekte, welche mit Direct3D10 sich dann breitflächig durchsetzen werden, sind schließlich rein theoretisch schon mit DirectX9 machbar - nur eben teilweise deutlich langsamer als bei Direct3D10. Man kann es auch so ausdrücken: Prinzipiell müssten Techdemos von DirectX9- und Direct3D10-Hardware (fast) völlig gleich aussehen - nur sollte die in realen Spielen erlebbare Grafik bei (reinen) Direct3D10-Titeln dann deutlich näher an den Techdemos liegen als bei DirectX9-Titeln. Insofern besteht für die Spieleentwickler aus Sicht der darstellbaren Effekte keine große Notwendigkeit, den DirectX9-Renderpfad selbst bei weit in der Zukunft liegenden Spielen wegzulassen ...
... Irgendwann wird man dies natürlich trotzdem aus Bequemlichkeit tun - spätestens dann, wenn die deutliche Mehrheit der Spielekäufer auf Direct3D10-Hardware umgestiegen ist, lohnt die extra Arbeit für den DirectX9-Renderpfad sicherlich nicht mehr. Nichts desto trotz reden wir hier also letztlich von ein paar Jahren des Umstiegs zwischen DirectX9 und Direct3D10. Ähnliches war schließlich auch schon bei DirectX9 zu beobachten: Gab es im Sommer 2002 mit der Radeon 9700 Pro die erste entsprechende Hardware, dauerte es von dort ab bis mindestens zum Jahr 2005, ehe sich DirectX9-Software breitflächig durchgesetzt hatte. Ein ähnlicher Zeitrahmen für den Übergang zu Direct3D10-Software kann als wahrscheinlich angenommen werden.