News-Archiv 8. - 14. Oktober 2007 (41. Kalenderwoche)
13./14. Oktober 12. Oktober 11. Oktober 10. Oktober 9. Oktober 8. Oktober
News des 13./14. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei PC Perspective hat man sich die Leistungen aktueller HighEnd-Lösungen unter Direct3D10-Titeln angesehen, sprich: Radeon HD 2900 XT Single/CrossFire gegen GeForce 8800 GTS 640MB Single/SLI und GeForce 8800 GTX Single/SLI unter BioShock, Company of Heroes, Call of Juarez, Lost Planet und World in Conflict. Da man hierbei nachträglich noch den Catalyst 7.10 mit aufnahm, ergibt dieser Test auch eine gute Aussage darüber, was der seitens ATI in den höchsten Tönen angepriesene neue Treiber wirklich leisten kann. Erst einmal präsentiert sich der Catalyst 7.10 in dieser für ihn idealen Situation (die Leistungszuwächse unter DirectX9 und ohne CrossFire werden selbst von ATI als deulichst niedriger beschrieben) als wirklich schlagkräftig: Satte 42 Prozent Leistungsgewinn (1600x1200 mit 4x Anti-Aliasing) über alle fünf ausgemessenen Direct3D10-Titeln passieren wirklich nicht alle Tage - genau genommen ist es in den letzten Jahren nie mehr passiert, daß ein Treiber so dermaßen zulegen konnte.
Unter einer einzelnen Radeon HD 2900 XT fällt der Leistungsgewinn allerdings mit 3 Prozent eher bescheiden aus und wird zudem auch nur maßgeblich durch ein Spiel (World of Conflict) getragen, während sich bei den anderen Spielen nichts wesentliches bewegt. Allem Anschein nach war und ist die Performance einer einzelnen Grafikkarte schon ausgereizt, ATI hat mit dem neuen Treiber also schlicht "nur" die CrossFire-Performance unter Direct3D10 erhöht - was gut ist, aber eben auch nur in diesem speziellen Fall zu mehr Leistung verhilft. Insofern verwundert es auch nicht, wenn ATI generell gesehen weiterhin zurückliegt: Die einzelne Radeon HD 2900 XT liegt in den fünf vorgenannten Spielen immer noch 15 Prozent hinter der GeForce 8800 GTS 640MB, beim Vergleich CrossFire gegen SLI sind es auch noch 21 Prozent zugunsten der nVidia-Lösung. Insofern hat ATI gerade mit dem neuen Catalyst-Treiber auch "nur" das aufgeholt, was in Bezug auf die CrossFire-Effizienz sowieso noch fehlte.
Die ComputerBase vermeldet neben einigen Preissenkungen Intels bei den LowCost-Modellen auch einen neuen Celeron E1200, wobei es sich hier erstmals bei der Celeron-Serie um einen DualCore-Prozessor handelt. Ansonsten gleicht sich der Celeron E1200 der bisherigen Celeron 4x0 Serie, diese Prozessoren verfügen allesamt nur über 512 kByte Level2-Cache (Update: beim Celeron E1200 sind es nur 512 kByte insgesamt, nicht pro Core). Die Celeron 4x0 Serie hat natürlich die mit 2.0 GHz höheren Taktraten zu bieten, während der Celeron E1200 nur mit 1.6 GHz antritt. Zwar bietet AMD schon des längeren DualCore-Prozessoren auch im LowCost-Bereich an, nichts desto trotz markiert gerade dieser neue Prozessor wohl das Ende der SingleCore-Modelle auch im LowCost-Bereich. In Zukunft dürfte es selbst in diesem Preisbereich wohl nur noch DualCore-Modelle geben, welche ihrerseits inzwischen auch schon langsam aus dem HighEnd-Bereich verschwinden und dort den QuadCore-Modellen das Feld überlassen - ganz egal dessen, daß derzeit immer noch die wenigsten Anwender Nutzen aus QuadCore-Prozessoren ziehen.
Nochmals bei der ComputerBase ist ein kleiner Treibervergleich für Intels integrierte Grafiklösungen zu finden. Hierbei wurden anhand des GMA X3100 Grafikchips eines GM965-Chipsatzes einige Benchmarks mit sehr unterschiedlichen Treiber-Versionen durchgeführt. Dabei ergaben sich erst einmal teilweise deutlichste Vorteile für die neueren Treiber-Versionen. Dagegen waren Leistung und Kompatibilität zwischen den einzelnen Treiber-Versionen reichlich schwankend, sprich, konnten einige neue Treiber teilweise ein vorher laufenden Spiel nicht mehr darstellen oder waren erheblich langsamer - was so eigentlich nicht passieren darf. Gerade wenn sich eine so unrunde Performance abzeichnet, wäre es natürlich interessant zu wissen, wie sich der Treiber auch außerhalb der üblichen Benchmark-Spiele schlägt - denn nicht selten wird bei solcherart LowCost-Lösungen der Treiber nur auf die allgemein bekannten Benchmark-Titel hin optimiert.
Auf der anderen Seite ist mittels dieses kurzen Tests aber auch ersichtlich, wo die Leistungsfähigkeit der dort ausgemessenen integrierten Grafiklösung liegt: Bei einem Top-Spiel des Jahres 2005 (FarCry) muß man auf die LowQuality-Settings und eine Auflösung von 1024x768 zurückgehen, um spielbare Frameraten im Bereich von 25 bis 30 fps zu erhalten. Dies dürfte bei heutigen Spielen für die genügsameren Titel wohl auch noch ausreichen, bei weniger genügsamen Titeln jedoch sehr schnell zu eng werden - dann muß die Auflösung noch weiter runter, auch wenn es unterhalb von 1024x768 (und natürlich ohne Anti-Aliasing) wirklich schnell grobkörnig wird, heutige Spiele nicht mehr auf solche Auflösungen hin ausgelegt sind. PS: Die GMA X3100 Grafikösung ist trotz des "X" im Namen unseres Wissens nach nicht Direct3D10-fähig, dies ist allein der GMA X3500 Grafiklösung des G35-Chipsatzes vorbehalten. Die GMA X3100 Grafiklösung ist schlicht eine etwas modernere Ausführung der GMA X3000 Grafiklösung, mittels welcher Intel erstmals das Shader Model 3.0 sowie eine unified Shader-Architektur zu den integrierten Grafiklösungen brachte.
In der letzten Woche zwar von uns kurz erwähnt, aber nicht wirklich ausgeführt wurde der Umstand, daß das Bundeskriminalamt (BKA) laut einer Meldung des Tagesspiegels die Benutzer der eigenen Webseite (im genauen einer Unterseite zum Thema der "Militanten Gruppe") erfasst und auch bei den Internet Service Providern (ISPs) aus den gespeicherten IP-Adressen Realnamen zu ermitteln versucht. Derzeit ist das natürlich erst einmal nur eine Meldung eines (ansonsten doch recht seriösen) Nachrichten-Magazins - angesichts der mit dieser Meldung jedoch vorhandenen Sprengkraft lohnt jedoch in jedem Fall eine genauere Betrachtung. Denn das Problem ist hier weniger, daß das BKA datenschutz-widerrechtlich IP-Adressen abspeichert, die nicht zu Statistik-Zwecken oder ähnlichem verwandt werden, sondern zielgerichtet als "personenbezogenen Daten" erhoben werden.
Nein, dieses Vorgehen widerspricht "nur" geltendem Datenschutzrecht und ist demzufolge (leider) allerhöchstens zivilgerichtlich verfolgbar. Richtig interessant ist doch der erst zweite Punkt: Der Versuch, aus diesen gespeicherten IP-Adressen Realnamen zu machen. Denn: Um regelgerecht eine IP-Adresse von einem ISP in einem Realnamen umwandeln zu lassen, reicht unseres Wissens nach nicht einfach nur ein Auskunftsbegehren an den ISP. Wäre ja noch schöner, wenn polizeiliche Ermittler zu allen jemals erlangten IP-Adressen einfach so die Realnamen bei den ISPs anfordern könnten ;). Nein, die Voraussetzung für so etwas sind immer nur Ermittlungen im strafrechtlichen Rahmen (weswegen die Medienindustrie im Falle von Urheberrechtsverletzungen ja auch immer erst Strafanzeige stellt, denn ansonsten würde man die Zusammenarbeit des Staates nicht bekommen). Sicherlich muß nicht gleich gegen jede Person, deren IP-Adresse man über diese Speicher-Aktion erlangt hat, ein separate Strafrechts-Ermittlung eröffnet werden.
Nichts desto trotz gilt: Es muß regulärerweise ein Verdacht im Sinne des Strafrechts erhoben werden, damit überhaupt Ermittlungen aufgenommen werden können. Im kalten Klartext: Das BKA verdächtigt die Besucher seiner (hochoffiziellen!) Unterseite zur "Militanten Gruppe" allesamt der Mitgliedschaft oder Unterstützung einer terroristischen Vereinigung. Ob man das nun regelkonform aktenkundig gemacht hat oder eher auf dem kleinen Dienstweg, spielt dabei keine Rolle. Denn erst mit diesem Verdacht in der Hinterhand kann bei den ISPs der Realnamen aus den IP-Adressen angefordert werden - ohne des klar geäußerten Verdachts (und eigentlich auch eines dementsprechend eröffneten Ermittlungsverfahrens) darf der ISP aus Datenschutzgründen heraus gar nichts herausgeben. Natürlich geht aus dem Bericht des Tagesspiegels nicht hervor, ob es dem BKA auch gelungen ist, Realnamen aus den IP-Adressen zu ermitteln, aber zumindestens hat es wohl den Versuch gegeben.
Allein das aber ist eigentlich schon ausreichend: Da das reine Surfen auf offiziellen BKA-Seiten eben zweifelsfrei nicht ausreichend ist für auch nur irgendeinen Verdacht, liegt hier potentiell durchaus eine "Verfolgung Unschuldiger" gemäß Paragraph 344 des Strafgesetzbuches vor. Zumindestens eine diesbezügliche Ermittlung würde sich sicherlich lohnen, denn damit würde man in jedem Fall feststellen können, unter welcher Begründung das BKA aus den gespeicherten IP-Adressen bei den ISPs Realnamen zu machen versucht. Gleichzeitig macht dieser Fall aber auch unmißverständlich klar, daß jegliche Beschwichtigungsversuche diverser Politiker sowie auch und gerade des BKA-Präsidenten, die dem Dienst einmal übertragenenen Vollmachten würden keinesfalls mißbräuchlich verwendet werden, leider absolut nichtig sind.
Gerade hier wurden nun in einem Fall, wo die Ermittlungsaussichten eigentlich bei glatt Null liegen (selbst wenn Terroristen auf den BKA-Seiten surfen - welchen Informationswert bzw. welche strafrechtliche Relevanz hätte das?), sofort auch rechtlich glasklar nicht zulässige Ermittlungsmethoden in großem Stil benutzt (oder zumindestens versucht, käme rechtlich auf das gleiche heraus). Dieser Fall mag als hervorragendes Beispiel dienen, wenn wieder einmal die Diskussion ob der Mißbrauchsmöglichkeiten neuer "Sicherheitsmaßnahmen" aufflammt. Zwei Lehren sind letztlich aus der Angelegenheit zu ziehen: Erstens ist es unseren staatlichen Ermittlern offensichtlich egal, ob ihre Ermittlungsmethoden rechtlich gedeckt sind oder nicht - benutzt wird, was zur Verfügung steht. Und zweitens gilt unseren staatlichen Ermittlern offenbar jeder Bürger als erst einmal verdächtig - denn wenn das Surfen auf offiziellen Webseiten des BKAs ausreichend ist, um in eine Antiterror-Ermittlung zu geraten, dann bleibt faktisch kein anderer Schluß zu. Gute Nacht, Deutschland.
News des 12. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Seitens der VR-Zone gibt es ein paar Hinweise auf die nächste Ausführung von ATIs CrossFire: Danach soll ein CrossFire X antreten, welches mit zwei, drei oder vier Grafikkarten läuft. Wie schon bei nVidia gab man dabei jedoch etwas unrealistische Werte bei der CrossFire-Effizienz an: So soll der erste zusätzliche Grafikchip noch 80 Prozent Effizient haben (Rohleistung in Performance unwandeln), der zweite zusätzliche Grafikchip soll aber umgerechnet schon 89 Prozent Effizienz vorweisen können - was dann doch etwas unwahrscheinlich ist, die Effizienz nimmt nun einmal mit steigender Anzahl an Grafikchips immer weiter ab. Wie schon im nVidia-Fall wollte man hierbei wohl ausdrücken, daß der zweite zusätzliche Grafikchip (der dritte insgesamt) noch eine Effizenz von 60 Prozent aufweisen kann, was dann schon eine realistischere Größenordnung ist.
Damit ergibt sich genauso wie bei nVidia aber auch automatisch die Frage nach dem Sinn des dritten Grafikchips: 60 Prozent Effizienz des dritten Grafikchips bedeuten, daß man mit drei Grafikchips runde 30 Prozent mehr Performance hat gegenüber einer Lösung mit zwei Grafikchips. Dies dürfte dem HighEnd-Kundenkreis wohl mehrheitlich zu wenig sein, der Aufwand wird hier nicht vom anschließenden Resultat gedeckt. Erst mit vier Grafikchips bekommt man wieder einen ordentlichen Performance-Schub gegenüber zwei Grafikchips hin: Hier dürften es wohl zwischen 50 und 60 Prozent Mehrperformance sein - nicht daß, was man sich von einer Verdopplung der Hardware eigentlich erwarten würde, aber immerhin ein absolut klarer Performance-Unterschied zu zwei Grafikchips.
Allerdings wirft diese neue CrossFire-Initiative seitens ATI auch die Frage nach den dafür passenden Grafikchips auf. Zumindestens beim nVidia-Modell in Form von Triple-SLI ist klar, daß es sich hierbei um den Verbund von drei Grafikkarten handelt - was automatisch DualChip-Grafikkarten ausschließt, denn ein 6fach-SLI ist wohl nicht mehr mit Performancegewinnen realisierbar. Theoretisch gilt dies auch bei ATI, allerdings ist im Fall der Kanadier nicht klar, ob deren CrossFire X mit bis zu vier Grafikchips überhaupt von vier Grafikkarten (sowieso auf den meisten Mainboards nur mit SingleSlot-Grafikkarten realisierbar) ausgeht. Gut möglich, daß hier "nur" der Verbund zweier DualChip-Grafikkarten mit RV670-Chip gemeint ist. Dann würden auch vier Grafikchips am werken sein, ein solches Modell würde aber immer noch in die allermeisten Gehäuse passen und damit verkaufbar sein.
Mal wieder etwas neues zum Thema XDR-RAM hat die Electronics Weekly, welche über seitens Elpida in die Massenproduktion gehenden XDR-Speicher mit 4.8 GHz (Marketing-)Taktrate und 9.6 GB/sec Bandbreite (pro Chip) spricht. Umgerechnet in verständliche Angaben bedeutet dies schlicht, daß ab ersten Quartal 2008 XDR-Speicher mit 600 MHz Taktrate verfügbar wird. Dies hört sich erst einmal nach nicht viel an, allerdings liegt die Stärke von XDR auch weniger in den Taktfrequenzen, sondern vielmehr in den vielen pro Takt übertragenen Datenbits: Bei XDR sind es 8, bei DDR-Speicher (egal ob DDR1, DDR2 oder DDR3) wie bekannt "nur" 2. Damit kann XDR-Speicher viel ausgleichen - allerdings auch nicht mehr alles, was man sich einst mal so vorgenommen hatte.
Denn inzwischen haben die Taktraten von Hauptspeicher und (besonders) Grafikkartenspeicher doch erheblich angezogen, während XDR seit seiner Ankündigung im Jahr 2003 doch gerade einmal von 400 auf 600 MHz hochgehüpft ist - von einst noch geplanten weiteren Ausbaustufen mit 16 Datenbits pro Takt ganz zu schweigen. Trotzdem wäre XDR theoretisch immer noch die schnellere Alternative sowohl im Bereich des Haupt- als auch des Grafikkartenspeichers: An einem für Mainboard-Chipsätze üblichen 128bittigen Speicherinterface würde XDR mit 600 MHz Takt gleich einmal 71,5 GB/sec Bandbreite vorlegen - selbst DDR3/1600 kommt hier "nur" auf 23,8 GB/sec. Allerdings limitieren bei Hauptspeicher wie bekannt derzeit eher die Prozessoren bzw. deren Aufnahmefähigkeit an Speicherbandbreite. Zudem sind Prozessoren mit integriertem DDR-Speicherinterface wie derzeit bei AMD und zukünftig auch bei Intel für andere Speichersorten natürlich generell technisch unerreichbar.
Beim Grafikkartenspeicher ergibt sich jedoch eine etwas andere Situation: An einem 512bittigen Speicherinterface könnte XDR auf 600 MHz zwar eine Bandbreite von satten 286 GB/sec liefern - jedoch würde schneller GDDR4-Speicher auf (physikalischen) 1600 MHz hier ebenfalls immerhin 191 GB/sec entgegenstellen können. Dies ist zwar weiterhin weniger als bei XDR, aber da die Entwicklung bei GDDR4- und zukünftig GDDR5 einfach schneller verläuft als bei XDR, ist dies die sicherlich sinnvollere Entscheidung, beim GDDR-Modell zu bleiben - von möglichen Risiken beim Technologiewechsel gar nicht erst zu reden. XDR mag somit für den PC-Bereich weitestgehend uninteressant sein, dürfte aber nichts desto trotz seine Käufer finden. Da der Speicher hohe Bandbreiten schon bei kleinen Speicherinterfaces liefert, eignet sich XDR vornehmlich für Kleingeräte, wo selbst 64bittige Speicherinterfaces (aus Kostengründen) schon zu groß sind und XDR selbst unter diesen Bedingungen immer noch eine hohe Performance zur Verfügung stellen kann.
News des 11. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei Neoseeker ist endlich einmal ein Testbericht zur Radeon HD 2900 Pro erschienen, in welchem diese neue Grafikkarten intensiv gegen deren preisliches nVidia-Pendant, die GeForce 8800 GTS 320MB vermessen wurde. Nach diesem Test hat die nVidia-Karte aber trotzdem noch einen Vorteil von 12 Prozent zu verzeichnen, was die bisherigen Techberichte damit bestätigt, welche allesamt die Radeon HD 2900 Pro doch eben hinter der GeForce 8800 GTS 320MB gesehen haben. Dies ist zwar angesichts der technischen Daten der Radeon HD 2900 Pro, welche wirklich nah an der Radeon HD 2900 XT liegen, etwas ungewöhnlich, aber nunmehr so zu akzeptieren. Natürlich würde noch interessieren, wie sich die Radeon HD 2900 Pro in hochmodernen Spielen schlägt, wo die Radeon HD 2900 XT meist eine ganz gute Figur macht. Nichts desto scheint das Preis/Leistungsverhältnis der Radeon HD 2900 Pro doch nicht so gut wie bisher angenommen, denn dafür müsste die neue ATI-Karte zumindestens die GeForce 8800 GTS 320MB schlagen.
Golem berichtet in Bezugnahme auf fernöstliche Quellen, daß die kommenden GeForce 8800 GT und die neue GeForce 8800 GTS deutlich leistungsfähiger werden würden als bisher angenommen: So soll die GeForce 8800 GT entweder 96 oder 112 Shader-Einheiten besitzen, während die neue GeForce 8800 GTS nicht G80- sondern G92-basierend sein soll und gleich über 128 Shader-Einheiten verfügen soll. Der primäre Unterschied zur GeForce 8800 GTX wäre dann nur noch das kleinere Speicherinterface, welches bei beiden neuen Karten 256 Bit DDR breit sein soll. Diese Angaben widersprechen natürlich bisherigem Wissen, welches gerade die neue GeForce 8800 GTS glasklar als G80-Variante mit 112 Shader-Einheiten eingeordnet haben. Zudem kommen uns die beiden neuen Grafikkarten gemäß der Darstellung von Golem deutlich zu kräftig vor: Die GeForce 8800 GT würde mit 96 Shader-Einheiten (und höherem Takt) nahe dran sein an der Shader-Power einer GeForce 8800 GTX, mit 128 Shader-Einheiten sogar darüber liegen.
Hier würde der Leistungsabstand zu dieser HighEnd-Karte wohl einfach zu niedrig werden, das (auch nur um 50 Prozent) größere Speicherinterface nicht mehr in jedem Fall den Leistungsvorsprung der GeForce 8800 GTX sichern helfen. Zudem ist es schwer vorstellbar, daß nVidia zu einer gut laufenden 450-Euro-Karte wie der GeForce 8800 GTX mal so eben eine hausinterne Konkurrenz zum Listenpreis von 249 Dollar aufstellt - da gibt es sicherlich bessere Möglichkeiten, die eigene Marge zu senken ;). Wie schon hier ausgeführt: Der beste Hinweis auf die Leistungsfähigkeit neuer Hardware ist noch immer deren preislichen Einordnung seitens der Hersteller. Und wenn die GeForce 8800 GT mit 512 MB Speicher wirklich mit 249 Dollar Listenpreis antritt, ist hier keinesfalls eine Lösung zu erwarten, welche die bisherige GeForce 8800 GTS spielend überrundet und der fast doppelt so teuren GeForce 8800 GTX dermaßen nahekommt.
Shortcuts: Die VR-Zone hat genauere Daten zu den seitens AMD geplanten TripleCore-Prozessoren auf K10-Basis. Diese werden allerdings nicht vor März 2008 antreten, zudem erscheinen die jetzt bekannt gewordenen Taktfrequenzen von 2.3 und 2.5 GHz auch nicht unbedingt berauschend zu sein. Notebookcheck berichten über ein neues Asus-Mainboard, bei welchem man mittels eines extra Schalters zwischen integrierer Grafik (Intel GMA 3100) und extra Grafiklösung (GeForce 8400M G) hin- und herschalten kann. Generell ist die Idee sowohl aus dem Zweck des Stromsparens aber auch im Fall des Defekts einer der beiden Grafiklösungen griffig, allerdings merken Notebookcheck schon korrekterweise an, daß die verbaute GeForce 8400M G nun selbst nur eine LowCost-Lösung für wirklich niedrigste Performance-Ansprüche darstellt.
News des 10. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Golem berichten von den Aussagen eines Microsoft-Mitarbeiters, welcher die Euphorie rund um Direct3D10 etwas zu bremsen versucht. Danach wäre Direct3D10 zwar die grundsätzlich schnellere 3D-Schnittstelle und geben den Entwicklern viel mehr Freiheiten, bei den ersten Direct3D10-Versuchen hätten die Spieleentwickler allerdings wohl zu viel gewollt bzw. die Grafikchip-Entwickler noch nicht die dafür ausreichend schnellen Grafikchips sowie Treiber im Programm. In dieser Aussage liegen einige Teile Wahrheit, allerdings auch viel Beschwichtigung und Wegschieben von Verantwortung auf andere, in diesem Fall maßgeblich die Hardware-Hersteller. Doch der Reihe nach: Richtig ist, daß Direct3D10 potentiell schneller ist als DirectX9. Diese Beschleunigung funktioniert auf zwei Ebenen: Erstens einmal soll Direct3D10 durch die modernere Programmierung und Ausnutzung aktueller Technologien generell etwas schneller sein.
Hier wird aber öfters das Potential dieser Verbesserungen überschätzt - Direct3D10 bleibt ein dickes Programmpaket mit hohem Funktionsumfang und wird deshalb schon per Definition nicht deutlich schneller als DirectX9 zu bekommen sein. Die Differenz sollte selbst im Idealfall klar im einstelligen Prozentbereich liegen, wenn andere Faktoren bei der Grafikberechnung limitieren, kann auch ein Null-Unterschied herauskommen. Der zweite mögliche Geschwindigkeitsgewinn liegt in den neuen Features bzw. Freiheiten von Direct3D10 begründet: Damit lassen gewisse Effekte und Funktionen schnell um den Faktor 10 oder 100 beschleunigen. Diese Effekte und Funktionen wären prinzipiell auch unter DirectX9 realisierbar, dort allerdings so langsam, daß sie kein Spieleentwickler einsetzen würde. Demzufolge neigen wir in diesem Fall auch dazu, nicht von Performance-Verbesserungen zu reden.
In der Summe sollte man sich also von Direct3D10 sowieso keine (beachtbare) Mehr-Performance erwarten. Der Hauptzweck der neuen Schnittstelle (neben daß man mit dem neuen Treibermodell dem Vista-Nutzer auch gleich ein weitgehend sicheres DRM-Modell unterjubeln kann) liegt in den höheren Freiheiten für die Spieleentwickler, womit diese einfach schönere und glaubwürdigere Grafiken entwickeln können - die dann aber natürlich auch mehr Performance kosten, dies steht außer Frage. Vielleicht ist dieser Punkt wirklich bisher in allen Darstellung der Hardware-Hersteller, Spieleentwickler und seitens Microsoft untergegangen, schon möglich. Was jedoch nicht passt, ist den Hardware-Herstellern zu leistungsschwache Hardware für Direct3D10 vorzuwerfen: Gerade die GeForce 8800 GTX fegte die seinerzeit existierenden HighEnd-Karten der DirectX9-Klasse eindeutig vom Platz - und daß nunmehr vor fast einem Jahr.
Sicherlich ist die erste Direct3D10-Generation der Mainstream-Karte bei weitem nicht so gut ausgefallen - allerdings waren Mainstream-Karten auch zu DirectX9-Zeiten meistens nicht für die höchsten Auflösungen und Bildqualitätssettings verwendbar, in der Relation hat sich da nicht wahnwitzig viel getan. Das Problem liegt eher auf der Ebene "Anspruch und Wirklichkeit": Die meisten Spieleentwickler versuchen derzeit, ihren primär für DirectX9 geschriebenen Spielen mittels eines extra Direct3D10-Pfades ein paar bessere Grafiken mitzugeben. Doch heutige Spiele haben bereits einen hohen Grafikstandard erreicht, weitere Verbesserungen kosten immer mehr an zusätzlich nötiger Hardware-Power. Versucht man dann noch, mittels nur einzelner zusätzlicher Effekte einen bemerkbaren optischen Gesamtunterschied zu erreichen, kostet dies ganz schnell richtig viel Power. Dies ist wohl das, was wir derzeit in den meisten Spielen mit Direct3D10-Renderpfad sehen.
Abhilfe könnte hier nur schaffen, das ganze Spiel auf Direct3D10 zu portieren - was derzeit aber eine eher unrealistische Variante ist, denn dafür ist der Marktanteil von Direct3D10-Grafikkarten samt Windows Vista als für Direct3D10 benötigtem Betriebssystem einfach noch zu niedrig. Auf der anderen Seite muß man womöglich die Ansprüche an Direct3D10 auch etwas senken und nicht einen sofort sichtbaren Qualitätsunterschied erwarten, nur weil ein Spiel diese Schnittstelle unterstützt. Ein deutlich sichtbarer Bildqualitätsunterschied erfordert auch unter DirectX9 deutlich schnellere Hardware. In der Summe liegt das Problem also eher darin, daß bedeutsame Sprünge heutzutage kaum noch machbar sind, sondern sich die Grafikqualität eher fliessend (und damit auch angepasst an die Leistungsfähigkeit der zur Verfügung stehenden Hardware) entwickelt - und wenn man doch einen deutlichen Optik-Sprung hinlegen will, ist dies eben nicht ohne ebenfalls deutlich höheren Anforderungen an die Rechenleistung realisierbar.
Die VR-Zone hat neue Informationen zu den in den nächsten Monaten anstehenden ersten Desktop-Prozessoren auf K10-Basis - welche allerdings auch das bisher bekannte Wissen umwerfen, wonach AMD den Anfang mit einem hochgetakteten Phenom FX noch dieses Jahr machen würde. Laut der VR-Zone soll ein Phenom FX-82 in QuadCore und mit 2.6 GHz oder mehr nunmehr allerdings erst im ersten Quartal 2008 erscheinen, eine weitere höhere Taktstufe dann im zweiten Quartal 2008. Noch vor diesen Spitzenprozessoren sollen im November die Modelle Phenom 9500 und 9600 erscheinen, hinter welchen sich QuadCore-Prozessoren mit 2.2 bzw. 2.4 GHz verbergen. Im Dezember soll dann ein Phenom 9700 mit 2.6 GHz folgen, für das zweite Quartal 2008 ist dann eine weitere höhere Taktstufe geplant.
Allerdings liegt hier auch gleich schon wieder ein kleiner Widerspruch, denn wenn AMD im Dezember einen Phenom 9700 mit 2.6 GHz bringt, lohnt der deutlich teurere Phenom FX-82 im ersten Quartal 2008 zumindestens auf dem gleichen Takt nicht mehr - denn die einzigen Unterschiede zwischen Phenom 9 und Phenom FX bestehen darin, daß letzterer offiziell auch mit schnellerem Speicher als DDR2/800 (wohl DDR2/1066) umgehen kann und zudem über einen offenen Multiplikator verfügt. Insofern sollte der Phenom FX-82 besser denn schon mit 2.8 GHz (oder mehr) erscheinen, um Sinn zu machen. Allerdings deutet die ganze Tabelle und vor allem die Staffelung der Launchtermine (von der kleinsten Taktfrequenz zur größten) eher an, daß AMD auch beim generell in 65nm gefertigten K10-Kern derzeit noch nicht diese Taktraten erreichen kann, welche man sich vorher wohl erwartet hatte.
Gulli berichtet über die Verhandlung zur Verfassungsbeschwerde gegen die Online-Durchsuchung bzw. das entsprechende Polizeigesetz in Nordrhein-Westfalen. Einige der dabei von Regierungs-, Polizei- und Geheimdienstvertretern getroffenen Aussagen lassen sich durchaus als Gegenargumente für die Online-Durchsuchung rahmen: So wollte der Regierungsvertreter NRWs als überwachbare Kommunikationsdaten auch bereits schon Entwürfe für eMails sehen, welche bislang nur im Entwurfsordner des Mailprogramms gespeichert sind und damit noch nie jemals übermittelt (Stichwort: Kommunikation) wurden. Ein Vertreter des Verfassungsschutzes räumte danach sogleich mit der Idee auf, eine Online-Durchsuchung wäre irgendwie auf bestimmte Dateitypen oder in anderer Weise begrenzbar: "Wenn wir sowas gemacht hätten ... dann hätten wir uns die gesamte Festplatte angesehen" heisst es hierzu.
In eine nicht unähnliche, allerdings deutlich breit gefasstere Kerbe schlug dagegen der Vertreter des Bundeskriminalamtes. Nach dessen Ausführungen solle man in einem Netzwerk, wo nicht klar ist, welcher Rechner nun derjenige der Zielperson sei, schlicht "solange durchsuchen, bis man den richtigen Rechner hat" - Online-Durchsuchung für alle sozusagen. Angesichts solcher Aussagen dürfte es schwer fallen, die Argumentation von Anhängern der Online-Durchsuchung, daß es sich hierbei nur um eine arg begrenzte Zahl an Fällen handelt, überhaupt noch ernst zu nehmen. Den Schlußpunkt setzte wieder der Landesvertreter, welcher meinte, daß die Online-Durchsuchung ja nun wirklich nicht so schlimm sei angesichts der vielen Rechner, welche sowieso schon Trojaner-verseucht durch Netz torkelt ;). Früher wäre man an dieser Stelle eventuell auf die Idee gekommen, daß es die Aufgabe des Staates ist, Kriminalität in all ihren Ausprägungsformen zu bekämpfen - heute dient sie als wohlfeile Begründung, wenn Vater Staat dieselben Methoden für seine Überwachungsmanie benötigt.
News des 9. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Noch ein paar Nachträge zu unserem aktuellen Artikel und dort zur GeForce 8800 GT: Deren Taktraten von 600/900 MHz lassen sich inzwischen ziemlich klar bestätigen. Die Gerüchte hingegen, diese Karte hätte gleich 112 Shader-Einheiten, basieren unserer Meinung nach auf einem Schreibfehler - gemeint war an dieser Stelle sicherlich die neue GeForce 8800 GTS, nicht die GeForce 8800 GT. Bei der GeForce 8800 GT würden 112 Shader-Einheiten auch wenig Sinn machen, weil dann zusammen mit den höheren Taktraten eine solche Karte die bisherige GeForce 8800 GTS spielend überflügeln würde. Daß nVidia jedoch einer Karte mit einem Listenpreis von 249 Dollar gleich mehr Performance mitgibt, als derzeit im Preisbereich von über 300 Euro bzw. nahe 350 Dollar zu erhalten ist, wäre eher ungewöhnlich. Ein gewisser Preisvorteil zuungunsten der jeweils älteren Lösungen ist mit neuen Grafikkarten zumeist zu verzeichnen, mehr als 100 Dollar/Euro Preisvorteil erscheinen aber ein wenig zu viel des guten.
Gleichfalls wäre an dieser Stelle die neu aufgetauchte AMD-Präsentation zum ATI R680-Chip noch zu notieren. Der R680 wurde lange Zeit zugunsten einer DualChip-RV670-Lösung nicht mehr erwähnt, insofern überrascht sein erneutes Auftauchen etwas. Allerdings gibt es verschiedene Hinweise, daß sich hinter dieser Bezeichnung "R680" auch nichts anderes als eine DualChip-RV670-Lösung verbirgt - von ATI/AMD eben nur mit einem eigenen Chipsatznamen gewürdigt. Angeblich will ATI beim R680 die beiden RV670-Grafikchips auf demselben Trägermaterial integrieren oder sogar im selben Die produzieren - was erst einmal abzuwarten wäre. Die Effizienznachteile durch SLI-on-Board oder SLI-on-Chip bekommt ATI damit jedenfalls nicht weg - vorteilhafterweise verfügt der zugrundeliegende RV670-Chip jedoch über ausreichend Power, so daß eine DualChip-Lösung auf RV670-Basis sicherlich jederzeit HighEnd-Anforderungen erfüllen können sollte.
Einen schweren Nachteil haben alle DualChip-Lösungen im HighEnd-Bereich jedoch generell: Sie eignen sich nur noch mittelmäßig für SLI und CrossFire und eigentlich überhaupt nicht mehr für Triple-SLI und Triple-CrossFire. Denn durch die verbauten zwei Grafikchips auf DualChip-Grafikkarten wird das Zusammenschalten von zwei Grafikkarten schon zu Quad-SLI/CrossFire, das Zusammenschalten von drei Grafikkarten dann zu 6fach-SLI/CrossFire. Allerdings dürfte sich speziell letzteres dann kaum noch mit Performance-Gewinnen realisieren lassen - und angesichts gerade des Vorpreschens von nVidia in Bezug auf Triple-SLI erscheint es etwas unwahrscheinlich, daß deren neue HighEnd-Lösung auf zwei Grafikchips basieren soll, weil diese dann eben nicht mehr für Triple-SLI geeignet wäre.
Auf ATI, welche wahrscheinlich trotzdem mit einer DualChip-Lösung für das HighEnd-Segment antreten werden, trifft das zwar auch zu, allerdings hat sich ATI auch nicht so vehement für Triple-CrossFire in die Brust geworfen. Auch bei ATIs Mainboard-Chipsätzen für drei Grafikkarten-Steckplätze deutet sich an, daß diese eher für zwei Grafikkarten im CrossFire-Verbund und eine extra Grafikkarte als Physik-Beschleuniger gedacht sind. Sollte ATI allerdings in der Tat mit Triple-CrossFire einsteigen wollen, wird auch dafür wohl noch ein "echter" HighEnd-Chip benötigt - es sei denn, man überrascht mit einer völlig neuen Art von SLI bzw. CrossFire, wo die Ineffizienz mit steigender Chipzahl nicht so schnell ansteigt ist wie derzeit noch zu beobachten.
DailyTech berichten über einen HighEnd Gaming-PC seitens HP namens "Blackbird 002", welcher sowohl SLI als auch CrossFire unterstützen soll. Auf Nachfrage ergab sich, daß hierbei ein gewöhnliches Asus Striker Mainboard mit nVidia nForce 680i SLI Chipsatz verbaut ist, welches also schon von Haus aus SLI unterstützt. Da HP nach eigener Aussage nichts besonderes für den CrossFire-Support dieses nVidia-basierten Mainboard getan haben will, kann das fast nur bedeuten, daß ATI entweder diesen speziellen PC, dieses spezielle Mainboard von Asus, generell alle technisch passenden Asus-Mainboards oder aber womöglich generell alle technisch passenden Mainboards für CrossFire in den Grafikkarten-Treibern freigegeben hat.
Über einen ähnlichen Fall hatte kürzlich auch schon die ComputerBase zu berichten, wo eine DualChip-Grafikkarte mit ATI-Chips, welche normalerweise ein CrossFire-Mainboard voraussetzt, auf demselben Mainboard - Asus Striker mit nForce 680i SLI Chipsatz - anstandslos im CrossFire-Modus lief. Hier deutet sich also eventuell an, daß ATI seine MultiGrafikkarten-Technologie CrossFire zukünftig nicht mehr strikt an AMD- oder Intel-Chipsätze bindet, sondern entweder Ausnahmen zuläßt oder aber generell für technisch geeignete Mainboards freigibt. Um das genauer sagen zu können, müsste sich ATI allerdings diesbezüglich mal erklären - ansonsten wären es nämlich ein paar zu viele Mainboards, welche man auf eine eventuelle CrossFire-Eigung hin durchtesten müsste ;).
neuer Artikel |
Die kommenden Grafikchips von ATI, nVidia und S3
Die kommenden Monate haben es Grafikkarten-technisch in sich: Nach Monaten ohne neue Grafikchips werden ATI und nVidia innerhalb kürzestes Zeit ihr komplettes Programm durch die Refresh-Generation zu den ersten Direct3D10-Chips rundherum erneuern, zudem versucht S3 mal wieder sein Glück mit neuen Grafikchips. Unser Artikel skizziert das bekannte Wissen und Halbwissen zu den kommenden Grafikchips seitens dieser drei Grafikchip-Entwickler sowie versucht sich an ersten Einordnungen, was von diesen neuen Grafikchips zu erwarten sein wird ... zum Artikel ... PS: Wer das ganze Prosa überspringen und direkt zur Grafikchip-Übersicht zu gelangen wünscht, warpt gleich auf Seite 3.
News des 8. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei der FiringSquad hat man sich angesehen, was sich seit dem Launch von Windows Vista in Bezug auf die Grafikkartenperformance und dort im speziellen die Klasse der Vista-Treiber gegenüber den XP-Treibern getan hat. Dabei waren eigentlich keine größeren Performanceunterschiede zwischen Windows XP, Windows Vista 32-Bit und Windows Vista 64-Bit mehr feststellbar - hier haben die Treiberteams der beiden großen Grafikchip-Entwickler den einstmals durchaus existierenden Performanceunterschied zu Windows XP offensichtlich weitestgehend aufgeholt. Unter SLI bzw. CrossFire ergeben sich allerdings hier und da noch geringfügige Vorteil für Windows XP - wobei zum derzeitigen Zeitpunkt die Frage offenbleiben muß, ob sich dieser Unterschied durch weitere Treiber-Verbesserungen aufholen lassen kann oder aber eventuell auch Betriebssystem-begründet sein könnte.
Wie Golem berichten, hat Grafikkarten- und Mainboardhersteller Sapphire bei der World Cybergames 2007 ein Phenom-System mit zwei RV670-Grafikkarten demonstriert. Interessant ist hierbei aber auch das benutzte Mainboard auf Basis des kommenden RD790-Chipsatzes von AMD. Dieses wurde von Sapphire mit gleich drei PCI Express 2.0 Grafikkarten-Steckplätzen ausgerüstet - ein deutlicher Hinweis, daß auch bei AMD eine dreifache CrossFire-Lösung ähnlich zu Triple-SLI kommen wird. Gegenüber nVidias Triple-SLI dürfte der RD790-Chipsatz wohl vor allem den Vorteil haben, gleich alle drei Grafikkarten-Steckplätze mit PCI Express 2.0 betreiben zu können - bei nVidia wird dies der demnächst kommende nForce 780i SLI Chipsatz noch nicht können, erst der für das erste Quartal des nächsten Jahr anstehende C73XE-Chipsatz von nVidia verfügt über diese Fähigkeiten.
Wie die Netzeitung berichtet, hat das bayerische Landeskriminalamt zugegeben, in leichtem Vorgriff auf die Online-Durchsuchung zur Überwachung von verschlüsselter IP-Telefonie wie beispielsweise Skype schon jetzt Spionageprogramme auf den Rechnern von Zielpersonen zu installieren. Dabei ordnet man diese Überwachungsmethode rein rechtlich der (erlaubten) Telekommunikations-Überwachung zu, was im Sinne dessen, daß hierbei nur Telekomunikation belauscht werden soll, auch erst einmal zutreffend ist. Bezüglich der technischen Herausforderungen ist diese "Telefonüberwachung" allerdings ziemlich deutlich mit der Online-Durchsuchung gleichzusetzen: Es muß in den Zielrechner eingedrungen werden, dort eventuell bestehende Sicherheitssysteme müssen überlistet werden und es muß gleichzeitig ein Weg gefunden werden, die gewonnenen Daten sicher und unbemerkt zu den Rechnern der Ermittlern zu übertragen.
Faktisch hat man damit die Online-Durchsuchung erreicht - nur daß eben nur Telefonate überwacht werden und nicht zusätzlich noch auf dem Rechner der Zielpersonen herumgestöbert wird. Für all das existiert jedoch keine klare Rechtsgrundlage - nur weil die Telekommunikationsüberwachungsverordnung das Abhören von Telefonen erlaubt, bedeutet das noch lange nicht, daß man dafür in fremde Rechner eindringen und dort Daten verändern darf (es käme ja auch keiner auf die Idee, für die normale Telefonüberwachung in die Technik der Deutschen Telekom einzusteigen). Es ist in diesem Zusammenhang durchaus beachtlich, mit welcher Gleichgültigkeit vor Recht und Gesetz die staatlich bestellten Gesetzeshüter diese Maßnahme seit Mitte des Jahres einfach einsetzen. Davon abgesehen wäre es noch interessant zu wissen, wie hierbei der konkrete Angriffsweg gewählt wird.
Bezüglich der Online-Durchsuchung wird ja bereits darüber diskutiert, Zero-Day-Exploits (bisher noch unbekannte Sicherheitslücken) auf dem "freien Markt" zu kaufen. Dies ist bislang nur eine theoretische Diskussion, welche durch den aktuellen Fall aber urplötzlich hochinteressant werden könnte: Denn man kann den Einkauf von Sicherheitslücken durch Vater Staat durchaus als Unterstützung der organisierten Kriminalität ansehen (es gibt schließlich keinen legalen Absatzmarkt für Sicherheitslücken), welches also selbst mit guten Absichten strafbar wäre. Zumindestens hat man aber den mit der Online-Durchsuchung einhergehenden Vertrauensverlust auch jetzt schon erreicht: Beim Widerstand gegen diese Maßnahme geht es schließlich zumeist weniger darum, daß der Staat nicht auf fremden Festplatten herumschnüffelt, sondern in erster Linie darum, daß dieser eigentlich überhaupt nichts mit solchen für beim normalen Bürger als hochkriminell bewerteten Handlungen wie das Hacken und Ausspähen von Computern zu tun haben sollte.