News-Archiv 1. - 7. Oktober 2007 (40. Kalenderwoche)
6./7. Oktober 5. Oktober 4. Oktober 3. Oktober 2. Oktober 1. Oktober
News des 6./7. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei Bjorn3D hat man sich die Grafikkarten- und CPU-Performance von World in Conflict anhand eines im Spiels integrierten Benchmarks angesehen. Dabei stellte sich primär heraus, daß das Spiel unter dem HighQuality- und dem VeryHighQuality-Setting nVidia-Grafikkarten deutlich bevorzugt, während die ATI-Grafikkarten in diesem Setting teils dramatisch zurückhängen. Der hohe Abstand besonders unter dem VeryHighQuality-Setting sowie der Umstand, daß die Radeon HD 2900 XT unter dem MediumQuality-Setting das Feld sogar (mit geringfügigem Vorsprung) anführt, deuten hier allerdings eher auf ein Problem des Spiels mit ATI-Grafikkarten hin, welches also eventuell mit einem zukünftigen Treiber-Release behebbar ist. Zudem sind die beiden höchsten Bildqualitätsstufen dann auch nur wirklich etwas für HighEnd-Boliden, da die Frameraten selbst bei diesen schon recht knapp ausfallen.
Bezüglich der Prozessorenpower ist das Spiel allerdings deutlich genügsamer: Wenn, dann wird das Spiel eher von der Leistungsfähigkeit der Grafikkarte ausgebremst als vom Prozessor. Interessanterweise scheint das Spiel über eine QuadCore-Optimierung zu verfügen, da regelmäßig niedriger getaktete QuadCore-Modelle an schneller getakteten DualCore-Modellen vorbeiziehen. Allerdings scheint der Effekt auch nicht wirklich deutlich ausgebildet zu sein, es konnte mit den angestellten Messungen ein Vorteil von ca. 10 Prozent für QuadCore-Modelle auf gleichem Takt ermittelt werden. Wie dies in in den Spitzen aussieht, wenn das Spiel mal für ein paar Frames nur noch CPU-limitiert wird, ist damit natürlich nicht gesagt - dies wäre nur über Messungen mittels kurzer Savegames ermittelbar.
Ein Posting im Heise-Forum bringt eine neue Sichtweise in Bezug auf das letzten Montag besprochene Urteil gegen die Speicherung von IP-Adressen durch bundesdeutsche Webseiten. Danach wird angezweifelt, ob man bei einer normalen deutschen Webseite überhaupt von "personenbezogenen Daten" sprechen kann, wenn es um gespeicherte IP-Adressen geht. Denn laut Bundesdatenschutzgesetz sind personenbezogene Daten nur solcherart Daten, welche von bestimmten oder bestimmbaren Personen stammen. Und wie zuletzt schon ausgeführt, sind IP-Adressen für Webmaster eben nicht so einfach in Realnamen umwandelbar, womit die IP-Adressen in den Händen von Webmastern eigentlich keine personenbezogene Daten mehr wären.
Allerdings kann man hier auch einen Widerspruch gegenüber dieser Argumentation anbringen. Denn in den Erwägungsgründen der dem deutschen Gesetz zugrundeliegenden EU-Richtlinie wird zur Bestimmbarkeit einer Person ausgeführt, "daß alle Mittel berücksichtigt werden müssen, die vernünftiger Weise entweder von dem Verantwortlichen für die Verarbeitung oder von einem Dritten eingesetzt werden können, um die betreffende Person zu bestimmen". Und das ergibt einen gewissen Knackpunkt: Sofern man diese dritte Person absolut beliebig auslegt (unabhängig ob berechtigt oder nicht), dann läßt sich natürlich zu jeder IP-Adresse immer ein Realname ermitteln. Aber hier ergibt sich natürlich auch gleich ein Widerspruch zum Widerspruch: Wahrscheinlich meint man hier sicherlich nicht gerade unberechtigte Dritte - die dürfen rechtlich ja sowieso nicht an diese Daten kommen.
Läßt man sich auf diese Auslegung ein, dann bleibt obiges Gedankenmodell bestehen: So lange der Webmaster keinen berechtigten Zugriff auf die IP-Adressen und Realnamen verbindenden Informationen des Providers hat, besitzt der Webmaster keine personenbezogenen Daten und würde das vorgenannte Gerichtsurteil für den normalen Webmaster in Deutschland keine Anwendung finden. Klarheit können in diesem Fall allerdings wohl nur weitere Urteile zur selben Frage bringen, welche sich möglichst nicht auf staatliche Webmaster beziehen: Denn für den Beklagten in diesem speziellen Fall, das Bundesjustizministerium, gilt das Urteil in beiden Auslegungsmöglichkeiten sowieso, da das Bundesjustizministerium natürlich auf dem Amtsweg jederzeit aus IP-Adressen Realnamen ermitteln kann. Interessant zu erfahren und wichtig für alle bundesdeutschen Webmaster wäre aber, ob diese Auslegung des Gerichts auch für eben diese "normalen" bundesdeutschen Webmaster gelten soll.
News des 5. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Beim Guru3D sowie Hexus hat man sich etwas näher mit der Radeon HD 2900 Pro von HIS beschäftigt. Dabei konnte zum einen der Abstand zur Radeon HD 2900 XT genauer ermittelt werden, dieser liegt je nach Test zwischen 18 und 20 Prozent. Interessanterweise bleibt der Abstand auch mit höheren Auflösungen gleich - was insbesondere bei günstigeren Karten oftmals ein Schwachpunkt ist, auf die Radeon HD 2900 Pro jedoch nicht zutrifft (und dagegen bei der Radeon HD 2900 GT wohl anzunehmen ist, da diese nur über ein 256bittiges Speicherinterface verfügt). Dagegen sind die Ergebnise der Radeon HD 2900 Pro gegenüber einer GeForce 8800 GTS 320MB sehr unterschiedlich bei beiden Testberichten ausgefallen.
Während beim Test von Hexus beide Grafikkarten auf ungefähr demselben Niveau und damit im Rahmen der Erwartungen rangieren, fällt diesbezüglich der Test von Guru3D etwas aus dem Rahmen: Dort sieht man die GeForce 8800 GTS 320MB immerhin satte 24 Prozent vor der Radeon HD 2900 Pro. Dies leitet sich wohl primär daraus ab, daß man bei Guru3D die GeForce 8800 GTS 320MB noch 5 Prozent vor der Radeon HD 2900 XT sieht - wogegen allerdings die allermeisten anderen Tests zu diesen Grafikkarten sprechen. In der Summe bleibt also nur, daß der Leistungsabstand zwischen Radeon HD 2900 Pro und XT zwischen 18 und 20 Prozent liegt - für das genaue Verhältnis zu GeForce 8800 GTS 320MB und 640MB wären besser weitere Tests zum Thema abzuwarten.
Die X-bit Labs bringen in einem Artikel zur GDDR4-Version der Radeon HD 2600 XT mal wieder Stromverbrauchs-Messungen akueller Grafikkarten. Hierbei wurden speziell die aktuellen LowCost- und Mainstream-Beschleuniger vermessen, was einige interessante Ergebnisse hervorbrachte. So verbrauchen im Mainstream-Segment Radeon HD 2600 XT GDDR4 und GeForce 8600 GTS mit 49 bzw. 47 Watt unter Vollast in etwa dasselbe. Einen deutlichen Abstand gibt es dagegen bei den LowCost-Grafikkarten Radeon HD 2400 XT und GeForce 8500 GT, dieser Vergleich geht mit 19 zu 27 Watt klar zugunsten von ATI aus. Noch viel drastischer dürfte hier der Vergleich der absoluten LowCost-Ausführungen Radeon HD 2400 Pro und GeForce 8400 GS ausfallen, auch wenn diese nicht mitgemessen wurden.
Denn die Radeon HD 2400 Pro hat gegenüber der XT-Ausführung die deutlich niedrigeren Taktraten (525/400 MHz zu 700/800 MHz) und dürfte somit nochmals ein gutes Stück weniger verbrauchen - man kann den Stromverbrauch der Radeon HD 2400 Pro somit auf ca. 12 bis 13 Watt unter Vollast schätzen. Bei der GeForce 8400 GS funktioniert dieselbe Rechnung allerdings nicht, da hier zur GeForce 8500 GT kein Taktratenunterschied existiert, sondern die kleinere Karte hier schlicht nur mit einem 64 Bit DDR Speicherinterface im Gegensatz zum 128 Bit DDR Speicherinterface der größeren Karte antritt. Deutlich weniger als 25 Watt werden es also auch bei der GeForce 8400 GS nicht sein - ATIs Konkurrenzprodukt dürfte hier in der Nähe der Hälfte dessen liegen. Dies verschafft ATI deutliche Vorteile bei diesem vorwiegend im OEM-Geschäft in Millionenstückzahlen verkauften Karten: Ein geringerer Stromverbrauch ermöglicht einfachere Platinendesigns und einen geringeren Kühlaufwand, womit diese Grafikkarten klar günstiger herzustellen sind.
Wie der Planet 3DNow! berichtet, soll es laut Speichermodulhersteller Corsair bereits Anfang nächsten Jahres erste DDR3-Module mit 2 GHz Marketingtakt geben, sprich DDR3/2000. Dabei dürfte diese Entwicklung noch nicht einmal das Ende der Fahnenstange bei DDR3-Übertaktermodulen bedeuten: Bei DDR1 und DDR2 lagen diese regelmäßig um 40 Prozent über den höchsten spezifizierten Speichersorten (DDR400, DDR2/800, DDR3/1600). Demzufolge dürfte es bei DDR3-Speicher auch noch bis auf DDR3/2266 oder ähnliches hinaufgehen können - und wenn DDR3 wirklich so taktfreudig ist, wie immer gesagt wird, dann womöglich sogar noch mehr. Daß es derzeit auf dem PC keine Plattform gibt, welche DDR3 auf diesen Taktraten ausnutzen kann, steht auf einem anderen Blatt - hier hilft nur das warten auf die DDR3-unterstützenden K10-Prozessoren von AMD bzw. die Nehalem-Prozessorenarchitektur von Intel.
In diesem Thread unseres Forums wird zwar primär "nur" darüber diskutiert, daß das BKA seit 2004 auf der BKA-eigenen öffentlichen Webseite zur "Militanten Gruppe" mitloggt, wer sich diese Seite ansieht und auch bei den Internet Service Providern (ISPs) die Identität der Besucher ermittelt (an dieser Stelle würde die exakte Begründung interessieren, mittels welchem das BKA diese Daten bei den ISPs anfordert). Davon abgesehen sind zwei Wortmeldungen von Usern, die offensichtlich bei ISPs arbeiten, sehr interessant bzw. lustig: Im ersten Fall wollte eine Staatsanwaltschaft auf mittels der SINA-Boxen mitgeschnittenen Internetverkehrs eines Nutzers zugreifen und drohte dem diesbezüglich zögernden Mitarbeiter des ISPs mit Konsequenzen, falls dieser nicht umgehend die Daten durchfaxen würde.
Das Zögern des ISP-Mitarbeiter war allerdings durchaus begründet, denn es handelte sich schließlich um lockerleichte 420.000 Seiten - das Thermotransfer-Fax der Staatsanwaltschaft war aber nach schon 200 Seiten am Ende ;). In einem anderen Fall wurde eine SINA-Box offensichtlich so derart selten (aka nie) verwendet, daß es absolut nicht auffiel, daß diese zuerst als eDonkey-Server zweckentfremdet, später gehackt und in einem Fall sogar einmal vom Stromnetz getrennt wurde - die staatlichen Überwacher haben sich in keinem dieser Fälle gemeldet. Mit diesen hübschen Anekdoten soll allerdings keinesfalls die derzeit grassierende Überwachungswut verharmlost werden: Sicherlich ist man derzeit in vielen Fällen auf die riesigen Datenmengen, welche mittels Totalüberwachung per SINA-Box oder die kommende Vorratsdatenspeicherung anfallen, nicht vorbereitet, allerdings kann sich dies auch in wenigen Jahren ändern.
Letztlich fehlt hier nur eine große Datenbank-Software, welche all die ankommenden Informationen nicht wie bisher manuell der Datenbank zufügt, sondern dies automatisiert erledigt. Und ist diese erst einmal eingerichtet, spielt die Menge der ankommenden Daten dann auch keine Rolle mehr, dies wäre über die Leistungsfähigkeit der benutzten Hardware jederzeit regelbar. Nur weil man bei Vater Staat IT-technisch in den meisten Fällen arg rückständig ist, bedeutet das nicht, das dieser Zustand ewig anhalten muß oder aber das die jetzt erzeugten Datenberge automatisch belanglos weil nicht auswertbar sind. Einmal erhobene Daten sind im Normalfall (und wenn sie nicht gerade durch einen Fehler des Lesegeräts 100prozentig verlorengehen) nicht mehr aus der Welt zu bekommen, selbst wenn diese nicht sofort erfasst und bearbeitet werden.
News des 4. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Einem Thread unseres Forums ist eine interne Auflistung eines Grafikkarten-Herstellers zu dessen Varianten der GeForce 8800 GTS zu entnehmen, welche eine neue Variante der GeForce 8800 GTS enthält. Diese soll abweichend zu den bisherigen Varianten allerdings gleich mit 112 Shader-Einheiten antreten (und dementsprechend wohl auch mit 56 TMUs, da dies nur gemeinsam aktivier- und deaktivierbar ist), was dann 17 Prozent mehr Rohleistung gegenüber der regulären GeForce 8800 GTS (96 Shader-Einheiten, 48 TMUs) wäre und näher an die GeForce 8800 GTX (128 Shader-Einheiten und 64 TMUs) heranrücken würde. Zu letzterer hat diese neue GeForce 8800 GTS dann allerdings noch einen Taktunterschied, da die Taktraten dieser neuen Karte auf dem Stand der bisherigen GeForce 8800 GTS Karten bleiben sollen: 500/800 MHz. Auch am Speicherinterface (320 Bit DDR) und der verbauten Speichermenge (640 MB) ändert sich nichts - faktisch eine GeForce 8800 GTS 640MB mit eben 17 Prozent mehr freigeschalteten Ausführungseinheiten.
Der Name der neuen Karten wird interessanterweise bis dato aber immer noch als "GeForce 8800 GTS" angegeben - das könnte auf eine stille Einführung als Ersatz der bisherigen GeForce 8800 GTS hindeuten, bleibt aber trotzdem seltsam. Generell dürfte diese neue GeForce 8800 GTS als nVidias Antwort auf den RV670-Chip (Radeon HD 2950 Pro und XT) zu sehen sein, nachdem dieser stärker ausfällt als erwartet und nVidias eigene Lösung für das Performance-Segment in Form des G92-Chips (GeForce 8800 GT) zwar gut und günstig ausgefallen ist, aber von der Performance her wohl nicht gegen die schnellste RV670-Variante ankommen kann. Derzeit ist noch unklar, wann nVidia die neue GeForce 8800 GTS in den Markt entläßt, da ATIs RV670-Chip nunmehr aber schon am 19. November antreten soll, ist ein Erscheinungstermin noch in diesem Jahr anzunehmen. Sobald die neuen Karten im Markt vorhanden sind, dürften die Duelle im Performance-Segment dann lauten: GeForce 8800 GT vs. Radeon HD 2950 Pro und neue GeForce 8800 GTS vs. Radeon HD 2950 XT.
Die nVidia-Folien zu Triple-SLI sind in vollständigerer Ausführungen nunmehr auch hier und hier zu bestaunen, diesen ist denn auch zu entnehmen, daß nVidia die neue SLI-Art schon im November vorstellen will. Dazu soll zukünftig auch verstärkt auf die zu SLI passende Infrastruktur geachtet werden, so wird es ein "SLI-ready"-Logo für Gehäuse, Kühler und Netzteile geben. Natürlich werden die entsprechenden Hersteller damit auch versuchen, ihr Geschäft zu machen - wenn es aber gleichzeitig für die Verbraucher dazu führt, daß mehr Klarheit und Sicherheit über SLI-geeignete Gerätschaften aufkommt, kann das ganze nur begrüßt werden. Die nVidia-Folie zur mit Triple-SLI zu erwartenden Leistungssteigerung beinhalten allerdings eine hübsche Falschrechnung, da gemäß dieser Folie normales SLI im Vergleich zu einer SingleChip-Lösung ca. 170 Prozent an Leistung bringen soll, Triple-SLI allerdings mit 260 Prozent angegeben wird.
Damit würde die dritte Grafikkarte allerdings eine Effizienz von über 100 Prozent haben (von 170 Prozent bei normalen SLI ausgehen sind mit einer dritten Karten maximal 2/3 mehr Leistung möglich, ergo im theoretischen Bestfall 255 Prozent), was als eher unwahrscheinlich betrachtet werden darf. Wahrscheinlich wollte man hier ausdrücken, daß die dritte Karte unter Triple-SLI runde 60 Prozent ihres Performance-Potentials in Leistung umsetzen kann (die angegebenen 260 Prozent minus 200 Prozent für den Idealfall bei normalem SLI), kummuliert ergibt dies aber nur eine Leistungssteigerung von 221 Prozent (die 170 Prozent von normalem SLI multipliziert mit der Hälfte der 60 Prozent Leistungssteigerung der dritten Karte). Hieran dürfte sich auch schon ein Stolperstein von Triple-SLI ergeben: Für 30 Prozent mehr Performance gegenüber normalen SLI lohnt eventuell der hohe Aufwand der ganzen für Triple-SLI notwendigen Architektur nicht.
Zudem blockiert man sich mit drei DualSlot-Grafikkarten das Mainboard vollständig und kann somit keine weiteren Steckkarten für Sound, RAID oder sonstiges einsetzen. Insbesondere die eigentliche Zielgruppe für Triple-SLI dürfte diese Aussicht doch eher abschrecken - bleibt abzuwarten, was nVidia hiergegen unternimmt. Rein technisch ist es sicherlich möglich, größere Gehäuse und größere Netzteile zu bauen, ob sich der Aufwand für den zu erwartenden kleinen Zielmarkt bei Triple-SLI jedoch lohnt, bleibt abzuwarten. Angeblich sollen ja größere Gehäuse speziell für Triple-SLI in Arbeit sein - was man sich darunter vorstellen darf, ist allerdings noch nicht raus. Und letztlich wäre noch zu erwähnen, daß nVidia Triple-SLI erst einmal nur für die GeForce 8800 GTX und Ultra anbieten wird - was darauf hindeutet, daß nVidia zumindestens bis zum November keine neue HighEnd-Lösung vorgestellt haben wird, welche den Platz des G80-Chips einnehmen kann (der G92-Chip ist wie bekannt keine HighEnd-Lösung).
News des 2./3. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Mittels einer Produkt-Webseite bei Club 3D lassen sich nunmehr die bisher nur angenommenen technischen Daten zur Radeon HD 2900 GT bestätigen. Danach besitzt diese R600-Abwandlung nur 240 aktive Shader-Einheiten und nur ein 256 Bit DDR breites Speicherinterface - im Gegensatz zu den 320 Shader-Einheiten und dem 512 Bit DDR Speicherinterface des vollen R600-Chips ist das schon eine nicht unerhebliche Abspeckung. Die Taktraten sind gleich zur Radeon HD 2900 Pro bei 600/800 MHz, allerdings wird die GT-Ausführung üblicherweise nur mit 256 MB GDDR3 antreten. Von den technischen Daten her liegt die Karte damit ziemlich ideal zwischen Radeon HD 2600 XT GDDR4 und Radeon HD 2900 Pro. Der Preispunkt, welcher derzeit zwischen 184 Euro und 199 Euro liegt, kommt uns jedoch noch nicht passend vor.
Denn zu diesen Konditionen liegt die deutlich stärkere Radeon HD 2900 Pro preislich einfach zu nahe und dürfte sich in der mittel- und langfristigen Zukunft wegen ihrer gleich 512 MB Grafikkarten-Speicher auch deutlich besser bewähren. Aber eventuell sind wirklich attraktive Preislagen à 150 Euro für die Radeon HD 2900 GT auch nicht machbar, weil der R600-Chip und das für diesen notwendige aufwändige Platinendesign nicht unterhalb eines gewissen Preises realisierbar sind. Primär ist es aber das wirklich exzellente Preis/Leistungsverhältnis der Radeon HD 2900 Pro, welches die Radeon HD 2900 GT zum derzeitigen Stand doch eher unattraktiver erscheinen läßt als ATIs andere neue Lösung für das Performance-Segment.
Die PC Games Hardware hat mit id Software über den Sinn von TripleCore-Prozessoren gesprochen, wie sie AMD bekanntlich plant. Prinzipiell lassen sich auch drei Prozessorenkerne beim Design einer Spiele-Engine unterstützen, diesbezüglich besteht wohl kein großer Unterschied zu QuadCore-Prozessoren. Allerdings muß dies beim Design der Engine schon vorher mit bedacht werden oder aber die Engine generell so viele wie möglich Rechenaufgaben voneinander trennen. Beachtenswert ist aber vor allem, in welchem Stil id Software aktuell von MultiCore-Optimierungen redet: Hierbei geht man augenscheinlich noch nicht den Weg der Parallelisierung innerhalb derselben Rechenaufgabe (multi-threaded Programmierung), sondern trennt erst einmal nur die einzelnen Rechenaufgaben voneinander.
Im Gegensatz zu früheren Engines, wo diese Trennung nach Rechenaufgaben speziell auf DualCore-Prozessoren zugeschnitten war, kann man sich bei id Software aber auch eine Auftrennung auf bis zu sechs Rechenaufgaben vorstellen: A.I. Code, Effect Physics, Game Code, Texture Streaming & De-/Re-Compression, Sound Engine und Renderer - dies würde dann sogar noch über die Möglichkeiten von QuadCore-Prozessoren hinausgehen. Problematisch ist an dieser Stelle allerdings, daß dieses System der Auftrennung nach Rechenaufgaben immer ineffizienter mit steigender Kernanzahl wird. Denn für eine gute CPU-Auslastung müssen alle auf einem Kern ausgeführten Rechenaufgaben in etwa dieselben Leistungsanforderungen haben. Trifft dies nicht zu und ein Core wird beispielsweise nur zu 10 Prozent mit seiner Rechenaufgabe ausgelastet, ist der Performancegewinn nur gering bis äußerst gering.
Die Schwierigkeit besteht also nicht nur darin, Rechenausgaben sauber voneinander zu trennen, so daß sie parallel und (weitestgehend) ohne gegenseitige Beeinflussung ausgeführt werden können, sondern auch noch, daß diese Rechenaufgaben im Idealfall ähnliche Performance-Anforderungen haben. Beispiel: In einer Engine gelingt es, vier Rechenaufgaben voneinander zu trennen, demzufolge könnte man von einem Support für QuadCore-Prozessoren sprechen. Wenn aber eine dieser Rechenaufgaben für sich 50 Prozent der gesamten Rechenleistung beansprucht, spielt es keine Rolle mehr, ob die drei restlichen Rechenaufgaben auf einem weiteren Kern (DualCore), auf zwei weiteren Kernen (TripleCore) oder auf drei weiteren Kernen (QuadCore) ausgeführt werden - die Performance bleibt immer so, als würde man "nur" ein DualCore-Modell nutzen.
Je stärker man die Rechenaufgaben unterteilt und je mehr Kerne man nutzen will, um so wichtiger wird also, daß keine der einzelnen Rechenaufgaben zu viel Rechenleistung nur für sich vereinnahmen will. Die jeweils benutzte Spiel-Engine macht hier allerdings die Vorgaben - und man kann nur sehen, wie man daraus das beste macht. Auf jeden Fall wird es somit mit zunehmender Anzahl an Prozessorenkerne immer ineffektiver, dieses Modell der Unterteilung nach Rechenaufgaben zu verfolgen: Um einen QuadCore-Prozessor noch optimal auslasten zu können, darf keine der einzelnen Rechenaufgaben mehr als 25 Prozent der Rechenleistung beanspruchen, bei einem OctaCore wären es gar nur 12,5 Prozent. Demzufolge sind von QuadCore-Prozessoren (und noch höheren Modellen) keine Wunderdinge mehr zu erwarten, wenn sie auf derart "optimierte" Spiele-Engines treffen. Langfristig werden die Spiele-Programmierer wohl oder übel auf multi-threaded geschriebenen Code umsatteln müssen, da dies der einzige Weg ist, um auch mit ManyCore-Prozessoren (mit beispielsweise 80 Kernen) noch Leistungsgewinne realisieren zu können.
News des 1. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei der ComputerBase gibt es einen ausführlichen Test zur Sapphire Radeon HD 2600 XT X2, einer DualChip-Grafikkarte mit zwei Radeon HD 2600 XT GDDR3 Grafikchips auf einer Platine. Abseits der ATI-Vorgaben taktet diese Karte mit 800/800 MHz etwas höher als der default beim Radeon HD 2600 XT GDDR3 Grafikchip von 800/700 MHz. In den Benchmarks zeigt sich die DualChip-Grafikkarte im Rahmen ihrer Möglichkeiten als durchaus schlagkräftig - im Schnitt etwas über 80 Prozent Leistungsgewinn gegenüber einer einzelnen Radeon HD 2600 XT GDDR3 (auf default-Taktrate) sind erst einmal aller Ehren wert. Das Problem der Karte liegt aber eher darin, daß man damit immer noch nicht in die Nähe einer Radeon HD 2900 XT kommt.
Diese liegt weiterhin 50 bis 60 Prozent vor der DualChip Radeon HD 2600 XT GDDR3, womit auch die derzeit in den Markt kommende Radeon HD 2900 Pro noch deutlich vor dieser DualChip-Grafikkarte rangieren dürfte. Da die Radeon HD 2900 Pro jedoch zum identischen Preis erhältlich ist wie DualChip HD 2600 XT GDDR3 Grafikkarten (jeweils ca. 220 bis 230 Euro), schwingt hier das Pendel deutlich zugunsten eben jener Radeon HD 2900 Pro. Selbst wenn diese im Test der ComputerBase nicht vertreten war, ist doch aus den vorliegenden Testergebnissen zu schlußfolgern, daß die Radeon HD 2900 Pro immer noch gute 50 Prozent vor der DualChip Radeon HD 2600 XT GDDR3 liegen sollte. Daß es an der Karte selber nicht liegt, zeigt der 80prozentige Leistungssprung gegenüber der SingleChip-Ausführung - allerdings ist halt der Abstand zwischen den Grafikchips RV630 (Radeon HD 2600 Serie) und R600 (Radeon HD 2900 Serie) einfach zu groß, um diesen selbst mit einer DualChip-Grafikkarte überbrücken zu können.
Über ein die bundesdeutsche Internetlandschaft möglicherweise nachhaltig betreffendes Urteil berichten (unter anderem) Daten-Speicherung. Danach wurde dem Bundesjustizministerium untersagt, personenbezogene Daten eines Surfers über die jeweilige Nutzungsdauer hinaus zu speichern. Dies betrifft insbesondere IP-Adressen, da "es durch die Zusammenführung der personenbezogenen Daten mit Hilfe Dritter bereits jetzt ohne großen Aufwand in den meisten Fällen möglich (ist), Internetnutzer aufgrund ihrer IP-Adresse zu identifizieren". Grundlage für diese Entscheidung ist das Recht auf informationelle Selbstbestimmung, welches das Gericht durch die Speicherung von IP-Adressen verletzt sah. Interessanterweise lehnte das Gericht selbst eine kurzfristige Speicherung (im Fall des Bundesjustizministerium wurden die Daten nach 14 Tagen gelöscht) ab und sah auch "Sicherheitsgründe" nicht als Grund für eine Speicherung an.
Was sich nun erst einmal vernünftig und vor allem gesetzeskonform anhört, entpuppt sich bei genauer Betrachtung durchaus als zweifelhaft. Dabei muß an dieser Stelle erst einmal klar gestellt werden, daß Speicherung von IP-Adressen je nachdem, wer diese an welcher Stelle vornimmt, jeweils etwas völlig anderes sein kann: Wenn ein Internet Service Provider speichert, welcher seiner Kunden zu welcher Zeit mit einer bestimmten IP-Adresse im Internet unterwegs war, dann sind dies hochgefährliche Daten, weil in diesem Fall IP-Adressen und Personendaten in derselben Hand liegen. Das gleiche trifft zu, wenn Vater Staat mit IP-Adressen hantiert, da dieser deutlich zu einfach aus diesen IP-Adressen die Personendaten gewinnen kann (mittels einer Anfrage an den Provider, funktioniert bei den meisten Providern leider auch ohne richterliche Genehmigung).
Dagegen sehen wir die Angelegenheit vollkommen anders, wenn sich diese IP-Adresse in der Hand eines x-beliebigen Webmasters befindet, weil dieser Webmaster der IP-Adresse nun einmal keinen Realnamen zuordnen kann. Die IP-Adresse ist in diesem Fall nicht "personenbezogene Daten", sondern gibt dem Webmaster vielmehr nur die Möglichkeit an die Hand, die Surfer auf seiner Webseite eindeutig auseinanderzuhalten - faktisch eine Möglichkeit der "anonymen Identifizierung" ;). Diese wird üblicherweise zu Statistik-Zwecken genutzt (ohne IP-Adressen geht da eigentlich gar nichts) - aber auch die vom Gericht genannten "Sicherheitsgründe" können hier zum Zuge kommen, um Mißbrauch oder auch regelrechten Attacken entgegenwirken zu können.
Darüber hat sich bis jetzt noch nie jemand aufgeregt - es gibt ja auch nichts zum aufregen, so lange sich die IP-Adressen nur in den Händen von Personen befinden, die daraus normalerweise niemals eine Realperson ermitteln können. Mit dem Speichern von IP-Adressen seitens der Internet Service Provider im Rahmen der kommenden Vorratsdatenspeicherung hat diese Datenspeicherung also nur den Namen gemeinsam, faktisch sind es aber dennoch getrennte Dinge. Für einen Webmaster sind IP-Adressen genauso wenig "personenbezogene Daten" wie Cookies: Beide Informationen dienen zwar, die Nutzer auseinanderzuhalten, lassen aber eine Identifikation einer realen Person erst einmal nicht zu. Für die Richter spielte das allerdings keine Rolle, hier entschied man sich für die weite Auslegung des Begriffs "personenbezogene Daten": Maßgeblich ist demnach die reine Datenart, nicht aber, ob man überhaupt in der Position ist, mit diesen Daten etwas anfangen zu können.
Dies ergibt Vor- und Nachteile. Als Vorteil könnte sicherlich stehen, daß damit die kommende Vorratsdatenspeicherung zumindestens im Punkt des Speicherns von IP-Adressen durch die Internet Service Provider vollkommen obsolet werden würde: Denn wenn bundesdeutsch geführte Webseiten keinerlei IP-Adressen mehr loggen dürfen (auch nicht für einen kurzen Zeitraum), braucht man diese bei den Providern auch nicht mehr aufzuzeichnen. Die Vorratsdatenspeicherung ist damit natürlich noch lange nicht am Ende, diese Maßnahme umfaßt wesentlich mehr als nur die Aufzeichnung von IP-Adressen, zu nennen wären hier beispielsweise die komplette Aufzeichnung der Verbindungsdaten von eMails und Mobilfunk. Als Nachteil könnte gelten, daß damit die für die meisten Webmaster nutzvolle Funktion des IP-Loggens in Deutschland nicht mehr legal wäre, obwohl von dieser Funktionalität in 99,999 Prozent der Fälle keinerlei Gefahr für den Datenschutz oder das "Recht auf informationelle Selbstbestimmung" ausgeht.