News-Archiv 26. November - 2. Dezember 2007 (48. Kalenderwoche)
1./2. Dezember 30. November 29. November 28. November 27. November 26. November
News des 1./2. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei den YouGamers ist man der Frage nachgegangen, wieviel Grafikkartenspeicher derzeit nun wirklich gebraucht wird und hat sich dazu den Grafikkartenspeicher-Verbrauch einiger aktueller Spiele unter verschiedenen Auflösungen und Bildqualitätssettings angesehen. Dies ergibt sicherlich einige wertvolle Informationen, zur Abschätzung der Ausgangsfrage dürften aber eher denn (seitens YouGamers allerdings nicht angestellte) Benchmarks entscheidend sein. Denn die Auswirkungen von zu wenig Grafikkartenspeicher sind je nach der Leistungsklasse der benutzten Grafikkarte nun einmal unterschiedlich: Während bei HighEnd-Grafikkarten durchaus 10 bis 15 Prozent zwischen 256/320 MB und 512/640 MB Grafikkartenspeicher liegen können, ist diese Differenz bei Mainstream-Grafikkarten deutlich geringer und bei LowCost-Modellen kaum noch feststellbar.
Denn bei diesen Grafikkarten limitiert in aller Regel zuerst die Leistungsfähigkeit des Grafikchips selber, der Effekt des zu geringen Grafikkartenspeichers tritt hierbei etwas in den Hintergrund. Demzufolge gibt es keine einheitliche Regel, daß man heutzutage soundso viel Grafikkartenspeicher braucht - dies hängt entscheidend vom Preisbereich der Grafikkarte ab: Für Performance- und HighEnd-Modelle empfehlen sich eigentlich überall 512 MB Grafikkartenspeicher, weil man hier ansonsten wie gesagt mit Performanceinbußen rechnen muß, welche sich in der Zukunft mit neueren Spielen noch verstärkt auftreten werden. Bei Mainstream-Modellen sind beide Wege gangbar, bei LowCost-Modellen lohnen dagegen mehr als 256 MB Grafikkartenspeicher überhaupt nicht, weil hier in jedem Fall zuerst die Leistungsfähigkeit des Grafikchips limitieren wird. Ironischerweise ist aber gerade im LowCost-Bereich der Aufpreis für 512 MB Grafikkartenspeicher zumeist äußerst gering ;).
Wie der Planet 3DNow! in seinem Phenom-Review ausführt, hat AMD diesem Prozessor eine andere Berechnung des Speichertakts spendiert. Bei den bisherigen K8-Prozessoren ergab sich der real angesetzte Speichertakt aus einer komplizierten Rechnung mittels CPU-Takt, des gewünschten Speichertaktes und eines extra Speicherteilers, welche dazu führte, daß je nach CPU-Takt der letztlich angewandte Speichertakt immer etwas anders war. Beim K10-Core des Phenom hat AMD dies anders gelöst: Hier wird der Speichertakt an den HyperTransport-Referenztakt gekoppelt und es gibt offensichtlich einen Speicher-Multiplikator, welcher seitens des Mainboards festgelegt wird.
Im Fall von DDR2/800 mit 400 MHz physikalischem Takt lautet die Rechnung dann also "200 MHz HyperTransport-Referenztakt x Speicher-Multiplikator 2 = 400 MHz Speichertakt aka DDR2/800". Für DDR2/1066 müsste dann ein Speicher-Multiplikator von 2,66 zum Einsatz kommen, welcher wie gesagt allem Anschein nach vom Mainboard gestellt wird. Auf diesem Wege dürfte es auch möglich sein, noch höhere Speichertakte ohne eine gleichzeitige Übertaktung anderer Systemkomponenten zu erreichen: Für DDR2/1200 muß das Mainboard dann einfach einen Speicher-Multiplikator von 3 liefern. Der andere Weg der Speicherübertaktung führt dann aber nur über den HyperTransport-Referenztakt: Zieht man also den Speichertakt hoch, geht auch dieser nach oben und damit auch der Takt des HyperTransport-Protokolls. Was das für Auswirkungen auf die Overclocking-Eignung der Phenom-Prozessoren hat, wird dann die Praxis zeigen müssen.
Weitere Benchmarks von 45nm DualCore-Prozessoren kommen von Expreview, welche einen Core 2 Duo E8400 mit 3.0 GHz im Test haben und diesen gegen einen Core 2 Duo E6850 mit der gleichen Taktfrequenz verglichen. Wie schon kürzlich ergaben sich dabei zwischen Penryn- und Conroe-Architektur nur eher geringfügige Unterschiede im einstelligen Prozentbereich. Dies erstaunt ein wenig, denn bei den ersten Tests zwischen Penryn- und Conroe-Architektur auf QuadCore-Basis waren die Unterschiede noch klar im Mittel auf 10 Prozent angesiedelt, im DualCore-Bereich sind es aber nur gute 5 Prozent. Da die Architekturen der Quad- und DualCore-Modellen derselben Baureihe jedoch vollkommen gleich sind, sollte auch der Performance-Gewinn zwischen Quad- und DualCore eigentlich identisch sein.
Allerdings liegt der primäre Vorteil der kommenden 45nm-Generation sowieso nicht unbedingt in der gestiegenen Performance, sondern auf anderen Feldern: Zum einen sinkt die Verlustleistung und damit die Prozessor-Abwärme erneut, bei Expreview wurde der 3-GHz-Prozessor unter Last gerade noch einmal 33 Grad warm (das 65nm-Modell lag bei 46 Grad). Dies begünstigt direkt auch den zweiten wesentlichen Vorteil: Die Overclocking-Eignung der 45nm-Modelle dürfte natürlich über derjenigen der 65nm-Modelle liegen. Allerdings dürfte sich der größte Effekt hier erst mit einem gewissen zeitlichen Verzug einstellen: Erst wenn Intel ein bis zwei neue Steppings der 45nm-Modelle aufgelegt hat, dürfte sich das wahre Overclocking-Potential dieser Prozessoren zeigen, welche durchaus 4 GHz mit Luftkühlung erreichen können sollten.
Zur am Freitag im deutschen Bundesrat beschlossenen Vorratsdatenspeicherung wäre noch zu erwähnen, daß die in dieser ausgeführte Speicherpflicht für Internet-Verbindungsdaten (benutzte IP-Adressen fürs Surfen sowie benutzte IP-Adressen zum Versenden/Empfangen von eMail-Adressen inklusive der Sender/Empfänger-Adressen von eMails) zwar schon zum 1. Januar 2008 in Kraft tritt, bei Nichtbeachtung allerdings erst ab 1. Januar 2009 Strafzahlungen der Provider fällig werden. Demzufolge können die Provider die Pflicht zur Vorratsdatenspeicherung durchaus hinauszögern - was zum einen im eigenen Interesse ist, da bisher keine konkreten Kompensationszahlungen für die entstehenden Kosten beschlossen wurden, und zum anderen im Interesse der Kunden wäre, weil schließlich immer noch die große Chance besteht, daß das neue Gesetz im kommenden Jahr vom Bundesverfassungsgericht zu Fall gebracht werden wird.
News des 30. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie die DigiTimes berichtet, will nVidia im Februar einen neuen HighEnd-Chip namens "D9E" (das "E" steht für "Enthusiast" aka HighEnd) als erstes Modell der GeForce9-Serie in den Markt schicken, im Juni soll dann mit dem "D9P" ein neuer Performance-Chip aus dieser Serie anstehen. Beide neuen Grafikchips werden Direct3D 10.1 unterstützten, der D9E wird in 65nm und der D9P dann schon in 55nm gefertigt werden. Wie die Unterschiede zwischen dieser GeForce9-Serie und der aktuellen GeForce8-Serie aussehen, ist derzeit noch bekannt: So könnte die GeForce9 durchaus eine GeForce8 mit eben schlicht nur Direct3D 10.1 sein (der Unterschied soll einfach zu realisieren sein), auf der anderen Seite aber auch eine vollkommen abweichende Architektur aufweisen.
Zumindest scheint nun aber klar zu sein, daß es innerhalb der GeForce8-Serie keine neue HighEnd-Lösung mehr geben wird. Die Anfang Dezember zu erwartende G92-basierte GeForce 8800 GTS dürfte vielmehr die Rolle der GeForce 8800 GTX übernehmen, welche wohl kurzfristig vom Markt verschwinden dürfte. Daneben dürfte die GeForce 8800 Ultra allerdings weiterhin im Markt verbleiben, denn selbst wenn deren Preis/Leistungsverhältnis angesichts der G92-Karten GeForce 8800 GT/GTS inzwischen unterirdisch erscheint - in hohen Auflösungen samt der Verwendung von Anti-Aliasing kommt einfach keine der G92-Karten an dem 384 Bit DDR breitem Speicherinterface des G80-Chips vorbei. Erst im Februar wird dann die GeForce 8800 Ultra durch den D9E-Chip im HighEnd-Gefilde abgelöst werden.
Nochmals laut der DigiTimes sollen AMDs TripleCore-Prozessoren nun schon im Februar 2008 erscheinen, geplant sind hierbei die Modelle Phenom 7600 mit 2.3 GHz und Phenom 7700 mit durchaus ansprechenden 2.5 GHz. Da die Preislage durch die schon niedrig angesetzten QuadCore-Modelle von AMD sowieso nicht all zu hoch ausfallen kann, bahnen sich hier möglicherweise zwei doch ganz interessante Prozessoren an. Auch wenn es anfänglich etwas spöttisch belächelt wurde, könnten die TripleCore-Prozessor AMD doch zu einem Erfolg verhelfen: Denn wenn es AMD gelingt, diese mit guten Taktfrequenzen gegenüber den DualCore-Modellen von Intel zu positionieren, dürften nicht wenige Endkunden dann ein solches TripleCore-Modell einem DualCore-Modell vorziehen.
Shortcuts: Dem Review der Radeon HD 2900 Pro bei den X-bit Labs ist zu entnehmen, daß diese Karte immer noch ihre 133 Watt unter Last zieht, was für eine Karte dieses Preisbereichs sicherlich zu viel ist. Inzwischen wurde die Radeon HD 2900 Pro nun von der Radeon HD 3870 abgelöst, deren Stromverbrauch trotz deutlich höherer Taktraten auf ca. 85 Watt unter Last zu schätzen ist. Wie der Tech Report in Erfahrung gebracht hat, wird AMD seine Ende letzten Jahres noch mit viel Tamtam präsentierte QuadFX-Plattform ersatzlos einstampfen, der eigentlich geplante Ausbau in Richtung des Betriebs von zwei QuadCore-Prozessoren wird somit nicht mehr stattfinden. Damit outet sich QuadFX aber auch das, was seinerzeit schon vermutet worden war: Als Vierkern-Lückenfüller für AMD bis zum Erscheinen echter QuadCore-Prozessoren.
News des 29. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
TweakTown haben den allerersten Test der G92-basierten GeForce 8800 GTS anzubieten. Diese nochmals neue GeForce 8800 GTS basiert wie gesagt auf dem auch schon bei der GeForce 8800 GT verwendeten G92-Chip, allerdings wird dieser Grafikchip bei dieser Karte dann vollständig freigeschaltet: Aus 112 Shader-Einheiten werden somit 128, aus 56 Textureneinheiten nunmehr 64 - nur das 256 Bit DDR breite Speicherinterface bleibt. Zusammem mit den höheren Taktraten von 650/1625/970 MHz ergibt sich aber dennoch ein netter Zugewinn an Rohleistung zwischen G92-basierter GeForce 8800 GTS und der bekannten GeForce 8800 GT (600/1500/900 MHz): 24 Prozent bei der Shader-Power sowie bei der Texturierleistung und 8 Prozent bei der Speicherbandbreite.
Da die G92-basierte GeForce 8800 GTS nun auch in einem DualSlot-Design daherkommt, gibt es die teilweisen Probleme der GeForce 8800 GT bei der Temperatur- und Geräuschentwicklung nun auch nicht mehr. Bezüglich der reinen Performance liefert der Artikel von TweakTown allerdings nur eine erste Ahnung, da bis auf einen Nachtrag keine GeForce 8800 GTX oder Ultra mitgetestet wurde. Trotzdem erscheint es fast so, als würde die G92-basierte GeForce 8800 GTS nicht die bislang erwartete "Überkarte", da es im Schnitt nur zu knapp 10 Prozent Mehrperformance gegenüber der GeForce 8800 GT reicht. Aller Wahrscheinlichkeit nach limitiert dann schon das eben nur 256 Bit DDR breite Speicherinterface diese Karte, denn rein von der restlichen Hardware her sollte der Abstand doch klar größer sein.
Leider wurde zudem der einzige Test gegen GeForce 8800 GTX und Ultra noch ohne Anti-Aliasing durchgeführt, was aber gerade beim Vergleich von 256 vs. 384 Bit DDR Speicherinterface eine große Rolle spielt. Aber aus der Erkenntnis, daß die G92-basierte GeForce 8800 GTS nur knappe 10 Prozent vor der GeForce 8800 GT liegt, läßt sich schon ableiten, daß im Schnitt der Benchmarks die GeForce 8800 GTX nicht wirklich erreicht werden wird und diese - rein von der Performance her - vor allem in höheren Auflösungen mit Anti-Aliasing weiterhin ihre Berechtigung haben wird. Rein preislich stimmt das natürlich so nicht, da die G92-basierte GeForce 8800 GTS wohl zu einem deutlich besseren Preis als die GeForce 8800 GTX in den Markt gehen wird, womit aufgrund des letztlich doch nur geringen Performanceunterschieds die GeForce 8800 GTX wohl endgültig obsolet werden dürfte.
Bei t-break hat man den Test eines Intel Core 2 Duo E6450 anzubieten - einer CPU, welche derzeit in keiner Intel-Preisliste oder auch in einer Roadmap geführt wird. Zwar gab es Mitte des Jahres mal Gerüchte, Intel wolle im Zuge des FSB1333-Updates seiner Prozessoren auch einen Core 2 Duo E6450 herausbringen, die FSB1333-Linie wurde dann aber doch vom Core 2 Duo E6550 mit 2.33 GHz als kleinstem Modell angeführt. Der Prozessor im Test von t-break führt zwar die gleiche Taktfrequenz und auch schon den FSB1333, besitzt als Penryn-Abkömmling aber schon 6 MB Level2 Cache. Demzufolge dürfte dieser Prozessor eher zur Anfang des kommenden Jahres zu erwartenden Core 2 E8x00 Serie an Penryn-basiernden DualCore-Prozessoren gehören.
Zwar führen bisherige Roadmaps als kleinestes Modell dieser Prozessoren-Serie den Core 2 Duo E8200 mit 2.66 GHz, aber das muß ja nichts bedeuten. Insofern scheint der vorgenannte Prozessor im Test von t-break eher denn ein Core 2 Duo E8000 zu sein - daß der Prozessor einer der geplanten Penryn-basierenden Billigserien angehört, ist dagegen ausgeschlossen, da diese regelmäßig beim Level2-Cache und FSB-Takt beschnitten sind. In jedem Fall läßt sich der Penryn-basierte DualCore-Prozessor schon einmal ganz gut an und schlägt den Conroe-basierten DualCore-Prozessor Core 2 Duo E6550 mit ebenfalls 2.33 GHz Takt und FSB1333 (wie schon bei den QuadCore-Modellen zu sehen) in den meisten Benchmarks um ein paar Prozentpunkte.
Gestern schon verlinkt, aber nicht extra gewürdigt wurde ein Artikel zur Online-Durchsuchung seitens Indymedia, welcher sich vorwiegend mit möglichen Abwehrmaßnahmen beschäftigt. Dabei wurde auch eine bislang kaum beachtete und dabei sehr griffige Abwehrmaßnahme genannt: Wenn man schlicht den eigenen Rechner nie (oder nur im eigenen Beisein) herunterfährt, ist es faktisch nicht möglich, die vorhandene Software-Umgebung auf Schwachstellen abzuklopfen bzw. den Bundestrojaner manuell zu installieren, ohne das dies auffallen würde. Denn derzeit scheint der Königsweg für den Bundestrojaner ja wohl darin zu bestehen, sich zuerst mittels eines staatlichen Wohnungseinbruchs die vorhandene Software-Umgebung anzusehen und dann in einem zweiten Wohnungseinbruch einen darauf maßgeschneiderten Bundestrojaner zu installieren.
Dies setzt natürlich voraus, daß die Überprüfung der vorhandenen Software-Umgebung zum Finden von Schwachstellen nicht schon über das Internet möglich ist. Schon eine einfache Firewall dürfte dies aber effektiv verhindern - und um dann herauszufinden, mit was für einem System und welcher Software (vor allem, welcher Sicherheitssoftware, weil diese ja für den Bundestrojaner zuverlässig ausgeschaltet werden muß) die Zielperson arbeitet, führt kaum ein Weg an einer "physischen Kontrolle" vorbei. Stehen unsere staatlichen Aufpasser dann aber vor einem Rechner, der gar nicht heruntergefahren ist, sondern zur Deaktivierung des Bildschirmschoners ein Passwort einfordert, dürften diese erst einmal ziemlich doof aus der Wäsche schauen (entsprechende Bilder einer WebCam wären sicherlich preisverdächtig).
Das Zielsystem ist mit einem beherzten Reboot zwar trotzdem ausspähbar - es ist dann aber nahezu unmöglich zu verhindern, daß dies nicht später bemerkt werden kann. Windows zeichnet schließlich auf, wann es abgestürzt ist und wann es wieder anlief - wenn hier eine größere Zeitspanne dazwischenliegt (in welcher man die Festplatte ausgebaut und kopiert hat), dann ist automatisch etwas faul. Richtig auf die Spitze treiben kann man es damit, wenn die Festplatten auch noch komplett verschlüsselt sind - dann kommt man an deren Inhalt nur heran, wenn das Betriebssystem selber schon läuft, welches wiederum ohne dem richtigen Passwort gar nichts preisgibt. Der Idee der "Sicherheitsbehörden", sich an ausgeschalteten und damit faktisch wehrlosen Rechnern zu vergehen, kann man also schlicht damit entgegnen, den Rechner inklusive allen aktivierten Sicherheitsfeatures (Verschlüsselung, Passwörter, etc.) ständig laufen zu lassen.
Damit wird die Online-Durchsuchung zwar nicht unmöglich, aber um einige Potenzen schwerer: Die Ordnungshüter müssen dann wohl oder übel ausschließlich den Weg über das Internet gehen, um von dort aus irgendeine Schwachstelle des verwendeten Betriebssystems bzw. der verwendeten Software auszunutzen. Gerade letzteres wird allerdings äußerst zeitaufwendig, wenn die benutzte Software-Umgebung nicht genau bekannt ist (deswegen ja im Normalfall der Wohnungseinbruch). Bei Attacken ohne exakter Kenntnis der vom Zielsystem verwendeten Software-Umgebung besteht zudem immer das Problem, daß diese Attacke vom Nutzer bzw. dessen Sicherheitssoftware erkannt werden könnte - was so ziemlich der GAU für die Sicherheitsbehörden wäre. Insofern läßt sich wohl mit Fug und Recht sagen, daß der Schutz vor dem Bundestrojaner deutlich weniger aufwendig ist als dessen geplante Erstellung, die Erfolgsaussichten dieses Projekts angesichts dieser eindeutigen Ausgangslage nur schwach über dem Nullpunkt flimmern.
Shortcuts: Laut WinFuture will auch ATI alsbald mit neuen und leistungsträchtigen Mobile-Grafikchips antreten. Dabei soll der Performance-Grafikchip RV670 für den mobilen Einsatz zurechtgestutzt werden, wie bei nVidia sind hierbei Abspeckungen bei der Anzahl der freigeschalteten Hardware-Einheiten sowie bei den Taktraten zu erwarten, um die Mobile-Ausführung bei der Verlustleistung auf für Notebooks gangbare Werte herunterzutrimmen. Genauere Daten oder/und ein Erscheinungstermin gibt es derzeit allerdings noch nicht. Und letztlich darf unser aller GröBiMaZ (Größer Bundesinnenminister aller Zeiten) noch einmal ran und gemäß des Heise Newstickers die Verkündung ins Volk hinaustragen, daß die Online-Durchsuchung doch auch nichts anderes als die "Streifenwagen des digitalen Zeitalters" wären. Nun denn - wenn bei Schäubles die Streifenwagen (samt vorhergehendem Einbruch) durchs Wohnzimmer fahren, soll es wohl so sein ;).
News des 28. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Der Radeon HD 3850/3870 Artikel der FiringSquad enthält neben den Werten dieser Karten auch ziemlich seltene Benchmarks der Radeon HD 2900 GT. Im Gegensatz zur Radeon HD 2900 Pro ist diese R600-Variante durchaus noch am Markt zu Preisen von inzwischen 130 bis 150 Euro verfügbar, womit die Radeon HD 2900 GT eventuell eine Alternative zur Radeon HD 3850 256MB oder auch zur GeForce 8600 GTS darstellt. Allerdings muß auch klar sein, daß die Radeon HD 2900 GT einigermaßen beschnitten wurde: Von den 320 Shader-Einheiten des R600-Chips sind hier nur 240 freigeschaltet, auch das Speicherinterface wurde von 512 Bit DDR auf 256 Bit DDR limitiert. Dadurch ist es nicht verwunderlich, wenn sich doch ein heftiger Performance-Abstand zur Radeon HD 2900 Pro und damit auch zur Radeon HD 3850 256MB ergibt.
In den Messungen der FiringSquad lag die Radeon HD 2900 GT um immerhin 32 Prozent gegenüber der Radeon HD 3850 256MB zurück, was angesichts des Preisabstandes von nur 10 bis 15 Euro bzw. runden 10 Prozent doch zu viel ist, um die Radeon HD 2900 GT noch als attraktive Wahl erscheinen zu lassen. Gegenüber der GeForce 8600 GTS liegt man zwar um 17 Prozent vorn, allerdings entspricht dies durchaus dem preislichen Abstand von 15 bis 20 Euro bzw. runden 15 Prozent. Die Radeon HD 2900 GT ist damit sicherlich keine schlechte Lösung, wird aber wie viele andere Grafikkarten basierend auf den "alten" Direct3D10-Grafikchips durch die neue Performance-Generation ziemlich überrollt. Noch im Sommer wäre die Radeon HD 2900 GT wohl weggegangen wie warme Semmeln, nun aber haben Radeon HD 3850/3870 und GeForce 8800 GT das Feld übernommen.
Die X-bit Labs haben einen umfangreichen Artikel erstellt, welcher sich mit der Performance von Direct3D10-Grafikkarten in Direct3D10-Spielen beschäftigt. Der Artikel enthält allerdings noch nicht die neuen Beschleuniger Radeon HD 3850/3870 sowie GeForce 8800 GT, so daß die Ergebnisse der HighEnd-Tests inzwischen schon wieder überholt sind. Dafür dürften aber die Tests im LowCost-Bereich um so interessanter sein, zeigen diese doch, wie vollkommen ungeeignet die erste Direct3D10 LowCost-Generation ist, selbst die allerersten Direct3D10-Spiele überhaupt nur halbwegs darzustellen. Natürlich lassen sich auch mit diesen Karten die Direct3D10-Spiele grundsätzlich betreiben - nur muß man dann die Bildqualität so weit absenken, daß der Effekt von Direct3D10 (welcher primär in einer besseren möglichen Bildqualität besteht) überhaupt nicht mehr gegeben ist.
Wie die WinHelpline ausführt, sinken die Chancen von Windows Vista für den Unternehmenseinsatz derzeit eher als daß sie steigen würden. Als Hauptgrund hierfür wird angegeben, daß der Mehrwert von Windows Vista neben dem für den Unternehmenseinsatz nicht relevanten Direct3D10 nicht wirklich ersichtlich ist, dem aber gehörige Investitionskosten gegenüberstehen. Zudem kommt hier hinzu, daß Windows 7 schließlich in viel kürzerem Abstand als Windows Vista gegenüber Windows XP erscheinen soll, was die Lebenszeit von Windows Vista limitiert und dieses Betriebssystem für den (von Unternehmen zumeist gewünschten) langfristigen Einsatz nicht gerade als interessant erscheinen läßt. Insgesamt betrachtet mehren sich damit die Anzeichen, daß Windows Vista mitnichten innerhalb einer gewissen Zeit den Markt mehrheitlich übernehmen wird, sondern daß vielmehr beim Start von Windows 7 (wohl im Jahr 2009) die dann früheren Betriebssysteme Windows XP und Vista immer noch in etwa ähnliche Marktanteile aufweisen werden.
Shortcuts: Gulli haben passend zur neuesten Idee von Vater Überwachungsstaat, die mittels der Vorratsdatenspeicherung erhaltenen Daten auch der Medienindustrie für zivilgerichtliche Fälle zur Verfügung zu stellen, ein Statement von Dieter Wiefelspütz, innenpolitischer Sprecher der SPD, herausgekramt, welcher noch vor einem halben Jahr regelrecht beschworen hat, daß es niemals zu einem Zugriff der Musik- und Filmindustrie auf die erhobenen Daten kommen würde ;). Datenschutz.de berichten hingegen über einen weiteren großartigen Erfolg des neuen elektronischen Reisepasses mit zwei Fingerabdrücken: Einstmals damit beworben, daß sich damit eine einfachere Einreise in die USA bewerkstelligen läßt, welche eben diese Fingerabdrücke voraussetzen, fällt dies nun damit in sich zusammen, daß in den USA nunmehr teilweise und zukünftig wohl durchgehend alle zehn Fingerabdrücke bei einer Einreise abzugeben sind. Dafür ist laut dem Heise Newsticker wenigstens ein Schnellschuß bezüglich der Online-Durchsuchung vom Tisch und will nun auch die CDU/CSU ein diesbezügliches Urteil des Bundesverfassungsgerichts abwarten.
News des 27. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Gemäß Hard Tecs 4U soll die G92-basierte GeForce 8800 GTS nunmehr am 11. Dezember in den Markt entlassen werden. Es bliebe natürlich abzuwarten, ob nVidia bis zu diesem Zeitpunkt überhaupt eine ausreichende Anzahl an G92-Chips zusammenbekommt, um dann auch lieferfähig zu sein. Daneben wäre noch zu erwähnen, daß die G92-basierte GeForce 8800 GTS entgegen den Angaben von Hard Tecs 4U noch nicht in unserem aktuellen Artikel gelistet ist, dort wird nur die G80-basierende neue GeForce 8800 GTS erwähnt. Die G92-basierte GeForce 8800 GTS hat aber deutlich mehr Hardware-Power (nVidia G92, Direct3D10, 128 Shader-Einheiten, 64 TMUs, 256 Bit DDR Speicherinterface, 650/1625/970 MHz, 512 MB GDDR3, PCI Express 1.x/2.0, DualSlot, alle Karten mit HDCP, ca. 95W) und sollte zudem sogar noch zu einem besseren Preis (derzeit sind 300 bis 350 Dollar Listenpreis im Gespräch) antreten.
Damit wird die G92-basierte GeForce 8800 GTS nicht nur die G80-basierte neue GeForce 8800 GTS aus dem Markt verdrängen, sondern auch GeForce 8800 GTX und Ultra vom Preis/Leistungsverhältnis her uninteressant machen. Noch ist die Performance der G92-basierten GeForce 8800 GTS eher nur schätzbar, aber aufgrund der bekannten technischen Daten und vor allem auch der Erfahrungen mit der GeForce 8800 GT kann man wohl davon ausgehen, daß die G92-basierte GeForce 8800 GTS die GeForce 8800 GTX kassieren und eher in Richtung der GeForce 8800 Ultra schauen wird. Und da dies vor allem auch zu einem viel besseren Preis passieren wird, ergibt sich mit der G92-basierten GeForce 8800 GTS wirklich kein Grund mehr, eine GeForce 8800 GTX oder Ultra zu kaufen. Davon abgesehen wäre nVidia sicherlich bestens damit beraten, der G92-basierten GeForce 8800 GTS doch noch einen eigenen, abweichenden Namen zu geben, denn ansonsten sieht wirklich niemand mehr durch angesichts von drei verschiedenen Varianten der GeForce 8800 GTS.
Mit den neuen PCI Express 2.0 unterstützenden Grafikkarten (Radeon HD 3850/3870, GeForce 8800 GT) und Mainboards (Chipsätze Intel X38/X48, AMD 770/780/790, nVidia nForce 750/780/790) stellt sich natürlich die Frage, ob man die Unterstützung der neuen Schnittstelle zwingend benötigt. Für einen Neukauf ist die Angelegenheit natürlich kein Thema, hier kann man bedenkenlos auf PCI Express 2.0 setzen - aber lohnt sich der Umstieg nur wegen der neuen bzw. verbesserten Schnittstelle? Generell gesehen bietet PCI Express 2.0 schlicht nur die doppelte Bandbreite von PCI Express 1.x, ein PCI Express 2.0 x16 Steckplatz hat also umgerechnet so viel Bandbreite wie ein (hypothetischer) PCI Express 1.x x32 Steckplatz. Die letzten Messungen in dieser Frage liegen leider schon wieder etwas zurück, deuten aber eher in die Richtung, daß unter Spielen nach wie vor kein wirklicher Unterschied zwischen PCI Express x8 und x16 herrscht - insofern sollte hier also kaum ein Bedarf für die höhere Bandbreite von PCI Express 2.0 existieren.
Allerdings entwickelt sich die Welt natürlich weiter, vor einigen Jahren gab es noch nicht einmal beachtenswerte Unterschiede zwischen PCI Express x4 und x16 zu vermelden. Demzufolge darf man durchaus damit rechnen, daß sich langfristig auch ein Vorteil für PCI Express 2.0 ergibt. Gerade mit dem nun langsam endgültigen Auslaufen von AGP-Grafikkarten können die Spieleentwickler nunmehr davon ausgehen, daß die allermeisten Spieler wenigstens eine Anbindung von PCI Express x16 besitzen und ihre Spiele entsprechend gestalten. Für PCI Express 2.0 bedeutet dies natürlich aber auch, daß sich hier ein Vorteil wenn dann erst mittelfristig einstellen wird. Mit einer Ausnahme: Schon jetzt ist es so, daß es bei den meisten SLI- und CrossFire-Verbindungen durchaus einige Vorteile im Rahmen von 10 bis 20 Prozent zwischen x8- und x16-Anbindungen gibt. Dies läßt die Vermutung zu, daß in diesem speziellen Fall PCI Express 2.0 auch jetzt schon Vorteile bringt - was natürlich erst noch durch entsprechende Benchmarks zu beweisen wäre.
Der Vollständigkeit halber seien hiermit noch die schon Ende letzten Monats von Jon Peddie Research veröffentlichten Zahlen zu den Marktanteilen der Grafikchip-Entwickler im dritten Quartal 2007 nachgetragen, "seinerzeit" scheint diese Meldung offenbar an uns vorbeigegangen zu sein. Danach erreichte Intel im Gesamtmarkt einen Marktanteil von 38,0 Prozent, gegenüber dem Vorquartal ist das ein Verlust von 0,4 Prozent, gegenüber dem Vergleichszeitraum des Vorjahres ein Verlust von 2,0 Prozent. nVidia behauptete den zweiten Platz mit nunmehr 33,9 Prozent, gegenüber dem Vorquartal ist das ein Gewinn von 1,3 Prozent und gegenüber dem Vergleichszeitraum des Vorjahres ein Gewinn von stolzen 11,9 Prozent. AMD/ATI bleibt mit 19,1 Prozent auf dem dritten Platz, gegenüber dem Vorquartal sind dies 0,4 Prozent Verlust, gegenüber dem Vergleichszeitraum des Vorjahres sogar 3,9 Prozent Verlust.
Auch an der weiteren Rangfolge hat sich nichs geändert, nur die Prozentwerte haben sich mit der Zeit etwas verschoben: VIA/S3 bringt es derzeit auf 6,8 Prozent, das sind 0,9 Prozent weniger als im Vorquartal und 3,2 Prozent weniger als im Vergleichszeitraum des Vorjahres. SiS erreichte noch 2,1 Prozent, das sind 0,4 Prozent weniger als im Vorquartal und immerhin 2,9 Prozent weniger als im Vergleichszeitraum des Vorjahres. Damit haben gerade VIA/S3 und SiS über das Jahr hinweg betrachtet dramatisch an Marktmacht verloren: Stand man im dritten Quartal 2006 zusammen noch für 15 Prozent der verkauften Grafikchips, sind es nunmehr nur noch 8,9 Prozent, ein Rückgang von 41 Prozent. Da Matrox schon seit Jahren bei einem Marktanteil von 0,1 bis 0,2 Prozent rangiert und es sonst keine weiteren stückzahlenträchtigen Anbieter gibt, konzentriert sich das Grafikchip-Geschäft immer stärker auf die Troika Intel, nVidia und AMD/ATI.
Mit den Daten aus unserem News-Archiv läßt sich dies ziemlich einfach rekonstruieren, immer bezogen auf das dritte Quartal des jeweiligen Jahres: 2004 standen diese drei Hersteller zusammen noch für 81,0 Prozent des Gesamtmarktes, 2005 ging es dann auf 85,8 Prozent hinauf, 2006 blieb es nahezu unverändert auf 85,0 Prozent und im aktuellen Jahr 2007 sind wir nunmehr bei 91,0 Prozent angelangt. Im Prinzip ist der Trend zur Dreiteilung des Marktes damit kaum noch aufzuhalten, denn bei maximal 9 Prozent Marktanteil für alle anderen Bewerber wird es schwer, überhaupt die notwendige Aufmerksamkeit für die eigenen neuen Produkte zu erhalten. Sprich: Der geringe Marktanteil von VIA/S3 und SiS wird diesen Herstellern zusätzlich zusetzen und diese langfristig unter jede Wahrnehmungsschwelle drücken. PS: Die Marktanteile der vorangegangene Quartale finden sich wie immer in unserem News-Archiv: Q2/2007, Q1/2007, Q4/2006 und Q3/2006.
News des 26. November 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wieder einmal bei Expreview hat man erste Benchmarks einer GeForce 8800 GT 256MB. Die kleinere Ausführung der derzeit am Markt befindlichen GeForce 8800 GT 512MB hat keinen Taktratenunterschied zur dieser, sondern eben nur den kleinen Speicher zur Verfügung. Dafür soll die GeForce 8800 GT 256MB runde 40 Euro bzw. gut 22 Prozent weniger kosten als die GeForce 8800 GT 512MB und geht damit in Konkurrenz zur Radeon HD 3850. Aufgrund des geringen Unterschieds zur GeForce 8800 GT 512MB ist es nicht verwunderlich, daß die GeForce 8800 GT 256MB in den Performancemessungen oftmals nur einen Hauch von dieser entfernt rangiert. Bei Benchmarks, welche mit den 512 MB Speicher allerdings etwas anfangen können und natürlich dem Einsatz höherer Auflösungen samt Anti-Aliasing kann die Differenz dann aber auch schon einmal auf 30 Prozent ansteigen.
Es kommt bei der Frage, GeForce 8800 GT mit 256 oder 512 MB also in erster Linie darauf an, mit welchen Auslösungen man unter 3D im Normalfall unterwegs ist. Bis zu 1280x1024 bzw. 1440x900 dürfte es derzeit eigentlich in den wenigsten Fällen einen erheblichen Unterschied zuungusten der 256-MB-Variante geben. Allerdings muß man eben auch damit rechnen, daß zukünftige Spiele vermehrt Nutzen aus dem Mehrspeicher ziehen werden, dann auch schon bei Auflösungen von 1280x1024 bzw. 1440x900. Gerade bei langfristig gedachten Investments lohnt dann eben doch wieder die 512-MB-Edition - bezogen natürlich auf Performance- und HighEnd-Karten, bei LowCost- und Mainstream-Karten spielt der Speicherausbau zumeist keine Rolle, weil bei diesen Karten in den meisten Fällen zuerst andere Dinge limitieren.
Hard Tecs 4U berichten über einen im Dezember anstehenden Phenom 9600 "Black Edition" mit freiem Multiplikator. Im ersten Quartal soll dann neben dem wie bekannt kurzfristig verschobenen Phenom 9700 mit 2.4 GHz auch noch ein Phenom 9900 mit 2.6 GHz antreten. Wirklich deutliche Sprünge dürften AMD aber auch mit diesem nicht gelingen - hierfür müsste AMD recht schnell 3 GHz und mehr erreichen. Wahrscheinlich wird AMD dies aber erst mit dem 45nm-Prozeß gelingen, welcher frühestens im Sommer 2008 ansteht. Allerdings muß AMD zu diesem Zeitpunkt dann auch schon wieder mit einer kleinen MegaHertz-Offensive von Intel rechnen, da bei Intel zum Ende des Jahres die neue Nehalem-Prozessorenarchitektur ansteht. Intel dürfte mit einiger Sicherheit schon ein paar Monate davor mit dem Ausverkauf der aktuellen Core-2-Architektur beginnen, welche üblicherweise durch neue Taktraten und deutliche Preissenkungen für die bestehenden Prozessoren vorangetrieben wird.
Wie unter anderem Datenschutz.de berichten, soll, bevor die Vorratsdatenspeicherung überhaupt am 1. Januar 2008 in Kraft tritt, diese schon wieder zu mehr Zwecken als ursprünglich propagandiert verwendet werden. Danach sollen die mittels der Vorratsdatenspeicherung erhobenen Daten nun auch für zivilrechtliche Ansprüche von Rechteinhabern zur Verfügung gestellt werden, sprich für die urheberrechtlichen Ansprüche der Medienindustrie. Offiziell wird dies mit der zukünftigen Urheberrechtslage begründet, welche einen Auskunftsanspruch für solche Fälle vorsehen wird. Auf der anderen Seite würde damit aber eine Gesetzgebung, welche zuerst durch eine EU-Richtlinie begründet wurde, immer stärker ausgeweitet - denn in der EU-Richtlinie zur Vorratsdatenspeicherung steht weder etwas über mittels Kommunikationsmitteln begangenen Straftaten (wie im entsprechenden deutschen Gesetz), noch etwas über die Zurverfügungstellung von Daten für Fälle des Zivilrechts.
Schneller als gedacht entpuppt sich die Vorratsdatenspeicherung somit als Gesetz, welches nicht zuerst gegen Terrorismus und Schwerstkriminalität eingesetzt werden wird, sondern gegenüber solch wirklich weltbewegenden Fälle wie Raubkopierern. Und selbst wenn natürlich auch Raubkopierei eine Gesetzesübertretung darstellt, welche normalerweise entsprechend zu verfolgen ist (so lange man keine sinnvolleren Lösungen findet, als große Teile der Bevölkerung wegen Bagatellen zu kriminalisieren) - viel entscheidender ist doch zu bewerten, wie schnell eine neue Überwachungsmaßnahme für ganz andere Zwecke eingesetzt wird als ursprünglich versprochen. Man konnte es bei den Mautdaten erleben, nun bei der Vorratsdatenspeicherung - und langsam stellt sich die Frage, ob Versprechungen unserer Obrigkeit überhaupt noch zu glauben sind, die Halbwertzeit solcher Versprechungen stellt wie derzeit zu sehen immer wieder neue Minusrekorde auf.