News-Archiv 25. Februar - 2. März 2008 (9. Kalenderwoche)
1./2. März 29. Februar 28. Februar 27. Februar 26. Februar 25. Februar
News des 1./2. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
In einer bei Hardwareluxx zu sehenden S3-Präsentation hat der Grafikchip-Entwickler Direct3D11 erstaunlicherweise erst für das Jahr 2010 angegeben. Zwar läßt sich hier erst einmal einwenden, daß S3 in letzter Zeit immer zu spät war mit seinen Grafikchip-Entwicklungen - allerdings zeigt der Eintrag erstens nicht auf einen konkreten Grafikchip und zweitens waren die reinen Planungen von S3 zumeist recht aggressiv, nur die Umsetzung dessen verspätete sich regelmäßig. Dabei wäre ein Direct3D11 erst im Jahr 2010 sicherlich nicht so ummöglich - von DirectX9 (2002) bis Direct3D10 (2006) hat es schließlich auch vier Jahre gebraucht und Microsoft will ja eigentlich diese eher längeren Abstände zwischen den Hauptversionen beibehalten. Allerdings würde das auch bedeuten, daß uns noch einige Zwischen-Generationen erwarten, welche noch nicht auf Direct3D11 setzen, während diese Fähigkeit bisher regelmäßig der jeweils anstehenden nächsten Grafikchip-Generation zugeschrieben wurde.
Thema nächste Grafikchip-Generation: Hartware haben hierzu angebliche Daten einer Radeon HD 4000 Serie vorliegen, welche schon im Juni anstehen soll. Allerdings gibt es inzwischen von mehreren Quellen die Information, daß diese Daten nicht zutreffend sind - was sich eigentlich auch schon dadurch ableiten läßt, daß ATI Monate vor dem Launch nicht schon exakte Taktfrequenzen und Verkaufsnamen einzelner Karten griffbereit hat, dieses sich im gewöhnlichen erst in den Wochen und teilweise erst den Tagen vor dem Launch ergibt. Nichtsdestotrotz ist es nicht unmöglich, daß so oder ähnlich das in einigen Monaten anstehende neue ATI-Programm für die Herbst-Saison aussehen mag: Denn nachdem die aktuelle Refresh-Generation bei ATI im Prinzip nur dieselbe Performance zu einem deutlich besseren Preis gebracht hat, wird es für die nächste Grafikchip-Generation mit großer Sicherheit deutlich mehr Hardware-Einheiten geben (müssen), um mit nVidia schrittzuhalten.
Die PC Games Hardware hat einen kleinen Vorab-Test der GeForce 9800 GX2 auf Basis einer GeForce 8800 GTS und den kürzlich vermeldeten Taktfrequenzen angestellt. Dabei wurde die angesichts dieser Taktfrequenzen schon aufgestellte Vermutung bestätigt, daß eine GeForce 9800 GTX auf G92-Basis und mit 675/1688/1100 MHz kaum 10 Prozent schneller als eine GeForce 8800 GTS mit 650/1625/970 MHz ist. Beachtenswert ist dabei, daß in einigen der angestellten Benchmarks weiterhin die GeForce 8800 Ultra dank ihres breiteren Speicherinterfaces führt - und da dies gerade unter Crysis besonders hervorsticht, erscheint die GeForce 8800 Ultra weiterhin gegenüber der GeForce 9800 GTX als die etwas stärkere Karte. Da nVidia die G80-basierte GeForce 8800 Ultra jedoch auslaufen lassen wird (vom weiterhin überzogenen Preis einmal ganz abgesehen), führt wohl letztlich kein Weg an der GeForce 9800 GTX vorbei.
Fudzilla berichten von einigen kleinen Veränderungen an der ATI Radeon HD 3870 X2: Zum einen soll es demnächst auch GDDR4-Versionen der Grafikkarten geben, erstmals auf der CeBIT zu sehen. Dies scheint zudem auch mit einem höherem Speichertakt einherzugehen, denn die GDDR4-Versionen sollen mehr kosten als die bisherige GDDR3-Version. Inwiefern diese Takterhöhung Sinn macht, bliebe allerdings abzuwarten, aufgrund des 2x 256 Bit DDR Speicherinterfaces sollte die Radeon HD 3870 X2 eigentlich nicht besonders bandbreitenlimitiert sein. Und zum anderen wird ATI mit einer neuen Chip-Revision dem internen CrossFire-Interface PCI Express 2.0 beibringen, so daß dieser kleine Schönheitsfehler der Radeon HD 3870 X2 (die Karte läuft bisher generell im PCI Express 1.x Modus) auch noch beseitigt wäre.
Beim Bundestrojaner Blog sieht man die Karlsruher Entscheidung zur Online-Durchsuchung wesentlich kritischer als wir und zeigt gleichzeitig einige weitere Lücken der eigentlich schon fortschrittlichen Argumentation des Verfassungsgerichts auf. Nicht unbedingt nur auf die Online-Durchsuchung zutreffend ist dabei das (korrekte) Argument, daß es keinerlei echten Mißbrauchsschutz gibt, obwohl es doch auch bei ähnlichen ermittlungstechnischen Maßnahmen (in Einzelfällen) erwiesenermaßen Mißbrauch sowohl aus politischen wie auch aus privaten Interesse gab und gibt. Gerade da das Bundesverfassungsgericht die Online-Durchsuchung als besonders invasive Maßnahme einstuft, wäre es nicht verkehrt gewesen, dieses Problem zu bedenken und dem Gesetzgeber die Verpflichtung mit auf den Weg zu geben, im entsprechenden Gesetz auch gleich den Mißbrauch mit einer Sanktionsandrohung zu versehen. Das bisherige Maximum in solcherart Fällen - daß ein Gericht eine Maßnahme einige Monate später als nicht gesetzesgemäß erklärt, es aber keinerlei dienst-, zivil- oder strafrechtliche Konsequenzen oder gar Kompensationen gibt - fordert Mißbrauch nun einmal geradezu heraus.
Shortcuts: Gemäß Fudzilla wird es von Sparkle wie auch Gigabyte GeForce 9600 GT Grafikkarten mit passiver Kühlung geben, andere Hersteller haben wahrscheinlich ähnliche Projekte in Vorbereitung. Da die GeForce 9600 GT in der Praxis auf runde 60 Watt Stromverbrauch zu schätzen ist, sollte sich diese Karte eigentlich ziemlich gut für passiv gekühlte Versionen eignen - noch dazu, wo es inzwischen auch schon passive Ausführung von Radeon HD 3870 und GeForce 8800 GT gibt, welche noch mehr Strom verbrauchen als die GeForce 9600 GT. Wie der Planet 3DNow! berichtet, macht Microsoft den Fix für den TLB-Bug von AMDs Phenom-Prozessoren im B2-Stepping unter dem Service Pack 1 für Windows Vista 64-Bit obligatorisch, die bisher noch möglichen Umgehungsmaßnahmen würden dann nicht mehr funktionieren. Wie diese Angelegenheit beim SP1 für die 32-Bit-Version von Windows Vista sowie dem kommenden SP3 für Windows XP aussieht, ist dagegen noch nicht bekannt.
News des 29. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
WinFuture berichten über einen neuen Anlauf, Windows XP doch noch Direct3D10 beizubringen. Hierbei handelt es sich um eine Initiative russischer Programmierer - wobei derzeit kaum abschätzbar ist, wie professionell und ernst gemeint dieses hohe (fast als unmöglich zu bezeichnende) Vorhaben ist. Die gleichmal veröffentlichte Vorab-Version ihres Tools entspricht jedoch auch nicht mehr als dem, was das gescheiterte Alky-Projekt kürzlich als OpenSource releast hatte, ist ergo für den eigentlich geplanten Einsatz als Unterbau für Direct3D10-Spiele unter Windows XP noch lange nicht verwendbar. Ob es jemals dazu kommt, darf sowieso bezweifelt werden, da für diese Aufgabe ein professionelles Programmierer-Team vonnöten erscheint - und selbst dann Erfolg nicht garantiert ist, da Microsoft Direct3D10 so hübsch in Windows Vista eingepackt hat, daß es nicht so einfach ohne dieses Betriebssystem zu betreiben sein wird.
Golem berichten über einen angeblichen 3DMark06 Benchmark-Wert einer GT200-basierten nVidia-Grafikkarte, melden hierbei allerdings selber schon heftige Bedenken ob der Glaubwürdigkeit dieses Wertes an. Diese lassen sich nur unterstreichen, denn die neue Grafikchip-Generation, zu welcher der GT200 gehört, dürfte erst tief im zweiten Halbjahr erscheinen, womit solcherart Vorab-Werte zu diesem frühen Zeitpunkt schwer unrealistisch sind: Dies zum einen, weil nVidia derzeit noch gar nicht so weit sein dürfte mit auf der Ziel-Taktfrequenz laufenden Samples und zum anderen, weil Leaks eher denn im näheren Vorfeld eines Launches entstehen, wenn schon viele Boardpartner Karten haben - und nicht Monate vorher. Der GT200-Chip wird nach früheren Informationen zwischen die aktuelle GeForce 8/9 Generation und den G100-Chip geschoben werden, da sich letzterer wohl verzögert. Zu erwarten ist dieser Direct3D 10.1 HighEnd-Chip nicht vor dem dritten Quartal, womöglich wird es hierbei auch noch entsprechende Abwandlungen für die anderen Marktsegmente geben.
Nachdem kürzlich eine Prozessoren-Roadmap Auskunft über AMDs eher kurzfristige Pläne gegeben hat, gibt es bei der ComputerBase nunmehr Informationen zu AMDs mittelfristigen Plänen. Bestimmendes Thema wird dabei die 45nm-Fertigung sein, erste entsprechende Prozessoren soll es noch dieses Jahr geben. So stehen für das vierte Quartal die K10-Cores Propus (QuadCore ohne Level3-Cache, für Phenom-Baureihe) und Deneb (QuadCore mit Level3-Cache, für Phenom FX und Opteron) an, beide Cores kommen noch im Sockel AM2+ und unterstützen somit noch keinen DDR3-Speicher. Dieses wird AMD dann im ersten Halbjahr 2009 mit den Cores Deneb und Deneb FX (beide QuadCores mit Level3-Cache, für Phenom FX und Opteron), Propus (QuadCore ohne Level3-Cache, für Phenom-Baureihe), Heka (TripleCore ohne Level3-Cache, für Phenom-Baureihe) und Regor (DualCore ohne Level3-Cache, für K10-basierte Athlon-Baureihe) nachliefern, diese Prozessoren kommen dann ausschließlich für den Sockel AM3.
Natürlich handelt es sich bei den genannten Core-Namen jedesmal um ein und denselben 45nm K10-Core - AMD vergibt halt (wie auch Intel) für unterschiedliche Marktsegmente unterschiedliche Core-Namen, auch wenn das Silizium erst einmal dasselbe ist. Der teilweise vorhandene Level3-Cache ist sowieso immer eine extra Produktion, welche dann mit aufs Trägermaterial gepresst wird - und die DualCore- sowie TripleCore-Modelle erreicht man ganz profan mittels des Deaktivierens einzelner Cores. Selbst die Cores der verschiedenen Sockel AM2+ (für DDR2-Speicher) und AM3 (für DDR3-Speicher) sollten aus derselben Produktion stammen (der Sockel selber ist ein Teil des Package und gehört nicht zum eigentlichen Prozessor-Die), darauf deuten die identischen Namen zwischen einigen AM2+- und AM3-Prozessoren hin. Was letztlich auch bedeutet, daß AMD die Umstellung auf DDR3-Speicher prinzipiell auch schon dieses Jahr durchführen könnte.
Denn wenn es dieses Jahr die ersten 45nm-Prozessoren gibt, könnte man diese - sofern man wollte - durchaus auch gleich schon im Sockel AM3 ausliefern. Daß AMD aber diesen Schritt erst nächstes Jahr zu tun gedenkt, geschieht womöglich aus Berechnung: Erst einmal will man wohl abwarten, bis die DDR3-Preise entsprechend abgesunken sind, als daß man vorzeitig einen explizit DDR3-unterstützenden Prozessor in den Massenmarkt wirft. Zwar sollten AM3-Systeme rein technisch auch mit DDR2 zu betreiben sein - allerdings sind in der Praxis kaum AM3-Platinen mit DDR2-Unterstützung zu erwarten, da man sich sicherlich keinen AM3-Prozessor mit DDR2-Speicher zulegt, dieses könnte man auch mit einem (technisch ansonsten gleichen) AM2+-Prozessor realisieren. Durch diese faktische Kopplung von AM3 an DDR3 ist AMD mehr oder weniger gezwungen, auf bezahlbaren DDR3-Speicher zu warten, um gerade im OEM- und Mainstream-Markt nicht durch die hohen DDR3-Preise ein insgesamt zu teures Gesamtpaket aufzustellen.
Für Intel ist dies dagegen weniger ein Problem, so lange man wie derzeit dieselben Prozessoren sowohl mit DDR2- als auch mit DDR3-Speicher ausliefern kann und mit den Nehalem-Prozessoren im vierten Quartal sicherlich erst einmal nur die oberen Preisgefilde beliefern wird, wo der höhere DDR3-Preis nicht so ganz die große Rolle spielten sollte. Allerdings sollte sich spätenstens mit eben jenen Nehalem-Prozessoren doch ein vernünftiger Markt für DDR3-Speicher herausbilden, was innerhalb nur weniger Monate die DDR3-Preise auf ein vertretbares Maß absenken müsste. Was dann letztlich Intel ermöglichen wird, im Jahr 2009 die Nehalem-Architektur und damit DDR3-Speicher auch in die preissensitiven Marktbereiche zu bringen - und wie gesagt AMD den Markteintritt der DDR3-unterstützenden Sockel AM3 Plattformen ermöglichen wird, ohne daß die Preise für das Gesamtsystem durch den DDR3-Speicher zu hoch ausfallen.
News des 28. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Laut der VR-Zone hat nVidia den Launch der GeForce 9800 GX2 nunmehr vom 11. auf den 18. März verschoben. Angeblich soll es wohl noch Treiber-Probleme bei der DualChip-Grafikkarte geben - was man in diese Richtung hin deuten könnte, daß nVidia die SLI-Effizienz der beiden verbauten G92-Chips derzeit noch nicht gefällt. Mit dem Starttermin Mitte März ist es im übrigen nicht einmal unmöglich, daß GeForce 9800 GTX und GX2 dann am selben Tag erscheinen werden. Gemäß den Informationen der DigiTimes zu weiteren Karten der GeForce9-Serie soll der Launch der GeForce 9800 GTX allerdings derzeit eher in Richtung Ende März bis Anfang April stattfinden.
Davon abgesehen nennt die DigiTimes für diesen Termin noch eine GeForce 9800 GT, welche wohl ebenfalls auf dem G92-Chip basieren dürfte. Zu dieser neuen G92-Lösung sind bislang noch keinerlei technische Daten bekannt, gemäß des Namens dürfte es sich aber um eine Ablösung der GeForce 8800 GT und möglicherweise auch der GeForce 8800 GTS handeln. Wie nVidia dies genau bewerkstelligt, dürfte noch hoch interessant sein - denn erstens einmal kann man mit der GeForce 9800 GT kaum mehr Performance bieten, weil schließlich ein gewisser Abstand zur GeForce 9800 GTX gewahrt bleiben muß, und zum anderen operieren alle vorgenannten Karten mit demselben G92-Chip, ist also auch kein Technologie-Unterschied anbringbar. Falls nVidia hier vor hat, alten Wein in neuen Schläuchen zu verkaufen, dürfte das ATI-Marketing sicherlich Überstunden für die allseits beliebten Flame-Präsentationen schieben ;).
Deutlich sinnvoller erscheint dagegen die für den Mai angedachte GeForce 9600 GS, eine kleinere Ausführung des G94-Chips der GeForce 9600 GT. Inwiefern man sich bei dieser mittels Hardware-Einschnitten (über deaktivierte Einheiten) oder nur einen geringen Takt von der GeForce 9600 GT abgrenzt, ist noch nicht klar. Allerdings läßt sich schon sagen, daß diese Karte wohl gegen die seitens ATI geplante Radeon HD 3690 geht und damit in einem Preisbereich von knapp über 100 Euro zu erwarten ist. Die bislang dort noch zu findende alte Mainstream-Lösung von nVidia in Form der GeForce 8600 GTS sollte mit dem Erscheinen der GeForce 9600 GS dann aus dem Markt verschwinden. Und letztlich soll es im Juni noch einen neuen LowCost-Chip in Form des G96 geben, welcher dann in den LowCost-Lösungen GeForce 9500 GT (Juni) sowie GeForce 9500 GS (Juli) resultieren soll.
Wie Hard Tecs 4U ausführen, wird AMD bei seinen 65nm-Modellen des Athlon 64 X2 noch ein Modell 5800+ mit 3.0 GHz Takt an den Start bringen. Was für AMD nur eine Verschiebung des Angebots weg von den alten 90nm- hin zu den neuen 65nm-Modellen darstellt, offenbart aber erneut die erheblichen Problems AMDs mit der 65nm-Fertigung. Immerhin konnte AMD diese Taktfrequenz von 3.0 GHz beim K8-Kern schon im März 2007 in 90nm liefern (Athlon 64 X2 6000+), kurz darauf folgte sogar ein Modell mit 3.2 GHz in 90nm (Athlon 64 X2 6400+). Daß man nun ein Jahr später mit der 65nm-Fertigung immer noch nicht so weit ist, die Spitzenwerte der 90nm-Fertigung zu erreichen (und eigentlich soll eine kleinere Fertigung doch klar höhere Taktraten ermöglichen), ist wahrlich kein Ruhmesblatt für AMD. Ob AMD mit der eigenen 65nm-Fertigung jemals noch auf einen grünen Zweig kommen wird, wäre demzufolge zu bezweifeln - eine neue Chance auch und gerade für die Taktfrequenzen der Phenom-Prozessoren bietet wohl erst die 45nm-Fertigung im zweiten Halbjahr 2008.
News des 27. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Erneut beim chinesischsprachigen PConline (maschinelle Übersetzung ins englische) gibt es den ersten Tests eines AMD DualCore Sempron-Prozessors, im genauen des Modells 2100+ mit 1.8 GHz. Wie Intel mit dem Celeron 1200 bringt AMD damit die DualCore-Technologie auch ins LowCost-Segment, mittelfristig dürften somit auch die letzten noch vorhandenen SingleCore-Prozessoren aus dem Markt verschwinden. Den Sempron 2100+ bildet AMD im übrigen aus einem gewöhnlichen K8-Core in 65nm, der Level2-Cache liegt allerdings nur bei 2x 256 kByte (wobei dies bei einigen kleinen Athlon 64 X2 Modellen auch nicht anders ist). Im Test gegen eben jenen Celeron 1200 schlägt sich der Sempron 2100+ ganz gut und erreicht einen ungefähren Gleichstand.
In der Praxis spricht gegen beide LowCost-Prozessoren allerdings der Umstand, daß bei AMD die Straßenpreise der kleinsten Athlon 64 X2 Modelle inzwischen ausreichend tief genug sind, um problemlos mit Sempron 2100+ und Celeron 1200 zu konkurrieren. So kostet der ebenfalls mit im Test befindliche Athlon 64 X2 3600+ mit 2.0 GHz und den gleichen 2x 256 kByte Level2-Cache nicht wirklich mehr als die beiden genannten LowCost-Prozessoren, liegt in den angestellten Benchmarks aber im Mittel vor diesen Prozessoren. In Komplettsystemen dürfte der Sempron 2100+ allerdings sicherlich trotzdem seinen Weg machen, dürfte AMD dort wohl entsprechende Rabatte für OEM-Großabnehmer einräumen.
Zum gestern eigentlich schon behandelten Urteil des Bundesverfassungsgerichts zur Online-Durchsuchung noch ein paar Nachträge: Erstens einmal hat das mit dem Urteil deklarierte Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme nicht nur die beschriebenen Auswirkungen auf das Verhältnis der Bürger zum Staat, sondern auch auf das Verhältnis der Bürger zur Privatwirtschaft. Denn auch diese wird zukünftig dieses Grundrecht beachten müssen und kann nicht mehr einfach so jede Idee umsetzen, für welche es kein spezielles gesetzliches Verbot gibt. Dies gilt beispielsweise für diverse Auswüchse von Trusted Computing, wo dem Nutzer unbemerkt die Kontrolle über das eigene Systeme entzogen werden soll. Inzwischen ist die Industrie zwar aufgrund energischer Proteste von solcherart Plänen offiziell abgerückt, das neue Grundrecht steckt aber gleich einmal für zukünftige ähnliche Überlegung den rechtlichen Rahmen ab.
Ein zweiter wichtiger Punkt ist, daß das Bundesverfassungsgericht mit seiner Differentierung, wo das genannte Grundrecht dann doch ausnahmsweise aufgehoben werden kann, indirekt auch eine Aussage zur Frage getroffen hat, ob jegliche Ermittlungsmaßnahme eingesetzt werden soll, sofern sie nur Nutzen verspricht. Dies ist gern die Argumentation der Sicherheitsbehörden und auch einiger Politiker, diesem hat das Bundesverfassungsgericht aber eine gehörige Abfuhr erteilt: So darf das neue Grundrecht nur noch bei einer konkreten Gefahr aufgehoben werden - und wenn diese Gefahr vorbei ist, hat auch der Grundrechtseingriff zu unterbleiben. Konkret bedeutet dies, daß beim Verdacht auf ein konkret geplantes Tötungsdelikt online-durchsucht werden darf, bei der Aufklärung einer begangenen gleichwertigen Tat dieses Untersuchungsmittel aber schon wieder tabu ist.
Was sich erst einmal widersprüchig anhört, hat durchaus seinen Sinn: Das Bundesverfassungsgericht gibt dem neuen Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme als Teil des allgemeinen Persönlichkeitsrechts einen so hohen Rang, daß prinzipiell erst einmal keinerlei Ausnahmen vorgesehen sind. Nur dann, wenn sich eine konkret geplante Tat verhindern läßt, wird dieses ausnahmsweise doch zulässig. Der Aufhänger ist hierbei also nicht die Höhe der verfolgten Straftat, sondern nur der Punkt der Rettung von Leib und Leben. Damit gibt es die Online-Durchsuchung also nicht als reguläre Maßnahme zur Straftatenaufklärung - womit wie gesagt indirekt auch ausgesagt wird, daß mitnichten jede erfolgversprechende Maßnahme auch benutzt werden darf. Gerade die hier dem Urteilsspruch zugrundeliegende Idee der freiwilligen Möglichkeits-Beschneidung dürfte sich als Richtschnur für ähnliche Fälle in der Zukunft noch bezahlt machen.
Und letztlich müssen wir uns im Fall der Quellen-Telekommunikationsüberwachung (Quellen-TKÜ) noch etwas korrigieren: Diese ist gemäß Richterspruch nun doch erlaubt und wird auch nicht direkt der Online-Durchsuchung zugehörig gesehen. Dies allerdings unter der Voraussetzung, daß mittels der Quellen-TKÜ keine anderen Inhalte des Zielcomputers betroffen sind oder abgehört werden können. Hier wird es entscheidend darauf ankommen, wie man diese Aussage letztlich auslegt - denn rein technisch entspricht die Quellen-TKÜ einwandfrei einer Online-Durchsuchung. Daß sich die Ermittler bei einer Quellen-TKÜ freiwillig die Verpflichtung auferlegen, nur Telefongespräche mitzuhören, ändert an der technischen Konstellation erst einmal gar nichts.
Somit stellt sich die Frage, ob es überhaupt möglich ist, eine Quellen-TKÜ durchzuführen, ohne das Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme zu verletzen - wenn dabei irgendwelche Dateien auf den Zielcomputer übertragen werden, erscheint dies eigentlich unmöglich mit diesem Grundrecht vereinbar. Denn das Grundrecht bezieht sich schon des Namens her auf die Integrität von IT-Systemen - wenn da auf dem eigenen Computer eine polizeiliche Software zur Telefonüberwachung schlummert, widerspricht dies schon dem Namen des Grundgesetzes, selbst wenn wirklich und ausschließlich nur Telefoniedaten mitgeschnitten werden. Wenn, dann erscheint eine Quellen-TKÜ nur mit dem neuen Grundrecht vereinbar, wenn man nicht direkt in den für die Telefonverbindung benutzten Computer einsteigt - was dann wiederum an der Verschlüsselung von Voice-over-IP-Verbindungen scheitern sollte.
Dieser Punkt der Quellen-Telekommunikationsüberwachung ist bislang unserer Meinung nach noch halbgar geklärt, weil das Bundesverfassungsgericht diese zum einen als zulässig erklärt hat, andererseits diese Maßnahme in der heutigen Durchführungsform (mittels Trojaner) sich automatisch mit dem Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme beißt. Sollte das Bundesverfassungsgericht wirklich meinen, das ein Trojaner-Einsatz nur für die Quellen-TKÜ nicht das neu deklarierte Grundrecht verletzen würde, wäre jenes in der Tat nur halb so viel wert. In diesem Punkt bleibt die Angelegenheit also weiterhin spannend - noch dazu, wo unsere Strafermittler und Verfolger von vermeintlichen, echten und einfach mal so deklarierten Terroristen in Zukunft die Quellen-TKÜ sicherlich noch viel häufiger einsetzen wollen, da Voice-over-IP nun einmal weiterhin rasant an Bedeutung gewinnt.
neuer Artikel |
Das Verfassungsgericht zur Online-Durchsuchung
Mit dem heutigen Urteil des Verfassungsgerichts zur Online-Durchsuchung in Nordrhein-Westfalen gibt es nun erstmals einen höchstrichterlichen Spruch zu diesem höchst umstrittenen Thema. Dabei haben sich die Verfassungsrichter aber nicht nur zum speziellen Fall des NRW-Gesetzes geäußert, sondern sind vielmehr ganz allgemein auf das Thema eingegangen, was letztlich in der faktischen Deklarierung eines neuen Grundrechts mündete ... zum Artikel
News des 26. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Seitens der VR-Zone und Expreview kommen weitere Informationen zur nVidia GeForce 9800 GTX, wonach diese Karte nunmehr genauer einordenbar ist. So läßt sich erst einmal mittels eines Screenshots von GPU-Z bestätigen, daß die GeForce 9800 GTX auf dem G92-Chip mit 128 Shader-Einheiten und einem 256 Bit DDR breiten Speicherinterface basiert. Die Taktfrequenzen liegen nunmehr bei 675/1688/1100 MHz, was nicht deutlich über dem Niveau der exakt Hardware-gleichen GeForce 8800 GTS von 650/1625/970 MHz liegt. Damit kommen dann nur 4 Prozent mehr Rechenleistung sowie eine um 13 Prozent höhere Speicherbandbreite heraus, was die Karte erst einmal wenig sinnvoll erscheinen läßt. Zumindest die vermutliche Zielsetzung einer Lösung in der Mitte zwischen GeForce 8800 GTS und GeForce 9800 GX2 läßt sich so kaum erfüllen, dafür fehlen der GeForce 9800 GTX locker und leicht 20 Prozent mehr Takt.
Insofern ist durchaus fraglich, was nVidia mit dieser Karte will: Im besten Fall gibt es 10 Prozent mehr Performance als mit der GeForce 8800 GTS, was niemanden hinter dem Ofen hervorlocken dürfte. Wie die GeForce 8800 GTS schon erscheint die GeForce 9800 Ultra nach diesen Informationen als eher unglückliche Lösung, welche sich nur eher geringfügig von der nächsttieferen Karte im nVidia-Portfolio (bei der GeForce 9800 GTX die GeForce 8800 GTS, bei der GeForce 8800 GTS die GeForce 8800 GT) absetzen kann. Sinnvoll erscheint die GeForce 9800 GTX somit nur in zwei SLI-Fällen: Zum einen für die SLI-Verweigerer, welche dementsprechend nicht zur DualChip-Lösung GeForce 9800 GX2 greifen wollen - und zum anderen natürlich für Triple-SLI, wo nVidia einen performanten Ersatz für die demnächst auslaufende GeForce 8800 Ultra benötigt.
Wie Hard Tecs 4U berichten, gehen die ersten Lieferungen von AMDs kommenden TripleCore-Prozessoren der Phenom 8x00 Baureihe erst einmal zu den großen OEM-Herstellern, so daß sich der reale Marktstart dieser Prozessoren bezogen auf den Retail-Markt etwas nach hinten verschieben könnte. Den ersten Test einer solchen TripleCore-CPU gibt es im übrigen beim chinesischsprachigen PConline (maschinelle Übersetzung ins englische), dort wurde ein Phenom 8600 mit 2.3 GHz einigen Tests unterzogen. Dabei legte sich dieser Prozessor bei den angestellten eher theoretischen Tests in die Mitte zwischen das DualCore-Modell Athlon 64 X2 4400+ mit 2.3 GHz und das QuadCore-Modell Phenom 9600 mit ebenfalls 2.3 GHz - mit der Tendenz natürlich zu letzterem Prozessor. Wie dies dann im Vergleich zu den Intel-Prozessoren aussieht, bleibt aber vorerst offen, da diese nicht mit im Test von PConline vertreten waren.
Für deutlich mehr Aufregung sorgte dagegen die auf Seite 6 des Artikels von PConline zu findende AMD Prozessoren-Roadmap, welche Auskunft über die AMD-Planungen bis zum dritten Quartal diesen Jahres gibt. Danach werden im laufenden ersten Quartal nur noch die ersten TripleCore-Prozessoren Phenom 8400 (2.1 GHz) und 8600 (2.3 GHz) sowie die LowCost-Lösung Phenom 9100e (1.8 GHz) in den Markt kommen, diese Prozessoren werden jedoch allesamt noch im B2-Stepping ausgeliefert werden. Interessanter wird es dann sicherlich im zweiten Quartal, wenn das fehlerbereinigte B3-Stepping ansteht: So wird AMD zuerst einmal die bisherigen B2-Prozessoren jeweils neu auflegen, was in den Modellen Phenom 8450, 8650, 9150e, 9550 und 9650 resultiert, die "50" symbolisiert dabei jeweils das B3-Stepping.
Wirklich neu sind dagegen Phenom 8700 (wahrscheinlich 2.4 GHz), Phenom 9700 (2.4 GHz) und Phenom 9700 (2.6 GHz). Hinzu kommt dann noch eine seitens AMD derzeit als "Phenom 9xxx" angegebene höhere Taktfrequenz eines QuadCore-Modells, wobei derzeit wohl auch AMD noch nicht genau weiss, wie hoch diese nun ausfallen wird. Gleichfalls wird AMD im anstehenden zweiten Quartal aber auch in die Breite mit der K10-Technologie gehen: Zum einen wird es unter dem Markennamen "Athlon 64 X2" DualCore-Modelle auf K10-Basis geben, aus den Modell-Nummern 6050 und 6250 läßt sich derzeit aber noch nicht auf die hier geplanten Taktfrequenzen schließen. Da AMD den eigenen Triple- und QuadCore-Modellen aber sicherlich keine Konkurrenz mit schnell getakteten DualCore-Modellen machen will, ist hier nicht von höheren Taktraten auszugehen - was dann allerdings wiederum Übertaktern zum Vorteil gereichen sollte.
Auf dem anderen Ende des Angebots wird es im zweiten Quartal einen ersten HighEnd-Prozessor auf K10-Basis in Form des Phenom FX-82 mit bislang noch unbekannter Taktfrequenz geben. Diese Taktfrequenz wird dann sicherlich sehr interessant werden, dürfte doch AMD speziell für diesen Prozessor alles zur Zeit technisch machbare aus dem K10-Kern quetschen - was dann auch einen Hinweis darauf gibt, wie hoch die Taktfrequenzen der gewöhnlichen Phenom-Prozessoren mittelfristig steigen können. Im dritten Quartal wird es AMD dann dagegen wieder etwas ruhiger angeben lassen: Es kommen in diesem nur ein noch schnellerer TripleCore-Prozessor (Phenom 8xxx) sowie eine weitere Taktstufe des HighEnd-Modells (Phenom FX-8x) hinzu.
Wie The Inquirer ausführen, streiten sich derzeit Intel und nVidia um eine Lizenz für Intels kommende Prozessoren-Anschlußtechnologie CSI (Common System Interface) zugunsten von nVidia, auf deren Grundlage nVidia dann auch Mainboard-Chipsätze für Intels Nehalem-Prozessoren anbieten könnte. Angeblich soll Intel nVidia die entsprechende Lizenz derzeit verweigern, was mit hoher Wahrscheinlichkeit wohl darin begründet liegt, daß nVidia im Gegenzug Intel keine SLI-Lizenz gewährt. Intel spekuliert hier sicherlich darauf, mittels einer Blockadehaltung nVidia zu Zugeständnissen in dieser Frage zu bewegen - während nVidia natürlich darauf drängt, die CSI-Lizenz zu den gleichen Bedingungen zu erhalten wie andere Marktteilnehmer (beispielsweise SiS), welche dafür im Gegenzug auch keine SLI-Lizenz oder ähnliches einbringen werden.
Technisch hat hier nVidia sicherlich Recht und dürfte selbiges in einem Wettbewerbsverfahren wohl auch bekommen - nur dauert dies im gewöhnlichen seine Jahre, und in dieser Zeit könnte nVidia dann regulärerweise keine Mainboard-Chipsätze für Intels Nehalem-Prozessoren anbieten. VIA hatte vor einigen Jahren dieses Spiel zwar schon einmal durch und bot einige Zeit lang Mainboard-Chipsätze ohne Intel-Lizenz an, allerdings sitzt VIA auch in Taiwan, während nVidia als US-Firma sich eine solche Aktionen sicherlich nicht leisten kann. Und während Intel schlicht auf Zeit spielt, würde nVidia in einem solchen Fall deutliche Einbußen in einem Geschäft mit Mainboard-Chipsätzen hinnehmen müssen, weil man dann nur noch den (deutlich kleineren) AMD-Markt beliefern könnte. nVidia kann also eigentlich nicht auf einen gerichtlichen Sieg in ein paar Jahren warten und wird sich demzufolge irgendwie mit Intel einigen müssen. Wenn dabei herauskommen sollte, daß Intel auch außerhalb von Skulltrail SLI-Chipsätze anbieten kann, würde zwar die "harte Verhandlungstaktik" von Intel belohnt, allerdings wäre trotzdem etwas gutes für die Hardware-Käufer herausgekommen.
News des 25. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie Fudzilla vermelden, soll nVidia bei der GeForce 9800 GX2 angeblich einen Preispunkt von über 500 Euro Straßenpreis anstreben, was dann doch deutlich über den bisherigen Erwartungen liegen würde. Denn ausgerüstet mit zwei G92-Chips mit zweimal 128 Shader-Einheiten und wohl etwas unter dem Standard der GeForce 8800 GTS liegenden Taktraten sollte die Karte knapp unter der Performance von zwei GeForce 8800 GTS Karten im SLI-Verbund liegen - und jenes ist derzeit im allerbesten Fall schon für 480 Euro zu bekommen. Insofern wäre für die GeForce 9800 GX2 eher ein Preispunkt von 450 Euro zu erwarten - wenn es mehr wird, wäre schließlich das vorgenannte SLI-Gespann sinnvoller. Alternativ kann es natürlich sein, daß uns nVidia überrascht und bei den Taktraten der GeForce 9800 GX2 sogar noch über das Niveau der GeForce 8800 GTS geht.
Golem berichten über eine Präsentation aus einer Sun-Kundenveranstaltung, welche einige neue Detail-Informationen über Intels Pläne im Server-Segment enthält, darunter auch erste Benchmark-Ergebnisse der Nehalem-Prozessorenarchitektur. Erst einmal ist die Präsentation nach einigen Löschaktionen ;) immer noch über Rapidshare zu bekommen, zum anderen sind die enthaltenen Benchmark-Werte beim ZDNet auch noch einmal übersichtlich zusammengefasst. Allerdings handelt es sich hierbei um (noch dazu unbestätigte) SPEC-Werte, keine Angaben zur RealWorld-Performance. Insofern sind diese Zahlen derzeit noch nicht so ernst zu nehmen und wäre AMD durchaus die Chance zu lassen, noch entsprechend kontern zu können.
Auf der anderen Seite wird Intel innerhalb der aktuellen Core-2-Prozessorenarchitektur zumindest im Server-Bereich noch einmal nachlegen und im zweiten Halbjahr einen Prozessor mit sechs Kernen vorstellen. Dieser mit Codenamen "Dunnington" genannte HexaCore-Prozessor besteht prinzipiell aus drei auf ein Trägermaterial gesetzte DualCore-Prozessoren (so wie derzeit bei Intel die QuadCore-Modelle durch zwei auf ein Trägermaterial gesetzte DualCore-Prozessoren realisiert werden), hinzu kommt dann noch ein gemeinsamer Level3-Cache. Bestrebungen, diesen HexaCore-Prozessor in der einen oder anderen Form auch in den Desktop-Bereich zu bringen, scheint es derzeit jedoch noch keine zu geben - dort würde dies aufgrund der schon für QuadCore-Prozessoren zumeist ungenügend ausgelegten Software allerdings sowieso keinen größeren Sinn ergeben.
Wie nochmals Golem berichten, hat Google im Streit mit den EU-Datenschützern ein neues Argument ins Feld geführt: Danach betrachtet man im Gegensatz zu den EU-Datenschützern die durch Google erhobenen IP-Adressen der Nutzer nicht automatisch als "personenbezogene Daten", da schließlich Google kein Internet Service Provider ist und demzufolge regulärerweise aus den IP-Adressen nicht auf die realen Personen schließen kann. Zugleich führte man aus, daß Google in den allermeisten Fällen auch gar nicht an den realen Personen interessiert sei - interessant ist für Google nur die eindeutige Zuordnung des Nutzers zu einem bestimmten Profil, ob dieses dann mit einem Realnamen verknüpft oder einfach eine Nummer in einem Google-Computer ist, dürfte für die Google-Dienste nicht besonders relevant sein.
Technisch hat Google mit beiden Ausführungen erst einmal vollkommen recht, dennoch gibt es hierzu einige Bedenken anzumelden: Erstens einmal ist Google in vielen Fällen dann doch in der Lage, einem bestimmten anonymen Profil einen Realnamen zuzuordnen - nämlich dann, wenn der Internetnutzer in irgendeinem Dienst dazu genötigt wird, seine Realdaten anzugeben. Zwar könnte man jetzt sagen, daß dies letztlich freiwillig passiert - aber wenn, dann gibt der Internetnutzer seine Anonymität immer nur für diesen speziellen Dienst auf. Google aber kann durch diese einmalige Aufgabe der Anonymität im schlimmsten Fall einem jahrealten Profil einen Realnamen zuordnen und auch zukünftig über Cookies und IP-Adressen den Weg des nun nicht mehr anonymen Nutzers im Internet weiterverfolgen - eben auch bei Diensten, wo der Internetnutzer niemals Realdaten hinterlassen hat und dies auch gar nicht wünscht.
Die richtige Argumentation - nämlich daß IP-Adressen im gewöhnlich nur für ISPs und Behörden "personenbezogene Daten" darstellen, weil nur diese über die Möglichkeit verfügen, daraus Realdaten zu ermitteln - funktioniert im speziellen Fall von Google somit also nicht. Der zweite Fall aber, die Profil-Erstellung der eigenen Nutzer, ist zumindests aus Datenschutz-rechtlicher Sicht eindeutig: Auch wenn es Google nicht gelingen mag, zu einem bestimmten Profil einen Realnamen hinzuzufügen, wird doch der betreffende Nutzer beim Surfen auf Google-Webseiten zumindest in der Standard-Einstellung (mit aktiven Cookies) als dem angelegten Profil zugehörig erkannt, womit er seine Anonymität faktisch verliert. Egal ob das Geschäftsmodell von Google nun genau darauf aufbaut oder nicht, hier gerät Google zweifelsfrei in Konflikt mit europäischen und bundesdeutschen Datenschutzgesetzen.
Von diesem speziellen Streitfall abgesehen, ist jedoch auch ganz allgemein die von Google zum Fall der IP-Adressen vorgebrachte Argumentation beachtenswert, da hier der bisher vorherrschenden Rechtsmeinung erstmals von einer gewichtigen Firma oder Organisation ein Widerspruch entgegengestellt wurde. Bisher wurde schlicht jede IP-Adresse automatisch als "personenbezogene Daten" gewertet, obwohl die allermeisten Erheber von IP-Adressen (alle Webseiten) in der Regel absolut keine Möglichkeit haben, daraus Personendaten zu ermitteln. Der (auch von uns schon früher vertretene) Google-Standpunkt fügt hier nun schlicht noch die Komponente hinzu, daß eben auch die Möglichkeit vorhanden sein muß, praktisch an Realdaten heranzukommen. Dies funktioniert normalerweise nur für die Internet Service Provider und sämtliche staatliche Ermittlungsbehörden, während normale Webseiten damit komplett außen vor wären. Webseiten mit geschützten Bereichen, für deren Anmeldung man Realdaten hinterlassen muß, wären hier hingegen in einer Grauzone.
Die beste Trennlinie wäre allerdings, wenn man sich schlicht die Größenordnungen ansieht, in welchen sich die einzelnen Webseiten bewegen: Würde sich mit der Datenmenge an IP-Adressen, welche bei 3DCenter anfällt, irgendeine Profiling-Software vernünftig füttern lassen? Sicherlich nicht - auf der anderen Seite läßt sich diese Frage bei Google ebenfalls sehr eindeutig (positiv) beantworten. Aber womöglich liegt die Lösung dieses Dilemmas für kleinere Webseiten, welche keinesfalls bewußt "personenbezogene Daten" erheben wollen, dies durch in Webserver- und Foren-Software befindliche Funktionen aber automatisch tun, sowieso wo anders: Denn wie der Heise Newsticker ausführt, werden beim Zugriff auf die Webseite des Bundesdatenschutzbeauftragten die IP-Adressen der Nutzerzugriffe nunmehr nur noch anonymisiert gespeichert.
Damit lassen sich zum einen die erforderlichen Statistik-Funktionen weiterhin realisieren, zum anderen liegt aber keine verwertbare IP-Adresse mehr in den Logs, läßt sich im nachhinein also der reale Nutzer nicht mehr ermitteln. Leider ist die genaue technische Lösung der Meldung des Heise Newstickers nicht zu entnehmen, so daß es eher wahrscheinlich ist, daß es sich hierbei um eine speziell hergestellte Lösung handeln. Sinnvoll und vor allem breit einsetzbar würde das ganze natürlich erst werden, wenn die übliche Software für Webserver und Foren eine solcherart Funktionalität gleich von Haus aus bieten würde. Dann stünde dem Einsatz einer solchen Anonymisierungs-Funktion für IP-Adressen auf den Millionen an kleinen Webseiten des Internets nur noch eine gewisse Übergangszeit im Wege.