News-Archiv 31. März - 6. April 2008 (14. Kalenderwoche)
5./6. April 4. April 3. April 2. April 1. April 31. März
News des 5./6. April 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie unter anderem der Heise Newsticker berichtet, hat Microsoft die Verfügbarkeit von Windows XP auf Klein-PCs wie dem EeePC nochmals verlängert, für dieses Gerätesegment wird das Betriebssystem nun noch bis mindestens Juni 2010 bzw. mindestens ein Jahr nach dem Release von Windows 7 angeboten werden. Der Hintergrund dieser Entscheidung ist natürlich, daß auf diesen Geräten bislang aus Performance- und Ressourcengründen fast ausschließlich Linux installiert war, während Windows Vista für diese Geräteklasse klar zu hohe Hardware-Ansprüche aufweist. Weil Microsoft dieses aller Wahrscheinlichkeit nach in Zukunft stark prosperienden Marktsegment jedoch nicht kampflos abgeben will, zaubert man nunmehr Windows XP aus der Tüte, welches gemäß den ursprünglichen Planungen sogar schon Ende 2007 auslaufen sollte ;).
Zu vermuten ist, daß die Hersteller dieser Geräte zudem auch entsprechend günstige Preise von Microsoft vorgesetzt bekommen, da in dem Preisbereich eines EeePCs ein Windows XP zum Ladenpreis den Gerätepreis wohl zu stark verteuern würde. Gut möglich, daß Microsoft Windows XP hier zu Schleuderpreisen absetzt, zusätzlich zum sonst schon üppigen OEM-Rabatt. Allerdings gilt die Verlängerung der Verfügbarkeit nur für Windows XP Home und wie gesagt auch nur für die OEM-Hersteller von Klein-PCs. Für alle anderen Geräte läuft die Verfügbarkeit von Windows XP am 30. Juni 2008 aus, als kleine Hintertür läuft der Verkauf der System-Builder-Version von Windows XP aber noch bis zum 31. Januar 2009. Der größte Gewinn an dieser Microsoft-Entscheidung ist aber, daß Microsoft den Support von Windows XP sicherlich nicht einstellen kann, so lange man dieses Betriebssystem noch verkauft - und sei es nur auf Klein-PCs. Es ist demzufolge zu erwarten, daß es zumindest elementare Sicherheitsupdates für Windows XP noch bis zum Jahr 2010 geben wird.
Erst wenn sich auf den Klein-PCs die entsprechend angepasste Variante von Windows 7 durchgesetzt hat, kann Microsoft daran denken, den Support an Sicherheitsupdates für Windows XP einzustellen - regulärerweise zudem mit zwei bis drei Jahren Abstand. Ob sich Microsoft an letzteres hält, steht natürlich noch in den Sternen, aber unterhalb von 2010 sollte man besser nicht gehen, ansonsten macht man sich gegenüber den Anwendern unmöglich. Was in erster Linie eine gute Nachricht für die Windows-XP-Nutzer ist: Trotz der mittlerweile schon recht langen Lebenszeit von Windows XP dürfte es noch bis zu dem Zeitpunkt, wenn der Windows-Vista-Nachfolger "Windows 7" erscheint, Sicherheitsupdates für dieses "alte" Betriebssystem geben. Damit kann man Windows Vista zumindest aus Sicht der Sicherheitsupdates bzw. der sich ergebenden Probleme, falls diese ausbleiben, wohl problemlos überspringen.
Die TAZ berichtet über Pläne des Bundesinnenministeriums, für die Online-Durchsuchung/Überwachung der Polizei das Betreten der Wohnung des Verdächtigen zur Installation des Bundestrojaners zu erlauben. Zum einen bedeutet dies, daß man wohl von den bisherigen Ideen der Infiltration über das Internet bzw. Sicherheitslücken im Zielsystem abgekommen ist - die Erfolgsaussichten hierfür liegen jetzt schon niedrig und dürften in Zukunft mit immer besser werdenden Sicherheitsarchitekturen auch nicht mehr größer werden. Zum anderen ist die Begründung interessant, wonach dieser kleine Wohnungseinbruch legal sein soll: Schließlich darf beim "großen Lauschangriff" die Polizei ja auch schon die Wohnung des Verdächtigen zur Installation von Wanzen betreten.
Was bezogen auf die Online-Durchsuchung sicherlich genauso gelten dürfte, allerdings bezogen auf die Online-Überwachung aka Quellen-TKÜ reichlich Fragen aufwirft. Denn bei der Online-Durchsuchung handelt es sich um eine Maßnahme für die wirklich schweren Fälle (vergleichbar mit dem "großen Lauschangriff"), hier kann die Unverletzbarkeit der Wohnung durchaus temporär ausgesetzt werden. Die Online-Überwachung ist dagegen mit der "normalen" Telefonüberwachung gleichzusetzen, welche in Deutschland einige zehntausendmal im Jahr angesetzt wird und inzwischen auch quer durch den Straftatenkatalog angeordnet werden kann. Hierfür den staatlichen Wohnungseinbruch zu legalisieren, würde bedeuten, daß die grundgesetzlich garantierte Unverletzlichkeit der Wohnung faktisch ausgehebelt wäre, denn bei potentiell einigen zehntausenden Fällen im Jahr (Tendenz weiter nach oben gehend) könnte man auch nicht mehr von "Ausnahmen" reden.
Es zeigt sich hierbei immer mehr, daß über das Einfallstor der Online-Durchsuchung die Maßnahme der Online-Überwachung mit hereingebracht wird, obwohl letztere eigentlich nur eine gewöhnliche Telefonüberwachung darstellt und daher nicht unter die Ausnahmeregelung der Online-Überwachung fällt. Gleichzeitig sollen aber alle die "Vorteile" der Online-Durchsuchung zugunsten der Ermittler auch für die Online-Überwachung gelten, so soll bei dieser das Grundrecht auf die Unverletzlichkeit der Wohnung wie auch der Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme nicht mehr gelten. Für die staatlichen Ermittler ergibt sich somit eine wahrhaft perfekte Maßnahme: Mittels der Online-Überwachung schummelt man sich an den beiden genannten Grundrechten vorbei und hat zudem noch den Vorteil, daß man diese Maßnahme im Gegensatz zur Online-Durchsuchung in der (fast) vollständigen Breite des Strafgesetzbuches ansetzen kann.
News des 4. April 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die PC Games Hardware berichtet von Intels ersten Ansätzen für ein "Remote Graphics Rendering". Dieses soll die Zusammenarbeit von mehreren Geräten an einer 3D-Grafik ermöglichen - allerdings nicht im Sinne einer Leistungssteigerung wie bei SLI und CrossFire, sondern im Sinne anderer bzw. mehrerer Ausgabegeräte. So zeigte eine Demonstration der Technologie ein Notebook mit einem Autorennspiel, auf einem zweiten Notebook lief eine Seitenansicht des Spiels, auf einem dritten eine Vogelperspektive. Realisiert wird die Übertragung der Bildsignale über Wireless-Verbindungen, derzeit läuft das System allerdings nur unter OpenGL, da Intel bevorzugt auch eine Unabhängigkeit von Betriebssystemen und Computertypen (vom Handheld bis zum Desktop-PC) demonstrieren wollte.
Für den Augenblick ist das ganze eher noch ein Forschungsprojekt ohne konkret geplante Anwendungsmöglichkeit in näherer Zeit. Interessant dürfte diese Technologie aber durchaus in einige Zukunftsmodelle werden, schließlich geht es in die Richtung der Allverfügbarkeit von Grafikdarstellungen auch unabhängig der Rechenleistung des konkret benutzten Geräts. All dies dürfte Vorarbeit und Voraussetzungen für die schon lange existierende Idee des vollvernetzten Hauses sein, wo alle Rechenleistung dann von einem zentralen Rechner zur Verfügung gestellt wird und die meisten der ansonsten verwendeten Geräte sich nur noch auf Ausgabefunktionen beschränken.
Eine Meldung des Heise Newstickers gibt einen Einblick in die Anbindung von Nehalem-Prozessoren an die Außenwelt bzw. die von Intel hierfür geplante Chiparchitektur. Auffallend ist dabei, daß die Southbridge des Mainboard-Chipsatzes total in den Vordergrund rückt - was natürlich dem Umstand geschuldet ist, daß die Northbridge durch den Wegfall des Speichercontrollers dann nur noch einen Controller für PCI Express enthält. Bei den Mainboard-Chipsätzen für AMD-Prozessoren gilt seit dem K8-Prozessor wie bekannt ähnliches und seitdem gibt es dort oftmals Mainboard-Chipsätze, welche nur noch aus einem gemeinsamen Chip für North- und Southbridge bestehen.
Intel scheint hingegen vorerst die altbekannte Zweiteilung beizubehalten, ansonsten würde man Northbridge und Southbridge nicht extra bezeichnen sowie getrennt im Blockschaltbild abbilden. Möglicherweise mag dies damit zusammenhängen, daß die kommenden HighEnd-Chipsätze der 4er Chipsatz-Generation von Intel auch Nehalem-Prozessoren betreiben können sollen und diese natürlich noch der alten Einteilung von North- und Southbridge verpflichtet sind. Dies mag sich bei der völlig anderen Anbindung zwischen aktueller Core-2- und kommender Nehalem-Architektur ungewöhnlich anhören, aber so hat Intel dann zum Nehalem-Start eben schon einen stabilen Mainboard-Chipsatz im Markt und kann diesbezüglich kaum noch von Problemen überrascht werden.
Daß trotz des anscheinend gleichen Mainboard-Chipsatzes Core-2- und Nehalem-Prozessoren nicht auf dem gleichen Mainboard betreibbar sein werden, dürfte aber ebenfalls klar sein. Denn zum einen kommen die Nehalem-Prozessoren in einem anderen CPU-Sockel daher (der Heise Newsticker nennt hierfür derzeit LGA1160 bei Desktop-Nehalems), zum anderen bedingt der integrierte Speichercontroller der Nehalem-Prozessoren sowieso völlig andere Platinen-Layouts. Der Umstieg auf Nehalem wird also in jedem Fall einen Neukauf von Mainboard und (je nachdem ob man bisher noch kein DDR3 hatte) Arbeitsspeicher nach sich ziehen. Und in diesem Fall läßt sich dies aufgrund der technischen Veränderungen zwischen Core 2 und Nehalem auch gar nicht anders lösen, selbst wenn Intel bekannterweise nicht besonders für große Aufrüstfähigkeit steht.
Davon abgesehen gab es noch einen kurzen Hinweis zu den Nehalem-Taktfrequenzen, hierbei schwanken die Angaben zwischen 2.13 und 3.2 GHz. Ersteres dürfte eine typische Demonstrations-Taktfrequenz sein, letztere womöglich das, was bisher in der Realität möglich ist. Dies gibt den ersten Hinweis darauf, daß Intel bei der Nehalem-Prozessorenarchitektur in einem ähnlichen Taktfeld arbeitet wie derzeit bei der späten (45nm) Core-2-Architektur. Der große Performance-Boost durch Nehalem muß wenn dann also durch die internen Verbesserungen gegenüber Core 2 kommen, wahrscheinlich weniger durch höhere Taktfrequenzen. Auf der anderen Seite ist Intel durch AMD derzeit nicht wesentlich unter Druck, da AMD seine neue Architektur (K10) schon releast hat und nunmehr nur noch durch höhere Taktfrequenzen punkten kann.
Nochmals der Heise Newsticker berichtet über die neuesten Entwicklungen auf dem Feld von DDR3-Speicher. Dabei soll dessen Taktfrequenz weiter gesteigert werden, als nächste offizielle Speicherstandards sind DDR3/1866 und DDR3/2133 in Planung. Ersteres ist zwar derzeit schon als Overclocker-Speicher erhältlich, hat aber natürlich keine JEDEC-Zertifizierung, welche es derzeit nur bis DDR3/1600 gibt. Die Planung von DDR3/2133, welches es derzeit noch nicht einmal als Overclocker-Speicher gibt, bedeutet aber, daß die DDR3-Technologie bei den Taktfrequenzen noch lange nicht ausgereizt ist. Insbesondere für die kommenden DDR3-unterstützenden Prozessoren (45nm K10 und Nehalem) sind dies gute Nachrichten, da diese durch ihre integrierten Speicherinterfaces generell mit höheren Speichersorten mitskalieren können.
News des 3. April 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die Begeisterung ob der am Dienstag vorgestellten GeForce 9800 GTX hält sich - insbesondere gemessen an früheren nVidia-Launches wie der GeForce 8800 GT oder der GeForce 9600 GT - doch arg in Grenzen, sicherlich hauptsächlich begründet in der nur mässigen Mehrleistung der neuen Karte gegenüber der schon länger erhältlichen GeForce 8800 GTS. Dabei stellte sich schon bei dieser leise die Sinnfrage, ist doch auch die G92-basierende GeForce 8800 GTS nicht deutlich schneller als die GeForce 8800 GT. Durch den Markteintritt der GeForce 9800 GTX hat nVidia nun drei G92-Karten am Start, welche sich jeweils nur um 10 Prozent Performance unterscheiden und von der kleinsten (8800GT) zur größten Lösung (9800GTX) keine 30 Prozent Performance-Differenz aufweisen.
Aufgelöst wird dieses eher unglückliche Portfolio aber wahrscheinlich dadurch, daß nVidia die GeForce 8800 GT und GTS demnächst schon wieder in Rente schicken und an ihrer Stelle eine GeForce 9800 GT oder GTS herausbringen wird. Darauf deuten nVidia-Roadmaps und auch entsprechende Gerüchte/Halbinformationen hin, welche die GeForce 9800 GT/GTS als Karte mit vollen 128 Shader-Einheiten, aber recht gemächlichen Taktfrequenzen von 600/1500/900 beschreiben. Dies wäre das Niveau der GeForce 8800 GT, nur daß eine GeForce 9800 GT/GTS dann eben 128 statt der 112 Shader-Einheiten der GeForce 8800 GT zur Verfügung hat und damit ein wenig mehr Rechenleistung aufbieten kann.
Bisher macht eine solche GeForce 9800 GT/GTS wenig Sinn, da sie direkt zwischen GeForce 8800 GT und GTS liegen würde - nimmt man diese beiden Karten aber aus dem Markt, ergibt sich plötzlich ein recht rundes Bild: Die GeForce 9800 GTX geht mit etwas mehr Performance an die Stelle der GeForce 8800 GTS, die GeForce 9800 GT/GTS mit etwas mehr Performance an die Stelle der GeForce 8800 GT. Da zudem der Performancesprung zwischen den beiden größeren Lösungen als etwas höher zu bewerten ist, steigt somit auch der Abstand zwischen kleinerer und größerer Lösung, was die GeForce 9800 GTX solider im Markt positionieren wird. Bislang gibt es zwar noch keine Anzeichen für ein Auslaufen der GeForce 8800 GT und GTS, sollte nVidia allerdings die GeForce 9800 GT oder GTS herausbringen, dürfte daran wohl kaum ein Weg vorbeiführen.
Der Heise Newsticker berichtet vom Intel Developer Forum (IDF) Details übers Intels Nehalem-Prozessorenarchitektur, welche sich erstmals nicht hauptsächlich auf das Drumherum wie Caches und die Anbindung beziehen, sondern über die eigentlichen Ausführungseinheiten Auskunft geben. Dabei scheint das Nehalem-Design im groben doch deutlich an das aktuelle Core-2-Design angelehnt: Denn wenngleich es sicherlich an jeder Ecke und Ende Verbesserungen und Erweiterungen gibt, bleibt die Anzahl der Ausführungseinheiten sowie der Decodereinheiten anscheinend gleich zur Core-2-Architektur. Was jetzt erst einmal nichts schlechtes bedeuten muß, immerhin hat sich die Core-2-Architektur mit ihren Wurzeln bis zurück zum Pentium II immer als sehr leistungsstark erwiesen.
Zudem rechtfertigen die gesamten Änderungen durchaus die Anerkennung als neue CPU-Architektur, auch wenn es sich hierbei nicht um einen totalen Paradigmenwechsel handelt wie beispielsweise seinerzeit beim Pentium IV. Es wurde auf jeden Fall genügend überarbeitet, um der Nehalem-Architektur zum jetzigen Stand glänzende Aussichten zu prophezeien. Wie schnell Nehalem dann in der Praxis wird, hängt aber natürlich auch maßgeblich davon ab, auf welche Taktfrequenzen das Design getrimmt werden kann. Gerade in diesem Punkt dürfte Intel aber wohl die wenigsten Probleme haben, wird doch das Taktpotential der Core-2-Prozessoren derzeit kaum ausgenutzt und dürfte Intel diesbezüglich auch weiterhin den Ball flachhalten, um später Nehalem in einem noch günstigeren Licht präsentieren zu können.
Wie der Heise Newsticker berichtet, sind laut einer Parlamentsanfrage derzeit noch keine Online-Durchsuchungen am laufen, der bundesdeutsche Zoll bereitet aber den Einsatz einer Online-Überwachung in einem konkreten Fall vor. Bei dieser Quellen-Telekommunikationsüberwachung (Quellen-TKÜ) genannten Maßnahme wird nur die Kommunikation des PC-Nutzers mitgeschnitten, um konkreten Fall soll es um Internet-Telefonie per Skype gehen. Technisch funktioniert die Maßnahme aber exakt so wie eine einwandfreie Online-Durchsuchung: Es wird per Trojaner oder manuell (Wohnungseinbruch) ein Spionageprogramm auf den Rechner gebracht und dieses agiert dann verdeckt vor dem Nutzer.
Sicherlich ist es richtig, daß bei der Quellen-TKÜ nur aktuelle Kommunikationsdaten abgegriffen werden, während bei der Online-Durchsuchung gleich die komplette Festplatte durchsucht wird - beiden Fällen bleibt aber gleich, daß der Zielrechner mit einem Spionageprogramm kompromitiert wird. Und an dieser Stelle beißt sich das unserer Meinung nach erheblich mit dem erklärten Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme - schon allein zum Namen dieses Grundrechts passt dieser Eingriff nicht. Und im Fall der Online-Überwachung passt es auch nicht zu den vom Verfassungsgericht definierten Ausnahmen, welche doch recht eng gefasst sind.
Dagegen wird die Quellen-TKÜ unter dieselben Regeln gestellt wie jene für die "normale" Telefonüberwachung - und die sind bei einigen zehntausenden Telefonüberwachungen im Jahr nun einmal deutlich breiter angelegt. Zwar ist der konkrete Fall nicht bekannt, aber es ist doch eher weniger davon auszugehen, daß der bundesdeutsche Zoll sich um solcherart Fälle kümmert, wo es um die vom Verfassungsgericht definierten Ausnahmen geht. Dabei ist die vom Zoll im konkreten Fall angesetzte Maßnahme einer Telefonüberwachung höchstwahrscheinlich korrekt und man möchte es dem Zoll sicherlich auch zustehen, bei einer verschlüsselten Internet-Telekommunikationsverbindung diesem Gespräch unverschlüsselt zu lauschen. Dieses durchaus berechtigte Ansinnen im Einzelfall beißt sich aber ganz deutlich mit dem Recht der Mehrheit auf die (bis auf ganz wenige Ausnahmen) immer sichergestellte Integrität ihrer IT-Systeme.
Sprich: Die Maßnahme mag für sich selber in Ordnung sein, aber mit der Methode der Ausführung verletzte man automatisch Grundrechte (da man nicht unter die definierten Ausnahmen fällt). Und dieses Grundrecht gilt nun einmal trotz das ob der bundesdeutsche Zoll im konkreten Fall das richterlich abgesegnete Recht zu einer Telefonüberwachung hat - das Kompromitieren von IT-Systemen ist eine andere Stufe und wäre richterlich nochmals extra zu genehmigen, falls man keinen anderen Weg sieht. Leider zeichnet sich hier ab, daß nach der fast vollständig gescheiterten Online-Durchsuchung diese in Form der Quellen-TKÜ als faktische Online-Durchsuchung light doch noch zur Anwendung kommt. Und wie der Fall des Zolls beweist, eher als alltägliches Ermittlungsinstrument und nicht als die Ausnahme mit mal prognostiziert weniger als zwei Dutzend Fällen im Jahr.
News des 2. April 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Golem berichten von der Auftaktansprache auf dem Intel Developer Forum (IDF), welche neben Informationen zu kommenden Intel-Prozessoren auch eine kleine Anmerkung zum Larrabee-Projekt enthielt. Diese aber hatte es in sich - denn die Aussage "Die Zeit der Rendering-Pipelines neigt sich ihrem Ende entgegen." ist der bislang beste Hinweis darauf, daß Intel mit Larrabee auch den Markt der Spielebeschleuniger im Visier hat. Zwar hatte es in der Vergangenheit hin und wieder Andeutungen in diese Richtung hin gegeben, diese waren aber bislang allesamt noch nicht eindeutig genug, um sich in der Sache sicher sein zu können. Hiermit ist nun aber Eindeutigkeit fast vollständig erreicht: Denn Rendering-Pipelines werden in der Tat primär für Spiele benötigt.
Allerdings bedeutet die Aussage auch, daß Intel nicht irgendwie im Markt der Grafikbeschleuniger mitmischen will, sondern dies nur über den Weg einer neuen Rendering-Technologie - dem Raytracing-Verfahren - angehen will. Damit bürdet man sich natürlich eine doppelte Last auf - zum einen muß das fertige Silizium für sich selber leistungsfähig genug sein, zum anderen muß man auch noch Raytracing bei den Spieleentwicklern durchsetzen. Insbesondere ist von einem dedizierten Raytracing-Beschleuniger, als was Larrabee nunmehr einzuordnen wäre, auch keine besondere Leistung unter gewöhnlichen Spielen zu erwarten - Intel setzt hier wohl voll darauf, daß die Spieleentwickler bei Raytracing mitziehen. Ob dies gut geht, wird sich noch erweisen müssen - wir sind da für den Augenblick eher skeptisch.
Primär mag das damit zusammenhängen, daß das aktuelle Rendering-Verfahren (Rasterizer) derzeit felsenfest im Markt steht und es dafür funktionierende Hardware, Software und Entwicklungsumgebungen gibt - wenn Raytracing hiergegen punkten will, muß es schon viel besser sein, nicht irgendwie nur etwas besser. Im genauen spricht zudem gegen Raytracing, daß zum einen der Vorteil der höheren Exaktheit speziell bei Spielen eher nicht so relevant ist, zum anderen aber, daß der (theoretische) Vorteil der geringeren Anforderung an zusätzlicher Rechenleistung bei steigendem Detailgrad erst praktisch bewiesen werden muß. Intel wird gerade in diesem Punkt die Spieleentwickler sicherlich kaum mit der Theorie (oder Vorserien-Samples) überzeugen können, sondern kann dies erst praktisch nach dem Erscheinen von Larrabee demonstrieren.
Und daß dieses mit der allerersten Version von Larrabee gelingt, ist aufgrund der technischen Ansetzung von nur 1 TerraFlops Rechenleistung im Jahr 2009/2010 (soviel wie die Radeon HD 3870 X2 und weniger als bei der GeForce 9800 GX2) eher zu bezweifeln. Hier könnten durchaus noch einige weitere Jahre ins Land gehen, in welchen Intel Larrabee zuerst performanter macht und dann Stück für Stück die Spieleentwickler überzeugt - Zeit genug also für ATI und nVidia, entsprechende Gegenmaßnahmen zu ergreifen. Dabei könnten diese durchaus auch so aussehen, als daß man sich genauso mit Raytracing- oder auch Kombi-Beschleunigern profilieren wird - möglich ist diesbezüglich noch alles. Zumindest ist die Idee, daß Intel mit Larrabee in ein bis zwei Jahren das Feld der Spielebeschleuniger aufrollen wird, die derzeit wirklich unwahrscheinlichste Lösung von allen.
Die Futurezone berichten über eine Software seitens Siemens, welche umfangreiche Überwachungs-Daten zusammenführen und auswerten kann. Die "Intelligence Platform" kann hierfür alle möglichen Datensätze verarbeiten, von Bank- und Kreditkartentransaktionen, Versicherungen und Grenzkontrollen, Strafregister-, Führerschein-, Fingerabdruck- und DNA-Datenbanken bis hin zu den Daten der Verkehrsüberwachung und Telekommunikations-Vorratsdatenspeicherung. Das System soll dabei generell mit der gesammten vorhandenen Datenmenge aller Bürger arbeiten, was zum einen virtuelle Rasterfahndungen und zum anderen einen mikroskopischen Blick auf einzelne Personen und deren Leben ermöglicht.
Faktisch würde ein solches System den feuchten Wunschträumen unserer Überwachungspolitiker entsprechen - jede Information, die irgendwann einmal von staatlicher Seite über die Bürger erhoben wurde, fließt in das System ein und dient dort zur immer besseren Erkenntnis über den Bürger. Vor allem in der Dreistigkeit gegenüber bestehender Datenschutz-Gesetzgebung ist das System "weit fortgeschritten" - daß die allermeisten der verwendeten Daten eigentlich nur zweckgebunden erhoben werden, wurde komplett ausgeklammert. Es darf hier durchaus die Frage gestellt werden, ob nicht allein schon die Entwicklung eines solchen Systems als verfassungswidrig angesehen werden kann, einmal unabhängig von einem konkreten Einsatz. Zudem würde interessieren, für wen konkret Siemens dies entwickelte: Hat die Bundesrepublik hier womöglich Bedarf angemeldet - oder dürfen sich künftig andere Nationen über deutsche Überwachungstechnik freuen? Ehrlicherweise ist dies weniger ein Produkt, womit wir unseren Titel als Exportweltmeister verteidigen sollten.
News des 1. April 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Nachdem am ursprünglichen Launchtermin (25. März) nVidia Quad-SLI offiziell vorgestellt hatte, schickt nVidia heute nun endlich die neue SingleChip-Lösung GeForce 9800 GTX ins Rennen. Die Karte basiert wie auch schon GeForce 8800 GT/GTS und GeForce 9800 GX2 auf dem G92-Chip mit 128 Shader-Einheiten und einem 256 Bit DDR breiten Speicherinterface. Einziger Unterschied zu der mit der gleichen Anzahl an freigeschalteten Shader-Einheiten antretenden GeForce 8800 GTS sind somit die Taktfrequenzen, welche bei der GeForce 9800 GTX mit 675/1688/1100 MHz aber auch nicht wesentlich höher ausfallen als bei der genannten GeForce 8800 GTS mit deren 650/1625/970 MHz. Insofern fällt auch der Unterschied zwischen diesen beiden Karten in der ersten Benchmark-Flut eher gemässigt aus und läßt sich grob mit 10 Prozent beschreiben.
An dieser Stelle zeigt sich deutlich schon derselbe Effekt, unter welchem schon auch die GeForce 8800 GTS gegenüber der GeForce 8800 GT zu kämpfen hat: Alle genannten Karten sind eher bandbreitenlimitiert, womit höhere Chiptakte oder/und mehr Shader-Einheiten keinen so großen Einfluß mehr haben und es eigentlich nur noch um einen höheren Speichertakt geht. Da dieser aber auch nicht beliebig steigerbar ist, hängt schon die GeForce 8800 GTS ein wenig in der Luft - bei der GeForce 9800 GTX wird dies nun noch deutlicher. Gerade gegenüber der GeForce 8800 GTS wird hier wirklich viel Silizium verbraten für einen eigentlich unbedeutenden Effekt bei der Performance.
Noch deutlicheres Ungemach droht der GeForce 9800 GTX aber von der anderthalb Jahre alten GeForce 8800 GTX, welche zwar auch nur über 128 Shader-Einheiten und mit 575/1350 MHz über die niedrigeren Chip-Taktfrequenzen verfügt, dafür aber ein 384 Bit DDR Speicherinterface auf 900 MHz Speichertakt vorweisen kann. In der Summe hat die GeForce 9800 GTX somit eine um 25 Prozent höhere Rechenleistung, die GeForce 8800 Ultra dagegen eine um 23 Prozent höhere Speicherbandbreite. Dadurch, daß in den höheren Auflösungen die höhere Speicherbandbreite stärker zum Zuge kommt, kommt es in diesem Vergleich aber nicht zu einem Gleichstand, sondern zu einem Sieg der "alten" GeForce 8800 GTX - von der noch etwas höher getakteten GeForce 8800 Ultra gar nicht erst zu reden.
Doch während letztere immer noch zumeist zu Mondpreisen von über 500 Euro angeboten wird, ist die GeForce 8800 GTX derzeit entweder schon nicht mehr erhältlich - oder zu Abverkaufsangeboten von unter 250 Euro zu haben. Zu diesem Preis schlägt die Karte die neue GeForce 9800 GTX ziemlich klar, selbst wenn diese mit um die 270 Euro für eine neue HighEnd-Lösung nicht wirklich teuer angesetzt ist. Fast könnte man von einem kleinen April-Scherz seitens nVidia reden: Denn die GeForce 9800 GTX ist nur eine minimal schnellere Ausführung der GeForce 8800 GTS, was deren ab Werk übertaktete Versionen genauso gut erledigen könnten, und verliert vor allem gegen die "alte" HighEnd-Riege GeForce 8800 GTX und Ultra nach wie vor und teilweise sogar mit Abstand.
Eine Anmerkung dazu noch: Es gibt heute auch einige Tests, welche die GeForce 9800 GTX konstant auf dem Niveau der GeForce 8800 GTX und Ultra sehen, aber keinesfalls darunter. So wie sich dies derzeit darstellt, haben diese Tests aber mit unterschiedlichen Treibern für GeForce9- (174.x) und GeForce8-Karten (169.x) gemessen, was durchaus für diesen Unterschied stehen kann. Besser sind da die Tests von Hard Tecs 4U sowie der ComputerBase, wo durchgehend 174er Treiber für alle nVidia-Grafikkarten verwendet wurde. Schon beim Launch der GeForce 9600 GT gab es schließlich Hinweise, daß einiges von der sehr überzeugenden Performance dieser Karte dem Launch-Treiber zuzuschreiben war, welcher natürlich zum Launch nur für die GeForce 9600 GT und nicht für die anderen nVidia-Karten zur Verfügung stand - hier könnte es nun ähnlich sein.
WinFuture berichten eingehend über die in den USA anhängige Sammelklage gegen Microsofts "Vista Capable" Logo, welches wie bekannt nur eine Kompatibilität für die Windows Vista Starter und Home Basic Editionen bedeutet und nicht, daß ein damit ausgezeichneter Rechner auch Windows Vista Home Premium (oder höher) bzw. allgemein die Aero-Oberfläche von Windows Vista fahren könnte. Die Sammelklage bezieht sich nun darauf, daß der Logo-Text mißverständlich ist, da jeglicher Hinweis fehlt, daß man damit nur einen Teil der Vista-Versionen (vollständig) betreiben kann. Hierzu wurden schon verschiedene interne Dokumente von Microsoft angefordert, welche beispielsweise belegen, daß man das "Vista Capable" Logo extra für Intels 915er Chipsatz einführte, auch auf Druck seitens Intel.
Dabei unterstützt der 915er Mainboard-Chipsatz von Intel nicht die Aero-Oberfläche, weil dieser aber seinerzeit weit verbreitet war (insbesondere im Notebook-Markt, wo man die Produktzusammenstellung mal nicht eben so über Nacht verändern kann), wurde ein Abverkaufsargument gesucht und mit dem "Vista Capable" Logo letztlich auch gefunden. Interessanterweise sollen nun aber auch große OEM-Fertiger und US-Handelsketten den gleichen Druck auf Microsoft ausgeübt haben, weil man zum Start von Windows Vista zu wenige Systeme im Angebot hatte, welche Premium- und damit Aero-fähig waren. Im Endeffekt scheint das "Vista Capable" Logo somit nicht einmal unbedingt eine Idee Microsofts gewesen zu sein, sondern wurde Microsoft von außen aufgedrängt, um Altbestände an Rechnern irgendwie eine Vista-Tauglichkeit bescheinigen zu können. Bei cleverer Klageverfechtung dürfte sich Microsoft hier aber trotzdem nicht herauswinden können - einfach weil der Logo-Text keinerlei Hinweise enthält, daß damit nur bestimmte Versionen von Windows Vista gemeint sind.
News des 31. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Nordic Hardware vermelden einige Spekulationen zum kommenden HighEnd-Chip GT200 von nVidia, danach soll dieser über 200 Shader-Einheiten und ein 512 Bit DDR breites Speicherinterface verfügen. Sofern die Anzahl der Shader-Einheiten stimmen sollte, müsste nVidia dafür aber die bisher bei den G8x- und G9x-Chips angesetzten Funktionsblöcke vollständig umbauen, denn diese enthalten immer 16 Shader-Einheiten auf einmal, die angeblichen 200 Shader-Einheiten sind aber nicht durch 16 teilbar. Möglich wäre eine solche Neukonstruktion sicherlich, soll der GT200-Chip zwar prinzipiell die G8x/G9x-Architektur weiterführen, aber dennoch mehr an Veränderungen bringen als ein reiner Refreshchip.
Wahrscheinlich sind diese 200 Shader-Einheiten allerdings weniger, denn wenn dann dürfte nVidia (im Zuge immer höherer Zahlen an Shader-Einheiten) die einzelnen Funktionsblöcke eher größer als denn kleiner machen. Auf der anderen Seite kann dies natürlich auch alles nur wilde Spekulation sein, verdient dies zum jetzigen Zeitpunkt wohl noch nicht so große Aufmerksamkeit. Dabei würden 200 Shader-Einheiten an einem 512 Bit Speicherinterface zumindest in der Theorie eine durchaus griffige Lösung darstellen, denn gegenüber dem jetzigen Stand wäre dies eine Verdopplung der Speicherbandbreite (bei Benutzung von schnell getaktetem GDDR5-Speicher womöglich noch mehr), aber (auf vergleichbarem Takt) keine Verdopplung der Rechenleistung.
Damit würde man das beim G92-Chip etwas ungünstige Verhältnis von Rechenleistung zu Speicherbandbreite angehen, welches derzeit dafür sorgt, daß die G92-Abkömmlinge (bis natürlich auf das DualChip-Modell GeForce 9800 GX2) in höheren Auflösungen in den meisten Fällen bandbreitenlimitiert sind und höhere Chiptakte sich dann nur noch geringfügig in eine höhere Performance umsetzen lassen. Aber wie gesagt: Derzeit ist das ganze erst einmal im Status "Spekulation", was daran wahr ist, dürfte sich zum Computex Anfang Juni in Taiwan ergeben. Ob nVidia die Karte dann nur intern den Boardpartner oder auch schon breit der Öffentlichkeit vorstellen wird, ist noch nicht ganz raus, so daß derzeit auch noch nicht genau gesagt werden kann, wann mit dem Verkaufsstart von GT200-Boards zu rechnen ist.
Dem ebenfalls geäußertem Gerücht, daß es GT200-Boards auch in einer GX2-Ausführung mit zwei GT200-Grafikchips geben soll, wäre im übrigen vorerst eine Absage zu erteilen. Hierbei sollte man bedenken, daß nVidia mit dem GT200 wieder einen wirklich herausragend schnellen HighEnd-Chip basteln will und für diesen bei der Fertigungstechnologie allerhöchstens der Sprung von 65nm auf 55nm zur Verfügung steht - wobei der GT200 durchaus sogar noch in 65nm erscheinen könnte. Ein "hitziges Design" ist also vorprogrammiert (was ja auch einige frühere Meldungen schon erwähnten), womit zwei GT200-Grafikchips auf einer Platine als derzeit kaum machbar erscheinen.
Hard Tecs 4U berichten und zeigen im Bild zwei neue AGP-Grafikkarten seitens des Grafikkarten-Herstellers HIS, welche beide auf der Radeon HD 3850 basieren. Dabei bietet HIS einmal eine Karte mit Standard-Taktraten (670/830 MHz) und einmal eine ab Werk auf 720/910 MHz übertaktete Karte an. Ein besonderer Leistungsverlust durch das AGP-Interface sollte sich kaum ergeben, schließlich entspricht AGPx8 von der Download-Bandbreite ungefähr PCI Express x8, was ja auch bei vielen SLI-Systemen zum Einsatz kommt. Allerdings dürfte es heutzutage zunehmend schwieriger werden, einer Radeon HD 3850 auf AGP eine aquadate CPU zur Seite zu stellen - ganz besonders wenn man kein neues AGP-System aufbaut, sondern ein älteres AGP-System mit begrenztem CPU-Support aufrüsten will.
Nebenbei ist es aber schon bemerkenswert, wie lange sich AGP nun doch noch gehalten hat - so will HIS die neuen AGP-Karten explizit wegen der hohen Nachfrage bauen. Dabei wurde AGP schon zu GeForce7-Zeiten für faktisch tot erklärt und trat die seinerzeitige GeForce 7800 GS als reine AGP-Karte im Februar 2006 an, um den AGP-Usern letztmalig eine Aufrüstgelegenheit zu geben. Auch aufgrund des Erfolgs dieser Karte kam es in der Folge zu einigen weiteren "letztmaligen Aufrüstgelegenheiten" - und es geht immer noch weiter, wie auch die aktuelle Radeon HD 3850 auf AGP zeigt. Bewiesen gilt damit in jedem Fall, daß die großen Grafikchip-Hersteller AGP deutlich zu zeitig aufs Abstellgleis geschoben haben (erinnert sei hier an die Aussagen ab dem Jahr 2005, daß für AGP absolut kein Markt mehr zu sehen sei), in diesem Punkt wäre man doch wohl besser noch über einen längeren Zeitraum zweigleisig gefahren.