News-Archiv 17. - 23. März 2008 (12. Kalenderwoche)
22./23. März 21. März 20. März 19. März 18. März 17. März
News des 22./23. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
In den News des 19. März ist noch ein heftiger Fehler enthalten: Denn Intel wird den Level3-Cache der Nehalem-Prozessoren nicht extra herstellen (wie seinerzeit beim Pentium III), sondern doch direkt zusammen mit dem eigentlichen Prozessor auf einem Die fertigen. Nachvollziehen läßt sich dies mittels eines Nehalem Die-Shots (© Chip-Architect), welches die vier Cache-Blöcke als Teil eines einheitlichen Dies zeigen. Damit scheint Intel beim Cache-Design des Nehalem in eine andere Richtung zu gehen als ursprünglich an dieser Stelle gedacht: Der Level3-Cache des Nehalem-Designs wird kein großer, aber langsamer Zusatz-Cache, sondern scheint die bisherige Funktion des Level2-Cache zu übernehmen.
Denn durch die direkte Anbindung an den Prozessor können natürlich ganz andere Interfaces und vor allem auch die Prozessor-Taktfrequenz für den Level3-Cache genutzt werden - wie halt beim bisherigen Level2-Cache. Dieser wird bei Nehalem wie bekannt auf 256 kByte pro Core limitiert und dürfte somit - geht man von einem schnell angebundenen Level3-Cache - ebenfalls beschleunigt werden, um einen klaren Performance-Vorteil gegenüber dem Level3-Cache zu behalten. Insofern wird der Level2-Cache bei Nehalem wahrscheinlich eher die Rolle eines weiteren Level1-Caches einnehmen, der neue Level3-Cache die Rolle des bisherigen Level2-Cache. Allein dadurch dürfte sich schon ein guter Performance-Sprung realisieren lassen, denn nach wie vor reagieren heutige Prozessoren-Designs recht gut auf schnelle oder/und große Cache-Bausteine.
Phoronix haben sich die GeForce 9600 GT unter Linux angesehen und dort mit Radeon HD 3850/3870 sowie GeForce 8600 GTS verglichen. Dabei zeigten sich diese Grafikkarten unter den wenigen unter Linux zur Verfügung stehenden Benchmarks (und Spielen) als in etwa gleich gut. Die von Windows her bekannten Unterschiede wurden hierbei anscheinend durch die Linux-Treiber von ATI und nVidia maßgeblich verwischt - wobei natürlich auch der Verzicht auf Benchmarks mit Anti-Aliasing nicht wirklich geeignet ist, um besondere Unterschiede zwischen den genannten Grafikkarten aufzuzeigen. So läßt sich faktisch nur mitnehmen, daß die neuen Performance-Lösungen von ATI und nVidia auch unter Linux eine ausreichende Performance innerhalb derzeit üblicher Auflösungen bis 1680x1050 bieten, aber leider noch keine Aussage zum Thema Anti-Aliasing unter Linux treffen.
Schon lange einmal eine Erwähnung verdient das Tool cFos Speed, hinter welchem sich eine Internet-Beschleunigung-Software verbirgt. Normalerweise kann man bei solchen Bezeichnungen grundskeptisch sein, denn eine regelrechte Beschleunigung des Internet-Verkehrs per Software ist eigentlich nicht möglich. Interessant an dem Programm ist aber vielmehr die Funktion der Traffic-Priorisierung, mittels welcher Datenpakete bestimmter Programme vorgezogen werden können. Dies hilft bei allen Anwendungen, wo es in erster Linie auf eine hochstabile Verbindung ankommt, welche man aber zusammen mit anderen Internet-Anwendungen im Hintergrund nutzt. Solange man also nur ein Online-Spiel nutzt und sonst keine Internet-Aktvitäten hat, kann das Programm ergo nichts ausrichten.
Spielt man dagegen ein Online-Spiel oder/und hört ein Internet-Radio und hat gleichzeitig im Hintergrund Downloads laufen oder/und schaut sich gleichzeitig Web-Seiten an, dann kann das vorgenannte Tool teilweise erheblich weiterhelfen. Es würde dann dafür sorgen, daß der Kontakt zu dem Online-Spiel oder/und Internet-Radio nicht abreißt, selbst wenn man wie gesagt im Web herumsurft oder/und Downloads im Hintergrund laufen hat. Dabei wird schlicht der Netzwerk-Treiber angewiesen, die Datenpakete des Online-Spiels bzw. des Internet-Radios zu bevorzugt und die Datenpakete des Browsers und des Download-Managers dann untergeordnet zu behandeln. An der verfügbaren Datenraten ändert dies gar nichts, auch wird nichts beschleunigt, wenn man nur eine Internet-Anwendung am laufen hat. Der Effekt tritt wie gesagt nur dann hervor, wenn man mehrere Anwendungen mit Internet-Zugriff gleichzeitig am laufen hat und darunter solche sind, bei denen ein (selbst kurzzeitiger) Verbindungsabbruch ungünstig wäre - wie eben Online-Spiele oder/und Internet-Radios.
Sofern man in dieser Konstellation keine Probleme mit seinem Internet-Zugang hat, wird das Tool natürlich nicht benötigt - im gegenteiligen Fall kann es jedoch hochnutzvoll sein. Konkretes Beispiel des News-Redakteurs: Bei gleichzeitig laufendem Eve Online ist es ohne cFos Speed nicht möglich, mehr als zwei bis drei Internet-Seiten gleichzeitig aufzumachen, dann bricht die Verbindung zum Online-Spiel regelmässig ab. Mit cFos Speed funktioniert nun sogar der persönliche Web-Watch des News-Redakteurs, bei welchem ca. 50 Internet-Seiten in einem Browser aufgemacht und gleichzeitig angewählt werden - ohne daß deswegen die Verbindung zum Online-Spiel verlorengeht :). Der Effekt ist in diesem Fall dermaßen deutlich (und inzwischen auch über Wochen erprobt), daß keinesfalls von Zufall oder einem nur geringfügigen Einfluß gesprochen werden kann.
News des 21. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die DigiTimes vermeldet mit der Radeon HD 3830 eine neue Mainstream-Lösung seitens ATI, welche im April oder Mai antreten soll. Die neue Karte soll über 320 Shader-Einheiten, 16 Textureneinheiten und ein 128 Bit DDR Speicherinterface verfügen - was auf den RV670-Chip als Basis der Karte hindeutet, nur eben mit halbierten Speicherinterface. Die technischen Daten passen im übrigen genauso auch zur Radeon HD 3690, zu welcher es am Jahresanfang einige Meldungen gab. Gut möglich, daß ATI sich dazu entschlossen hat, dieser Radeon HD 3690 schlicht einen attraktiveren Namen zu geben. Preislich soll die Radeon HD 3830 im übrigen für unter 129 Dollar antreten, was in unseren Breitengraden dann ungefähr 110 Euro ergeben würde.
Bei der gestern schon erwähnten Intel-Telefonkonferenz zu den kommenden Intel-Prozessoren fielen auch ein paar Bruchstück-Informationen zu Intels Larrabee-Projekt ab. Dabei wurde der Larrabee-Erscheinungstermin mit "2009 oder 2010" bewußt vage gehalten, insofern ist wohl nicht von einem baldigen Larrabee-Marktstart auszugehen. Daneben gab es viel warme Worte und wenig konkretes - und dann doch wieder einen Hinweis, daß Larabee durchaus auch Spiele beschleunigen wird können. Denn laut Intel-Manager Pat Gelsinger will man sich zur Demonstration der Larrabee-Leistungsfähigkeit an "traditionellen Benchmarks wie 3DMark orientieren" - was wohl nicht funktioniert, wenn Larrabee nicht DirectX beherrschen würde.
Die ganze Angelegenheit brachte nVidia im übrigen gleich dazu, die Intelsche Euphorie über Larrabee mit Hinweis auf die deutlich rasanteren Entwicklungszyklen im Grafikchip-Markt auszubremsen. Und in der Tat hat nVidia hierbei wohl recht, denn im Jahr 2010 dürfte Larrabee mit ganz anderen nVidia-Produkten zu tun haben als heutzutage von nVida verfügbar. Insbesondere die frühere Ankündigung, Larrabee würde 1 TerraFlops an Rechenleistung erreichen, erscheint für das Jahr 2010 als arg mickrig, da eine GeForce 9800 GX2 dies schließlich jetzt schon erreicht. Allerdings ist Larrabee sicherlich auch nur Intels Einstieg in die GPGPU- und GPU-Welt - sofern Intel hier wirklich etwas erreichen will, wird man wohl mittelfristig Konkurrenzfähigkeit auch gegenüber nVidia erreichen können.
Ausgerechnet das in Urheberrechts-Angelegenheiten gewöhnlich sehr Industrie-freundliche Landgericht Hamburg hat laut Golem ein hochinteressantes Urteil gesprochen, welches sich mit der Beweisermittlung in üblichen Filesharing-Prozessen beschäftigt. Wie bekannt, tanzen die Vertreter der Contentindustrie in solchen Fällen mit selbstangefertigten Screenshots an, welche belegen sollen, daß ein bestimmter Nutzer zu einer bestimmten Zeit eine bestimmte Datei heruntergeladen oder angeboten haben soll. Eine solche Beweisführung haben wir in früheren Meldungen zum Thema schon hin und wieder angezweifelt - nicht weil man der Contentindustrie hierbei unbedingt bösen Willen zur Fälschung unterstellen will, sondern weil selbstfabrizierte Dokumente nun einmal nicht die Kraft eines gerichtlich zugelassenen Beweises erlangen können, sie sind allenfalls Hinweise.
Interessanterweise ist diese Beweisführung jedoch jahrelang so durchgegangen - bis jetzt zumindest. Denn das Landgericht Hamburg empfand den (von einem für die privaten Ermittler offensichtlich nur nebenbei tätigen Studenten) angefertigten Screenshot nicht würdig genug, um als "Beweis" angesehen zu werden. Erschwerend kam im konkreten Fall noch dazu, daß für diese Ermittlungen noch nicht einmal geprüft wurde, ob es sich bei der fraglichen Datei wirklich um das angebliche Musikstück handelt - man schloß hierbei einfach vom Namen auf den Inhalt. Was dem Landgericht Hamburg klar zu wenig war, um als Beweis für eine Urheberrechtsverletzung gelten zu können.
Konsequent angewandt würde das bedeuten, daß die große Mehrheit der derzeit laufenden, ähnlich gelagerten Klagen automatisch nichtig ist, da bei diesen in aller Regel nur eine ähnliche dünne "Beweislage" vorhanden ist. Gleichfalls muß sich die Klägerseite umstellen, wollte sie solcherart Klagen weiterbetreiben: Es müsste wohl wenigstens ein Beweis dafür her, daß in der fraglichen Datei auch wirklich das drinsteckt, was die Contentindustrie in ihrer Klage behauptet. Zudem sollte man auch darüber nachdenken, wie sich die Arbeit der privaten Ermittler, welche ja schließlich nicht unparteiisch sind (da von der Klagerseite finanziert), derart verifizierbar machen läßt, daß das Ergebnis dann auch wirklich gerichtsfest ist.
Shortcuts: Wie Golem ausführen, soll das Konzept des Ionenwind-Lüfters nunmehr kommerziell im PC-Bereich umgesetzt werden. Solcherart Lüfter hätten gleich einen doppelten Vorteil: Sie sind (in ihrem kleinen Maßstab) leistungsstärker als gewöhnliche Lüfter und zugleich - da ohne bewegliche Teile auskommend, bis auf das Luftgeräusch geräuschlos. Die ersten Tests mit Hardware-Herstellern laufen bereits, so daß man für das nächste Jahr mit einem Markteintritt rechnet. Der Computerhersteller Dell hat die kürzlich genannten Zahlen zur Rückgabe-Quote von Notebooks mit Flashspeicher-Festplatten laut der InfoWeek deutlich zurückgewiesen: Danach soll die Rückgabe-Quote nicht bei 20 bis 30 Prozent, sondern nur bei 3 Prozent liegen, was nicht deutlich über dem Durchschnitt liegt. Laut Dell hat der Verfasser der entsprechenden Studie mit veralteten Zahlen gearbeitet - was stimmen kann, aber natürlich für Außenstehende kaum nachprüfbar ist.
News des 19. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Derzeit sammeln sich einige Artikel zu den Informationen über zukünftige Prozessoren, welche Intel bei einer kürzlichen Telefonkonferenz unerwartet herausgerückt hat. Am interessantesten waren hierbei die Ausführungen über die kommende Nehalem-Prozessorenarchitektur, zu welcher Intel einige weitere Details bekanntgab: So wird man die Level2-Caches der einzelnen Nehalem-Prozessorenkerne Intel-untypisch auf 256 kByte beschneiden, dafür gibt es allerdings einen bis zu 8 MB großen, für alle Kerne gemeinsamen Level3-Cache. Damit wird man wohl beide prinzipiellen Cache-Strategien vereinen: Der Level2-Cache soll deutlich beschleunigt werden, während der große Level3-Cache dann schlicht für sehr umfangreiche Daten herhalten wird.
Dies dürfte sich wohl auch produktionstechnisch begründen, denn bei Cache-Größen von derzeit bis zu 3 MB Level2-Cache pro Core geht ein Großteil der Transistoren und des Prozessoren-Dies eben für den den Level2-Cache drauf - was sich ungünstig macht, weil man dafür schließlich die allerbeste Produktionsstraße benutzt. Mittels des kleineren Level2-Caches kann Intel zum einen die Prozessoren-Ausbeute pro Wafer steigern, gleichzeitig kann der große Level3-Cache auch extra auf beispielsweise unmodernen Fertigungsstraßen hergestellt werden, was für Cache-Bausteine vollkommen ausreichend sein dürfte (Update: dies ist nicht korrekt, siehe diesen Nachtrag) Auch bei der Prozessoren-Anbindung gibt es nunmehr Klarheit: Das QuickPath-Interface gibt es in einfacher oder doppelter Ausführung, letzteres wird man nur im Server-Bereich sowie bei den Extreme-Modellen antreffen.
Da dieses aber nur noch für die Anbindung an die Peripherie zuständig ist und der Hauptspeicher über einen integrierten DDR3-Speichercontroller angesprochen wird, sinkt die Bedeutung dieses inoffiziellen FSB-Nachfolgers deutlich ab - ähnlich auch wie bei AMD das HyperTransport-Interface nicht mehr maßgeblich die Performance von Desktop-Prozessoren bestimmt. Bei Nehalem wird somit viel stärker der integrierte DDR3-Speichercontoller interessant sein, welcher bei anscheinend allen Nehalem-Prozessoren dreifach ausgelegt ist. Um dies auch auszunutzen, muß dann natürlich eine entsprechende Anzahl an Speichersteckplätzen auf den Mainboards vorhanden sein und benutzt werden, wahrscheinlich werden die meisten Nehalem-Mainboards mit der dato ungewöhnlichen Anzahl von drei Speichersteckplätzen aufwarten.
Fürs nachträgliche Aufrüsten wären sicherlich sechs Speichersteckplätzen interessant, aber da dies dann schon reichlich Platz auf dem Mainboard wegnimmt, dürften solche Angebote eher selten sein. Davon abgesehen hat Intel noch einige weitere Nehalem-Verbesserungen bekanntgegeben, allerdings fehlen derzeit noch die eher wichtigen Informationen über die verbauten Ausführungseinheiten und die Länge der Pipeline. Bei Prozessoren kann man daraus zwar nicht so plump wie bei Grafikchips die theoretische Rechenleistung ermitteln, aber trotzdem würden diese Informationen eine gewisse Idee darüber geben, wieviel Power pro Core bei Nehalem zu erwarten ist. Derzeit ist diesbezüglich noch alles möglich - von einem "nur" deutlich aufgemotzten Core-2-Design bis hin zu klaren internen Veränderungen gegenüber der aktuellen Core-2-Architektur.
Der Spruch des Bundesverfassungsgerichts zur Telekommunikations-Vorratsdatenspeicherung hat zur unterschiedlichsten Reaktionen und teilweise auch zu Konfusion geführt, wie sich denn nun genau die praktischen Auswirkungen gestalten. Leider sind diese bei weitem nicht so bedeutend, wie zuerst angenommen, denn das Urteil bezieht sich ausdrücklich nur diese Daten, welche wegen der Telekommunikations-Vorratsdatenspeicherung erhoben werden. Daten, die beispielsweise zu Abrechnungszwecken erhoben werden, sind davon nicht betroffen und können (müssen) weiterhin mehr oder weniger problemlos an die staatlichen Ermittler herausgegeben werden. Gerade für den Internet-Bereich ergibt sich somit derzeit keinerlei Änderung, da hier noch eine Übergangsfrist bis zum 1. Januar 2009 gilt und derzeit (unseres Wissens nach) noch kein ISP die Vorratsdatenspeicherung vorfristig umgesetzt hat.
Gerade die Massenstrafanzeigen gegen Tauschbörsianer, bei welchen (in Form der Beschaffung von Namensdaten zu einer IP-Adressen) die staatlichen Ermittler die Drecksarbeit für letztlich nur zivilgerichtlich verhandelte Fälle machen, sind damit nicht unterbunden. Natürlich kann es sein, daß das Bundesverfassungsgericht in seiner endgültigen Entscheidung zum Jahresende auch die Benutzung von Daten aus anderen Quellen untersagt, für den Augenblick ergibt dieses Urteil aber erst einmal keinen Unterschied zu vorher. Nichtsdestotrotz stehen die Chancen nicht einmal schlecht für eine totale Abschaffung der Vorratsdatenspeicherung - denn der Erfolg der Maßnahme ist erwiesenermaßen gering bis geringst, vor allem aber steht solcherart Tun ein jüngerer Spruch des Bundesverfassungsgerichts entgegen.
Denn wie beim Urteil gegen das verdachtslose Scanning von Autokennzeichen erklärt, sind Maßnahmen abzulehnen, welche ein "Gefühl des Überwachtwerdens" befördern. Konsequent angewandt, dürfte die Vorratsdatenspeicherung hier genauso mit Pauken und Trompeten durchfallen, denn auch bei dieser wird verdachtslos erst einmal jeder Bürger erfasst und dessen Aktivitäten gespeichert. Daß das Bundesverfassungsgericht dies nicht schon jetzt erklärt hat, mag wohl damit zusammenhängen, daß man ja erst einmal nur über einen Eilantrag zu entscheiden hatte und bei diesem noch nicht gewillt war, sich gleich mit Europarecht anzulegen. Für die endgültige Entscheidung dürfte aber wohl auch ein Spruch darüber zu erwarten sein, wie sklavisch die Bundesregierung Europarecht umzusetzen hat oder ob man hierbei den eigenen Kopf (oder/und das eigene Grundgesetz) mit einbringen "darf".
News des 18. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Erwartungsgemäß hat nVidia am Dienstag die GeForce 9800 GX2 offiziell vorgestellt und auch gleich in den Markt entlassen. Die technischen Daten sind dabei erwartungsgemäß, die Karte verfügt über zwei G92-Chips mit zweimal 128 Shader-Einheiten und zweimal 256 Bit DDR Speicherinterface, das ganze zu Taktraten von 600/1500/1000 MHz. Im übrigen kann man an dieser Stelle durchaus von einem doppelten Speicherinterface sprechen, welches effektiv 512 Bit DDR breit ist, da beide Grafikchips ja immer an unterschiedlichen Bildteilen (oder gleich ganz unterschiedlichen Bildern) arbeiten und damit ihre jeweils eigenen Rechenoperationen durchführen. Natürlich wäre ein einzelner Grafikchip mit 512 Bit DDR Speicherinterface schneller, aber das fällt in den Bereich "SLI-Effizienz" - und die ist durchaus hoch, aber eben niemals perfekt.
Nicht verdoppeln kann man allerdings die verbaute Speichermenge, trotz daß man der Einfachkeit halber die Karten als "1 GB" tituliert. Effektiv sind es aber 512-MB-Karten, da dem einzelnen Grafikchip eben nur 512 MB Grafikkartenspeicher zur Verfügung stehen und beide Grafikkarten-Speicher im Normalfall mit den fast identischen Daten gefüllt sind, hier sich also keinerlei Vorteil durch den doppelten Speicher ergibt. Angeboten wird das ganze im übrigen derzeitig zu Preisen von 490 bis 530 Euro, was angesichts des hohen Listenpreises (vor MwSt) von 599 Dollar relativ gesehen günstig erscheint, aber primär durch den aktuell sehr niedrigen Dollar-Kurs verursacht wird. Sollte sich dieser deutlich von seinen derzeitigen Tiefstständen entfernen, kann Hardware in Europa aber auch schnell um 10 bis 20 Prozent teurer werden und sich (wie lange Zeit zuvor) somit US- und EU-Preise wieder angleichen.
Bei den Tests zur GeForce 9800 GX2 ergab sich das zu erwartenden Bild, daß diese Karte natürlich alles dominiert, was bisher Rang und Namen hatte - angesichts des betriebenen Silizium-Aufwandes auch kein Wunder. Interessant ist allerhöchstens, daß der Abstand zur Radeon HD 3870 X2 von ATI gar nicht einmal so deutlich ausfällt, wie dies eigentlich zu erwarten gewesen wäre und wie es auch der preisliche Abstand ausdrückt. Denn während beide Karten derzeit mehr als 50 Prozent beim Preis trennen, sind es von der Leistung her nur 20 bis 30 Prozent - das bessere Preis/Leistungsverhältnis liegt also klar bei der DualChip-Lösung von ATI. Da die GeForce 9800 GX2 allerdings in ihrem Preis- und Leistungsbereich allein auf weiter Flur ist, dürfte das deren Verkaufsaussichten wohl nicht weiter behindern.
Eher störend dürfte da das immer noch nicht gelöste Problem der Mikroruckler unter SLI und CrossFire sein, für welches nVidia zwar eine Lösung in Aussicht gestellt hat, diese aber noch nicht einsatzbereit ist. Dieses Problem trifft natürlich genauso auch die Radeon HD 3870 X2 sowie die beiderseitigen QuadChip-Projekte auf Basis dieser DualChip-Grafikkarten. Das schwächt diese Angebote derzeit nicht unerheblich - vor allem, weil solcherart HighEnd-Lösungen nicht wirklich notwendig sind, um aktuelle Spiele mit hohen Grafiksettings gut spielen zu können. Einzig allein bei wirklich hohen Auflösungen ab 1920x1200 geht aktuellen SingleChip-Grafikkarten langsam die Luft aus, ergibt sich ein Grund für die momentane DualChip-Lösungen.
Wie die InfoWeek ausführt, sollen die Rückgabe-Quote bei Notebooks mit Flashspeicher-Festplatten (SSD) dramatisch höher ausfallen als im Durchschnitt (20-30% gegenüber normalerweise 1-2%). Als Rückgabegrund wurden zu gleichen Teilen Hardware-Defekte wie auch Performance-Probleme genannt. Ersteres überrascht dann doch, da SSDs ja erst einmal per Definition unanfälliger sind als herkömmliche Festplatten, welche sich schließlich aus bewegenden mechanischen Teilen bestehen. Die Performance-Probleme dürften hingegen auf die Verwendung von SSDs der ersten Generation zurückzuführen sein, welche in der Tat oftmals deutlich langsamer sind als herkömmliche Festplatten. Mit den aktuellen SSD-Modellen löst man diese Probleme über breitere interne Interfaces, diese sollten inzwischen keinen Performance-Unterschied zu herkömmlichen Festplatten mehr zeigen.
Wie unter anderem dem Spiegel zu entnehmen, hat das Bundesverfassungsgericht auch die Telekommunikations-Vorratsdatenspeicherung deutlich eingeschränkt. Danach wurde die reine Datensammlung als prinzipiell problemlos angesehen, der polizeiliche Zugriff auf diese Daten soll aber erheblich beschränkt werden: Künftig müssen die Ermittler mit einer schwerwiegenden Straftat kommen, zudem muß nachgewiesen werden, daß andere Ermittlungsmethoden unzureichend zur Aufklärung des Falls wären. Der einfachen bis einfachsten Datenabfrage durch die Ermittler quer durch den Straftatenkatalog und egal der Nutzhaftigkeit der Daten wurde damit eine heftige Absage erteilt.
Zudem soll die Bundesregierung dem Verfassungsgericht bis zum 1. September einen Bericht zu den "praktischen Folgen der Vorratsdatenspeicherung" vorlegen, nach dessen Kenntnisnahme steht dann zum Jahresende erst die eigentliche Hauptverhandlung zu diesem Fall an. Es könnte hierbei durchaus zu weiteren Beschränkungen der Vorratsdatenspeicherung kommen, wenn die Bundesregierung nicht den praktischen Nutzen dieser Maßnahme belegen kann. Davon abgesehen ist im übrigen die Spruchregelung sehr interessant, daß die reine Datensammlung als problemlos angesehen wird, erst der Zugriff auf die Daten als "Eingriff in die Freiheit der Bürger" angesehen wird. Damit stärkt man (konsequent angewandt) den Schutz des Bürgers davor, daß einmal erhobene Daten aktuell oder später zweckentfremdet werden - einfach weil sie schon da sind. Natürlich ist es immer sinnvoller, Datensammlungen gleich komplett zu untersagen, allerdings ist diese Option derzeit nicht besonders realistisch und damit die zweitbeste Lösung auch ganz annehmbar.
Noch etwas in einiger Sache: In der letzten Nacht ist der Forums-Server auf neue Hardware umgezogen. Der Umzug selber lief sehr problemlos, es gab faktisch keine Ausfallzeit. Auch die Domains wurde am frühen Morgen auf die IP-Adresse des neuen Servers umgestellt, so daß viele Forennutzer die Umstellung gar nicht bemerkt haben dürften. Mit dieser Umstellung wurde dem Forum eine deutliche Hardware-Aufrüstung spendiert: Der drei Jahre alte Server mit zwei Pentium 4 Prescott basierenden Xeon-Prozessoren auf 3.2 GHz und 4 GB Speicher weicht nun einem Core-2-basierenden QuadCore-Xeon mit 2.13 GHz und gleich 8 GB Speicher, was für reichlich Performance samt einigen Performance-Reserven sorgen sollte. Gleichzeitig kann an dieser Stelle auch schon einmal ein Server-Wechsel für die 3DCenter-Hauptseite angekündigt werden - auch diese wird einen neuen, deutlich leistungsfähigeren Server spendiert bekommen, welcher bereits im Hinblick auf das demnächst kommende Design-Update, das kommende CMS und einige neue Seiten-Projekte geordert wurde.
News des 17. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie die VR-Zone berichtet, will nVidia den bisher in 65nm gefertigten G92-Chip (GeForce 8800 GT/GTS & GeForce 9800 Serie) in 55nm neu auflegen. Dies dürfte wohl bedeuten, daß G92-basierte Grafikkarten noch einige Zeit erhältlich sein dürften, ansonsten würde dieser Die-Shrink finanziell keinen Sinn machen. Das Angebot an G92-basierten Grafikkarten bis weit ins zweite Halbjahr hinein bedeutet abe auch, daß der im Sommer anstehende GT200 HighEnd-Grafikchip entweder keine Ableger für die anderen Marktsegmente bekommt - oder, daß diese erst deutlich später anstehen. Letzteres hängt auch davon ab, wann nVidia die nach dem GT200 nachfolgende Generation plant - kommt da bereits im Winter etwas neues, kann man sich GT200-Abwandlungen für LowCost-, Mainstream- und Performance-Segment womöglich sparen.
Im entgegengesetzten Fall wird auch der GT200-Chip Ausgangspunkt einer breiten Serie von Grafikchips für alle Marktsegmente werden müssen, schließlich sind die Zyklen im Grafikchip-Markt nach wie vor sehr kurz, selbst wenn es sich bei neuen Grafikchips nun nicht mehr in jedem Fall um neuen Architekturen handelt. Daneben deutet die 55nm-Fertigung für den G92-Chip aber natürlich auch an, daß nVidia nun auch auf diese von ATI schon breit eingesetzte Fertigung umsatteln wird. Demzufolge ist auch es auch möglich, daß auch andere in den mittelfristigen Planungen von nVidia bedeutsame Grafikchips noch auf 55nm gebracht werden (G96-Chip für das Mainstream-Segment, G94-Chip für das LowCost-Segment), genauso wie auch der GT200-Chip selber wahrscheinlich gleich schon in 55nm kommt.
Im Forum der VR-Zone sind einige nVidia-Präsentationsfolien zur GeForce 9800 GTX zu besichtigen, welche die kürzlich genannten Daten zu dieser Grafikkarte nunmehr einwandfrei bestätigten. Es bleibt also bei der GeForce 9800 GTX bei den Taktraten von 675/1688/1100 MHz und den vollen 128 Shader-Einheiten des G92-Chips, was aber wie bekannt nur knapp über dem Niveau der GeForce 8800 GTS (650/1625/970 MHz) liegt. Preislich setzt nVidia die neue Karte im übrigen auf 299 bis 349 Dollar an, was hierzulande auf 250 bis 300 Euro hinauslaufen sollte - ebenfalls nur knapp über dem Niveau der GeForce 8800 GTS, was aber so in Ordnung gehen dürfte.
Wie erwartet wird die GeForce 9800 GTX von nVidia als die neue Lösung für Triple-SLI propangandiert werden, nachdem die GeForce 8800 Ultra zum einen immer noch überteuert ist und zum anderen nun endgültig auslaufen wird. Dabei verspricht man wiederum eine ziemlich hohe Triple-SLI Effizienz auf der GeForce 9800 GTX: So soll die zweite Grafikkarte unter 2560x1600 mit 4x Anti-Aliasing immerhin 85 Prozent mehr bringen, die dritte Grafikkarte steigert dies auf kummuliert 148 Prozent. Damit würde die dritte Grafikkarte immerhin noch zu 63 Prozent effizient sein, was schon ziemlich ansprechend ist - von der GeForce 9800 GTX allerdings erst noch durch unabhängige Tests zu belegen wäre. Auf der anderen Seite liegt der Performance-Gewinn von normalem SLI auf Triple-SLI trotzdem nur bei 34 Prozent, was gerade den Käufern des absoluten HighEnd-Segments womöglich zu wenig für den betriebenen Aufwand sein könnte.
Von TweakPC kommt ein Roundup integrierter Grafiklösungen für Intel-Prozessoren, welches die aktuellen integrierten Grafikchips von Intel, nVidia und VIA umfasst. Dabei wird auch sehr deutlich angesprochen, wie sich Intel mit den Direct3D10-Grafikchips GMA X3000 und GMA 3000 gehörig verzettelt hat, welche neben für fast ein Jahr fehlenden DirectX9-Treibern (und immer noch fehlenden Direct3D10-Treibern) auch nie die versprochene Performance haben liefen können. Hier präsentiert sich im übrigen der GMA 3100 als vernünftige Alternative, obwohl sich darunter auch nur ein höher getakteter DirectX9-Chip GMA 950 verbirgt - dies aber mit einem funktionierenden Treiber und annehmbarer Performance.
Auf nVidia-Seite waren dann leider nur GeForce7-basierenden Lösungen im Einsatz, da die derzeit in den Markt kommende integrierte Direct3D10-Lösung GeForce 8200 für den Moment nur für AMD-Plattformen verfügbar ist. Hier wird sich allerdings in absehbarer Zeit einiges auf dem Markt der integrierten Grafiklösungen ändern: Für AMD-Prozessoren kommen derzeit Radeon HD 3200 und GeForce 8200 in den Handel, letztere Lösung dürfte über kurz oder lang auch noch für Intel-Prozessoren erscheinen. Intel hat dagegen für die Mitte des Jahres den G45-Chipsatz mit der GMA X3500 Grafiklösung angekündigt, welche über deutlich mehr Performance als die bisherigen integrierten Grafikchips von Intel verfügen soll.
Laut WinFuture hat die "Save XP" Aktion von InfoWorld nach zwei Monaten bereits 100.000 Unterschriften zugunsten einer Verlängerung der Verfügbarkeit von Windows XP gesammelt. Was sich erst einmal nach viel anhört, wird allerdings wohl kaum ausreichend sein, um Microsoft umzustimmen - dafür wären wohl Millionen an Unterschriften notwendig. Diese werden jedoch kaum noch vor dem Verkaufsende von Windows XP am 30. Juni diesen Jahres zu erreichen sein, hier läuft InfoWorld wohl einfach die Zeit davon und wird Microsoft die Menschheit dann schlicht vor vollendete Tatsachen stellen. Dabei sind die Ideen von InfoWorld in Form von "zweiten Ausgaben" von Windows XP oder/und Vista durchaus begrüßenswert, dürften aber letztlich am Ego und der Marktmacht von Microsoft scheitern.
Shortcuts: Wie Hard Tecs 4U berichten, gibt es wilde Gerüchte über eine angebliche Radeon HD 3850 X2 von ATI. Diese Karte würde weiterhin auf zwei RV670-Grafikchips basieren, dann eben nur die niedrigeren Taktfrequenzen der Radeon HD 3850 tragen. Softpedia haben eine eMail von Microsoft vorliegen, nach welcher der Windows-Vista-Nachfolger "Windows 7" drei Jahre nach der Retail-Verfügbarkeit von Windows Vista (Anfang 2007) erscheinen soll. Demzufolge ist mit Windows 7 frühestens im Frühjahr 2010 zu rechnen, eingedenk der immer möglichen Verspätungen ist allerdings das zweite Halbjahr 2010 eher wahrscheinlich. Wie die TGDaily ausführen, soll Intels CPU/GPU-Projekt nunmehr sogar vor AMDs Fusion-Projekt erscheinen: Während letzteres im zweiten Halbjahr 2009 zu erwarten ist, will Intel bereits in der ersten Jahreshälfte einen DualCore-Prozessor mit einem auf dem Trägermaterial integrierten Grafikchip mit G45-Abstammung in den Markt schicken.