News-Archiv 31. Januar 2007 - 6. Januar 2008 (1. Kalenderwoche)
5./6. Januar 4. Januar 3. Januar 2. Januar 1. Januar 31. Dezember
News des 5./6. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
In unserem Forum ist ein auf der CES ausgestelltes Sockel-775-Mainboard von Foxconn zu sehen, welches gleich satte zehn PCI-Express- bzw. PCI-Steckplätze bietet. Dabei sind vier der PCI-Express-Slots für Grafikkarten gedacht, die Anordnung ermöglicht hierbei sogar einen Betrieb von vier DualSlot-Grafikkarten - sprich, Quad-SLI/CrossFire selbst mit absoluten HighEnd-Lösungen. Dabei bleiben idealerweise jedoch immer noch zwei PCI Express x1 Steckplätze frei für weitere Steckkarten, so daß der HighEnd-User nicht auf extra Soundkarte sowie RAID und ähnliches verzichten muß. Natürlich passt ein solches Board nicht mehr in ein normales ATX-Gehäuse, allerdings soll es wohl extra Gehäuse geben, welche solcherart übergroße Mainboards aufnehmen können. Unklar ist aber derzeit noch, welcher Chipsatz auf diesem Mainboard verbaut ist und ob überhaupt SLI oder CrossFire unterstützt wird - hier bleiben etwaige Verlautbarungen seitens Foxconn zu diesem Mainboard abzuwarten.
Wie WinFuture ausführen, ist der Anteil von Windows Vista an der installierten Basis im Dezember erstmals über die 10-Prozent-Markt gestiegen und liegt nunmehr bei 10,5 Prozent (ermittelt wurde hierbei anhand der im Internet befindlichen Rechner, was natürlich nicht hundertprozentig genau ist). Inwiefern der Zugewinn von 1,3 Prozentpunkten gegenüber dem November speziell dem Weihnachtsgeschäft geschuldet ist oder aber eine dauerhafte Verbesserung gegenüber der Mitte des vergangenen Jahres - als die Zugewinne von Windows Vista unter einem Prozentpunkt pro Monat lagen - darstellt, läßt sich derzeit noch nicht sagen und wird sich wohl erst in den nachfolgenden Monaten ergeben. Verglichen mit dem Marktstart von Windows XP anno 2001 sind die 10,5 Prozent von Windows Vista nach fast einem Jahr im (freien) Markt allerdings wirklich wenig.
Denn gemäß einer zum Thema passenden Meldung von PCWorld lag Windows XP nach elf Monaten Laufzeit bei den PCWorld-Lesern bei 36 Prozent, Windows Vista kommt derzeit (wie gesagt bei den PCWorld-Lesern) nach elf Monaten Laufzeit auf 14 Prozent. Genau dieselbe Zeit brauchte Windows XP bei den PCWorld-Lesern seinerzeit auch, um die Spitzenposition bei den Betriebssystemen Windows 98 abzujagen - ein Meilenstein, von welchem Windows Vista derzeit noch Jahre entfernt scheint. Und wenn Windows Vista nicht hurtig anfängt, mehr als 11 bis 12 Prozent installierter Basis pro Jahr hinzulegen, könnte beim (termingerechten) Erscheinen von Windows 7 im Jahr 2009 das "alte" Windows XP immer noch knapp in der Pole-Position sein ;).
Der Focus berichtet über die einzige Online-Durchsuchung, welche bislang innerhalb von Deutschland (der BND hat wohl im Ausland womöglich schon mehrfach online durchsucht, allerdings bleibt genaueres hierzu bislang noch im Dunklen) durchgeführt und auch erfolgreich war. Als Verbreitungsweg diente hierbei eine infizierte eMail - insofern hat man sich in diesem konkreten Fall wohl nicht viel mehr Mühe gegeben als die üblichen Verbreiter von Schadsoftware. Interessanterweise soll seinerzeit bei dem Verdächtigen sogar der Virenscanner angesprungen sein, was insofern eine starke Leistung darstellt, als daß für den Bundestrojaner derzeit keine Virensignatur vorliegt (und diese auch Quatsch wäre, weil der Bundestrojaner für jeden Einsatz neu angepasst wird) und somit die Heuristik des Antiviren-Programms die Schadsoftware erkannt haben müsste.
Mittels der Heuristik-Funktion von Antiviren-Programmen wird in aller Regel versucht, bisher unbekannte Schädlinge nicht an ihrer (bekannten) Signatur, sondern an ihrem Verhalten im System zu erkennen - und genauso anspruchsvoll wie diese Aufgabe ist, genauso fehleranfällig ist sie auch, Fehlalarme sind hier die Regel und nicht die Ausnahme. Insofern kann man sich leider nicht darauf verlassen, daß der Bundestrojaner im nächsten Einsatzfall wieder von der Heuristik eines Antiviren-Programms gefunden wird. Allerdings ist aufgrund dieser Informationen die allgemeine Qualität dieses Angriffs derzeit als stark unterdurchschnittlich einzuordnen - sprich, wer sich auf seinem System wirklich auskennt, wird diesen Angriff wohl spielend unterbinden können und selbst einen schon erfolgreichen Angriff im nachhinein noch erkennen können.
News des 4. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Weitere Benchmarks der GeForce 8800 GS gibt es wieder einmal bei Expreview, getätigt gegen eine GeForce 8800 GT 512MB. Dabei offenbaren sich nun doch größere Unterschiede als zuletzt berichtet: Ohne Anti-Aliasing sind es im gewöhnlichen um die 20 Prozent, welche beide Karten trennen, mit Anti-Aliasing geht der Unterschied auf ca. 25 bis 30 Prozent hinauf. Allerdings passt diese Leistungsdifferenz auch besser zum preislichen Unterschied, nach dem für eine GeForce 8800 GT 512MB (ca. 220 Euro) gute 45 Prozent mehr hinzulegen ist als für eine GeForce 8800 GS (ca. 150 Euro) zukünftig hinzulegen sein wird.
Wie der Heise Newsticker ausführt, hat sich auf der CES eine durchaus bedeutsame Wendung im Zweikampf HD-DVD vs. Blu-Ray ergeben: So wird das US-Filmstudio Warner Bros. zukünftig nicht mehr beide Formate unterstützen, sondern nur noch Blu-Ray. Damit stehen nunmehr fünf große Hollywood-Studios exklusiv hinter Blu-Ray, nur noch drei exklusiv hinter HD-DVD (wobei Dreamworks kein eigenständiges Studio mehr ist und es damit eigentlich nur noch zwei sind) - Unterstützer beider Formate gibt es damit leider keine mehr. Noch deutlicher wird das neue Verhältnis beim im letzten Jahr an der US-Kinokasse getätigen Umsatz: Hierbei kommt das Blu-Ray-Lager auf 5,4 Milliarden Dollar, das HD-DVD-Lager liegt bei 2,6 Milliaden Dollar.
Somit steht es derzeit 67 zu 33 Prozent zugunsten von Blu-Ray - was natürlich erhebliche Auswirkungen auf die Anzahl an verfügbaren Titeln unter beiden Formaten haben wird und damit auch die Entscheidung beim Player-Kauf beeinflußen wird. Langfristig könnten sich die letzten verbliebenen Unterstützer von HD-DVD somit durchaus gezwungen sehen, auf Blu-Ray umzuschwenken - langfristig wie gesagt. Natürlich könnte dieser Zweikampf auch kurz- und mittelfristig durch den Wechsel weiterer Studios ins Blu-Ray-Lager entschieden werden - was aber natürlich jederzeit auch umgedreht möglich ist. Bezüglich des Player-Kaufs erscheinen somit nach wie vor Kombi-Modelle als die sicherste Wahl.
Der Heise Newsticker hat genauere Informationen zum aktuellen Flash-Bug, welche die Sicherheitsgefährdung durch diesen Bug nunmehr klarer erscheinen lassen. So ist es zwar richtig, daß Flash-Dateien durch einen Fehler in üblichen Flash-Erstellungsprogrammen anfällig für einen Angriff sind, bei welchem beliebiger JavaScript-Code im Kontext der jeweils besuchten Seite ausgeführt wird, obwohl der Code gar nicht von dieser Seite stammt. Damit könnte man das Zonen-Modell diverser Browser aushebeln und Schadcode auch auf Webseiten ausführen, welchen der Benutzer eigentlich vertraut. Dabei wird die vertrauenswürdige Webseite allerdings nicht direkt komprimitiert, vielmehr wird der Schadcode an die Flash-Animation der vertrauenswürdigen Seite angehängt.
Im Klartext bedeutet das, daß man sich durch den normalen Besuch einer vertrauenswürdigen Webseite keinen Schadecode einfangen kann - das geht nur dann, wenn man mittels Direktlink eine Flash-Animation auf dieser Webseite aufruft - was im Normalfall aber keiner macht. Natürlich kann man entsprechende Links per eMail oder Webseite verbreiten, aber wer so bedenkenlos ist, da drauf zu klicken, wird sich auch ohne diesen Bug früher oder später etwas einfangen. Wenn man es also schafft, nicht bedenkenlos auf Direktlinks zu irgendwelchen "spannenden" Flash-Animationen zu klicken, kann man sich doch recht sicher um diesen Bug herumschiffen. Vollständige Abhilfe werden leider erst Updates für die verschiedenen Flash-Erstellungsprogramme bringen, in deren Folge hunderttausende im Web genutzte Flash-Animationen neu erstellt werden müssen.
News des 3. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei Chile Hardware gibt es ein paar nVidia-Präsentationsfolien zur GeForce 9600 GT, der im Februar zu erwartenden neuen Mainstream-Lösung. Interessanterweise wird in diesen die GeForce 9600 GT als DirectX10-Karte beschrieben, kein Wort aber zu DirectX 10.1. Gerade auch die Nennung von PCI Express 2.0 in der Marketingfolie (und wieder nicht von Direct3D 10.1) läßt hier den Verdacht zu, daß diese Karte weiterhin "nur" Direct3D10 unterstützt. Unklar ist dann aber natürlich, wieso sich nVidia zu einer GeForce9-Namensnennung entschlossen hat, selbst diverse andere Änderungen an der GeForce8-Grafikarchitektur dürfte diesen Schritt nur schwer rechtfertigen, wenn wie gesagt nicht Direct3D 10.1 unterstützt wird.
DailyTech sind diesbezüglich im übrigen gänzlich anderer Meinung, dort berichtet man sogar von einer (angeblichen) öffentlichen Bestätigung nVidias, daß die GeForce 9600 GT (und damit wohl auch die komplette GeForce9-Serie) bereits Direct3D 10.1 unterstützen würde. Insofern sind derzeit in diesem Punkt weiterhin noch alle beiden Varianten möglich. Aus unserer Sicht deutlich sinniger wäre natürlich wirklich der Support von Direct3D 10.1 bei der kompletten GeForce9-Serie - wenn nicht als Performance-Feature, so doch als Marketing-Feature, gerade da es relativ einfach in die Grafikchips zu implementieren sein soll.
Davon abgesehen nennen DailyTech die Taktraten der GeForce 9600 GT mit 650/1625/900 MHz, was dann doch erheblich mehr wäre als bisher bekannt. Gegenüber dem Vorgänger im Mainstream-Markt, der GeForce 8600 GTS mit Taktraten von 675/1450/1000 MHz, würde man dann keinen wirklichen Taktraten-Nachteil mehr haben. Zudem gibt es wie schon bekannt verdoppelte Hardware-Einheiten inklusive auch eines verdoppelten Speicherinterface, womit sich die GeForce 9600 GT mehr als deutlich vor die GeForce 8600 GTS plazieren sollte. nVidia spricht in der vorverlinkten Präsentation von einem Performance-Gewinn von bis zu 90 Prozent, was angesichts der vorliegenden Daten absolut im Bereich des Möglichen liegt.
Interessanterweise hätte die GeForce 9600 GT damit sogar die höhere Speicherbandbreite gegenüber einer GeForce 8800 GT 256MB (immerhin 28 Prozent mehr), wenngleich der 61prozentige Unterschied bei der Shader- und Texturierpower immer für einen ausreichend großen Abstand zu dieser nächstgrößeren Karte im nVidia-Portfolio sorgen wird. Nichtsdestotrotz erscheint der Speichertakt von 900 MHz für die GeForce 9600 GT weiterhin als etwas überzogen, zur vorhandenen Rechenleistung würde eher ein Speichertakt von 600 bis 700 MHz passen, was die Karte letztlich auch wirtschaftlicher herstellbar machen würde. Allerdings steht sowieso zu vermuten an, daß bei den Taktraten noch kein endgültiges Wort gesprochen ist, im üblichen werden die finalen Taktraten erst ein bis zwei Wochen vor dem Launch festgelegt.
Hochinteressantes zur nächsten HighEnd-Lösung von nVidia in Form der GeForce 9800 GX2 gibt es hingegen bei HardOCP. Dabei zeigt man zum einen Bilder des DualChip-Grafikboards - welche im übrigen ein wenig an das berühmt-berüchtige Aussehen der GeForce 7800 GTX erinnern ;) - und gibt zum anderen einige wenige technische Spezifikationen zum besten. So soll das komplette Grafikboard aus zwei einzelnen Platinen bestehen, welche jeweils einen 65nm Grafikchip tragen. Beide Grafikchips verfügen dann zusammen über 256 Shader-Einheiten und verwalten insgesamt 1 GB Speicher. Daraus läßt sich gleich einiges ableiten: Erstens einmal scheinen die benutzten Grafikchips nicht wie der G80 über ein "krummes" Speicherinterface á 384 Bit DDR oder ähnlich zu verfügen.
Denn dies hätte sich dann auch in der Speichermenge geäußert - die Speichermenge von 1 GB spricht aber klar für entweder ein 256 Bit DDR oder ein 512 Bit DDR Speicherinterface (pro Grafikchip). Da letzteres aufgrund der zwei verbauten Grafikchips aber eher denn in Richtung Overkill gehen würde, ist die Variante mit (zwei) 256 Bit DDR Speicherinterfaces wohl am wahrscheinlichsten. Zusammen mit den 128 Shader-Einheiten pro Grafikchip würde dies perfekt auf den G92-Chip zutreffen - was auch wirtschaftlich sehr attraktiv für nVidia wäre, schließlich müsste man dann für die GeForce 9800 GX2 nicht einen extra Grafikchip auflegen, sondern könnte sich aus der schon laufenden G92-Produktion für die GeForce 8800 GT/GTS bedienen.
Einen Haken hat die ganze Angelegenheit dann aber leider doch: Sollte die GeForce 9800 GX2 bzw. die GeForce9-Serie allgemein in der Tat bereits Direct3D 10.1 unterstützen (und ohne das wäre wie gesagt die Bezeichnung "GeForce9" nur schwerlich zu rechtfertigen), ist der G92-Chip außen vor und muß dies ein anderer Chip (D9E) erledigen. Aber wie schon in der vorstehenden Meldung zur GeForce 9600 GT ausgeführt, ist derzeit noch reichlich unklar, wie sich nVidia nun letztlich zu Direct3D 10.1 positionieren wird. Sogar die Möglichkeit, daß Direct3D 10.1 bereits im G92-Chip vorhanden ist, aber erst für die GeForce9-Serie freigeschalten wird, liegt derzeit noch auf dem Tisch.
Bei der Performance der GeForce 9800 GX2 will man im übrigen runde 30 Prozent überhalb die GeForce 8800 Ultra kommen - was sicherlich erreichbar sein sollte, dies entspricht ungefähr der Leistung von zwei GeForce 8800 GT 512MB Karten im SLI-Verbund. Ironischerweise dürfte im absoluten HighEnd-Bereich die GeForce 8800 Ultra aber trotz der GeForce 9800 GX2 weiterhin ihre Berechtigung haben, weil sich die GeForce 8800 Ultra mittels Triple-SLI gleich dreifach zusammenschalten läßt und damit auf eine weiterhin klar höhere Performance als zwei Stück GeForce 9800 GX2 Karten (dann faktisch Quad-SLI) kommen sollte. Ein Dreifach-Verbund von GeForce 9800 GX2 Karten erscheint dagegen unwahrscheinlich, weil dann schon sechs Grafikchips zusammenarbeiten sollen und dies beim derzeitigen Stand der Treiber-Software kaum effizient nutzbar sein dürfte.
Gulli berichten darüber, daß man in Großbritannien angesichts der jüngsten katastrophalen Datenschutzpannen darüber nachdenkt, künftig Schluderei beim Datenschutz mit Bußgeldern zu belegen. Was sicherlich auch für Deutschland sinnvoll ist, schließlich nützt die gesamte Datenschutzgesetzgebung wenig, wenn es keine Konsequenzen bei Nichtbeachtung gibt - ein Gesetz ohne Strafandrohung hat fast nur den Wert einer Empfehlung. Aber natürlich sind Bußgelder nicht alles - insbesondere wenn sich staatliche Akteure schwere Datenschutzpannen leisten (wie in Großbritannien passiert), bringt es schließlich wenig, wenn sich der Staat selber ein Bußgeld auferlegt. Letztlich läuft es wieder darauf hinaus, daß die sichersten Daten die sind, welche gar nicht erst erhoben werden.
News des 2. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bezüglich der Palit-Versionen der GeForce 8800 GS mit gleich 112 Shader-Einheiten haben sich Expreview inzwischen wiederrufen, auch die GeForce 8800 GS Modelle von Palit werden dementsprechend mit 96 Shader-Einheiten, 48 Textureneinheiten und einem 192 Bit DDR breiten Speicherinterface antreten. Palit wird sich allerdings weiterhin etwas von der Konkurrenz durch eine GeForce 8800 GS mit Taktraten von 650/1625/950 MHz absetzen, nVidia-default bei dieser Karte sind 575/1438/850 MHz. Bei Expreview hat man im übrigen nach eigenen Angaben eine der Palit-Karten in der Hand und konnte so mittels des RivaTuners die Anzahl der Shader-Einheiten verifizieren.
Gemäß einer weiteren Meldung seitens Expreview hat nVidia die Grafikchips zur GeForce 8800 GS angeblich nur an vier Grafikkarten-Hersteller - Asus, EVGA, Palit und XFX - herausgeben. Dies deutet durchaus darauf hin, daß nVidia die Karte nicht gerade all zu weit verbreitet sehen will - ein Schnäppchen für diejenigen, welche sich informieren, und der Rest des Marktes soll wohl weiterhin die "normalen" nVidia-basierten Karten kaufen. Ob diese Rechnung aufgeht, muß sich noch zeigen, schließlich ist die GeForce 8800 GS als preislicher Gegenpol zur Radeon HD 3850 256MB gedacht, zu welcher nVidia erstens derzeit kein preislich passendes Gegenangebot hat und welche zum anderen auch recht erfolgreich im Markt sein soll.
Insofern wird die GeForce 8800 GS regelrecht benötigt, um für nVidia die vorhandene Marktlücke im 150-Euro-Bereich zu schließen. Auf der anderen Seite scheint nVidia der GeForce 8800 GS aber auch wieder nur eine ziemlich kurze Lebensdauer zuzugestehen, weil schon im Februat an deren Position dann die GeForce 9600 GT ins Geschehen eingreifen soll. Einige reden gar schon davon, daß es sich bei der GeForce 8800 GS schon um die erste Abverkaufsaktion an G92-Chips handelt - dies dürfte jedoch noch etwas zu früh sein, nach der schlechten Verfügbarkeit der GeForce 8800 GT zu deren Marktstart dürfte jetzt im neuen Jahr erst der richtige Verkauf der GeForce 8800 GT sowie der G92-basierten GeForce 8800 GTS anlaufen.
Trotzdem steht durchaus die Idee im Raum, der G92-Chip könnte nur ein eher kurzfristiger Lückenbüßer sein, weil ATIs Radeon HD 3800 Serie in einen Preisbereich ging, wo nVidia vor dem G92-Chip kaum etwas vorzuweisen hatte und weil nVidias eigentliche Refresh-Generation im letzten Herbst noch nicht startklar war. Denn sollte der D9P-Chip als Basis der GeForce 9600 GT bereits Direct3D 10.1 unterstützen - woran aufgrund der "GeForce9"-Namensgebung kaum zu zweifeln ist - und nVidias nächste HighEnd-Lösung ebenfalls eine "GeForce9" sein und damit Direct3D 10.1 unterstützen, würde nVidia ab dem Frühjahr Direct3D 10.1 im Mainstream- und HighEnd-Segment anbieten, nicht aber im Performance-Segment.
Sollte dies alles so eintreten, dürfte dieser Zustand dann sicherlich nur von kurzer Dauer sein, denn sobald nVidia mit ersten Direct3D-10.1-Beschleunigern antritt und in Folge dessen Direct3D 10.1 nicht mehr durch das Marketing kleinreden lassen kann ;), wird nun einmal ein vollständiges Produktprogramm unter Direct3D 10.1 benötigt - eigentlich sogar auch hinunter bis ins LowCost-Segment, da gerade dort Checklisten-Features ein wichtiges Verkaufsargument sind. Aus diesem Blickwinkel betrachtet dürfte wohl also auch der G92-Chip innerhalb weniger Monate durch einen Direct3D-10.1-fähigen Nachfolger ersetzt werden - wie gesagt wenn nVidias GeForce9-Serie wirklich schon Direct3D 10.1 bringt.
The Inquirer berichten über den schon einige Wochen zurückliegenden Tape-Out des ATI R700 Grafikchips. Bei diesem stehen demnächst wohl dessen Funktionalitätstests an, welche darüber entscheiden, ob das aktuelle Stepping schon fehlerfrei ist - oder ob nachgearbeitet werden muß. In ersterem Fall kann man laut dem Inquirer mit ersten R700-Grafikkarten im Mai rechnen, im Problemfall verzögert sich das ganze ca. zwei Monate pro neuem Chip-Stepping. Der R700 wird allgemein als Direct3D-10.1-Grafikchip in einem prinzipiellen MultiCore-Design angenommen - es werden also nicht wie bei den aktuellen Plänen zu DualChip-Grafikkarten zwei normalerweise vollkommen eigenständige Grafikchips auf eine Platine gesetzt, sondern das gesamte Grafikchip-Design ist schon von Anfang an generell auf den MultiChip-Betrieb ausgelegt.
Dies sollte es den Grafikchip-Entwicklern (auch nVidia und Intel arbeiten an ähnlichem) ermöglichen, die bekannten Nachteile von MultiChip-Designs im Grafikchip-Bereich zu reduzieren, zudem läutet der R700-Chip damit aber auch das Ende von immer größeren Einzel-Chips im Grafikkarten-Segment ein. Mittel- und langfristig dürfte die Entwicklung ganz stark in die Richtung gehen, mit mehreren kleineren Chips zu arbeiten, welche einzeln betrachtet einfacher herzustellen sind und in der Summe auch eine viel bessere Leistungs-Skalierung ermöglichen. Wo die beiden großen Grafikchip-Entwickler bisher noch drei bis vier Grafikchips derselben Generation benötigten, um die verschiedenen Teilmärkte (LowCost, Mainstream, Performance, HighEnd) abzudecken, könnte man dies zukünftig alles mit einem einzigen Chip abdecken.
Dies dürfte enorm an Entwicklungskosten vor allem in der Vorbereitung einer Produktion sparen, da letztlich nicht vier verschiedene Grafikchips für die Produktion vorbereitet werden müssen, sondern eben nur noch einer. Ob ATI mit dem R700 schon diesen radikalen Weg gehen wird, ist allerdings noch nicht abzusehen, womöglich tastet man sich eher langsam an das Thema heran. Für den mittelfristigen Einsatz denkbar wäre beispielsweise ein Modell, wo ein größerer Grafikchip das Performance- und HighEnd-Segment abdeckt und ein kleinerer Grafikchip das LowCost- und Mainstream-Segment, wobei dann je nach Leistungsanforderungen bis zu vier Grafikchips auf ein Grafikboard gepresst werden. Damit könnte man sich langsam an die Effizienz-Problematik heranrobben, welche natürlich entsteht, wenn man immer mehr Grafikchips zusammenschalten will.
News des 31.12.2007/1.1.2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
In unserem Forum sind ein paar aus Fernost stammende Benchmarks zur GeForce 8800 GS zu finden, wobei sich diese wohl auf die reguläre Version dieser Karte mit 96 Shader-Einheiten beziehen (seitens Palit sind auch Versionen mit 112 Shader-Einheiten geplant). Diese Benchmarks sehen mit einem 15prozentigem Rückstand der GeForce 8800 GS 384MB gegenüber einer GeForce 8800 GT 512MB unter DirectX9 gar nicht einmal schlecht aus, schließlich dürfte die GeForce 8800 GS auch gute 25 Prozent weniger kosten. Unter Direct3D10 sind die Unterschiede dagegen deutlich höher und gibt es einige Ausreißer nach unten hin - fast scheint es so, als das hier die geringere Speichermenge der GeForce 8800 GS das Übel darstellt, auch wenn Direct3D10-Games eigentlich auch mit "nur" 256 MB Grafikkartenspeicher zumeist gut spielbar sein sollten.
Eventuell ist diesbezüglich aber noch etwas durch den Treiber herausholbar, womöglich ist dieser auf die "krumme" Speichergröße von 384 MB und das ebenso "krumme" 192 Bit DDR Speicherinterface noch nicht gut eingestellt. Denn nicht überzeugende Direct3D10-Ergebnisse würden der GeForce 8800 GS natürlich erheblich zusetzen, immerhin kann man von einer G92-basierten Karte schließlich einen Einsatz auch unter Direct3D10 annehmen (während die meisten der heutigen Direct3D10-Mainstreambeschleuniger dafür schlicht zu langsam sind). Leider gibt es derzeit noch keine Benchmarks gegen den Hauptgegner der GeForce 8800 GS in Form der Radeon HD 3850 256MB, aber die bisher vorliegenden Ergebnisse lassen auf einen knappen Wettstreit mit einer Tendenz pro der nVidia-Karte schließen.
Seitens Expreview gibt es eine neue Meldung zu den Taktraten der kommenden ATI Radeon HD 3600 Grafikkarten auf Basis des RV635-Chips. Etwas abweichend von der Meldung von letzter Woche soll die Radeon HD 3650 mit 600/500 MHz und die Radeon HD 3670 mit 800/800 MHz antreten (Expreview gibt Speichertaktraten generell verdoppelt an, deswegen die Differenz zum Original). Da ATI anscheinend die Hardware zwischen den Grafikchips RV630 (Radeon HD 2600 Serie) und RV635 (Radeon HD 3600 Serie) nicht verändert hat (120 Shader-Einheiten, 128 Bit DDR Speicherinterface), kann ATI bei den Radeon HD 3600 Karten nur über die Taktraten einen Performance-Unterschied erzielen - was allerdings mit diesen Taktraten kaum gelingen dürfte. So taktet die Radeon HD 2600 Pro jetzt schon mit 600/400 MHz, der Nachfolger Radeon HD 3650 kommt mit nur 600/500 MHz an.
Ein ähnliches Bild gibt es eine Stufe darüber: Die bisherige Radeon HD 2600 XT GDDR3 tritt mit 800/700 MHz an, die neue Radeon HD 3670 mit 800/800 MHz - und hier ist die GDDR4-Version der Radeon HD 2600 XT noch gar nicht mit eingerechnet, welche mit 800/1100 MHz taktet. Insofern erscheinen Radeon HD 3650 und 3670 eher denn als Feature-Update zur Radeon HD 2600 Serie als denn als Performance-Update, diesbezüglich dürfte sich kaum etwas bewegen. Auf der anderen Seite hat ATI im oberen Mainstream-Bereich inzwischen die Radeon HD 3850 zu einem Preispunkt von um die 150 Euro, benötigt also bei der Radeon HD 3600 Serie nicht unbedingt den großen Performance-Schub, sondern nimmt halt nur den wirtschaftlichen Vorteil durch die kleinere 55nm-Fertigung sowie das bessere Marketing-Argument durch den Support von Direct3D 10.1 mit.
Der Heise Newsticker berichtet über die Ausführungen einer ehemaligen Mitarbeiterin des britischen Inlands-Geheimdienstes MI5 auf dem 24C3. Will man diesen glauben schenken, so ist der MI5 in die Vertuschung von Flag-False-Terror und in die finanzielle Unterstützung von Attentaten involviert - daß da nebenbei auch Journalisten mit politisch nicht genehmen Einstellungen zum Kostenpreis von 3 Millionen Pfund abgehört wurden oder aber definitive Terrorverdächtige aufgrund Führungsfehler laufen gelassen wurden, sind angesichts dessen wohl nur noch "minderschwere" Verfehlungen. Nur um das Gewicht dieser Informationen klarer zu machen: Der MI5 ist nicht die CIA, sondern ein Geheimdienst eines Mitgliedstaates der Europäischen Union, welche mittels verschiedener EU-Verträgen die grundsätzlich selben Wertevorstellungen teilen und mittels eines faktischen "EU-Außenministers" sich sogar an einer halbwegs einheitlichen Außenpolitik versuchen. Was die Briten tun, kann und wird also auch auf die anderen EU-Mitgliedsländer zurückfallen.
Und damit zu einem kniffligen Thema, den Politik-Links im Link-Bereich der täglichen News. Dazu erreichte uns kürzlich eine Mail, welche uns die Hereinnahme von Links auf Indymedia als versuchte "linksradikale" Propaganda schwer übelnahm. Um dazu auch mal öffentlich Stellung zu nehmen: Hier liegt wohl generell ein Mißverständnis vor. Speziell der Politik-Bereich der News versteht sich nicht als Zusammentragung der wichtigsten Politik-Nachrichten - das ist eher Aufgabe der Tageszeitungen und (ganz komprimiert) der TV-Nachrichten. Was wir mit den Politik-News machen, ist eher eine Zusammentragung von Links auf Themen, die in den großen Politik-Medien nur auf den hintersten Plätzen oder eben gar nicht erscheinen. Und gerade in diesem Zusammenhang ist eine Webseite wie Indymedia ausdrücklich in Schutz zu nehmen, denn zum einen erfüllt sie genau dieses Profil - und hat zum anderen den nahezu einzigartigen Vorteil, daß nahezu jeder Netzbenutzer dort ohne großen Aufwand publizieren kann.
Richtig ist natürlich, daß auf Indymedia auch Berichte von politischen Randgruppen publiziert werden - das geht bis dahin, daß mancher Artikel mit "Rot Front!" als Begrüßung anfängt ;). Allerdings tauchen Links zu solchen Artikeln auch nicht bei 3DCenter auf - sofern sofort erkennbar ist, daß der Verfasser außerhalb eines allgemein tolerierbaren politischen Spektrums steht, wird dann so etwas bei uns nicht verlinkt (genauso wie wir versuchen, Links auf Publikationen mit deutlicher DDR-Vorbelastung zu minimieren). Dies ändert aber nichts am Informationsgehalt anderer bei Indymedia zu findender Artikel - gerade da eben wirklich jeder dort publizieren kann, läßt sich diese Webseite gar nicht in eine exakte politische Färbung einordnen. Insofern möchten wir ausdrücklich zurückweisen, Indymedia wäre generell "linksradikal" - dies mag auf einige der dort anzutreffenden Verfasser zutreffen, aber auf viele andere der Indymedia-Schreiber eben auch nicht.
Natürlich ist klar, daß wir uns mit den Politik-Links jederzeit auf einem schmalen Pfad bewegen - welcher auch, der Mensch ist schließlich fehlbar, hier und da schon einmal überschritten wurde. Falls dadurch der Eindruck entstanden sein sollte, 3DCenter wolle bewußt irgendwelche linksgerichtete Propaganda betreiben, so ist dieser Eindruck erstens falsch und zweitens würden wir dann um Entschuldigung bitten. Natürlich ist eine gewisse Einfärbung einer solchen Linklistung in Sinne der politischen Überzeugung des Newsreadakteurs unmöglich zu verhindern (wer diesbezüglich etwas anderes glaubt, sollte - wie im übrigen auch der Newsredakteur zum persönlichen Quervergleich - einfach Fox News schauen). Allerdings hielten wir und halten weiterhin unsere Leser für so erwachsen genug, mit nicht zur eigenen Meinung passenden Artikeln durchaus locker umgehen zu können. Im schlimmsten Fall mag man es als Information sehen, was der "politische Gegner" denkt und welche Argumente dieser ins Feld führt - und selbst daraus läßt sich sicherlich immer noch etwas lehrreiches ziehen.