News-Archiv 31. Juli - 6. August 2006 (31. Kalenderwoche)
5./6. August 4. August 3. August 2. August 1. August 31. Juli
News des 5./6. August 2006 |
Wenn ein Hersteller für irgendeine Sache Kompatibilitätslisten zur Verfügung stellt, so ist dies erst einmal generell im Sinne des Anwenders zu begrüssen. Allerdings wirft trotzdem die reine Existenz einer GeForce 7950 GX2 Mainboard-Kompatibilitätsliste bei nVidia auch die Frage auf, wieso eine Steckkarte nach PCI Express Standard nicht einfach in jedem Mainboard mit einem solchen spezifikationsgerechten Steckplatz anstandslos funktioniert - denn das sollte sie laut Spezifikation eigentlich genau so tun. Offensichtlich ist jedoch das Gegenteil der Fall und sind die GeForce 7900/7950 GX2 Karten anscheinend nur in einer begrenzten Anzahl von Mainboards anstandslos zum laufen zu bringen ...
... Dies können wir letztlich auch aus eigener Erfahrung bestätigen, denn die unsererseits für einen Test angeforderte GeForce 7950 GX2 lief nicht in unserem Intel D925XCV Mainboard, woran nach einem entsprechenden Gegentest auch nicht das Netzteil Schuld zu haben scheint. Insofern sollte der an GeForce 7900/7950 GX2 interessierte Anwender vor einem Kauf die nVidia-Kompatibilitätsliste studieren, um zu erfahren, wie seine Chancen stehen. Sicherlich werden diese DualChip-Grafikkarten auch noch in anderen, nicht auf der Kompatibilitätsliste stehenden Mainboards funktionieren, zumindestens läßt sich mit Hilfe dieser Kompatibilitätsliste jedoch vorab herausfinden, ob man mit der Bestellung einer GeForce 7900/7950 GX2 ein Risiko eingeht oder bezüglich des Mainboards auf der sicheren Seite steht ...
... Davon abgesehen ist jenen Anwendern, welche mit einer solchen Karte liebäugeln, vorher das Studium zweier Threads unseres Forums zu empfehlen, welche sich mit dem Praxiseinsatz und -nutzen von GeForce 7900/7950 GX2 beschäftigen: No.1 und No.2. Interessanterweise scheint dabei eine gewisse Anzahl an Anwendern durchaus auf die GeForce 7900 GX2 zu setzen, welche wie schon einmal erwähnt schließlich nicht langsamer ist als die GeForce 7950 GX2, dafür aber derzeit enorm günstiger angeboten wird. Offensichtlich macht die GeForce 7900 GX2 in großen Gehäusen deutlich weniger Platzprobleme als vorab zu vermuten gewesen wäre. Derzeit sind diese Karten noch sehr gut seitens des Herstellers XFX verfügbar - allerdings dürfte dies wohl nicht ewig so weitergehen, ist diese Karte bei nVidia schließlich Auslauf und dürfte XFX auch nur die nunmehr überzähligen Modelle abverkaufen.
Wieviel wert zentral organisierte Spielserver-Landschaften bei "gewöhnlichen" Spielen letztlich sind, darf der Gamer laut einer Meldung der GameZone nunmehr bei einer ganzen Liste von inzwischen etwas älteren EA-Titeln feststellen: EA stellt hier den Server-Betrieb für die Multiplayer-Option dieser Spiele in den nächsten Monaten ein - und dies obwohl einige der Spiele noch nicht einmal deutlich älter sind als nur ein Jahr. Dies sollte man durchaus im Hinterkopf haben, wenn die Spielehersteller das nächste Mal vollmundig mit eigenen Online-Servern werben und eine freie Serverlandschaft dagegen mit dem Urheberrecht bedrohen. Nur zum Vergleich: Für das mittlerweise fünf Jahre alte Return to Castle Wolfenstein finden sich auch jetzt noch eine ausreichende Anzahl den freien Servern im Internet.
Die Telepolis schildert einen Rechtstreit, in welchem sich eine in einem Forum durch angebliche Verleumdungen verletzt fühlende Person den dortigen Foren-Betreiber auf die Herausgabe der User-Daten des angeblichen Störenfrieds verklagt hatte. Zu unserem völligen Erstaunen wurde diesem Ansinnen vor Gericht stattgegeben, wobei hier insbesondere die Formulierung auf die Herausgabe an Daten an "denjenigen, der sich verletzt fühlt" irritierend ist, stellt das hohe Gericht damit doch offen zur Schau, daß es keine Relevanz hat, ob wirklich eine Ehrverletzung stattgefunden hat oder ob dies nur eine reine Behauptung der klagenden Seite darstellt ...
... Uns würde in diesem Zusammenhang natürlich interessieren (und wir bitten gleich einmal um Entschuldigung für die Offenheit der Sprache), was man als ausgebildeter und mit einiger Berufserfahrung ausgestatteter Richter zu sich genommen haben muß, um ein solches Urteil zu fällen: Denn wie in der Urteilsbegründung selbst zugegeben, scheitert die Variante der Herausgabe der reinen IP-Adresse an die sich verletzt fühlende Person schließlich am Datenschutzrecht, welches es den Internet Providern verbietet, (ohne gerichtlicher Verfügung in Folge strafrechtlicher Ermittlungen) aus dieser IP-Adresse den Anschlußinhaber zu ermitteln ...
... Wenn man aber in der Lage ist zu erkennen, daß hier dem Auskunftsersinnen der sich verletzt fühlende Person das Datenschutzrecht zweifelsfrei gegenüber steht, so stellt sich die Frage, was dann die richterlich auferlegte Auskunftspflicht für den Anbieter des Internet-Dienstes bringen soll: Das Datenschutzrecht gilt schließlich auch für diesen, ist das Auskunftsersinnen der sich verletzt fühlende Person somit so lange nichtig, bis es nicht entweder zu einer strafrechtlichen Ermittlung kommt oder aber zumindestens in der eigentlichen Sache ein begründeter Anspruch der sich verletzt fühlende Person anerkannt wird ...
... Und dies ist wohl der Knackpunkt der ganzen Angelegenheit: Bevor nicht gerichtsfest feststeht, ob jemand wirklich beleidigt oder verleumdet wurde, kann man nicht einfach so die Rechte der Beschuldigten auf Datenschutz vorbeugend unterwandern - schließlich könnte sonst ja jeder mit dem Vorwurf der Beleidigung oder Verleumdung ankommen. Somit sehen wir dieses Urteil derzeit schlicht nur als Ausnahme an, welches über kurz oder lang von einer höheren Instanz kassiert werden wird, zumindestens aber sicherlich kaum in anderen Verhandlungen mit gleicher Thematik bestätigt werden dürfte. Womit sich letztlich wieder nur die alte Weisheit bestätigt, daß man vor Gericht und auf hoher See letztlich von Verfügungen höherer Mächte abhängig ist, jedoch zweifellos nicht auf Fairness oder gar Gerechtigung hoffen kann.
neuer Artikel |
Intels neue Prozessoren - und AMDs Antwort
Nach Intels Launch der Core 2 Duo/Extreme Prozessoren sprach eigentlich niemand mehr über AMDs Prozessor-Angebote, schien Intel zu deutlich in Front zu liegen. Doch mit absolut drastischen Preissenkungen versucht AMD, sich der drohenden Gefahr des Verlusts von wichtigen Marktanteilen gerade jetzt in einer Zeit, wo es nach der Übernahme von ATI deutlich nach vorn gehen soll, entgegenzustellen. Inwiefern AMD damit Erfolg hat und Intel eventuell ein wenig Wind aus den momentan prall gefüllten Segeln nehmen kann, versuchen wir nachfolgend zu klären ... zum Artikel
News des 4. August 2006 |
Gemäß des Heise Newstickers hat Transgaming eine Software angekündigt, welche die gleichzeitige Entwicklung von Windows- und Mac-Spielen erlaubt (Voraussetzung ist allerdings ein Intel-basierender Mac) - womit die bisher notwendige zeitaufwendige Portierung von Windows-Spielen auf den Mac entfällt, welche sich allermeisten Spieleentwickler aufgrund des doch recht überschaubaren Mac-Spiele-Marktes sowieso sparen. Ob die "Cider" genannte Software nun aber komplette Spiele-Engine, reine Entwicklungsumgebung oder automatisierte Portierungssoftware darstellt, ist derzeit noch nicht genau bekannt. Was allerdings sicherlich zweitrangig wäre, denn sofern die Cider-Software nur einigermaßen vernünftig funktioniert, dürfte dies sicherlich einen spürbaren Impuls für den Mac-Spiele-Markt geben. Langfristig ergibt sich sogar die (wenn auch kleine) Chance, den Mac - noch vor Linux - als zweite Spiele-Plattform im PC-Markt zu etablieren und somit den Microsoft-genervten und Windows-geschädigten Gamern eine Wahlmöglichkeit zu geben.
Dagegen vermelden Hard Tecs 4U, das die Playstation 4 wahrscheinlich ganz ohne optisches Laufwerk daherkommen wird, deren Inhalte dann generell nur noch über Breitbandverbindungen auf die Konsole gestreamt werden sollen. Natürlich steht die vierte Ausgabe der Sony-Konsole derzeit noch wirklich weit am Firmament, ist mit dieser Konsole angesichts der eher langen Entwicklungszyklen im Konsolen-Markt nicht vor 2010 zu rechnen - gemäß der bisherigen Playstation-Entwicklung (PS1: 1994, PS2: 2000, PS3: 2006) gar erst 2012. Insofern ist diese Meldung mit etwas Vorsicht zu genießen - nicht, daß sich dieses Szenario nicht einstellen wird, sondern eher in diese Richtung hin, als daß dies in ein paar Jahren völlig normal werden könnte ...
... Denn immerhin gehen heutige HighSpeed-Internetanbindungen auch in Europa durchaus schon in die Richtung, rein von der zur Verfügung stehenden Leistung her Medien- und Spiele-Inhalte bei Bedarf auch gestreamt anbieten zu können: So sollte im technischen Idealfall ein 2 GB großes Spiel mit einer VDSL (50 MBit/sec aka 6,25 MB/sec) in 6 Minuten auf den eigenen Rechner geladen sein - deutlich schneller läuft die Installation von CD/DVD dann auch nicht ab. Rechnet man dann noch die vergehenden Jahre bis zum Start der nächsten Playstation hinzu, ist es durchaus eine realistische Progonose, wenn man sagt, daß die potentiellen Playstation-4-Käufer zu größeren Teilen wohl bereits eine derartige HighSpeed-Internetverbindung zur Verfügung stehen haben werden ...
... Aber natürlich geht es bei dieser Einsparung des Laufwerks und damit der physikalischen Datenträger bei der Playstation 4 weniger um die damit mögliche Kostenreduzierung: Vielmehr handelt es sich zum einen um eine weitere Variante des ewigwährenden Kampfes gegen Raubkopien, zum anderen aber wird damit natürlich eine viel bessere Bindung der Kunden an den Hersteller erreicht. Dabei wird der Schutz gegenüber Raubkopien eigentlich nur indirekt durch den Verzicht auf ein optisches Laufwerk erreicht: Nicht der Zwang zur Installation über das Internet führt hierbei zum Erfolg, sondern der damit recht einfach verbindbare Zwang zur ständigen Internet-Verbindung. Letztlich will Sony also nichts anderes als das Steam-Modell wiederholen: Ein ständiger und unlimitierter Zugriff auf die Hardware der Kunden als einzige Möglichkeit, Raubkopien wirklich zuverlässig zu verhindern ...
... Im Gegensatz zu Steam, welches schließlich nur für von Valve vertriebene Software gedacht ist, läßt sich natürlich seitens Sony als dem Hersteller der Konsole regeln, daß ihre Playstation 4 dann wirklich nicht mehr ohne das Sony-eigene Steam läuft - das wäre vergleichsweise so, als würde Steam von Microsoft vertrieben und unter Windows zwangs-installiert und zwangs-gestartet. Dann liese sich wirklich kontrollieren, was der Kunde mit seiner Konsole anstellt - und dann trifft auch die Bezeichnung "Konsole", welche Sony bei der Playstation 3 noch abzulehnen versucht, auch wieder wirklich zu: Ein solches Stück Hardware wäre dann wirklich nur noch eine reine Abspielstation. Nun ist der Idee eines besseren Schutzes gegenüber Raubkopien kaum etwas zu erwidern, allerdings mißfällt die damit wahrscheinlich verbundene vollständige Unterwerfung des Kunden unter die Oberaufsicht des Konsolenherstellers ...
... Gerade bei einer Konsole dürfte es viel einfacher sein, diese technisch so auszuführen, daß jegliche Nutzergewohnheiten des Anwenders mitgeloggt und an den Hersteller übertragen werden - schließlich kann man bei einer Konsole (im Gegensatz zu einem Computer) nicht so einfach eine Übersicht darüber erlangen, welche Prozesse das System ausführt und welche Daten an wen über das Netz verschickt werden. Wobei wir hierbei den Teufel nicht unbedingt übergroß an die Wand malen wollen: Für die allermeisten Konsolen-Benutzer dürfte es wohl nicht besonders relevant sein, ob der Konsolenhersteller ihr Nutzerverhalten auswertet und gegebenenfalls diese Informationen sogar zu Geld macht - hier existieren einfach erhebliche Unterschiede im Nutzerverhalten und Anspruchsdenken zwischen den Anwendern von PCs und Spielekonsolen.
Wie nochmals der Heise Newsticker ausführt, hat ein deutscher RFID-Experte auf der Black-Hat-Sicherheitskonferenz in Las Vegas die von offizieller Seite vielbeschworene Sicherheit von mittels RFID auslesbarer ePässe vollständig ad absurdum geführt. Nach lediglich zwei Wochen Arbeit war es gelungen, die Daten eines ePasses auszulesen, zu klonen und auf einen anderen Chip zu übertragen - womit sich somit problemlos gefälschte ePässe anfertigen lassen, welche sich zumindestens von rein elektronischen Kontrollen zweifelsfrei nicht von echten Pässen unterscheiden lassen. Das nun auch noch die eigentliche Zielsetzung der besseren Fälschungssicherheit von Ausweisdokumenten mit den ePässen nicht erreicht werden kann, läßt dieses Projekt - neben der schon bekannten datenschutzrechtlichen Problematik - immer mehr zum totale (und teuren) Fiasko werden ...
... Wenn man wirklich an zusätzlicher Ausweissicherheit interessiert ist, müsste man jetzt eigentlich die weitere Einführung der ePässe stoppen, die bisher eingesetzten elektronischen Kontrollen umgehend stilllegen und sich im Zweifelsfall eine neue Technik einfallen lassen, welche dann aber wenigstens ein paar Jahre im Feldeinsatz ausgiebig getestet werden sollte. Dies sollte dabei immer eingedenk der jetzt gemachten Erfahrung passieren, wie schnell sich das aktuelle System hat knacken lassen. Abzuwarten bleibt aber, ob überhaupt eine Reaktion von offizieller Stelle kommt, welche sich schließlich auch schon in der Vergangenheit eher durch Beschwichtigungsversuche bezüglich der Sicherheit und des Datenschutzes von ePässen hervorgetan hat. Aber andererseits wäre damit eigentlich auch schon jener Personenkreis gefunden, welcher nach diesem offensichtlichen Scheitern der aktuellen ePass-Strategie die finanzielle Last hierfür zu tragen haben sollte - und zwar schlicht diejenigen, die bisher lauthals die Sicherheit des neuen Systems betont haben ;).
News des 3. August 2006 |
Ausgerechnet bei der Chip ;) ist der erste (aussagekräftigen) Test eines Core 2 Duo Prozessors mit "nur" 2 MB Level2 Cache in Form des Core 2 Duo E6300 anzufinden. Der Frage, wie sich allein der kleinere Level2-Cache auswirkt, ist man zwar nicht speziell nachgegangen, allerdings lassen sich aus den Benchmarks des original mit 1.86 GHz taktenden Prozessors sowie dessen Übertaktungsergebnissen auf 2.8 GHz im Vergleich zu den Zahlen eines E6700 mit 2.67 GHz durchaus ablesen, daß der Unterschied nicht wirklich bedeutsam sein kann. Einzig der mittels der Übertaktung natürlich erheblich hochgezogene FrontSideBus (auf FSB1600 - erstaunlich, daß dies das Mainboard so problemlos mitmachte) wäre hier noch als potentielles Gegenargument zu nennen ...
... Schöner wäre es natürlich, wenn dies irgendein Hardware-Tester wenigstens einmal genauer ermitteln könnte: Denkbar wäre hierbei der Test eines Core 2 Duo E6400 mit 2.13 GHz und 2 MB Level2 Cache sowie geringfügiger Übertaktung gegen einen Core 2 Duo E6700 mit 2.4 GHz und 4 MB Level2 Cache. Ganz ideal wäre natürlich ein Testszenario, bei welchem ein Core 2 Duo Extreme X6800 (mit freigeschaltetem Multiplikator) ohne Veränderung des FSBs auf das Takt-Niveau eines Core 2 Duo E6300 oder E6400 heruntergebracht werden würde: Dann ständen wirklich nur noch 2 MB gegen 4 MB Level2 Cache. Aber wie gesagt sind hierbei wohl nicht die großen Unterschiede zu erwarten, der kleinere Cache scheint ungefähr soviel wie eine Taktstufe (266 MHz) wert zu sein ...
... Abseits dessen bietet sich die beiden 2-MB-Level2-Cache-Prozessoren der Core 2 Duo Serie aufgrund ihrer zusätzlich niedrigen Nominaltaktraten natürlich geradezu zum Übertakten an - wie gesagt ging es im Test der Chip bis auf 2.8 GHz hoch, was die 183-Dollar-CPU auf das Leistungsniveau einer 530-Dollar-CPU hiefte. Wie üblich eignen sich natürlich wieder einmal die kleineren CPUs einer Serie für die prozentual größten Übertaktungssprünge, allerdings ergibt sich beim Core 2 Duo auch der Effekt, daß man mit den größeren Prozessoren der Serie die zumindest in absoluten Zahlen höheren Übertaktungserfolge erreichen kann, da sich nur diese Modelle auf 3 GHz Takt und mehr treiben lassen.
Bei Hot Hardware hat man sich die Energy Efficient Ausführung von AMD angesehen. Hierbei gibt es zwei grobe Gruppen: Zum einen die EE-Modelle der Prozessoren Athlon 64 X2 3800+ (2.0 GHz), 4200+ (2.2 GHz) und 4600+ (2.4 GHz), welche im Gegensatz zu ihren jeweiligen Normalausführungen eine TDP von 65 anstatt 89 Watt aufweisen, wofür AMD einen Preisaufschlag laut Preisliste von rund 15 Prozent erhebt. Und desweiteren die EESFF-Modelle, wobei "SFF" zwar für "Small Form Factor" steht, die unter diesem Label vertriebenen Prozessoren jedoch mitnichten nur für Barebone-Systeme gedacht sind oder in irgendeiner Form andere Sockel oder Komponenten voraussetzen ...
... Vielmehr gibt es dort zum einen die EESFF-Modelle Athlon 64 3500+ (2.2 GHz), Sempron 3000+ (1.6 GHz), 3200+ (1.8 GHz) und 3400+ (1.8 GHz) sowie einen Athlon 64 X2 3800+. Gemeinsam ist allen eine TDP von nur noch 35 Watt - was beim letztgenannten Prozessor durchaus eine gewisse Leistung darstellt, liegt die Normalausführung doch bei einer TDP von 89 Watt (beim Athlon 64 und Sempron 65 Watt). Auf eine offizielle Preisangabe verzichtet AMD allerdings bei den EESFF-Prozessoren, die ersten Straßenpreise ergeben jedoch einen satten Preisaufschlag von teilweise über 100 Prozent. Realisiert werden die EE- und EESFF-Prozessoren durch die Auswahl passender Prozessoren bei der Produktion: Diejenigen Modelle, welche ihr Taktziel auch bei niedrigerer Spannung als normal erreichen, werden dann halt als als "Energy Efficient (EE)" oder "Energy Efficient Small Form Factor (EESFF)" gelabelt ...
... Konkret senkt AMD die Spannung bei den EE-Modelle von 1.35 bis 1.4 Volt auf 1.2 bis 1.25 Volt, beim EESFF-Modell des Athlon 64 X2 3800+ geht es gar auf 1.025 bis 1.075 Volt herunter - und gemäß der einfachen Formel, daß die Spannungshöhe sich in quadratischer Form auf die Verlustleistung von Prozessoren auswirkt, erklärt sich somit die Möglichkeit zur drastischen Absenkung der Verlustleistung. Gemäß der Messungen von Hot Hardware bestätigt sich dies auch in der Praxis: So ergab sich zwischen "normalem" Athlon 64 X2 5000+ (2.4 GHz) und Athlon 64 X2 4600+ EE (2.4 GHz) ein Unterschied von 40 Watt in der Verlustleistung des ansonsten gleichen PC-Systems, der Athlon 64 X2 3800+ EESFF (2.0 GHz) konnte hier sogar 69 Watt Unterschied verbuchen ...
... Speziell für Systeme, welche besonders leise gekühlt werden sollen, bieten sich die EE-Ausführungen also durchaus an. Die EESFF-Ausführung machen dies zwar noch einmal besser, speziell der Athlon 64 X2 3800+ EESFF ist allerdings preislich maßlos überteuert und damit keine wirkliche Wahlmöglichkeit. Interessant sind die Prozessoren mit niedrigeren default-Spannungen theoretisch auch für Übertaktungsversuche: Allerdings kamen Hot Hardware hier mit 2.6 GHz (3800+) bzw. 2.82 GHz (4600+) nicht auf wirklich höhere Werte, als welche auch von den Standard-Modellen erreicht werden. Einen kleinen Nachteil gibt es allerdings noch: AMD bietet die EE- und EESFF-Modelle derzeit nur auf dem Sockel AM2 an, steht für diese Prozessoren also immer ein Systemwechsel an.
News des 2. August 2006 |
Seitens Tom's Hardware Guide hat ein wenig laut über den Grafikkarten-Markt nachgedacht - und ist dabei auf die Idee einer externen Grafikkarte gestoßen. Ursprünglich ist man dabei wohl von der durch diverse Gerüchte genährten Annahme ausgegangen, ATIs kommender R600-Grafikchip wäre extrem stromhungrig, womit sich eine Auslagerung der Grafikkarte in ein extra Gehäuse mit extra Stromversorgung nur für die Grafikkarte anbieten würde. Allerdings dürfte dieser mögliche Stromhunger des R600-Grafikchips wohl weitaus konventioneller zu besiegen sein: Diverse Netzteil-Hersteller arbeiten schon an extra Grafikkarten-Netzteilen für den 5,25-Zoll-Slot, was wohl die weitaus unkomplizierte Lösung darstellen dürfte ...
... Die Grafikkarte in ein extra Gehäuse auszulagern, hätte jedoch ganz andere Vorzüge: So könnte man ein und dieselbe Grafikkarte im Zweifelsfall für Desktop-Computer und Notebook benutzen. Dies hätte sogar den Vorteil, daß die HighEnd-Grafikkarte nur dann eingeschaltet wäre, wenn man sie auch wirklich benötigt - und nicht unter Windows für 2D-Aufgaben benutzt wird, dafür reicht schließlich auch eine integrierte Grafiklösung aus. Technisch ist eine solche Lösung im übrigen durchaus realisierbar, da man mittels der mit PCI Express möglichen Leitungslängen von bis zu 50,8 cm (bei PCIe x16) eine Grafikkarte auch außerhalb des eigentlichen PC-Gehäuses betreiben kann. Ob es im Consumer-Markt zu solchen Lösungen kommt, ist natürlich derzeit noch überhaupt nicht abzusehen.
Im Test bei Hardware Secrets befindet sich mit dem ECS Elitegroup RS485M-M eines der ersten Mainboards mit ATIs Radeon Xpress 1100G Chipsatz. Bei diesem setzt ATI eine laut Eigendarstellung um 33 Prozent schnellere Grafikeinheit ein - was insofern verwundert, als daß die integrierte Grafik des Radeon Xpress 1100G mit nur 300 MHz taktet (Radeon Xpress 1150G mit 400 MHz), während der Vorgänger-Chipsatz Radeon Xpress 200G hier immerhin 350 MHz Grafikchip-Takt vorzuweisen hat. Möglicherweise aber hat ATI interne Optimierungen vorgenommen, um auf diesen Performance-Sprung zu kommen - denn das ATI die Anzahl der Shader-Einheiten erhöht hat, ist eher unwahrscheinlich ...
... Radeon Xpress 200G, 1100G und 1150G basieren nach wie vor auf einer Radeon X300 Lösung, welche allerdings gegenüber der auf dem Desktop bekannten Ausführung maßgeblich abgespeckt wurde: So stellt sich die Radeon X300 auf dem Desktop als mit 4 Rendering-Pipelines, 2 Vertexshader- und 4 Pixelshader-Einheiten an einem 128bittigem DDR-Speicherinterface dar (Radeon X300 SE mit nur 64bittigem Speicherinterface), während die integrierten Grafikchips der vorgenannten Mainboard-Chipsätze hier allesamt nur 2 Rendering-Pipelines mit 2 Pixelshader-Einheiten vorzuweisen haben, die Vertexshader werden wie üblich über die CPU berechnet. Einen erheblichen Sprung nach oben dürfte es hier bei der nächsten ATI Chipsatz-Generation mit Codenamen RD600 geben, welche im kommenden Herbst ansteht und dann schon mit integrierter Radeon X600 Grafiklösung aufwarten soll.
News des 1. August 2006 |
In der gestrigen News ging es unter anderem um Intels GMA3000 Grafiklösung bzw. die Frage, ob es sich hierbei nur um einen Grafikchip oder um möglicherweise gar um zwei verschiedene handelt. Wir verneinten dies gestern noch, weil Intel selber in den Chipsatz-Spezifikationslisten nur einen Namen (nämlich ausschließlich "GMA3000") verwendet, ein White Paper (PDF) seitens Intel belehrt uns diesbezüglich aber vom Gegenteil: Danach enthalten die Business-Chipsätze Q963 und Q965 die GMA3000-Grafiklösung, im OEM-Chipsatz G965 steckt hingegen in der Tat eine GMA X3000 Grafiklösung. Dabei sind beide Grafikchips ziemlich einfach zu unterscheiden: Der GMA3000 unterstützt nur das Shader Model 2.0 und besitzt auch keinen eigenen Vertexshader, diese Berechnung wird beim GMA3000 wiederum von der CPU übernommen. Unserer Vermutung nach handelt es sich dabei im übrigen nur um eine erneut aufgebohrte Abwandlung des GMA900-Grafikchips, welcher von der prinzipiellen Architektur her identisch erscheint ...
... Dagegen stellt nur der GMA X3000 die eigentliche Neuentwicklung mit dem Support des Shader Models 3.0 sowie der "unified Shader" Architektur dar. Beide Grafikchips takten mit erstaunlich hohen 667 MHz, wobei die Anzahl der angesetzten Shadereinheiten nach wie vor nicht bekannt ist und somit noch nicht prognostiziert werden kann, ob Intel mit diesen beiden neuen Grafikchips wesentlich vorankommt gegenüber den aktuell deutlich leistungsfähigeren integrierten Grafiklösungen von ATI und nVidia. Im übrigen erklärt das vorgenannte PDF auch einen Unterschied (ob es noch weitere gibt, ist derzeit nicht klar) zwischen den Chipsätzen Q963 und Q965, über welchen sich die Intel-Webseite ansonsten ausschweigt: Der Q963 unterstützt DDR2-Speicher nur bis zu DDR2/667 und stellt somit eine LowCost-Variation des Q965 dar.
Der Heise Newsticker berichtet dagegen, daß AMD seine Marktposition bei x86 Server-Prozessoren im abgelaufenen zweiten Quartal auf immerhin 26 Prozent Marktanteil hat steigern können - dies ist sogar ein höherer Marktanteil als im insgesamten x86-Markt, wo AMD bei "nur" 22 Prozent liegt. Diese starke Stellung im Server-Markt dürfte für AMD in der kommenden Zeit von hoher Relevanz werden, lassen sich doch in diesem Teilmarkt deutlich höhere Verkaufspreise erzielen und dürfte sich für AMD damit vor allem der zu erwartenden erhebliche Umsatzschwund nach der drastischen Preisreduktion bei Desktop-Prozessoren abfedern lassen. Der Marktanteil von Intel wurden im übrigen mit 73 Prozent für den gesamten x86 Prozessoren-Markt angegeben, während sich VIA erstaunlicherweise immerhin 5,5 Prozent vom Kuchen sichern konnte (Berechnung aller Wahrscheinlichkeit nach verkauften Einheiten und nicht nach Umsätzen).
Wiederum der Heise Newsticker berichtet über die am Mittwoch startenden Black-Hat-Sicherheitskonferenz. Interessant an dieser dürften jedoch weniger die Bemühungen von Microsoft sein, Windows Vista als (wieder einmal) sicherstes Microsoft-Betriebssystem aller Zeiten zu preisen, sondern eher denn ein Vortrag der Rootkit-Forscherin Joanna Rutkowska, in welchem diese einen funktionierenden Prototypen ihres Vista-Rootkits "Blue Pill" vorführen will. Dabei will sie zum einen sämtliche Sicherheitsmechanismen von Windows Vista aushebeln - unter anderem, daß in der 64-Bit-Version nur digital signierte Kernelmode-Treiber geladen werden dürfen - und andererseits ein eigenes Betriebssystem neben dem vom Anwender benutzten Windows Vista errichten, um danach dann das vom Anwender benutzte Windows Vista in eine virtuelle Maschine abzuschieben und so kontrollieren zu können ...
... Dies hätte zur Folge, daß sämtliche Antiviren- und Antitrootkit-Programme keinerlei Chance auf Auffindung dieses "Blue Pill" Rootkits mehr hätten - weil dieser schlicht nicht auf demselben System (sondern in einer anderen virtuellen Maschine) existiert. Diese Art von Rootkit beschränkt sich dabei allerdings leider nicht auf Prozessoren mit Hardware-Unterstützung für virtuelle Maschinen (Intel "Virtualization Technology" & AMD "Pacifica"), da es schließlich auch jederzeit möglich ist, auf Prozessoren ohne spezieller Hardware-Unterstützung virtuelle Maschinen "in Software" zu errichten. Auch Windows Vista ist für dieses neue Bedrohungsszenario wohl nicht vornehmlich verantwortlich, schließlich dürfte sich die Blue-Pill-Idee prinzipiell auch unter Windows XP realisieren lassen. Schutz hiervor würden dann nur Antiviren-Programme bieten, die direkt aus dem BIOS heraus und damit noch vor dem Betriebssystem gestartet werden.
Shortcuts: Hard Tecs 4U berichten ein wenig, wie sich AMD die kommende "4x4 Plattform" vorstellt. Anscheinend will man diese nicht auf Basis der 1000-Euro-CPU Athlon 64 FX gestalten, um den Preis für die beiden hierfür notwendigen Prozessoren nicht zu sehr in die Höhe schiessen zu lassen. Bei Tom's Hardware Guide hat man sich dagegen damit beschäftigt, wie die Angebote von ATI und nVidia unter Linux funktionieren. Das Thema bekam erst kürzlich zusätzliche Würze, als bekannt wurde, daß ATI die Veröffentlichung von seitens der Community selbst geschaffener Treiber-Verbesserungen für Linux hartnäckig blockiert. Und letztlich gratuliert nochmals der Heise Newsticker zum 25. Geburtstag von MTV: Dies mag zwar wenig mit Computern und damit dem eigentlichen Thema von 3DCenter zu tun haben, ist dafür aber richtiggehend witzig geschrieben :).
News des 31. Juli 2006 |
Mittels des Catalyst 6.7 bringt ATI nunmehr eine Wahlmöglichkeit des Anwenders bezüglich des bevorzugten CrossFire-Modus in den Treiber ein, so das jener dort auch den performanteren AFR-Modus forcieren kann. Äußerst unverständlicherweise koppelt ATI diese neuen Möglichkeit jedoch an die Treiber-Einstellung "A.I. Advanced" - obwohl damit auch die allgemeine Bildqualität beeinflußt wird, was überhaupt nichts mit CrossFire zu tun hat. Insbesondere ist irritierend, daß man somit ausgerechnet CrossFire-User mit zumeist sehr potenten PC-Systemen zu einer schlechteren Filterqualität durch "A.I. Advanced" zwingt, sofern der Anwender eben die neue Möglichkeit der Forcierung des jeweiligen CrossFire-Modus ausnutzen will. An dieser Stelle angekommen, übersteigt es ehrlicherweise langsam aber sicher doch unser Fassungsvermögen ...
... War denn die Bündelung von zwingend benötigten Gamefixes an eher zweifelhafte Filter-"Optimierungen" mittels "A.I. Low" (der Standard-Einstellung) schon sehr scheinheilig, weil beides eigentlich nichts miteinander zu tun hat, schiesst ATI nunmehr mit der Verdongelung von neuer CrossFire-Wahlmöglichkeit mit schlechterer Filterqualität durch "A.I. Advanced" komplett den Vogel bezüglich demonstrativer Ignoranz gegenüber argumentativ vollkommen nachvollziehbarer Kundenwünschen ab (erstgenannte Sache gärt schließlich nicht erst seit heute). Wir können nur hoffen, daß es sich bei dieser neuerlichen Bündelung um einen bedauerlichen Fehler handelt - ansonsten hat sich ATI womöglich vom falschen Unternehmen übernehmen lassen, wäre Microsoft aufgrund deren Historie von Koppelung nützlicher mit grässlicher Features wohl die passendere Wahl gewesen ;)).
Hard Tecs 4U berichten von einer Verzögerung der neuen Intel-Chipsätze mit integriertem Grafikchip, da in diesen seitens Intel ein Fehler gefunden wurde und nunmehr mittels eines neuen Steppings "bekämpft" werden wird, was zum einem Zeitverzug bei der Auslieferung von gut einem Monat führt. Interessanterweise wird dabei jedoch nur vom G965-Chipsatz gesprochen, der Q965-Chipsatz enthält jedoch auch eine integrierte Grafikeinheit. Zwar trennen Hard Tecs 4U dies in "GMA X3000" für den G965-Chipsatz und GMA3000 für den Q965 auf, auf der Intel-Webseite findet sich jedoch kein Hinweis, daß Intel zwei regelrecht verschiedene neue Grafikchips anbietet (Update: es gibt einen Unterschied, mehr dazu morgen). Insofern wäre eigentlich davon auszugehen, daß alle Probleme, die den G965-Chipsatz mit seiner GMA3000-Grafikeinheit betreffen, auch für den Q965-Chipsatz mit der gleichen Grafiklösung relevant sind ...
... Davon abgesehen ein paar Worte zu den (derzeit) bekannten Kapazitäten der neuen GMA3000-Grafiklösung von Intel: Es handelt sich hierbei um den ersten PC-Grafikchip mit "unified Shadern", sprich ohne dedizierte Vertexshader- und Pixelshader-Einheiten. Dabei war allerdings bei diesem neuen Intel-Grafikchip (in welchem gerüchterweise einige Technik des Kyro-Entwickler ImgTec stecken soll) noch nicht die Erfüllung der Direct3D10-Spezifikation das Ziel, sondern es ging wohl in erster Linie darum, mit recht wenig Aufwand Hardware-beschleunigte Vertexshader-Einheiten zur Verfügung zu stellen. Deren Aufgabe wurde bei den früheren Intel-Grafikchips immer noch von der CPU übernommen, weil extra Hardware-Einheiten Intel als wohl wenig ökönomisch erschienen ...
... Trotz jedoch der "unified Shader" Architektur bleibt der GMA3000 ganz klar ein DirectX9-Grafikchip mit der Kapazität von maximal Shader 3.0 Berechnungen. Anders lautende Meldungen, die hier das Stichwort "Direct3D10" ins Spiel bringen, basieren unseres Wissens nach allein darauf, daß Intel beim GMA3000-Grafikchip Direct3D10 nach dessem Erscheinen Software-seitig mittels eines angepassten Treibers unterstützen wird - ähnlich wie für Direct3D10 angepasste Treiber für alle aktuellen DirectX9-Grafikkarten von ATI, nVidia und S3 erscheinen werden, ohne daß diese dadurch Hardware-technisch zu Direct3D10-Beschleunigern aufwertet werden würden. Eine Hardware-mäßige Unterstützung für Direct3D10 besitzt der GMA3000 jedoch wie gesagt nicht, dies hätte Intel wenn dann wohl bei der Vorstellung der neuen Mainboard-Chipsätze ganz entschieden für sich ins Feld geführt.