News-Archiv 2. - 8. Oktober 2006 (40. Kalenderwoche)
7./8. Oktober 6. Oktober 5. Oktober 4. Oktober 3. Oktober 2. Oktober
News des 7./8. Oktober 2006 |
Bei Hardware.Infos gibt es nun endlich ein erstes vollständiges Review der MSI GeForce 7900 GTO, welches auch die bisher fehlenden vergleichenden Benchmarks vor allem zur GeForce 7900 GTX enthält. Leider entschied man sich (unverständlicherweise), im Artikel selber nur Messungen ganz ohne Anti-Aliasing und anisotropen Filter zu veröffentlichen, allerdings enthalten die ebenfalls angebotenen Detailseiten zur GeForce 7900 GTO und GeForce 7900 GTX dann die gewünschten Werte mit 4xAA und 16xAF: Danach liegt die GTO um 18 Prozent hinter der GTX zurück, was zwar durchaus ein wertbarer Unterschied ist, angesichts des massiven Preisvorteils der GTO allerdings kaum wirklich ins Gewicht fallen dürfte. Beim Übertakten erreichte man im übrigen von 650/660 MHz ausgehend 700/861 MHz - womit bewiesen wäre, daß ein BIOS-Flash auf ein GTX-BIOS nicht zwingend notwendig ist, um die in der GeForce 7900 GTO steckenden Taktreserven herauskitzeln zu können.
Das (nach unserem Wissen) allererste Review zur Gainward Bliss GeForce 7800 GS+ haben dagegen MKVTech abgeliefert - was um so mehr verwundert, als daß diese derzeit schnellste AGP-Grafikkarte schon seit einiger Zeit auf dem Markt ist. Hinter der Gainward Bliss GeForce 7800 GS+ verbirgt sich wie bekannt erstaunliches: Anstatt des GeForce 7800 GS Grafikchips mit nur 16 Rendering-Pipelines verbaut Gainward bei dieser Karte einen regulären GeForce 7900 GT Grafikchip mit vollen 24 Rendering-Pipelines - selbst die Taktraten sind mit 450/625 MHz nahe dem Standard einer GeForce 7900 GT von 450/660 MHz. Zudem werden mit gleich 512 MB Grafikkartenspeicher mögliche Fragen über die Zukunftsfähigkeit der Karte gleich ganz aus dem Weg gegangen, die Gainward Bliss GeForce 7800 GS+ kann sich somit durchaus als einzige derzeit verfügbare HighEnd-Lösung für den AGP-Bus bezeichnen ...
... Allerdings gehen die seitens MKVTech angetrengten Benchmarks nicht all zu sehr in die Tiefe und vergleichen die Gainward-Karte nur mit diversen regulären bzw. übertakteten GeForce 7800 GS Modellen, welche natürlich nominell keine Chance gegen diese GeForce 7900 GT auf AGP haben sollten. Viel interessanter wäre hier durchaus einmal der Vergleich gegen eine Radeon X850 XT-PE gewesen, welcher schließlich schon zum Start der GeForce 7800 GS nachgesagt wurde, trotz ihres Alters gegen diese bestehen zu können. Davon abgesehen überrascht der recht geringe Abstand der Gainward Bliss GeForce 7800 GS+ gegenüber einer stark übertakteten GeForce 7800 GS von eVGA mit 460/675 MHz Takt: Bei (natürlich nicht wirklich relevanten) Messungen ohne Anti-Aliasing lag da teilweise schon einmal die eVGA-Karte vorn ...
... Aber auch bei den Messungen unter 4x Anti-Aliasing kommt uns die Differenz von nur 9 Prozent zugunsten der Gainward-Karte erstaunlich gering vor - was durchaus die Frage aufwirft, wo denn hier die nominell 46 Prozent höhere Rohleistung gegenüber der eVGA-Karte geblieben ist. Möglicherweise sind wir also in unserer Beurteilung dieser Gainward-Karte (mangels verfügbarer Tests) bisher zu optimistisch gewesen und ist diese Karte nicht so viel schneller als übertaktete GeForce 7800 GS Karten, wie man dies angesichts des Chipsatz-Unterbaus eigentlich erwarten konnte. Als kleines Trostpflaster kann die Gainward-Karte natürlich zumindestens die besseren Übertaktungsfähigkeiten des 90nm-Chips G71 ausspielen, zumindestens in dieser Disziplin dürften die in 110nm gefertigten G70-Chips der regulären GeForce 7800 GS nicht mehr mithalten können.
Wiederum einen erstaunlich kritischen Bericht zum meistens eher haushoch gehypten Windows Vista gibt es bei Golem, welche sich im zweiten Teil ihrer Vista-Artikelserie unter anderem mit verschiedenen Schwächen des neuen Betriebssystems bei der Rechteverwaltung beschäftigen. Diese dürfte, wenn Microsoft in der Final-Version des Betriebssystems jene ähnlich restriktiv auslegt wie in den vorliegenden Betas, die Vista-Nutzer durchaus übel ärgern mit einer deutlichen Zunahme an Warnmeldungen (Beispiel) bzw. vielen Eigenmächtigkeiten von Windows Vista, wo der Anwender auf dem eigenen Betriebssystem also nicht mehr vollständige Verfügungsgewalt hat. Insbesondere scheint Microsoft die Anwender zur Microsoft-eigenen Auffassung einer Dateiordnung zwingen zu wollen - jegliche Versuche, sich dem zu verwehren, werden mit unzähligen Warnmeldungen oder aber gleich vollständiger Blockade abgewehrt ...
... Dabei kann man durchaus darüber streiten, ob eine Dateiverwaltung nach vermehrt logischen Gesichtspunkten wie unter Windows Vista (strikte Trennung von Programmen und Daten, dazu Nutzung von versteckten virtuellen Ordnern und Überwachung der Ordnerstruktur) wirklich besser ist als eine nach physikalischen (der physikalische Installationspfad ist entscheidend) - denn gerade im Crashfall oder bei Backup-Aufgaben bewährt sich die althergebrachte Lösung immer wieder, ganz und gerade für eher unerfahrene User (welche versteckte Ordner in Systemtiefen nun einmal einfach nicht finden). Möglicherweise aber werden mit Windows Vista alternative Dateimanager etwas populärer, da wir mal annehmen, daß sich inbesondere erfahrere User nicht unbedingt von Microsoft vorschreiben lassen wollen, wie sie ihre Dateien ordnen. Neben dem von Golem erwähnten Total Commander wollen wir hierbei noch Directory Opus erwähnen, welches vom Funktionsumfang (inklusive Konfigurationsmöglichkeiten) und auch der Performance deutlich schneller als der Windows Explorer ist.
News des 6. Oktober 2006 |
Auf der chinesichen Webseite Coolaler (maschinelle Übersetzung ins englische) gibt es den scheinbar ersten Test einer MSI GeForce 7900 GTO, welche ja derzeit vom Preis/Leistungsverhältnis her den Markt ziemlich aufmischt. Bezüglich der Performance-Einordnung der Karte ist diesem Test zwar nichts zu entnehmen, da nicht gegen eine GeForce 7900 GTX getestet wurde, dafür aber beschäftigte man sich intensiv mit dem Thema der Übertaktung: So erreichte man mit der original auf 650/660 MHz antretenden Karte aus dem Stand heraus eher unterdurchnittliche 700/700 MHz. Dies ist allerdings eher verwunderlich, wird doch die MSI-Karte mit denselben 1.1ns Speichern ausgeliefert, welche auch bei der GeForce 7900 GTX ihren Dienst tun. Clevererweise griff man allerdings zu einem - nicht modifiziertem - BIOS einer GeForce 7900 GTX und flashte dies in die GeForce 7900 GTO ...
... Und voilà: Plötzlich waren es 720/860 MHz, welche die Karte ohne Spannungszugabe realisieren konnte. Zwar kann man dieses Ergebnis kaum verallgemeinern - Nutzer der GeForce 7900 GTO berichten teilweise davon, 800 MHz Speichertakt auch im Originalzustand erreicht zu haben - aber dennoch deutet sich hier an, daß das BIOS der GeForce 7900 GTO mit einer deutlich niedrigeren Speicherspannung operiert, womit natürlich der Abstand zur GeForce 7900 GTX gewahrt bleiben soll. Ob es sich allerdings allgemein lohnt, das BIOS einer GeForce 7900 GTO auf GTX zu flashen, wollen wir damit nicht sagen: Je nach Karte wird der Gewinn an Taktfrequenz möglicherweise geringer sein, außerdem sollte man immer die Risiken eines BIOS-Flashs bei einer Grafikkarte und den damit automatisch verbundenen Garantieverlust bei der eigenen Entscheidung mit einbeziehen.
Eine kleine, aber feine Untersuchung bezüglich des möglichen zusätzlichen Strombedarfs durch die 3D-Oberfläche von Windows Vista hat der Tech Report angestellt. Aufgrund der Nutzung der 3D-Fähigkeiten der Grafikkarte konnte man bisher vermuten, daß diese auch unter der 3D-Oberfläche von Windows Vista möglicherweise im stromfressenden 3D-Modus läuft - was aber offensichtlich nicht so ist, da der Tech Report bei seinen Strommessungen keinen diesbezüglichen Unterschied zwischen der 2D- und der 3D-Oberfläche von Windows Vista feststellen konnte. Damit gehen wir einfach mal davon aus, daß 3D-Grafikkarten auch bei der Darstellung der 3D-Oberfläche von Windows Vista in ihrem üblichen 2D-Betriebsmodus bleiben und demzufolge im normalen Office-Betrieb ohne Lüfterlärm und Erhöhung der Stromrechnung auskommen können.
Dagegen droht von anderer Seite Ungemach für Windows Vista - und das sogar noch in der eigentlichen Paradedisziplin, der Spielefähigkeit. Denn wie The Inquirer berichten, soll Microsoft die Spieleindustrie gewarnt haben, daß Windows Vista die gleichen Spiele ca. 10 bis 15 Prozent langsamer als Windows XP darstellen würde, der Grund dafür soll in der ständig mitlaufenden 3D-Oberfläche liegen (welche nach bisherigem Kenntnisstand unter Vollbild-Anwendungen allerdings eigentlich deaktiviert wird). Sollte diese Aussage korrekt sein - und momentan kann dies angesichts der Quelle niemand wirklich bestätigen - wäre dies natürlich ein Hammer und dürfte, sofern dies die großen PC-Magazine schlagzeilenträchtig in die Welt verbreiten, auf die Verkäufe von Windows Vista unter Spielern doch einen gewissen Einfluß haben ...
... Einschränkenderweise muß natürlich dazugesagt werden, daß dieser angebliche Performance-Hit wenn dann nur für bisherige DirectX9-Titel ohne eigenen Render-Pfad für Windows Vista zutreffen kann. Bei der Nutzung von Direct3D10 sollte sich eigentlich ein vollkommen umgekehrter Effekt einstellen, schließlich wird die neue 3D-API unioso als besser bzw. einfacher für die Spieleprogrammierer beschrieben. Auch besteht durchaus die Hoffnung, daß man durch das komplette Abschalten der 3D-Oberfläche von Windows Vista das Problem umgehen könnte - ob dieser theoretische Gedankengang allerdings in der Praxis funktioniert, kann derzeit wohl nur Microsoft selber bestätigen.
Shortcuts: Die ComputerBase berichtet von zwei neuen AGP-Grafikkarten seitens Sapphire: Mittels Radeon X1300 XT und Radeon X1650 Pro für AGP lehnt man sich zwar nicht all zu weit aus dem Fenster, aber immerhin gibt es hiermit überhaupt mal wieder ein paar Neuerscheinungen für den AGP-Bus. TweakPC berichten von weiteren Rückrufen für Sony-Akkus: Diesesmal trifft es Hitachi, selbst wenn es sich konkret nur um 16.000 ausschließlich auf dem japanischen Markt abgesetzte Modelle handelt. Gemäß des Tech Reports verkauft nun auch eVGA GeForce 7900 GTO Grafikkarten - wenngleich bislang scheinbar nur in Nordamerika, für Europa scheint MSI weiterhin der Exklusivanbieter zu sein. Und letztlich berichtet die FiringSquad noch über einen seitens ATI geplanten neuen Anti-Aliasing Modus. In welche Richtung dieser gehen wird, ließ ATI aber noch vollkommen offen - so daß derzeit auch nicht sicher ist, für welche Karten der neue Modus dann zur Verfügung stehen wird.
News des 5. Oktober 2006 |
Seitens DailyTech sind neue (angebliche) Spezifikationen zum G80-Chip von nVidia bzw. den beiden (angeblich) darauf basierenden Grafikkarten GeForce 8800 GTX und GeForce 8800 GTX aufgetaucht. Die Quelle scheint allerdings dieselbe zu sein, von welcher Ende September schon einmal ähnliche Informationen ins Netz flossen, da sich einige der Daten gleichen. Nichts desto trotz erscheinen uns die gemachten Angaben weiterhin als schwer unglaubwürdig bis hin zu nach menschlichem Ermessen falsch: So wird nVidia nach einiger Aussage beim G80-Chip noch nicht auf unified Shader-Einheiten setzen. Diese Funktionalität will man rein in Software (per Treiber) zur Verfügung stellen, in Hardware soll es aber weiterhin die Unterscheidung zwischen Vertexshader- und Pixelshader-Einheiten geben ...
... Insofern ist es unklar, wieso DailyTech hier mit fester Stimme von gleich 128 unified Shader-Einheiten beim G80-Chip berichten - die Diskrepanz zu den eigentlich allgemein bekannten nVidia-Aussagen bezüglich unified Shader-Einheiten müsste doch eigentlich auffallen. Aber auch insgesamt fäll es schwer, diesen "Spezifikationen" zu glauben: Die 128 Shader-Einheiten wäre eine äußerst massive Steigerung gegenüber dem G71-Chip, selbst wenn man diesen ausnahmsweise mal mit 48 Shader-Einheiten rechnen würde (der G71-Chip hat pro Pipeline zwei Shader-Einheiten, welche allerdings nur in seltenen Fällen gleichzeitig eingesetzt werden können) ...
... Selbst bei einer deutlichen Vereinfachung der Shader-Einheiten, welche durch den Sprung auf das Shader Model 4 und gleichzeitig durch den Wechsel auf unified Shader eigentlich nicht möglich erscheint, ist der berichtete Sprung doch viel zu groß - auch angesichts der Taktfrequenz der Shader-Einheiten von angeblich 1350 MHz. Zwar soll der Grundtakt einer G80-Grafikkarte bei nur 575 MHz liegen, doch da die Shader-Einheiten den Großteil des Chips einnehmen, wäre jener Grundtakt nicht mehr die wichtigste Takt-Kenngröße ...
... Und seien wir ehrlich: Wer kann sich für den nächsten Monat einen Grafikchip mit 128 unified Shader-Einheiten bei 1350 MHz vorstellen, wenn die aktuellen Maximal-Größen hier bei 56 Shader-Einheiten bzw. 650 MHz Takt liegen? Und das ganze wie gesagt ohne den Vorteil einer neueren Fertigungstechnologie! Wenn, dann sind diese Spezifikationen nur möglich, wenn nVidia etwas völlig anderes gebaut hat als bisher bekannt ist, wenn die 128 sogenannten Shader-Einheiten nichts mit Shader-Einheiten im bisherigen Sinn zu tun haben. Diesbezüglich müssen wir uns schlicht überraschen lassen, für den Augenblick klingen die genannten Spezifikationen jedoch nicht glaubwürdig.
Zu den Übernahmegerüchten bezüglich nVidia & Intel wäre noch hinzuzufügen, daß Yahoo in ihrer diesbezüglichen Meldung vom Mittwoch den Inhalt des Übernahmegerüchts genauer wiedergeben als andere Quellen: Danach sollte Intel im Laufe des 4. Oktober eine Aquisitation bekanntgeben. Was im übrigen noch nicht einmal aussagt, daß damit überhaupt nVidia gemeint ist - dies scheint eine reine Spekualtion der Börse gewesen zu sein. Aber in jedem Fall ist der genannte Zeitrahmen nun inzwischen verstrichen, womit die (sowieso schon sehr niedrige) Wahrscheinlichkeit dieses Gerüchts in den freien Fall übergeht.
Die ComputerBase hat eine hübsche Übersicht über die kommenden K8L-basierenden Prozessoren: Danach wird AMD den im dritten Quartal 2007 zu erwartenden verbesserten K8L-Kern in allen Marktsegmenten und damit von Single- bis zu QuadCore-Prozessoren einsetzen. Dabei bleibt man bei den bisherigen 512 kB Level2 Cache pro Core, dafür gibt es aber ab dem Mainstream-Segment zusätzlich 2 MB Level3-Cache pro Prozessor. Ob sich dieser allerdings großartig auswirken wird, bleibt noch stark abzuwarten, schließlich sind die AMD-Prozessoren im Gegensatz zu den Intel-Boliden nicht so extrem auf große Cache-Bausteine angewiesen, zudem dürfte natürlich der Level3-Cache bei AMD auch nicht ganz so gut wie der Level2-Cache an den Prozessor angebunden sein.
News des 4. Oktober 2006 |
Hard Tecs 4U berichten von Börsengerüchten, wonach Intel eventuell an eine Übernahme von nVidia denken würde, was in der Folge die nVidia-Aktie am Mittwoch um 10 Prozent teurer werden ließ. Leider läßt sich derzeit kaum ermitteln, wie ernsthaft die vorgenannten Gerüchte gemeint sind oder ob es sich nur um eine der typischen Börsenspekulationen handelt, die hin und wieder vorkommen. Sicherlich gibt es handfeste Anhaltspunkte, welche eine Übernahme von nVidia durch Intel nahelegen, welche beispielsweise hier dargelegt sind. Andererseits spricht gegen einen solchen Schritt Intels, daß eine Übernahme von nVidia derzeit kaum "freundlich" über die Bühne zu bekommen sein dürfte, da nVidia deutlich auf seiner Selbstständigkeit besteht ...
... Schon für die freundliche Übernahme von ATI hatte AMD mit rund 5,4 Milliarden Dollar aber immerhin 24 Prozent mehr als den seinerzeitigen Börsenwert hinlegen müssen, eine feindliche Übernahme von nVidia dürfte also wesentlich teurer werden als der derzeitige Börsenwert des Unternehmens von 11 Milliarden Dollar angibt. Und sofern Intel tatsächlich stärker im Grafikchip-Markt mitmischen wollte, kostet die Ausweitung der eigenen diesbezüglichen Entwicklung doch sicherlich erheblich weniger als 11 Milliarden Dollar ;). Derzeit spricht die Mehrzahl der Punkte also eher gegen eine solche Übernahme - und aus Sicht des Konsumenten wäre es sowieso so etwas wie ein GAU, weil dann Koppelangebote aus CPU, Chipsatz und Grafikchip sowie zueinander inkompatible Hardware-Entwicklungen der (dann) beiden großen Blöcke am Markt langfristig kaum noch zu verhindern wären.
Wie u.a. Orthy berichten, könnte die kommende Rundfunkgebühr für internetfähige PCs auch auf Geldautomaten zutreffen, da sich in diesen zumeist auch ein ans Internet angeschlossener PC befindet. Ob die GEZ allerdings für dieserart Geräte Rundfunkgebühren eintreiben wird, ist damit noch nicht gesagt, denn bisher scheint die diesbezügliche Berichterstattung allein nur auf einer Abhandlung seitens der IHK Frankfurt zu beruhen, welche diesen Fall selber nur als theoretische Möglichkeit beschreibt. In jener Abhandlung werden aber auch andere Fälle aufgezählt, wo teilweise Rundfunkgebühren auf Geräte zukommen, bei welchen zweifelsfrei kein Rundfunkempfang möglich ist - wie etwa bei Webservern. Bei diesen (wie auch im Fall der Bankautomaten) ist allerdings vorstellbar, daß jene über die exakte Definition der Gebührenpflicht aus dieser herausfallen könnten: Denn bezieht sich die Gebührenpflicht explizit auf Personal Computer (PCs), würden damit Bankcomputer und Webserver nicht gebührenpflichtig werden können.
Shortcuts: Nachdem Fujitsu schon einen Rückruf von Notebook-Modellen mit Sony-Akkus in Vorbereitung hat, denkt nun auch das europäische Fujitsu-Jointventure Fujitsu-Siemens über ähnliches nach - ohne allerdings sich hierzu bereits festgelegt haben, wie Golem berichten. Hewlett Packard (HP) will dagegen seine Modelle mit Sony-Akkus nicht umtauschen - angeblich sei man von der Problematik nicht betroffen, wie The Inquirer wie üblich reißerisch vermelden. Die X-bit Labs berichten hingegen von der PCI Express Validierung der ATI-Chips RV535, RV560 und RV570. Der RV535-Chip stellt die Basis für die kürzlich releaste Radeon X1650 Pro dar, während RV560 (Radeon X1650 XT) und RV570 (Radeon X1950 Pro) für diesen Monat (exakt: 17. Oktober) erwartet werden.
News des 3. Oktober 2006 |
TweakPC haben ein paar weitere Details zu nVidias anscheinend im November anstehenden Direct3D10-Beschleuniger G80, auch wenn die Quelle dieser Informationen nicht offengelegt wurde und somit nicht klar ist, ob es sich hierbei letztendlich um Gerüchte oder Unter-der-Hand-Infos handelt. Dabei sind die gemachten Angaben von 500 Millionen Transistoren bei einem Chiptakt von maximal 650 MHz durchaus griffig - im Gegensatz zu einigen früheren, eher fanatastisch anmutenden Dichtungen der Gerüchteküche. Da nVidia den G80-Chip wie schon die bisherigen HighEnd-Chips in 90nm bei TSMC fertigen lassen wird, kann man nebenbei die Verlustleistung des G80-Chips durchaus schon aus den Werten des G71-Chips hochrechnen ...
... Irgendwo im Rahmen von 150 Watt sollten sich demzufolge G80-Boards bewegen - was passabel auf die weitere getroffene Aussage zutrifft, G80-Boards würden bezüglich Leistungsaufnahme und Temperatur auf dem Niveau einer GeForce 7950 GX2 liegen, denn jene gibt nVidia offiziell mit 143 Watt Verlustleistung an (laut den X-bit Labs sind es aber eher nur 110 Watt). Aus der Transistorenmenge läßt sich leider jedoch noch nicht auf die Anzahl der Shader-Einheiten bzw. Rendering-Pipelines schließen, da der G80-Chip schließlich schon die Shader-Version 4 (ab dieser Version entfällt das bisher noch übliche ".0") unterstützt und man demzufolge nicht einfach mehr anhand des 24-Pipelines-Chip G71 mit seinen 278 Millionen Transistoren hochrechnen kann.
In einem Newsletter seitens des WineHQ wird die hochinteressante Anmerkung gemacht, daß man eventuell - das seitens Microsoft bekanntermaßen auf Windows Vista beschränkte - Direct3D10 mittels des Wine-Projekte auch wieder auf Windows XP übertragen könnte. Dabei geht man davon aus, daß Direct3D10 sowieso mittels Wine auf Linux übertragen werden wird, was dann den Weg zurück auf Windows XP mit vergleichsweise geringem Aufwand realisierbar machen würde. Bislang ist das natürlich eher nur laut gedacht seitens der Wine-Entwickler - schon allein eine Übertragung von Direct3D10 auf Linux wäre ein mittleres Wunder, ist doch Direct3D10 seitens Microsoft noch extra an ein neues Treibermodell gebunden, was auch die (einfache) Integration in Windows XP unmöglich macht ...
... Auch ist natürlich nicht gegeben, daß die Wine-Macher und ebenso TransGaming als Vertreiber der kommerziellen Wine-Abwandlung Cedega ihre Direct3D10-Versuche unter Linux mit einer letztendlich Windows Vista entsprechenden Performance hinbekommen werden - davon, wieviel später das alles gegenüber Windows Vista erfolgen wird, gar nicht geredet. In unserem Forum finden sich diesbezüglich auch entsprechende Widerworte, daß die Wine-Entwickler den Aufwand für die Integration von Direct3D10 ernsthaft unterschätzen. Nichts desto trotz ist die Theorie selber sicherlich haltbar - ob sie allerdings jemals zu einer zufriedenstellenden Ausführung kommt, ist dagegen ernsthaft zu bezweifeln.
Laut dem Planet 3DNow! erwarten Börsen-Analysten ein Ende der Preisschlacht bei PC-Prozessoren, demnach sollen für die nächsten Monate keine größere Preisnachlässe seitens AMD und Intel mehr anstehen (was prinzipiell passt). Allerdings basiert die Annahme, AMD und Intel hätten zuletzt eine Preisschlacht ausgefochten, sowieso auf der falschen Einschätzung der letzten Preissenkungen: Intel hat dabei nämlich nur die Pentium-Prozessoren soweit im Preis gesenkt, als daß man diese bedenkenlos abverkaufen kann, womit gleichzeitig an der Preis- und Leistungsspitze Platz gemacht wurde für die neuen Core 2 Duo/Extreme Prozessoren. Mit einer echten Preissenkung hat das allerdings wenig zu tun, schließlich kosten die für den jweiligen Markt angebotenen Intel-Modelle immer noch genauso viel wie vorher - nur gibt es nun eben andere Prozessoren dafür ...
... AMD hingegen hat die Preise in der Tat maßlos gesenkt, ohne dafür neue Modelle in den Markt zu schicken. Dies war aber ein singuläres Ereignis, welches nur zum Ausgleich der neuen Preis/Leistungsstruktur bei Intel vorgenommen wurde. Mit einer Preisschlacht hat das wenig zu tun - dies wäre ein Zustand, wenn sich die Prozessorenhersteller über Monate bei denselben Produkten immer wieder mit neuen Preisnachlässen zu unterbieten versuchen. Gerade das für eine Preisschlacht typische Merkmal, daß die durchschnittlichen Absatzpreise sinken, ist zumindestens bei Intel jedoch nicht eingetreten - eher im Gegenteil, die Prozessoren der Core-Prozessorenarchtektur dienen Intel natürlich nun dazu, die durchschnittlichen Prozessorenpreise zu stablisieren bzw. wieder etwas nach oben zu bringen.
Laut der DigiTimes kommt der verbesserte K8L-Core seitens AMD nun doch schon im dritten Quartal 2007, womit die Mannen von Orthy also Recht hatten mit ihrer seinerzeitigen Einschätzung der Lage - oder auch einfach nur Glück, je nachdem wie man es betrachten mag ;). Aus einer weiteren Meldung der DigiTimes wird zudem klar, daß auch der neue Sockel AM3 ursprünglich schon für das nächste Jahr angesetzt war, AMD diesen nun aber auf 2008 verschiebt. Jene Verschiebung betrifft jedoch nicht den K8L-Prozessor, welcher weiterhin für 2007 ansteht und damit noch auf dem Sockel AM2 debütieren wird ...
... Im genauen wird es allerdings der Sockel AM2+ sein, wobei der Unterschied in der Version des HyperTransport-Protokolls liegt: Der Sockel AM2 unterstützt Version 2.0, AM2+ & AM3 werden dann Version 3.0 unterstützen. Da die Prozessoren mit einer höheren HyperTransport-Version allerdings eigentlich auch in Mainboards mit niedrigerer HyperTransport-Version funktionieren sollten, ergibt sich eine gewisse Chance, daß der K8L-Core (nach BIOS-Updates) auch auf heutigen AM2-Mainboards seinen Dienst tut. Dies ist allerdings kein Automatismus, denn durch die Veränderungen an der CPU selber kann sich auch problemlos die Situation ergeben, daß man für den K8L trotz des gleichen Sockels auf neue Mainboards umsteigen muß.
Shortcuts: Wie deferred Power ausführen, hat Intel weitere Grafikchip-Designs von ImgTec (PowerVR-Chips) lizensiert. Diese sind natürlich in erster Linie für den Mobile-Markt erstellt worden, könnten aber auch zukünftig bei der Entwicklung der nächsten Intel-Grafikchips eine gewisse Rolle spielen. So wie es aussieht, handelt es sich dabei im übrigen primär um das SGX-Design, hinter welchem sich die DirectX9-fähige PowerVR Series 5 verbirgt. Ab 2008 soll es bei AMD bereits erste Prozessoren mit integrierter Grafikeinheit geben, wie die X-bit Labs in Berufung auf einen AMD-Sprecher vermelden. Inwiefern dabei jedoch auch entsprechend leistungsfähige Grafikchips in die CPU integriert werden oder ob dies nur eine Methode ist, OEM-Grafikchips noch günstiger herzustellen, ist derzeit noch vollkommen ungewiß. Und letztlich soll es die PhysX-Karten von Asus und BFG gemäß einer Meldung des Planet 3DNow! demnächst auch für den PCI Express x1 Steckplatz geben.
News des 2. Oktober 2006 |
Die DigiTimes haben einen aktualisierten Releasezeitpunkt für nVidias Direct3D10-Chip G80 anzubieten: Mitte November soll es laut Auskunft (nicht genannter) Grafikkarten-Hersteller dann soweit sein. Den weiteren Ausführungen, daß der Release des G80-Chips noch vor Windows Vista ein eher symbolischer Schritt sei und daß sich das G80-Geschäft erst mit Windows Vista ergeben wird, wollen wir allerdings nicht folgen: Gerade die allererste Direct3D10-Generation wird noch in sehr hohem Maße auf Windows XP eingesetzt werden - dessen dürften sich auch ATI und nVidia bewußt sein. Und selbst der Einsatz unter Windows Vista bedeutet noch lange nicht, daß auch die eigentliche Funktionalität von Direct3D10 genutzt wird, dafür fehlt es auf kurz- und mittelfristiger Sicht schlicht an entsprechender Software. Insofern ist anzunehmen, daß ATI und nVidia ihre kommenden Beschleuniger weiterhin noch eher in Richtung von bestmöglicher Leistung unter DirectX9-Software vermarkten werden - die Möglichkeit, auch Direct3D10-Software nutzen zu können, kann man eher denn als hübschen Bonus ansehen, der irgendwann in der Software-Zukunft mal relevant werden wird.
Bei Hexus hat man sich mit der Performance von SLI & CrossFire ohne SLI-Bridge bzw. ohne CrossFire-Kabelei beschäftigt, wo also der Datenverkehr zwischen den beiden Karten über die regulären PCI Express Steckplätze läuft und dort damit natürlich etwas Bandbreite in Beschlag nimmt. Im Gegensatz zu früheren ähnlichen Messungen ermittelten Hexus dabei teilweise recht ansehnliche Unterschiede: Die GeForce 7900 GS verlor im Schnitt 23 Prozent, wenn man keine SLI-Bridge einsetzte, während eine Radeon X1900 XT ohne CrossFire-Verkabelung 20 Prozent verlor. Dabei traten speziell unter der ATI-Karte zwar sehr Spiel-bezogene Differenzen auf (Far Cry und Quake 4 schlugen sehr stark aus, Splinter Cell 3 fast überhaupt nicht), in der Summe ist der Aufbau eine SLI/CrossFire-Systems ohne korrekte Verbindung der beiden Grafikkarten jedoch nicht zu empfehlen. Allenfalls bei absoluten LowCost-Lösungen könnte der Performance-Unterschied geringer sein - aber bei diesen lohnen sich SLI bzw. CrossFire natürlich auch wieder nicht.
Bei den X-bit Labs hat man sich mit der aktuellen Gaming-Performance von Windows Vista beschäftigt. Wenngleich von dem neuen Betriebssystem derzeit nur Betas bzw. Release Candidates vorliegen und man dementsprechend zur finalen Version noch einige Verbesserungen erwarten kann, ist ein solcher Vergleich trotzdem schon recht interessant, will Microsoft die finale Version von Windows Vista immerhin noch dieses Jahr fertigstellen - was weniger als drei Monate Zeit zur weiteren Arbeit an Windows Vista sind. Ob diese Zeit ausreichend ist, darf allerdings schon einmal bezweifelt werden, denn schon allein bei der reinen Spiele-Kompatibilität schlug sich das neue Betriebssystem sehr mäßig: Die X-bit Labs konnten hier eine ganze Reihe von aktuellen A-Titeln vorzählen, welche unter Windows Vista Probleme machten oder gleich gar nicht starteten ...
... Ähnlich schlecht fielen die Performance-Messungen unter den verbliebenen startbaren Titeln aus: Dort liegt Windows Vista regelmäßig mit heftigem Abstand hinter vergleichbaren Messungen unter Windows XP zurück. Je schneller die Grafikkarte regulär einzuordnen ist, desto größer waren gar die Abstände, sprich: Während eine Radeon X1900 GT unter Windows Vista um ca. 20 Prozent zurückhängt, büßt eine Radeon X1950 XTX dagegen schon ca. 35 Prozent an Performance gegenüber Windows XP ein. Zwar fehlen derzeit noch entsprechende Meßergebnisse von nVidia-Grafikkarten, allerdings muß bei diesen hohen Differenzen wohl davon ausgegangen werden, daß diese nicht ganz unähnlich ausfallen werden. In der Summe kann man getrost sagen, daß sich Windows Vista derzeit noch überhaupt nicht zum Spiele-Einsatz eignet ...
... Natürlich ist zu erwarten, daß sich mittels der weiteren Arbeit am neuen Betriebssystem sowie performanterer Treiber seitens ATI und nVidia der Rückstand zu Windows XP über kurz oder lang egalisieren lassen wird. Allerdings ist es aufgrund der Kürze der Zeit zum angepeilten Launch von Windows Vista noch in diesem Jahr eher zu bezweifeln, daß zu diesem Termin die genannten Probleme vollständig beseitigt werden können. Dies wiegt um so schwerer, als daß nach den vielen Feature-Abspeckungen seitens Microsoft Windows Vista eigentlich nur noch für den Gamer wirklich bedeutsame Neuerungen mit sich bringt, die meisten der anderen neuen Features mehr denn in den Rahmen eines weiteren Service Packs für Windows XP gepasst hätten. In dieser Beziehung erwirbt sich Microsoft schlechte Noten, wenn ausgerechnet die Gaming-Fähigkeiten von Windows Vista zu diesem schon sehr späten Zeitpunkt (mit dem Releasetermin schon im Blick) derzeit immer noch eher mau ausfallen.
Mit einer Reihe von weiteren Artikeln zur Performance des Kentsfield-Cores (Liste) läßt sich ein bißchen tiefer blicken ob der Stärken und Schwächen von Intels ersten QuadCore-Prozessor, welcher zum Endes des Jahres in Form des Core 2 Extreme QX6700 in den Markt kommen wird. Alle Benchmarks wurden dabei auf dem IDF unter der Beobachtung von Intel-Ingenieuren auf einem seitens Intel gestellten Testsystem durchgeführt - und da auf diesen keine zusätzliche Software installiert werden durfte, bleibt die Breite der Benchmarks weiterhin arg im Rahmen. So vermissen wir weiterhin weitergehende Spiele-Benchmarks als nur den 3DMark06 - welcher allerdings unter seiner Standardeinstellung, welche noch nicht einmal Anti-Aliasing umfasst, trotzdem den klar geringsten Performancegewinn durch QuadCore aufzeigte ...
... Einschränkenderweise muß man hier dazusagen, daß die unioso ausgemessenen 7 Prozent Vorteil zugunsten des Kentsfield-Cores natürlich unter einer niedrigeren Taktfrequenz von "nur" 2.66 GHz erreicht wurden, während der üblicherweise zum Vergleich herangezogene Core 2 Extreme X6800 hier natürlich mit gleich 2.93 GHz antrat. Taktbereinigt dürfte der QuadCore-Prozessor also vielleicht 15 Prozent vorn liegen - nicht viel, aber immerhin wertbar. Allerdings muß auch erwähnt werden, daß Intel zumindestens anfänglich mit den QuadCore-Modellen die Taktraten der DualCore-Modelle nicht erreichen wird - dies war schließlich auch schon beim Umstieg von Single- auch DualCore-Modelle so zu beobachten. Insofern sollten angesichts des derzeit wieder einmal grassierenden QuadCore-Hypes gerade Spieler eher Zurückhaltung an den Tag legen, denn ausgerechnet dort, wo Mehrleistung bei Home-Computern noch wirklich gefragt wäre, erreichen die QuadCore-Modelle derzeit die geringsten Performancezuwächse. PS: AnandTech haben zudem noch eine Liste an Mainboards zusammengestellt, welche mit dem Kentsfield-Core zusammenarbeiten.
Shortcuts: Unter anderem bei HardOCP gibt es ein paar Bilder eines G80-Grafikboards zu sehen. Interessanterweise verfügt die gezeigte Grafikkarte - selbst wenn jene nur ein Prototyp ist, welcher so nie in den Handel gehen wird - über eine Wasserkühlung zuzüglich gleich zweier extra Stromanschlüsse, was jenen Stimmen Auftrieb gibt, welche bezüglich der kommenden Grafikchip-Generation von Transistoren- und Verlustleistungsmonstern sprechen. Die Overclockers Workbench berichtet hingegen von einer angeblich anstehenden GeForce 7950 GS, ohne daß es zu dieser allerdings genauere Daten gibt. Aufgrund der aktuellen Versionsvielfalt bei nVidia stellt sich natürlich die Frage, in welche Nische diese Karte gehen soll - aber womöglich ist es auch einfach nur eine GeForce 7900 GS mit HDCP-Kompatibilität ab Werk, so wie bisher alle nVidia-Karten mit "7950" im Namen jene HDCP-Funktionalität auf ihrer Featureliste haben. Und letztlich berichtet der Planet 3DNow! noch über eine neue Beta-Version der ATI Catalyst Grafikkarten-Treiber, welcher nunmehr Folding@Home unter Ausnutzung der Rechenleistung des ATI-Grafikchips unterstützt.