News-Archiv 7. - 13. August 2006 (32. Kalenderwoche)
12./13. August 11. August 10. August 9. August 8. August 7. August
News des 12./13. August 2006 |
Zum jüngsten Artikel über die ersten Radeon X1950 XTX Benchmarks wäre noch folgender Gedankengang nachzutragen: Und zwar beziehen sich die ATI-eigenen Benchmarks, welche auf DailyTech zu finden sind, auf einen Vergleich von Radeon X1950 XTX im CrossFire-Modus gegen ein Quad-SLI System aus zwei GeForce 7950 GX2 Grafikkarten. Eigentlich sollten sich aus den hierbei entstandenen Benchmarks auch problemlos Aussagen darüber treffen lassen, wie sich die genannten Karten einzeln schlagen, allerdings gibt es hier einen beachtenswerten Haken: Die Effizienz von Quad-SLI mit vier Grafikchips sollte normalerweise unterhalb der von CrossFire mit "nur" zwei Grafikchips liegen ...
... Wenn man hier grob annimmt, daß zwei Grafikchips zusammengeschaltet noch für 70 Prozent mehr Leistung stehen, vier Grafikchips zusammengeschaltet dann aber nur (weitere) 50 Prozent Leistung erreichen, kann diese Effizienz-Rechnung durchaus einige Vorteile für ATI bringen, welche sich bei den Tests der einzelnen Karten nicht so zeigen würden. Die von ATI gemessenen haushohen Vorteile der Radeon X1950 XTX gegenüber der GeForce 7950 GX2 sind damit allerdings nicht zu erklären, voranstehender Gedankengang ist allenfalls für grob 15 Prozent Differenz gut. Damit könnte die Radeon X1950 XTX unter CrossFire womöglich in der Lage sein, die GeForce 7950 GX2 unter Quad-SLI einzuholen (was angesichts von zwei gegen vier Chips schon eine tolle Leistung wäre), aber die durch ATI hier gemessenen Vorteile von 30 Prozent und mehr zugunsten von ATI bleiben weiterhin fraglich.
Seitens Hard Tecs 4U kommt die Kunde von der bald startenden Auslieferung des AMD Athlon 64 X2 3600+ Prozessors, welcher das bis dato preisgünstige DualCore-Modell von AMD darstellen wird. Der Unterschied zum 3800+ wird dabei nicht über den Takt gebildet, denn dieser bleibt weiterhin bei 2.0 GHz, sondern vielmehr über die Verkleinerung des Level2 Caches: Während der 3800+ hierbei 2x 512 kB hat, schaltet AMD für den 3600+ nur 2x 256 kB frei (physikalisch dürften 2x 512 kB vorhanden sein, da AMD den 3600+ kaum extra herstellen wird). Als Listenpreis werden derzeit 149 Dollar angegeben, wenn aber die Straßenpreise prozentual ähnlich unterhalb des Listenpreises liegen wie beim 3800+, sollte der 3600+ für runde 125 Euro erhältlich sein ...
... Womöglich aber geht AMD bei den Straßenpreisen letztlich sogar noch etwas weiter hinunter, schließlich soll bestimmt ein gewisser Unterschied zum 3800+ Modell erreicht werden, welches derzeit schließlich schon für 130 Euro angeboten wird. Insbesondere für Anwender, welche ein DualCore-System ohne großen monetären Einsatz aufbauen wollen, dürfte der Athlon 64 X2 3600+ somit hochinteressant sein, bietet dieser doch eine starke Leistung in einem Preissegment, wo Intel zwar preisgünstige, aber eben doch nur mit der auslaufenden Netburst-Architektur operierende Pentium D Prozessoren anzubieten hat. Einziger Nachteil ist jedoch noch, daß der Athlon 64 X2 3600+ anfänglich erst nur in Fernost ausgeliefert werden soll und somit wohl noch etwas Zeit vergehen wird, ehe das neue LowCost-Modell unsere Breitengrade erreicht.
neuer Artikel |
Erste Benchmarks zur Radeon X1950 XTX aufgetaucht
Gemäß bisheriger Informationen sollte am 23. August die Radeon X1950 XTX als das neue Top-Modell von ATI auf Basis des R580+ vorgestellt werden. Von der Karte erwartete man aufgrund der vorab bekanntgewordenen eher geringfügigen Steigerungen der Taktraten keine besonderen Sprünge, doch gemäß der Veröffentlichtung von ATI-eigenen Benchmarks und auch zweier (inzwischen allerdings wieder aus dem Netz entschwundener) Vorab-Test bietet sich dem Betrachter doch ein ziemlich anderes Bild dar, will ATI mit der Radeon X1950 XTX offenbar selbst die (bisher als deutlich leistungsfähiger eingeschätzte) GeForce 7950 GX2 angreifen. Was die - wie gesagt inzwischen schon wieder nicht mehr verfügbaren - Vorab-Tests für Zahlen enthielten und wie diese einzuschätzen sind, wollen wir nachfolgend kurz betrachten ... zum Artikel
News des 11. August 2006 |
Gemäß eines Threads im Forum zu Beyond3D scheint der neueste, für Quad-SLI gedachte nVidia-Treiber 91.45 die - sicherlich seitens nVidia unbeabsichtigte - Nebenwirkung mit sich zu bringen, Transparenz Anti-Aliasing auch auf der GeForce6-Serie zu ermöglichen. Die Funktionalität dieses die Bildqualität doch teilweise erheblich verbessernden Features wird im vorverlinkten Forums-Thread gut demonstriert (ohne bzw. mit TAA auf einer GeForce 6600 GT) und kann somit als bewiesen gelten. Bei der Performance soll es laut der Aussage des ursprünglichen Posters keine Probleme geben, wobei wir unsererseits dagegenhalten, das Counter-Strike: Source hierbei sicherlich ein denkbar schlechter Maßstab ist ...
... Denn zum einen ist Counter-Strike inzwischen so anspruchslos geworden, daß es jede Mainstream-Grafikkarte völlig problemlos mit weit über 100 fps darzustellen vermag, desweiteren ist die Source-Engine aber auch generell dafür bekannt, eher CPU-limitiert zu sein. Insofern scheint es verständlich, daß die Zuschaltung von Transparenz Anti-Aliasing unter Counter-Strike: Source keinen Performance-Einbruch aufzeigt. Unter eher Grafikkarten-limitierten Spielen kann dies aber ganz anders aussehen, wie unsere eigenen Messungen hierzu andeuten - zumindestens dann, wenn Transparenz Anti-Aliasing auch im Bild zu sehen ist. Bei den Karten der GeForce6-Serie, welche das Transparenz Anti-Aliasing somit nur inoffiziell unterstützen (wie lange Zeit die ATI-Karten vor der Radeon X1000 Serie), könnte der Performance-Hit potentiell sogar noch größer ausfallen ...
... Dies müsste natürlich erst einmal dementsprechend ausgemessen werden, was allerdings sicherlich innerhalb der nächsten Woche von der einen oder anderen Seite her passieren dürfte. Doch trotz des Performance-Hits ist Transparenz Anti-Aliasing immer noch ein höchst nutzvolles Feature in vielen Spielen, da doch die Benutzung von transparenten Texturen nicht gerade gering ist und gerade heutzutage, wenn die üblichen Objektkanten mittels Anti-Aliasing schön geglättet sind, diese ungeglätteten Texturen deutlich auffallen. Bedingung hierfür ist natürlich der 91.45er nVidia-Treiber und das inoffizielle INF-File von LaptopVideo2Go, welches den Support für alle nVidia-Grafikchips seit der GeForce3 und vor allem auch der Mobile-Grafikchips zur Verfügung stellt. Ob nVidia den Support von TAA für die GeForce6-Serie aus den nachfolgenden Treibern wieder herausnehmen wird, bliebe natürlich noch abzuwarten.
Gemäß der Zeit hat der deutsche Chiphersteller Infineon eine Software entwickelt, mittels welcher der Voice-over-IP Datenverkehr maßgeblich gestört werden kann - um danach dann Angebote mit freigeschaltetem Voice-over-IP zu natürlich höherem Preis vermarkten zu können. Inwiefern schon diverse Internet Service Provider sich für diese zum Patent angemeldete Software interessieren, ist zwar noch nicht bekannt, insbesondere diese Provider, welche auch eine größere Telefonie-Sparte haben, dürften allerdings sicherlich zumindestens aufhorchen. Ob damit allerdings der (wenn auch langsame) Niedergang des kostenlosen Voice-over-IP eingeläutet ist, darf doch eher bezweifelt werden. Denn die Aussperrung nur einzelner Datenpakete wirft beträchtliche rechtliche Fragen auf, ganz besonders wenn die Kunden eine Volumen-unabhängige Flatrate gebucht haben ...
... Denn letztlich tritt der Internet Service Provider nicht als Anbieter von Diensten wie Web, eMail, P2P oder Voice-over-IP auf, sondern stellt im eigentlichen nur die Verbindung zum Internet zur Verfügung. Damit liegt es aber dann auch nicht mehr in seinem Recht zu entscheiden, welche Anwendungen der Kunde über diese Internet-Verbindung ausführt - womit dann ebenfalls kein Recht existiert, diese Anwendungen technisch zu limitieren. Man könnte sich allenfalls nur durch vor dem Abschluß des Vertrags klar formulierte Ausnahmen absichern - aber schon, wenn solcherart Ausnahmen nur in den AGB zu finden sind, wird es rechtlich grenzwertig. Denn wer mit einem volumenunabhängigen Internet-Tarif wirbt, hat erst einmal genau dieses zur Verfügung zu stellen - das Ausblenden gewisser Dienste oder eine gar eine trotzdem angesetzte Volumenschranke gehören da zweifellos nicht dazu ...
... Selbst die AGB können in solchen Fällen den Anbietern nicht weiterhelfen, denn auch die AGB können eine klare Angebotsbeschreibung nicht mehr aufheben. Konkretes Beispiel: Wer mit "volumenunabhängig" wirbt, kann dieses nicht dann einfach in den AGB wieder zurücknehmen, dieser Teil der AGB wäre dann schlicht ungültig. Und ähnliches dürfte dann auch für Voice-over-IP gelten, sollte dieses von den Internet Service Providern ausgeschlossen werden wollen: Dann müssten diese in ihren Angeboten explizit darauf hinweisen, daß die Nutzung von Voice-over-IP eben ausgeschlossen ist. Ganz kritisch wird dies bei bestehenden Verträgen, denn diese sind diesbezüglich kaum mehr änderbar - und selbst wenn man über Umwege gezwungen wird, eine neue AGB anzuerkennen, kann damit die grundlegende Angebotscharakteristik nicht mehr verändert werden (dies geht nur über einen neuen Vertrag) ...
... Insofern wünschen wir den ISPs viel Spaß dabei, dieses Vorhaben umsetzen: Diejenigen, welche als erstes damit anfangen, ihre Angebote entsprechend zu verändern, werden ihren Bestandskunden entweder weiterhin die alten Verträge zugestehen müssen oder aber eben mittels Sonderkündigungsrecht massenweise Kunden verlieren. Und gerade weil es auch ISPs gibt, welche keinerlei reguläre Telefonie-Sparte besitzen und dementsprechend Voice-over-IP nicht fürchten müssen, ist eher anzunehmen, daß sich diese Idee dann doch - glücklicherweise - nicht durchsetzen wird. Einmal ganz abgesehen von der rein technischen Widerstandslösung, die Datenpakete von Voice-over-IP schlicht zu verschlüsseln und damit vor der erwähnten Infineon-Software ziemlich sicher zu verbergen. Schließlich hat schon die Port-Drosselung diverser Billig-ISPs nicht funktioniert, lassen sich die meisten P2P-Programme doch problemlos auf beliebige andere Ports umleiten.
News des 10. August 2006 |
Die Elite Bastards haben sich damit beschäftigt, was nach DirectX 10 kommen mag (eigentlich heisst es offiziell "Direct3D 10", aber selbst Microsoft-intern wird der Einfachheit halber teilweise mit dem Begriff "DirectX 10" operiert). Dabei wurde aufgelistet, was in einem möglichen Spezifikations-Update mit dem ebenso spekulativen Namen "DirectX 10.1" so alles kommen könnte. Unser Vermutung nach dürfte es Microsoft bei einem möglichen DirectX 10.1 aber ebenso wie beim aktuellen DirectX 9.0c halten: Hierbei handelt es sich um eine reine Software-technische Aufrüstung für DirectX, werden also keine neuen Anforderungen an entsprechend kompatible Hardware gestellt ...
... So kommt es auch, daß sich selbst DirectX9-Grafikkarten, welche noch weit vor DirectX 9.0c erschienen sind, sich heutzutage durchaus unter dieses Siegel stellen können. Ähnliches dürfte dann auch von einem möglichen DirectX 10.1 zu erwarten sein: Keine Veränderung der Hardware-Anforderungen, so daß auch die demnächst erscheinenden ersten DirectX10-Beschleuniger wohl ebenfalls unter dem Siegel "DirectX 10.1" laufen werden können. Überlegungen in diese Richtung hin, Microsoft würde mit DirectX 10.1 neue Hardware-Anforderungen herausgeben, sind dagegen sehr riskant - schließlich würde das den ersten DirectX10-Grafikkarten erheblich in die Parade fahren, was sicherlich kaum im Sinn der (an DirectX ja immer mit beteiligten) Grafikchip-Entwickler liegen dürfte.
Noch ein paar weitere Nachträge zu unserem aktuellen Artikel: Als erstes einmal ist - obwohl in unserer Auflistung der SingleCore-Prozessoren nicht mehr enthalten - durchaus interessant, daß Intel nunmehr massiv Cedar Mill Cores auf den Markt wirft, da bei den Pentium 4 Prozessoren mit 2 MB Level2 Cache nur die Preise dieser Modelle gesenkt wurden - und die Preise der Prescott-2M-basierenden Modelle gleich bleiben. So steht nun beispielsweise ein Pentium 4 660 mit 3.6 GHz und Pentium-2M-Core immer noch für stolze 605 Dollar in der Intel-offiziellen Preisliste, der von der Leistung und Ausstattung her absolut identische Pentium 4 661 mit Cedar-Mill-Core jedoch nur für 183 Dollar. Dabei ist letzterer sogar schon in 65nm gefertigt, da der Cedar Mill faktisch die Hälfte eines Presler-Cores (Pentium D 9xx Serie) darstellt ...
... Dadurch sinkt zum einen die Verlustleistung erheblich (laut der TDP von 115 auf 86 Watt), zum anderen sollten sich eigentlich auch die Übertaktungs-Aussichten entsprechend erhöhen. Natürlich haben diese Prozessoren bei der aktuellen Preissituation trotzdem keine Chance gegen AMDs Angebote, bietet AMD doch seinen Athlon 64 3800+ zu einem Listenpreis von 112 Dollar und zu Straßenpreisen von inzwischen unter 100 Dollar an. Allenfalls für HighEnd-Übertaktungsversuche oder eiserne Intel-User dürfte dieser SingleCore-Prozessor noch interessant sein, welcher wohl letztlich den Markt schlicht zu spät erreicht - ein paar Monate vor der Core-Prozessorenarchitektur wären 65nm Pentium 4 Prozessoren eventuell noch auf ein gewisses Interesse gestossen ...
... Desweiteren wären noch die bei AMD mit den jüngsten Preissenkungen aus dem Portfolio herausgefallenen Prozessoren zu erwähnen. Namentlich sind das die Modelle Athlon 64 X2 4000+, 4400+ und 4800+, sprich jene Prozessoren mit 2x 1 MB Level2 Cache. Diese verschwinden natürlich nicht umgehend vom Markt, sondern dürften sogar mittelfristig noch verfügbar sein, sind jedoch kaum noch attraktiv, da von den drastischen AMD-Preissenkungen zumindestens rein offiziell nicht betroffen. Trotzdem scheinen die Modelle inzwischen ebenfalls mit kräftigem Preisabschlag angeboten zu werden: So kostete der Athlon 64 X2 4000+ laut alter Preisliste noch 303 Dollar, es gibt hier allerdings auch schon Straßenpreise in die Richtung von 170 bis 180 Euro ...
... Auch beim Athlon 64 X2 4400+ mit altem Listenpreis von 437 Dollar und aktuellem Straßenpreis von 227 Euro sowie beim Athlon 64 4800+ mit altem Listenpreis von 606 Dollar und aktuellem Straßenpreis von 302 Euro sieht dies ähnlich aus. Hier scheinen ergo die Händler bereits die Preise entsprechend anzupassen, auch wenn AMD dies offiziell nicht so getan hat. Allerdings reichen diese Preissenkungen noch nicht aus, um diese Prozessoren wirklich attraktiv zu machen, da man für den gleichen Preis regelmässig das jeweils nächsthöhere Angebot seitens AMD erstehen kann (mit 200 MHz mehr Takt, aber dafür kleinerem Level2 Cache). Wer natürlich speziell mit Anwendungen operiert, welche auf den größeren Level2-Cache der nun auslaufenden AMD-Prozessoren stehen, könnte mit diesen inoffiziellen Preissenkungen dennoch glücklich werden ...
... Und letztlich wäre noch auf die im Artikel nur kurz angerissenen mittelfristigen Planungen seitens AMD genauer einzugehen, denn nur mit diesen wird AMD sich aus dem angefangenen ruinösen Preiskrieg befreien können. Als erstes wäre da die 65nm Fertigung zu erwähnen, welche AMD ab Anfang nächsten Jahres wieder in die Lage versetzen sollte, beim Takt anzugreifen. Allerdings spricht hier eine bei DailyTech veröffentlicht AMD-Roadmap dagegen, welche eine eher sehr konservative Markteinführung von 65nm Produkten bei AMD vorsieht: So soll AMD bis zum dritten Quartal 2007 mittels der 65nm Fertigung keine neuen Modelle auf den Markt bringen, sondern nur die "alten" 90nm Modelle ersetzen bzw. die neuen 65nm Modelle zeitgleich anbieten ...
... Die wirklichen Taktsteigerungen will AMD dabei aber weiterhin auch auf 90nm anbieten - wobei die Steigerungen keineswegs großartig ausfallen sollen: So ist für dieses Jahr nur noch ein Athlon 64 X2 5200+ geplant, welcher dieselben 2.4 GHz Takt wie der Athlon 64 X2 5000+ trägt, nur eben mit 2x 1 MB Level2 Cache antritt. Im ersten Quartal des kommenden Jahres wird es dann die neuen Modelle Athlon 64 X2 5400+ und 5600+ geben: Beide takten dabei wohl mit 2.6 GHz, der 5400+ sollte aber 2x 512 kB und der 5600+ 2x 1 MB Level2 Cache tragen. Danach soll allerdings bis zum dritten Quartal 2007 nichts mehr passieren - sieht man einmal von den Athlon 64 FX Prozessoren ab, welche scheinbar bis auf 3.2 GHz Takt hinaufgehen werden, aber eben auch wegen ihres regelmässig astronomischen Preises keine wirkliche Markt-Relevanz haben ...
... Auf der 65nm Front wird AMD dagegen gar nur bis zum Athlon 64 X2 5400+ gehen - ganz so, als wäre der 65nm Prozeß von AMD entweder noch nicht so weit oder aber nicht leistungsfähig genug. Man kann nur hoffen, daß sich diese Roadmap gründlich irrt - denn wenn nicht, dann ändert sich an der aktuell mit "schwierig" noch sehr vorsichtig beschriebenen Wettbewerbssituation von AMD gegenüber Intel zumindestens die nächsten 12 Monate nichts. Wenn, ja wenn dann nicht doch noch der verbesserte K8L-Core deutlich vor den bisherigen Erwartungen noch im Jahr 2007 aufschlägt. Bei Orthy läuft man aktuell ja regelrecht Sturm gegenüber den diesbezüglichen Aussagen, der K8L würde generell erst 2008 erscheinen ...
... Und dabei hat man durchaus Recht, da die originale Formulierung "new K8L processor for its next-generation Socket AM3 platform will not be available until 2008" durchaus nicht zweifelsfrei bedeutet, daß der K8L generell erst 2008 erscheinen würde. Man kann mit dieser Formulierung eben auch ausdrücken, daß allein nur das K8L-Modell, welches speziell für den Sockel AM3 gedacht ist, erst 2008 erscheint. Dies würde allerdings voraussetzen, daß es den K8L auch für andere Sockel geben wird - und eben dies sehen wir nicht so einfach, wie Orthy dies tut. Zwar haben einige AMD-Prozessoren durchaus auch auf sehr verschiedenen Sockeln ihren Dienst getan, aber bei technisch sehr unterschiedlichen Prozessoren ist dies eher selten bis nie der Fall gewesen ...
... Das beste Beispiel hierfür ergibt schließlich die aktuelle Prozessoren-Situation: Neue Technologien wie Pacifica und Presidio sowie den Support von DDR2-Speicher gibt es nur auf dem neuen Sockel AM2 - selbst wenn die beiden genannten Technologien nun sicherlich auch ohne Sockelwechsel in den Prozessor integrierbar wären. Zumindestens klar ist aber, das wenn AMD den K8L mit dem Support der DDR3-Speichertechnologie plant, dies nur auf der Sockel AM3 Plattform geschehen wird - weil nur dafür benötigt es schließlich überhaupt die neue Plattform. Sicher ist damit natürlich noch gar nichts, aber zumindestens kann nicht zweifelsfrei gesagt werden, die eine oder andere Seite hätte absolut Recht.
Shortcuts: Wie Hard Tecs 4U berichten, arbeitet man angesichts der demnächst bevorstehenden Markteinführung von GDDR4-Speicher (mittels der Radeon X1950 XTX) bereits an der Nachfolge-Technologie GDDR5, welche dann wohl Anfang 2008 den Markt erreichen soll. Gemäß Ars Technica will Microsoft den drohenden Umsatzschwund der kompletten PC-Branche in einem weiteren Weihnachtsgeschäft ohne neuem Windows-Betriebssystem durch die Beilage von Upgrade-Coupons für Windows Vista ab Oktober diesen Jahres abmildern. Dies dürfte Microsoft natürlich dann auch dazu zwingen, Windows Vista nun nicht mehr ewig ins Jahr 2007 hinein zu verschieben - ansonsten wird man zum einen unglaubwürdig, zum anderen dürften die Kosten der Coupon-Aktion mit fortlaufender Dauer enorm ansteigen.
News des 9. August 2006 |
Mit der Zurverfügungstellung des offiziellen 91.45er Treibers durch nVidia gibt der Grafikchip-Entwickler Quad-SLI nunmehr auch offiziell für den Retail-Markt, sprich für Selbstbau-Systeme, frei. Entsprechende Artikel beim Guru3D, Hot Hardware, HardOCP, PC Perspective und Tom's Hardware Guide gehen begleitend dazu auf die Performance und Anforderungen von Quad-SLI ein. Da oben genannter Treiber allerdings nur für die GeForce 7950 GX2 gedacht ist, schauen - zumindestens rein offiziell - Nutzer anderer nVidia-Grafikchips und dort speziell der ja ebenfalls Quad-SLI-fähigen GeForce 7900 GX2 erst einmal in die Röhre, Abhilfe schaffen hier aber wie üblich die modifizierten INF-Dateien seitens LaptopVideo2Go, welche den Support für alle nVidia-Grafikchips seit der GeForce3 und vor allem auch der Mobile-Grafikchips zur Verfügung stellen.
Wunderbarerweise hat man sich beim Tech Report in einem eigentlich für die aktuellen LowPower-Prozessoren gedachten Artikel zusätzlich auch der Frage angenommen, wieviel Unterschied denn nun wirklich zwischen den Core 2 Duo Prozessoren mit 2 und 4 MB Level2 Cache liegt. Dabei setzte man die hier schon angesprochene Idee um, indem man einfach einen Core 2 Duo Extreme X6800 mit 4 MB Level2 Cache entsprechend heruntertaktete. Da speziell dieser Extreme-Prozessor über keinen Multiplikator-Lock verfügt, funktioniert das auch ohne einer Veränderung des FSB-Taktes und ergab somit im Fall des Tech Reports einen Core 2 Duo E6300 mit 1.86 GHz, FSB1066 - und aber eben 4 MB Level2 Cache ...
... Den angestellten Benchmarks läßt sich nun entnehmen, daß die 4-MB-Version im Schnitt aller Messungen um 2,6 Prozent vorn liegt, unter Spielen sind es runde 5 Prozent. Dabei gibt es keine bedeutenden Ausreißer, der höchste Unterschied ergab sich mit gerade einmal 10 Prozent unter Unreal Tournament 2004 (aber auch nur unter 800x600, im praktischen Gamer-Alltag dürften die Auswirkungen geringer sein). Insofern kann man wohl bedenkenlos auch zu den kleineren Core 2 Duo Modellen mit "nur" 2 MB Level2 Cache greifen, die Auswirkungen des kleineren Caches sind unter üblicher Desktop-Software wie auch unter aktuellen Spielen generell eher vernachlässigbar.
Der Heise Newsticker berichtet hingegen über neueste Schätzungen seitens der Analysten von Gartner, wonach Microsoft sein Windows Vista Betriebsystem nun frühestens im April 2007 ausliefern werde können. Interessant ist in diesem Zusammenhang, daß die Verschiebungen des Releasetermins für das Jahr 2006 schon einen ähnlichen Weg nahmen: Nachdem seinerzeit einmal klar war, daß das Jahresende 2005 nicht als Vista-Termin haltbar war, brachen alle Dämme und es folgte Terminverschiebung auf Terminverschiebung, welche den angepeilten Launchtermin von Windows Vista letztlich gar in Richtung Jahresende 2006 zogen. Ob nun das gleich passiert, wäre noch abzuwarten, immerhin will Microsoft weiterhin eisern wenigstens die Großkunden noch dieses Jahr beliefern ...
... Aber auch hier gilt: Sollten die Dämme einmal brechen bzw. Microsoft zur Einsicht gelangen, daß der angepeilte Termin nicht wirklich zu schaffen ist, dann sind wiederum kräftige Terminverschiebungen eher in Richtung zweites Halbjahr 2007 zu erwarten. Was aus unser (rein subjektiven) Sicht sicherlich nicht so schlimm ist, stellt doch Windows Vista unserer Meinung nach eines der verzichtbarsten Stücke Software der letzten Jahre dar. Von den großen Versprechungen bezüglich neuer Features ist nicht viel übrig geblieben, was nunmehr mit der ersten Version von Windows Vista noch wirklich realisiert werden wird - und gleichzeitig bedeutet Windows Vista aber auch den verstärkten Einstieg in die Welt des DRM und der Kundenverdongelung ...
... Auf der Haben-Seite stehen dagegen nur Sachen wie die neue 3D-Oberfläche, welche ihren praktischen Vorteil erst einmal beweisen muß (denn nur daraus, das sie hübscher aussieht, ergibt sich noch kein Produktivitätsvorteil), und die Direct3D10-API, welche wir allerdings aufgrund ihrer Bindung nur an Windows Vista auch nur mit einem lachendem und einem weinendem Auge sehen können, weil wohl mancher Anwender somit nur zu Windows Vista wechseln wird, weil er bezüglich der Spiele dies tun muß - und nicht, weil er dies unbedingt will. Und zur viel gepriesenen Sicherheit von Windows Vista wollen wir lieber nichts weiter sagen. Erinnert sei hier nur daran, um wieviel sicherer Windows XP sein sollte - und wie es heutzutage nach immerhin fast fünf Jahren Arbeit am Betriebssystem wohl eher als (bisher!) größtes Softwareloch aller Zeiten in Erinnerung bleiben wird.
Shortcuts: Gemäß einer hochoffiziellen Aussage von AMD bei Ars Technica wird das Unternehmen nach dem Abschluß der Übernahme von ATI das Label "ATI" zweifellos nicht sterben lassen, sondern zumindestens die Grafikkarten weiterhin unter diesem anbieten. Unklar bleibt dieser Punkt allerdings weiterhin bei den Mainboard-Chipsätzen, denn diese könnte AMD durchaus zukünftig unter eigenem Label vertreiben. Dagegen berichten Gulli gar wenig lustiges von den mit RFID-Chips verdongelten ePässen: Diese lassen sich nämlich leider dazu auch benutzen, das Handwerk von Terroristen zu vereinfachen, indem diese aus der reinen Charakteristik der verwendeten RFID-Chips erkennen können, welcher Nationalität eine Person ist - was Übeltätern aller Colour vielfältige Möglichkeiten an die Hand gibt, bis hin zur wenig erbaulichen Vorstellung einer nationalitäts- oder gar personengebundenen Sprengfalle.
News des 8. August 2006 |
Hochinteressantes läßt sich einem Interview mit ATIs Europa-Chef Peter Edinger bei Golem entnehmen: Danach arbeitet ATI bereits an Grafikchips mit mehreren Kernen, ähnlich wie es derzeit bei Prozessoren stark in Mode gekommen ist. Allerdings soll diese Entwicklung nicht schon in der nächsten Generation (R600-Chip) zum Einsatz kommen, sondern erst in der übernächsten - welche dann wohl nicht vor Ende 2007, eher aber erst Anfang/Mitte 2008 den Markt erreichen wird. Als Grund für diese Entwicklung wird der weiterhin stark gestiegene Strombedarf von Grafikkarten angegeben, was eine ähnliche Begründung wie auf dem CPU-Markt ist. Allerdings zweifeln wir diese Begründung für den GPU-Markt doch einigermaßen an, da sich auf diesem doch eine gänzlich andere Ausgangssituation ergibt ...
... Denn ob man nun einen einzelnen Grafikchip nun 48 Pixel-Pipelines auflegt oder zwei Stück mit jeweils 24 Pixel-Pipelines produziert und diese dann zusammenfügt, nimmt sich von der Leistungsaufnahme und auch von der Performance her nichts. Interessanter ist die Mehrkern-Idee bei Grafikchips eher aus diesem Punkt, daß die heutigen Grafikchips von der reinen Chipfläche her einfach viel zu groß geworden sind, womit die Chance einzelner Transistorenfehler zu stark angestiegen ist. Die Prozessorenhersteller haben zwar inzwischen ähnlich große Chipflächen erreicht, doch dort ist der Level2-Cache das eindeutig größte Element auf dem Die, sind Produktionsfehler in diesem Cache jedoch durch redundante Schaltungen weitestgehend ausgleichbar ...
... Bei Grafikchips sind solcherart redundante Schaltungen dagegen schlecht realisierbar, da ein Grafikchip nur über äußerst geringe Anteile von Cache-Bausteinen verfügt und ansonsten fast ausschließlich aus "echter" Logik besteht. Eine Verkleinerung der Chipfläche bei Grafikchips würde also in erster Linie die Produktionsausbeute verbessern helfen (die gleiche Anzahl an Fehlern würde relativ gesehen weniger Chips betreffen). Auf der anderen Seite könnten die Grafikchip-Entwickler damit einen völlig neuen Weg der Produkt-Differenzierung für die verschiedenen Teilmärkte LowCost, Mainstream und HighEnd gehen: Während man hier bisher noch jeweils extra Grafikchips herstellte, was immer mit zusätzlichen Kosten zur Produktionsvorbereitung verbunden ist, könnte man zukünftig diese Marktsegmente allesamt mit nur einem Grafikchip abdecken. Dies würde dann dadurch realisiert, daß man den hergestellten Grafikchip je nach Zielmarkt schlicht zu einem Dual- oder QuadCore-Chip zusammenfügt ...
... Damit würden sich die bisherigen Abstufungen zwischen LowCost-, Mainstream- und HighEnd-Markt zumeist an der Anzahl der Rendering-Pipelines bzw. Shader-Einheiten genauso gut realisieren lassen, man würde dann allerdings nur noch einen einzigen Chip zur Produktion vorbereiten müssen. Gleichfalls könnte dieser Chip dann auch in viel höherer Stückzahl hergestellt werden und würde auch - durch den üblicherweise etwas der Zeit hinterherlaufenden LowCost-Markt - auch viel länger produziert werden können, was die Angelegenheit dann auch für den jeweiligen Chiphersteller interessant werden läßt. Ob sich dieses Modell allerdings so schnell auf dem Grafikchip-Markt durchsetzen wird, wäre natürlich abzuwarten - aber ATI scheint eben durchaus schon in dieser Richtung hin zu arbeiten. Im Endeffekt wäre es natürlich auch "nur" eine konsequente Weiterentwicklung der aktuellen SLI- und CrossFire-Technologien, welche sich dann mit einem solchen Modell wohl erledigen würden.
Unser jüngster Artikel verdient noch ein paar Anmerkungen: Erst einmal gibt es noch eine neue Idee zur Performance-Betrachtung von Core 2 Duo E6600 gegen Athlon 64 X2 5000+. Hier hatten wir ursprünglich geschrieben, daß der AMD-Prozessor einen Vorteil von 9 Prozent beim Preis hat, der Intel-Prozessor von 14 Prozent bei der Leistung (17 Prozent unter Spielen) - was auch nicht falsch ist. Interessant ist in diesem Zusammenhang jedoch ein kleiner Quervergleich zwischen preismäßig eigentlich nicht passenden Prozessoren, bei welchem sich der Athlon 64 X2 5000+ und der Core 2 Duo E6400 duellieren: Dabei liegt der AMD-Prozessor nämlich nur ein mickriges Prozent bei Performance vorn (die Spiele-Benchmarks gehen gar mit 11 Prozent an Intel), während der Intel-Prozessor einen Preisvorteil von satten 29 Prozent anzubieten hat ...
... Insofern schwingt das Pendel auch in diesem Vergleich wohl klar zugunsten von Intel, hat AMD somit auch in der 300-Dollar/Euro-Klasse nichts zu lachen (wie schon bei den darüber angesiedelten HighEnd-Modellen). Bei den anderen Vergleichen unseres Artikels funktioniert dieser kleine Quervergleich dann nicht mehr, bleibt dort unser Gesamt-Statement bestehen. Zu diesem wäre jedoch generell noch ein Pfund hinzufügen, mit welchem AMD preismässig zusätzlich zu den schon angesetzten drastischen Preissenkungen wuchern kann: Und zwar hat AMD immer noch den Vorteil der günstigeren Mainboards anzubieten. Dies trifft nicht nur auf die schon des längerem im Markt befindlichen Sockel 939 Mainboards zu, sondern auch für den Vergleich von Sockel AM2 Mainboards gegen entsprechende Conroe-Platinen ...
... Hier langen die Mainboard-Hersteller nach wie vor kräftiger zu als bei vergleichbaren Produkten für AMD-Prozessoren - möglicherweise resultierend auch aus den durchaus höheren Chipsatz-Preisen, welche Intel ansetzt. Und so kann dieser Preisunterschied von 20-50 Euro beim Mainboard das Pendel durchaus vollständig zu einem AMD-System schwingen lassen, weil dies insbesondere bei den preislich eher niedrig angesetzten Prozessoren dann doch schon einen erheblichen Preisunterschied beim Gesamtsystem bewirkt. Abzuwarten bleibt natürlich, ob dieser Preisunterschied auch künftig Bestand haben wird: Mit weiteren in den Markt kommenden Conroe-Mainboards und eventuell auch zu Intel konkurrierenden Chipsatz-Angeboten sollten die Preise der neuen Intel-Mainboards eigentlich mittelfristig dann doch etwas absinken.
Shortcuts: Hard Tecs 4U haben zwei sich widersprechend Aussagen zur Frage, ob ATIs Grafikkarten künftig unter dem Label "ATI" oder "AMD" auftreten werden. Klar ist hierzu leider noch gar nichts, weil die beiden sich widersprechenden Aussagen beiderseits von AMD-Mitarbeitern stammen ;). Zumindestens an den Fusionsgerüchten betreffend Asus und Gigabyte war nun aber (teilweise) etwas dran, denn wie nochmals Hard Tecs 4U vermelden, werden beide Hersteller künftig auf Basis eines Jointventure eng zusammenarbeiten. Allerdings sind beide Firmen weit von einer Übernahme oder Fusion entfernt, scheint das neue Jointventure auf aufgrund seiner (relativ) geringen Kapitaldecke von 224 Millionen Dollar nur für einen Teilmarkt gedacht zu sein.
News des 7. August 2006 |
Bei den X-bit Labs hat man sich AMDs "Energy Efficient" Prozessoren genauer angesehen, zu welchen wir bereits letzte Woche berichtet hatten. Interessant sind an diesem neuen Artikel vor allem die Messungen der Verlustleistung, da diese zum einen für das gesamte PC-System und zum anderen aber auch rein nur für den Prozessor selbst ausgeführt wurden. So läßt sich erst einmal sagen, daß bezüglich der Schlagkraft der jeweiligen Stromspar-Modi AMD weiterhin vorn liegt, da selbst deren "Normalausführung" des Athlon 64 4600+ mit 15 Watt im Idle-Betrieb deutlich weniger zieht als der (kleinste) Core 2 Duo E6300 mit seinerseits 26 Watt. Für den Verbrauch des gesamten Systems macht dies allerdings wenig aus, denn hier ist der Unterschied mit 174 zu 194 Watt zwar in absoluten Zahlen sogar noch etwas größer, in relativen Zahlen betrachtet jedoch nur bei 11 Prozent zugunsten von AMD ...
... Jenes Bild dreht sich allerdings maßgeblich um, wenn echte Lasten ins Spiel kommen: Unter absoluter Vollast produziert der Conroe-Prozessor nur eine Verlustleistung von 44 Watt (die TDP liegt bei 65 Watt!), was in einem Gesamtverbrauch des Systems von 218 Watt resultiert. Der Athlon 64 4600+ geht dagegen mit satten 104 Watt weit über seine spezifizierte TDP von 89 Wattt hinaus (AMDs TDP-Angaben basieren auf einer durchschnittlich hohen Last, während Intels TDP-Angaben das absolute Lastmaximum darstellen), der Gesamtverbrauch des Systems schiesst auf 317 Watt hinauf. Natürlich sollte auch klar sein, daß die von den X-bit Labs hierbei erzeugte totale Vollast im normalen PC-Alltag nur für Sekundenbruchteile auftritt, nicht aber dauerhaft. Beispielsweise reichen dem AMD-Prozessor unter dem 3DMark06 "nur" 70 Watt, was dann auch schon wieder innerhalb der TDP-Angabe liegt ...
... Um aber vom Spitzen-Stromverbrauch her wirklich mit Intels Conroe konkurrieren zu können, benötigt es in der Tat die "Energy Efficient" Prozessoren: Eine EE-Ausführung des Athlon 64 4600+ (65 Watt TDP) kommt unter absoluter Vollast mit 75 Watt (anstatt 104 Watt) aus, was in einem Systemverbrauch von 268 Watt (anstatt 317 Watt) resultiert. Noch besser macht es die EESFF-Version des Athlon 64 3800+, welcher nur noch eine TDP von 35 Watt hat, aber eben auch mit niedigerem Takt antritt: Hier liegt man unter absoluter Vollast bei 47 Watt, der Systemverbrauch bei zum Conroe-System vergleichbaren 224 Watt. Die alles entscheidende Frage dürfte hierbei aber eher sein, für welches Anwendungsgebiet man kauft: Denn der normale Home-PC dürfte den Großteil seiner Zeit vor sind hin ideln, spielt hier also der Stromverbrauch unter Vollast eine nur geringfügige und der Stromverbrauch unter dem Idle-Zustand eine viel größere Rolle ...
... Letztlich läßt sich also wohl sagen, daß mit den Conroe-Prozessoren in der Frage des Stromverbrauchs und -sparens wieder ein ungefährer Gleichstand eingekehrt ist. Auch wenn der Conroe hier eine niedrigere TDP respektive einer niedrigeren Spitzen-Stromaufnahme aufzuweisen hat, so sollte doch in der Praxis in der meisten Laufzeit ein AMD-System entweder gleichauf oder etwas weniger Strom ziehen. Die geringfügigen Vorteile, die der Conroe hier auf dem Papier zu bieten hat, spielen eben bei der Verlustleistung eines ganzen PC-Systems nicht mehr die ganz große Rolle. AMD aber hat zumindestens nunmehr seine bisher gehaltene eindeutige Führerschaft auf diesem Gebiet verloren - Intel kann jetzt auch Strom sparen ;).
Wir hatten uns am Freitag ein wenig darüber ausgelassen, wie die Zukunft der Spiele-Konsolen bezüglich des wohl kommenden Verzichts auf optische Datenträger bei der nächsten Konsolengeneration aussehen könnte. Hier wollen wir heute anschließen und uns mit den dadurch möglichen Auswirkungen auf den PC-Markt beschäftigen, denn diese können durchaus enorm sein. Erst einmal steht sowieso im Raum, daß Microsoft als Konsolenhersteller sowieso den gleichen Weg gehen dürfte wie Sony und in der nächsten Konsolengeneration auch nicht mehr auf optischen Laufwerke als Datenträger für die Inhalte setzen, sondern diese nur noch gestreamt zur Verfügung stellen dürfte ...
... Dies wird dann natürlich auch Auswirkungen auf Microsoft als Windows-Hersteller haben, welcher schließlich seine Online-Plattform für die Konsolensparte schon mittels Windows Vista auch für die Windows-User öffnen will. Noch soll diese nur zum Verbinden der Spieler eingesetzt werden, doch könnte man diese zukünftig auch Steam-like zur vollständige Distribution von Spielen einsetzen. Damit wäre die Hardware-Plattform auch zur Bindung des Windows-Gamers an Microsoft bereits frühzeitig eingeführt - fehlt nur noch die Bindung der Spielehersteller an diese. Bei Spielekonsolen ist dies sicherlich einfacher zu realieren, weil dort die verschiedenen Spielehersteller sowieso mit dem Konsolenhersteller zusammenarbeiten müssen ...
... Bei der eher freien PC-Plattform ist dies schwieriger, doch wird Microsoft gewichtige Argumente ins Feld führen können, um den Spieleherstellern eine ausschließliche Veröffentlichung ihrer Produkte auf der Microsoft-eigenen Spiele-Plattform schmackhaft zu machen: Denn Microsoft wird mit der Windows Vista nachfolgenden Windows-Version ziemlich sicher auf ein dann vollständig mittels TCP und NGSCB abgesichertes Betriebssystem setzen, kann also den Spieleherstellern die weitgehende Kontrolle über den Rechner der Anwender und damit eine deutlich höhere Sicherheit gegenüber Raubkopien, Cheatern und unerwünschten Modifikationen anbieten - was in der Summe ziemlich ziehende Argumente sind. Mit der Zeit dürften sicherlich viele Spielehersteller in diese oder eine ähnliche Richtung gehen - ganz egal, ob die für den Spielevertrieb auf herkömmlichem Weg nötigen optischen Laufwerke zumindestens auf dem PC weiterhin zur Verfügung stehen würden ...
... Größere Spielehersteller dürften sich dabei womöglich gar an eigenen Plattformen zur Kundenbindung versuchen, so wie es Valve bisher schon mit Steam vorgemacht hat. Dies könnte dann sogar ein Punkt für eine kartellamtliche Kontrolle werden, schließlich hat hier Microsoft als Betriebssystem-Hersteller die weitaus größeren Möglichkeiten und dürfte die Konkurrenz bei dieser Schlacht um die Kundenbindung ziemlich schnell an die Wand drücken. Sicherlich dürfte es auch langfristig noch Spielehersteller geben, welche auf eine (zusätzliche oder gar alleinige) Distribution ihrer Inhalte per Silberscheibe (oder Nachfolgemodellen) setzen werden, generell betrachtet dürfte die Entscheidung der Konsolenhersteller zum Wegfall der optischen Datenträger und pro einer reinen Streaming-Lösung in einigen Jahren jedoch auch den Markt der PC-Spiele gehörig umkrempeln.
Und letztlich: Des Tech-Internets liebste Gerüchteküche The Inquirer gibt es nun auch noch in deutsch (und dies immerhin schon seit Anfang Juli). Dabei scheint die deutsche Ausgabe auf einer direkten Übersetzung der englischsprachigen zu basieren, der teilweise vorhandene Revolverblatt-Stil der englischen Ausgabe scheint aber durch die Übersetzung nicht verloren gegangen sein. Alle Welt wartet natürlich jetzt darauf, daß sich Inquirer-Redakteur Fuad Abazovic aus seinem Urlaub zurückmeldet und nunmehr auch die deutsche Hardware-Welt ohne Verzögerung durch fremde Übersetzungen mit seinen "allseites beliebten" Gerüchtemeldungen aus der Grafikkarten-Szene beglückt ;).