News-Archiv 2. - 8. Juni 2003 (23. Kalenderwoche)
8. Juni 7. Juni 6. Juni 5. Juni 4. Juni 3. Juni 2. Juni
News des 8. Juni 2003 |
Beim Tech Report geht man der Frage nach, welche nVidia-"Optimierungen" möglicherweise noch im 3DMark03 schlummern. Dabei konnte man feststellen, daß ganz im Stile einer alten ATi Quake3-"Optimierung" durch das simple Umbenennen der 3DMark03.exe die Benchmark-Ergebnisse unter dem anisotropen Filter zwischen 10 und 20 Prozent auf GeForceFX-Karten fielen, während der normale 3DMark03-Wert ohne anisotropen Filter gleich blieb. Die Leistungsdifferenzen ergeben sich im übrigen vorwiegend in den Game-Tests 2 bis 4, der Game Test 1 zeigt nur recht geringfügige Unterschiede zwischen 3DMark03.exe und 3DMurk.exe :-) ...
... Problematisch an den Ausführungen des Tech Reports ist aber unserer Meinung nach, daß eine schlechtere Bildqualität nicht wirklich zweifelsfrei nachgewiesen werden konnte. Die dazu präsentierten Screenshots (optimiertes 3DMark03-Bild & normales 3DMurk-Bild) zeigen jedoch keinerlei relevante Unterschiede bezüglich der Texturen (IMO wurde auch eine recht ungünstige Szene gewählt) und das extra angefertigte Diffenzbild zeigt zwar vieles, aber nichts, was in Richtung Filter-Optimierungen auslegbar wäre. Insofern wäre dieser Artikel des Tech Reports fast umsonst, da er nicht belegen kann, daß die nVidia Treiber-Optimierungen für den 3DMark03 auch die Bildqualität beeinträchtigen und damit als Cheat einzustufen sind ...
... Wenn da nicht Beyond3D wären, welche den Unterschied in der Bildqualität zwischen 3DMark03.exe und 3DMurk.exe eindeutig mittels ein paar Screenshots (3 MB) nachweisen können. So läßt sich sagen, daß nVidia im 3DMark03 anstatt 8x anisotropen Filter etwas völlig anderes einsetzt - gemäß den Beyond3D-Screenshots sieht es so aus, als würden wechselweise 8x anisotroper Filter und gar kein anisotriopter Filter eingesetzt werden. Damit ist der hohe Geschwindigkeitsunterschied nach einem Umbenennen der 3DMark03.exe beispielsweise in 3DMurk.exe natürlich erklärbar ...
... Gleichzeitig ist nVidia innerhalb kürzester Zeit gleich 2x des Cheatings überführt worden - und auch wenn speziell wir uns nicht wirklich über ercheatete Ergebnisse im hochtheoretischen 3DMark03 aufregen können, so ist es dennoch verwerflich, was nVidia hier tut. Langsam sollte es dem kalifornischen Grafikchip-Entwickler doch dämmern, daß solche Methoden letztlich für mehr negative Presse sorgen, als die dadurch erschlichenen Benchmark-Ergebnisse positive Presse bringen. Und für die Benchmarker bedeutet es, in Zukunft noch mehr auf die Bildqualitäten zu achten - und ab und zu einmal die zum Benchmark gehörende exe-Datei umzubenennen, um auf die Spur solcher Cheats zu kommen :-).
Weitere Meldungen zum PAT-Feature auf i865 Springdale-Mainboards kommen von TweakPC, TweakTown und den x-bit Labs: Erstere berichten von einem Albatron Beta-BIOS 1.02b, welches PAT freischaltet, zweitere vermelden, daß Abit mit der BIOS-Version IS7g_13.b03 für das Abit IS7 Springdale-Mainboard PAT ebenfalls freischaltet, und letztere nennen noch Chaintech im Kreise der PAT-Freischalter. Damit sind es mit Asus, AOpen und Soltek inzwischen 6 Mainboard-Hersteller, welche ihren i865-Mainboards die Performances des i875P "Canterwood" Chipsatzes spendieren.
News des 7. Juni 2003 |
Wir hatten zuletzt am 26. Mai zum Thema der Taktraten der einzelnen Grafikkarten der GeForceFX 5900 Serie berichtet - 450/425 MHz für die Ultra und 400/425 MHz für die normale Version waren damals genannt worden. Nun scheint der Grafikkarten-Hersteller Albatron diese Angaben zumindestens bezüglich des Chiptaktes zu bestätigen: Auf dessen Webseite sagen die Spezifikationen für die Ultra und die normale Version exakt dieselben Frequenzen aus. Somit scheint zumindestens der Chiptakt der GeForceFX 5900 /Ultra verifiziert zu sein, auch der Speichertakt aus vorgenannter älterer Information dürfte somit wohl stimmen (425 MHz bei beiden Ausführungen). Die Leistungsunterschiede zwischen Ultra und normaler Version dürften aufgrund dieser nur äußerst geringen Taktunterschiede dementsprechend ziemlich niedrig ausfallen.
Bei Beyond3D spekuliert man etwas wild über Intel und deren mögliche Aquisition eines Grafikchip-Herstellers. Die Begründung für diesen Schritt stellt die 2005 zu erwartende neue Windows-Version Longhorn dar, welche erstmals auf einen Desktop komplett aus 3D-Elementen setzt. Die Anforderung dafür ist jedoch eine Grafikkarte mit DirectX9-Fähigkeiten, eine abgespeckte Version des Longhorn-Desktops wird zumindestens noch eine DirectX7-Grafikkarte erfordern. Nun schränkt letztere abgespeckte Desktop-Version sicherlich die Funktionalität des Betriebssystems nicht wesentlich ein, jedoch kann es sich Intel wohl kaum erlauben, 2005 ohne DirectX9-Grafikchip für die eigenen integrierten Mainboard-Chipsätze dazustehen ...
... Dies gilt ganz besonders, als daß Intel einen Anteil am ingesamten Grafikchip-Markt (integrierte Chips und "echte" Grafikkarten) von derzeit 29 Prozent hält, der Anteil am Markt der integrierten Grafiklösungen dürfte wohl sogar 50 Prozent noch übersteigen. Die Intel-Konkurrenten ATi, nVidia, SiS und VIA werden nun wohl problemlos Anfang 2005 entsprechende Chipsätze mit integrierter DirectX9-Grafik bereitstellen können. Für Intel wäre es dagegen höchst peinlich, wenn man hier nichts anzubieten hätte und demzufolge eines der Main-Features des neuen Windows-Betriebssystems nur unzureichend unterstützen könnte, was dann sicherlich auch am derzeit hohen Marktanteil nagen würde ...
... Zurückkommend auf Beyond3D vermuten diese aus der skizzierten Situation, daß Intel - anstatt Geld und Zeit in die Entwicklung eines eigenen DirectX9-Grafikchips zu stecken - wohl besser damit fahren würde, wenn man einen Entwickler von Grafikchips gleich direkt übernimmt. Genauso spekulativ wie dieser Gedankengang ist dann natürlich auch die Frage, welcher der derzeitigen Grafikchip-Entwickler für Intel denn als Übernahmekandidat interessant sein könnte: Unserer Meinung nach sind ATi und nVidia wohl zu teuer und VIA und SiS entsprechen möglicherweise nicht dem, was Intel sich vorstellt. PowerVR dagegen wäre eventuell eine Überlegung wert, da die Firma vergleichsweise billig zu haben sein dürfte und bisher vergleichsweise solide Produkte abgeliefert hat. All dies gehört natürlich dem Reich der Spekulationen an, aber uninteressant ist der Gedanke wohl mitnichten - und Fakt ist auch, daß Intel auf diesem Gebiet definitiv bis 2005 etwas tun muß.
Zum gestern bezüglich CPUs angesprochenem Thema der DualCores wollen wir noch kurz einen Nachtrag machen: Natürlich wird dieses Thema auch irgendwann einmal für Grafikchips relevant. Und dies möglicherweise sogar noch früher als bei den Desktop-Prozessoren, da die Grafikchip-Entwickler die Transistorengrößen in den letzten Jahren deutlich schneller als die Prozessoren-Hersteller nach oben getrieben haben. Rechnet man die bisherige Entwicklung von 23 Millionen Transistoren der GeForce2 GTS (Mitte 2000) über 63 Millionen Transistoren der GeForce4 Ti (Anfang 2002) bis hin zu den 125 Millionen Transistoren der GeForceFX 5800 /Ultra (Anfang 2003) hoch, so kann man selbst unter der Einrechnung einer möglichen Verlangsamung der Entwicklung für 2006 oder 2007 mit Grafikchips rechnen, welche 300 Millionen Transistoren und mehr tragen werden - und damit möglicherweise auch Kandidaten für DualCore-Entwicklungen sind.
News des 6. Juni 2003 |
Gestern noch berichtet und heute schon von ATi wieder zurückgenommen: Nach einem ATi-Statement wird es weiterhin die komplette Reihe an "Built by ATi" Grafikkarten in Nordamerika geben, d.h. inklusive auch der LowEnd-Grafikkarten. Die einzige Änderung für den nordamerikanischen Markt wird sein, das man diesen für seine OEM-Grafikkartenhersteller attraktiver zu machen gedenkt. Wobei dies natürlich, sollte es gelingen und sich so mehr Umsatz von ATi direkt auf die ATi-Partner verlagern, auch eine Methode des Rückzugs vom eigenen Grafikkarten-Geschäft ist, wenn auch eine eher langwierige. Für den europäischen und asiastischen Markt ändert sich hingegen scheinbar nichts.
Für die Anhänger von Flugsimulationen dürfte ein Benchmarking-Artikel bei SimHQ so ungefähr den heiligen Gral darstellen, ist es doch der einzige uns bekannte aktuelle Artikel, welcher sich intensiv mit der Performance von Grafikkarten und Flugsimulationen auseinandersetzt. Im Test standen sich zwar nur GeForce3 Ti200, GeForce4 Ti4200 und Radeon 9700 gegenüber, aber da Flugsimulationen im gewöhnlichen sowieso eher CPU-limitiert sind, ist das Fehlen weiterer HighEnd-Grafikkarten passabel verschmerzbar ...
... Nichts desto trotz hält natürlich die Radeon 9700 gerade in höheren Auflösungen und mit Anti-Aliasing länger durch als die beiden GeForce 3/4 Grafikkarten - wobei es hier auch Gegenbeispiele gibt, wo die nVidia-Karten prinzipiell besser mit einzelnen Spielen zurechtzukommen scheinen als die ATi-Karte. Nicht uninteressant ist der anschließenden CPU-Test zwischen einem Pentium III mit 1.1 GHz und einem Pentium 4 mit 2.4 GHz: Bis zu 1280x960 lohnt sich die größere CPU deutlich, unter Anti-Aliasing werden die Testwerte hingegen dann von der eingesetzten relativ schwachen Grafiklösung GeForce3 Ti200 limitiert ...
... Die Frage, wie dies unter einer Radeon 9700 (oder einer anderen HighEnd-Grafikkarte) aussieht, wurde leider nicht beantwortet, normalerweise sollte diese aber durch ihre höhere Anti-Aliasing Performance selbst unter diesem bildqualitätsverbesserndem Feature die höhere CPU-Leistung eines Pentium 4 mit 2.4 GHz klar ausnutzen können. Womit bei Flugsimulationen selbst unter Anti-Aliasing weiterhin gelten mag, daß eine größere CPU den deutlichsten Vorteil bringt. Vorteile bringen aber auch mehr RAM: Wenn auch zumeist nicht in besseren Frameraten meßbar, so verkürzt mehr Speicher doch teilweise enorm die Einladezeiten, so im Fall dieses Tests zwischen 128 und 512 MB RAM auf bis zu einem Drittel.
Aus einer beim tecChannel vorliegenden Roadmap zu Intel´s Server- und Workstation-Prozessoren läßt sich mehr über Intel´s erste DualCore-Prozessoren erfahren. So wird der Montecito-Core für die Itanium-Prozessorenlinie ab 2005 erstmals bei Intel zwei Prozessoren-Dies mit auch zwei extra Level3-Caches auf einem Siliziumplättchen vereinigen. Zwar ist dieser Prozessor klar im HighEnd Server-Bereich angesiedelt (gehört zur Itanium-Linie), mit dem Fortschreiten der Technik sind DualCore-Architekturen aber auch - immer ein paar Jahre später natürlich - im Desktop-Markt zu erwarten ...
... Der Hauptgrund dafür, die Arbeit auf 2 Cores zu verteilen, ist dabei klar produktions-technischer Natur: Je größer die Prozessoren-Dies werden, desto größer wird auch die Chance, einen Produktionsfehler auf der CPU zu haben, welcher jene zu teurem Altmüll werden läßt. Um dies zu verdeutlichen, folgendes Beispiel (Zahlen sind aus der Luft gegriffen): Wenn ein Wafer zur CPU-Herstellung im Schnitt 5 Produktionsfehler aufweist, so werden mit hoher Wahrscheinlichkeit (wenn die Fehler halbwegs gleichmäßig verteilt sind) 5 jener Prozessoren, welche man aus diesem Wafer ausschneiden wird, defekt sein. Bei heutigen 100-Millionen-Transistoren-Cores schneidet man aus einem Wafer sagen wir 70 Prozessoren aus, von denen im Beispielsfalle also 65 in Ordnung sind ...
... Steigert man jedoch die Transistoren-Menge auf 500 Millionen, kann man aus selbigen Wafer (und die Größe der Wafer ist begrenzt und steigt nur recht langsam) nur noch 14 Prozessoren ausschneiden. Wenn 5 davon defekt sind, bleiben nur noch 9 einwandfreie Prozessoren übrig, was die Erfolgsquote (Yield) in diesem Beispielsfall von 92 auf 64 Prozent dramatisch sinken läßt. Dies war jetzt nur ein Beispiel, doch bei den genannten 500 Millionen Transistoren pro Core scheint Intel in der Tat das Limit zu sehen, denn der letzten SingleCore-Prozessor "Madison 9M" wird 2004 mit eben jenen 500 Millionen Transistoren antreten ...
.. Für Desktop-Prozessoren wird diese Grenze möglicherweise noch niedriger liegen, denn bei diesen kann man sich schlechte Yields in der Chipproduktion aufgrund der im Vergleich zu den Server-Prozessoren deutlich niedrigeren Verkaufspreises nicht leisten. Momentan ist der Desktop-Markt davon allerdings noch einigermaßen entfernt, da sowohl Prescott als auch Athlon 64 "gerade einmal" um die 100 Millionen Transistoren tragen werden, welche in beiden Fällen auch noch zu ca. 60 bis 70 Prozent Level2-Cache sind. Mit den reinen Cores (ohne Level2-Cache) sind zudem kaum Transistorenmengen von 500 Millionen erreichbar, selbst die 2005 geplanten Desktop- und Server-Prozessoren kommen - cache-bereinigt - mit noch unterhalb von 50 Millionen Transistoren aus ...
... So hängt ergo alles davon ab, wieviel Level2- oder später auch Level3-Cache die Prozessorenhersteller ihren Desktop-Prozessoren spendieren werden. Kommt dies irgendwann in den Bereich von 4 MB, so steigt die Transistorenzahl auf um die 300 Millionen, was bei Desktop-Prozessoren möglicherweise die letzte Größe sein wird, welche noch wirtschaftlich als SingleCore herzustellen ist. Danach müssen sich die Prozessorenhersteller - und auch AMD arbeitet angeblich an solchen Lösungen - wohl aufmachen und auch im Desktop-Markt diese dann im Server-Markt wohl schon alltägliche DualCore-Technik einsetzen. Wobei DualCore hier noch lange nicht das Ende der Fahnenstange ist, Intel rechnet für 2007 im HighEnd-Servermarkt schon mit QuadCore-Prozessoren.
News des 5. Juni 2003 |
Wie die x-bit Labs berichten, wollen einige ATi-Grafikkartenhersteller auf die (derzeit immer noch nicht von nVidia offiziell gemachte) Erhöhung der Taktraten der GeForceFX 5600 Ultra von 350/350 auf 400/400 MHz mit ihrerseits ebenfalls höher getakteten Radeon 9600 Pro Grafikkarten kontern. So will Suma eine "Platinium Radeon 9600 Pro" mit 450/325 MHz auf den Markt bringen (der Radeon 9600 Pro default-Takt liegt bei 400/300 MHz), Sapphire wird dagegen eine "Radeon 9600 Pro Atlantis FireBlade Edition" vorstellen, welche - scheinbar über ein mitgeliefertes Tool - ein von der Garantie gedecktes Übertakten des Speichers auf 330 MHz erlaubt ...
... Ob die Radeon 9600 Pro solche Maßnahmen überhaupt benötigt, um sich gegenüber einer 400/400 MHz GeForceFX 5600 Ultra behaupten zu können, ist angesichts des soliden Performance-Vorsprungs gegenüber der 350/350 MHz GeForceFX 5600 Ultra eher fraglich. Vermutlich geht es den genannten ATi-Grafikkartenherstellern eher darum, sich in der Massen eben jener besser absetzen zu können und dabei die sowieso vorhandenen Overclocking-Reserven des Radeon 9600 Pro Grafikchips (RV350) und des verbauten Speichers gewinnbringend auszunutzen. Schaden können diese Angebote sicherlich nicht, sie können dagegen vielmehr ein klein wenig mehr Unterschiede in einen ansonsten (zwischen den Grafikkarten mit gleichem Chip) doch eher gleichförmigen Markt bringen.
Ebenfalls die x-bit Labs berichten, daß sich ATi nach inoffiziellen Informationen zukünftig noch weiter auf seine Rolle als reiner Chip-Designer zurückziehen will. In Europa und Asien ist dies ja bereits fast vollständige Realität, da hier kaum noch Grafikkarten "Built by ATi" angeboten werden. In Nordamerika ist ATi aber bisher immer noch unter der eigenen Marke mit dem kompletten Grafikkarten-Programm im Markt vertreten gewesen, in Zukunft will man diese Aktivitäten aber auch in der neuen Welt auf die All-in-Wonder Produktreihe reduzieren, welche dann als einzige noch direkt von ATi angeboten werden soll. Offensichtlich ist ATi mit seiner vor anderthalb Jahren eingeführten neuen Strategie der Abgabe des Grafikkarten-Geschäfts an die reinen Kartenhersteller gut gefahren (wenn auch seinerzeit mit einigen Anlaufschwierigkeiten), so daß man diesen Strategiewechsel nun vervollständigen will.
Und noch eine ATi-News: Der kanadische Grafikchip-Entwickler hat mit der Mobility Radeon 9600 /Pro den ersten mobilen DirectX9-Grafikchip vorgestellt, erste Testberichte findet man bei ExtremeTech und bei Tom´s Hardware Guide. Die Notebook-Ausführung der Radeon 9600 Pro taktet dabei mit 350/300 MHz kaum niedriger als die Desktop-Ausführung mit 400/300 MHz, während die mobile non-Pro-Ausführung mit 300/250 MHz von ATi sogar etwas höher als die Desktop-Ausführung mit 300/200 MHz veranschlagt wird. Ansonsten ist der mobile Chip - bis auf ausgeklügelte Stromsparfunktionen - identisch mit dem Desktop-Chip ...
... ATi wird dem neuen mobilen Grafikchip im übrigen bis zu 128 MB integrierten DDR2-Speicher spendieren - hier setzt man im übrigen wieder auf DDR2, wahrscheinlich wegen dessen geringerem Stromverbrauchs. Damit und mit diesen Taktfrequenzen sollten Performance-Werte wie im Desktop-Segment eigentlich kein Problem mehr darstellen. Die bisher vorliegenden Benchmarks vergleichen den neuen mobilen Chip zwar nur gegen eine Mobility Radeon 9000, aber diese Tests gewinnt die Mobility Radeon 9600 Pro mit Bravour. Wie es gegen die demnächst ebenfalls in den Markt kommenden nVidia DirectX9-Angebote um GeForceFX 5200 Go und GeForceFX 5600 Go aussehen wird, ist dagegen mangels Verfügbarkeit der beiden letztgenannten jetzt noch nicht ersichtlich ...
... Hochinteressant an dem neuen mobilen Chip sind im übrigen dessen Stromsparfunktionen, genannt "Powerplay4": So ist der Chip in der Lage, Chip- und Speichertakt wie auch die Chipspannung dynamisch zu drosseln. Jenes für Notebooks aus Gründen der Strom-Sparsamkeit wichtige Feature könnte aber genauso auch im Desktop-Bereich einen Einsatzort finden - und zwar als Silent-Feature. Denn im 2D-Betrieb muß die Grafikkarte wirklich nicht mit vollen Taktraten und Spannungen laufen, für Windows reichen auch Taktraten á 100/100 MHz - und bei diesen Frequenzen könnte man dann auch den Grafikchip-Lüfter drosseln oder ganz abdrehen. nVidia hat es ja mit der GeForceFX 5800 /Ultra vorgemacht: ATi verfügt nun ebenfalls über eine solche Technologie, insofern wäre es schön, wenn man diese auch im Desktop-Bereich zum Einsatz bringen könnte.
neuer Artikel |
ATi R3x0 vs. nVidia NV3x: Theoretische Benchmarks
Zu unserem aktuellen Grafikkarten-Test "ATi Radeon 9500/9600/9700/9800 vs. nVidia GeForceFX 5200/5600/5800" haben wir nun noch als letztes Follow-Up den versprochenen Artikel mit den theoretischen Benchmarks zu den Grafikchips NV30, NV31, NV34, R300, R350 und RV350 abgefaßt. Wir haben dabei zusätzlich die Chips NV30, R300 und R350 auch noch einmal auf gleichen Taktfrequenzen verglichen, was durchaus interessante Benchmark-Resulte ergab ... zum Artikel
News des 4. Juni 2003 |
Beim Planet 3DNow! war nVidia im Forum zu Gast, um sich den Fragen der Leser und Anwender zu stellen. Neben der netten Anekdote, daß der nVidia-Ingenieur eine Matrox G450 in seinem Privat-Rechner hat :-), läßt sich folgende Information festhalten: nVidia bezeichnete die GeForceFX 5900 Value als reine OEM-Lösung bzw. sogar nur als "heimlich" existierend, zudem kann der jeweiligen OEM-Hersteller die Taktraten dieses Chips selber festlegen. Ob es damit für die GeForceFX 5900 Value überhaupt eine Taktraten-Vorgabe seitens nVidia geben wird, ist nicht klar - aber zumindestens werden diese Karten wohl je nach Hersteller sehr unterschiedlich takten, was eine generelle Performance-Aussage zu diesem Chip sehr schwierig machen wird.
Seitens des Mainboard-Herstellers Asus hat man nun das Vorhandensein des von Intel eigentlich nur für den Canterwood-Chipsatz gedachten Performance Acceleration Technology (PAT) Features auf den Springdale-Mainboards von Asus offiziell bestätigt - fast jedenfalls. Laut des bei Hard Tecs 4U einsichtbaren Asus-Statements nennt man das Kind nun "Hyper Path Technology", dahinter sollte sich jedoch klar Intel´s PAT-Feature verbergen. Wie schon vor einigen Tagen an dieser Stelle erwähnt, wird es jenes PAT-Feature beim i865 "Springdale" Chipsatz vermutlich auch bei AOpen, Soltek und neuerdings auch bei Abit geben ...
... Ob sich hier noch weitere Mainboard-Hersteller anschließen werden, ist derzeit noch nicht bekannt. Etwas offizielles von Intel gibt es derzeit auch noch nicht, dort dürfte man allerdings über die Freilegung dieses Features beim i865 "Springdale" Chipsatz nicht besonders begeistert sein, fällt doch damit der (neben dem Support von ECC-RAM) einzige Unterschied zum deutlich teureren i875 "Canterwood" Chipsatz weg. Allerdings scheint Intel inzwischen hinter den Kulissen mit Asus geredet zu haben, denn diese wollten das PAT-Feature beim i865-Chipsatz ursprünglich auch beim richtigen Namen nennen - nun wird man es wie gesagt "Hyper Path Technology" betiteln.
In einem auch online einsichtbaren Artikel aus der c´t 9/2003 geht diese auf die Frage ein, was TCPA denn nun alles kann - und was nicht. Dadurch, daß die verschiedenen TCPA-Firmen teilweise sehr zurückhaltend mit Informationen zu TCPA & Palladium waren, sind einige Fehlinterpretationen aufgekommen, welche die c´t mit diesem Artikel entkräften kann. So läßt sich nun sagen, daß der TCPA-Chip (Trusted Platform Module, schon auf einigen IBM-Notebooks integriert) in erster Linie nur ein passives Element ist, d.h. nicht in den Bootprozeß eingreift oder diesen steuert, genauso wie der TCPA-Chip auch keine Internetverbindung beim Booten herstellt, um sich auf zentralen Servern zu authentifizieren oder Listen gesperrter Applikatione, Dokumente und Seriennummern zu laden ...
... Und so scheint der TCPA-Chip in erster Linie "nur" ein leistungsfähiger Kryptographie-Prozessor zu sein, dessen Hauptaufgaben Authentifizierung und Verschlüsselung sind. Die wirklichen "Schadfunktionen" sind samt und sonders Microsoft´s Palladium zuzuordnen - erst mit diesem werden beispielsweise die Zwangs-Internetverbindung zur Authentifizierung, ausgeklügelte DRM-Systeme und die Blockade von "Feind-Programmen" möglich. Die daraus eigentlich schlußfolgernde Erkenntnis, TCPA sei im Gegensatz zu Palladium harmlos, hat jedoch leider einen gewaltigen Haken ...
... Denn Palladium ist eine reine Software - und als solche prinzipiell immer knackbar, ganz besonders wenn ein breites Interesse daran besteht, diese zu knacken (siehe auch die Windows XP Spionage-Funktionen, für welche doch auch recht schnell Abhilfe in Form von xp-AntiSpy gefunden werden konnte). TCPA ist hingegen Hardware - und es ist diese Hardware, welche Palladium vor Eingriffen und Hacks schützen wird. Deshalb ist TCPA für Microsoft auch so wichtig - ohne dieses würde man ihr Palladium wohl recht schnell aushebeln können, bei einer Hardware-Sicherung wie mit TCPA ist dies fast unmöglich, dauert aber zumindestens auf jeden Fall deutlich länger. Insofern ist es leider nicht damit getan, nur gegen Palladium anzutreten, welches sowieso erst 2005 mit dem Windows XP Nachfolger "Longhorn" erscheinen wird ...
... Vorher kommt bereits die technische Basis für Palladium in Form von TCPA in den Markt - entweder auf Mainboard-Chipsätzen für den Athlon 64 (von Athlon XP Chipsätzen mit TCPA ist uns derzeit nichts bekannt) oder aber direkt im Prescott-Core von Intel integriert, auch wenn Intel derzeit immer noch beharrlich abstreitet, daß die LaGrande-Technologie dieses Prozessors etwas mit TCPA zu tun haben soll. An dieser Stelle wird dann der Hardware-Käufer entscheiden, wieviele PCs zum Longhorn-Start 2005 bereits TCPA- und damit Palladium-fähig sind - und wie viele nicht, was sicherlich nicht unerheblichen Einfluß darauf haben wird, wie intensiv Microsoft das Palladim-Projekt nach dem Start weiter vorantreiben wird und ob aktiviertes TCPA & Palladium einstmals sogar Pflicht für den PC-User sein werden.
News des 3. Juni 2003 |
Zum Thema Cheating in 3DMark03 hat der Benchmark-Hersteller Futuremark ein neues Statement herausgegeben, nachzuschlagen beispielsweise bei TweakPC. In diesem rudert Futuremark so heftig bezüglich der ursprünglichen Cheating-Vorwürfe gegenüber nVidia zurück, daß es fast schon wieder verdächtig ist. In einem Forum hatte ein Futuremark-Mitarbeiter zudem schon vor ein paar Tagen rein inoffiziell geschrieben, daß man sich seitens Futuremark einen ernsthaften Streit mit der wesentlich größeren Firma nVidia definitiv nicht leisten kann und will ...
... Futuremark hat nun jedenfalls gemäß dieses Statements ein "tieferes Verständnis" ;-))) für die Position von nVidia und deren Optimierungs-Strategie entwickelt. Was schon ziemlich seltsam ist, denn ein Teil der nVidia-Optimierungen fällt definitiv unter Cheat - nämlich dann, wenn Bildqualität vernichtet wird, was nicht in allen der von Futuremark aufgedeckten Optimierungs-Fälle so ist, aber zumindestens in einigen. Und diese Fälle sind auch mit einem "tieferen Verständnis" weiterhin Cheats - aber hier mag möglicherweise die schon angedeutete Regel "kleine Firma tut großer Firma nicht weh" zur Anwendung gekommen sein ...
... Davon abgesehen gibt es aber noch einen wirklichen Fortschritt: Futuremark erkennt nun an, daß reale Games auf dieserart Hardware-bezogene Treiber-Optimierungen mehr oder weniger angewiesen sind, ganz besonders beim Einsatz von Vertex und Pixel Shadern - und daß hier die Futuremark-Benchmarks nicht abseits stehen dürften, denn immerhin gibt es beim ebenfalls von Futuremark stammenden PCMark auch spezielle Optimierungen für Intel- und AMD-Prozessoren. Und so soll diese Erkenntnis dann auch beim kommenden 3DMark03-Nachfolger mit einfließen, dieser wird wohl extra ATi- und nVidia-Codepfade von Haus aus mitbringen, um die jeweilige Hardware optimal zu unterstützen.
Die x-bit Labs haben einen Auslieferungstermin für die GeForceFX 5900 /Ultra anzubieten - am 24. Juni sollen diese Karten in Japan an den Start gehen. Der US-Termin dürfte ähnlich liegen, für Europa kann man jedoch wie üblich mit ein bis zwei Wochen mehr rechnen, so daß real Anfang Juli die GeForceFX 5900 /Ultra bei uns auftauchen wird. Dies wäre halbwegs im Rahmen der Ankündigung seitens nVidia zum Launch dieser Karten und unterstreicht nochmals, daß zwischen Ankündigung und realer Auslieferung von neuen Grafikchips derzeit regelmäßig ca. 1,5 bis 2 Monate liegen, auch wenn die Hersteller bei ihren Terminaussagen zum Launch-Tag gern großzügig zu ihren Gunsten abrunden.
News des 2. Juni 2003 |
In einer Meldung der DigiTimes, welche sich eigentlich darum dreht, daß nVidia seine zukünftigen Chip-Order im Verhältnis 20/80 zwischen IBM (NV4x Serie und scheinbar auch Teile der NV3x Serie) und TSMC (alles andere) aufzuteilen gedenkt, wird auch nebenbei ausgeführt, daß nVidia derzeit - auch und ganz besonders für zukünftige Chips wie den NV40 geltend - keine Pläne für eine Fertigung in 90nm hat, sondern weiterhin bei 130nm bleiben wird. Dies tritt insbesondere vom japanischen PC Watch (maschinelle englische Übersetzung) stammenden Vermutungen entgegen, nVidia oder auch ATi würden demnächst schon wieder den Produktionsprozeß wechseln ...
... Auch andere "Informationen" der auf vorgelinkter Seite zu findenden ATi und nVidia Roadmap sind eher unglaubwürdig: So ist es eher zweifelhaft, daß ATi´s R390/R420-Chip (in dieser Roadmap noch R400 genannt) und nVidia´s NV40 wirklich gleich um die 200 Millionen Transistoren tragen sollen, ganz besonders, wo beide Chips definitiv nicht in 110nm, sondern weiterhin in 130nm gefertigt werden. Auch die Zuordnung der Vertex und Pixel Shader 3.0 zum ATi R390/R420-Chip ist nicht korrekt, dieses Feature wird ATi erst mit dem R500-Chip einführen. Hier scheinen sich die gerade bei Prozessoren-Roadmaps sonst so zuverlässigen PC Watch leider zu sehr auf ihre Hochrechnungen und weniger auf wirklich vorhandenes Wissen verlassen zu haben.
Wir hatten uns am Freitag schon einmal mit den Erkenntnissen aus der beim tecChannel einsichtbaren Intel Prozessoren-Roadmap beschäftigt, dort allerdings nur mit den Desktop- und nicht den Mobilen Prozessoren. Hier plant Intel den derzeitigen Banias-Core für den Pentium-M im kommenden dritten Quartal durch den Dothan-Core zu ersetzen und die Taktfrequenz bis zum zweiten Quartal des nächsten Jahres auf 2.0 GHz zu steigern. Der Dothan-Core scheint dabei allerdings bis auf eine Verdopplung des Level2-Caches auf 2 MB gegenüber dem Banias-Core unverändert ...
... Ironischerweise wird damit diesem mobilen Prozessor deutlich mehr Level2 Cache spendiert als den Desktop-Prozessoren, wo Intel Prescott und AMD Athlon 64 beide mit "nur" 1 MB Level2 Cache antreten werden (und man sich auch bei diesen schon fragen muß, was diese hohen Cache-Größen denn entscheidendes bringen sollen). Davon abgesehen wäre es schön, wenn sich Intel möglicherweise dazu durchringen könnte, den Pentium-M auch auf dem Desktop anzubieten, diese Überlegung gibt es schließlich (inoffiziell) bei Intel schon. Denn bei der niedrigen Verlustleistung des Prozessors wäre dieser ideal für den von den meisten Herstellern leider viel zu selten beachteten LowNoise-Markt - und bei Taktfrequenzen von um die 2 GHz müsste man dann auch nicht auf zeitgemäße Performance verzichten.
Nachdem wir am Sonnabend darüber berichteten, daß einige Mainboard-Hersteller bei ihren Intel i865PE "Springdale" Mainboards das PAT-Feature freischalten, melden Hard Tecs 4U nun vom nächsten "Easteregg" des neuen Intel-Chipsatzes: Scheinbar ist es möglich, aus einem i865P-Mainboard (i865P = OEM-Version des i865PE mit nur FSB533- und DDR333-Support) mit einem i865PE-BIOS-Update ein vollwertiges i865PE-Mainboard zu machen. Den x-bit Labs ist jedenfalls selbiges mit einem Gigabyte i865P-Mainboard gelungen, welches nach dem Flash des BIOS vom Gigabyte i865PE-Mainboard sich in eben dieses verwandelte. Die Grundlage für diesen kleinen "Software-Mod" gibt natürlich Intel höchstselbst, indem man anscheinend den i865P-Chipsatz nicht extra fertigen lässt, sondern einfach (und wirtschaftlicher) aus der i865PE-Produktion nimmt ...
... Allerdings sollten, damit daß BIOS eines i865PE-Mainboards bei einem i865P-Mainboard (des gleichen Herstellers wohlgemerkt) funktionieren kann, beide Boards dasselbe Layout haben, ansonsten kann es zu unkontrollierbaren Resultaten kommen (wobei man ein fehlgeschlagenes BIOS-Update mit guter Vorbereitung eigentlich ziemlich sicher auch wieder rückgängig machen kann). Sollte diese Aktion allerdings tatsächlich und nicht nur in Einzelfällen funktionieren, könnte man zum Preis eines i865P-Mainboards (ca. 110 Euro) ein i865PE-Mainboard (ca. 160 Euro) bekommen, wenn der Mainboard-Hersteller im BIOS auch noch PAT freilegt hat, sogar ein i875P-Mainboard (ca. 200 Euro).