News-Archiv 25. - 31. Oktober 2004 (44. Kalenderwoche)
30./31. Oktober 29. Oktober 28. Oktober 27. Oktober 26. Oktober 25. Oktober
News des 30./31. Oktober 2004 |
Bei den x-bit Labs gibt es wieder einmal etwas zu den aktuellen Marktanteilen der Grafikchip-Entwickler zu lesen, basierend auf Erhebungen der Analysten von Mercury Research. Danach liegt im insgesamten Grafikchip-Markt weiterhin Intel mit 39 Prozent Marktanteil im dritten Quartal vorn (+1% gegenüber dem letzten Quartal, +4% gegenüber dem dritten Quartal des Vorjahres), gefolgt von ATi mit 27 Prozent (+4% bzw. +5%) und nVidia mit mittlerweile nur noch 15 Prozent (-8% bzw. -10%). Um letztere muß man sich mittlerweile regelrecht Sorgen machen, denn nachdem der Marktanteil der Kalifornier im ersten Quartal 2004 zum ersten Mal seit längerer Zeit leicht hinter ATi geruscht war (24,7% zu 24,9%), hat nVidia nun noch deutlich weiter an Boden gegenüber den Kanadiern verloren ...
... Allerdings muß auch gesagt werden, daß sich an den Marktanteilen nie das derzeit aktuelle Geschehen an den Märkten ablesen läßt, sondern daß damit im gewöhnlichen "nur" die Lorbeeren der vergangenen Monate geerntet werden. So spielen also die neuen Grafikkarten-Serie von ATi und nVidia in diesen Erhebungen derzeit noch keine relevante Rolle, auch weil die volumenträchtigen Mainstream- und LowCost-Abwandlungen der neuen Chips weitgehend noch nicht in den Markt gefunden haben. Das Bild könnte sich also mit dem breitflächigen Markteintritt der neuen Grafikkarten nachhaltig ändern, jedoch wird dies kaum vor dem ersten Quartal des neuen Jahres wirklich deutlich an den Marktanteilen abzulesen sein ...
... Leider lagen keine Zahlen zu den weiteren Grafikchip-Entwicklern wie 3DLabs, Matrox S3, XGI, SiS und VIA vor, wobei insbesondere die beiden letztgenannten durch den hohen Anteil an in Mainboards integrierte Grafik-Lösungen am Gesamtmarkt durchaus immer einen gewissen Marktanteil auf die Waage bringen. Einzig allein zu den nicht-integrierten Desktop-Grafikchips wurden noch weitere Zahlen genannt: Auch hier liegt ATi mit 55 Prozent (+17% gegenüber dem letzten Quartal) mittlerweile klar vor nVidia mit 42 Prozent (-16%), wobei uns diesbezüglich leider Vergleichszahlen aus noch weiter zurückliegenden Quartalen fehlen.
Der PC-Hersteller Alienware nimmt ab sofort Bestellungen für sein erstes PC-System mit zwei Grafikkarten an. Allerdings ist nicht ganz klar, ob hier wirklich Alienware´s ALX-System zur Verbindung der zwei Grafikkarten genutzt wird, denn Alienware gibt sowohl "ALX" als auch "SLI" an, was sich aber gegenseitig ausschließt. Generell dürften für die verbauten nVidia-Grafikkarten der Treiber-Verbund mittels SLI-Treiber sinnvoller sein als ein Verbund über den ALX-Treiber. Das aktuelle Alienware-System ist zudem aufgrund der zwei verbauten Xeon-Prozessoren reichlich überteuert, selbst wenn es das erste kaufbare SLI-System darstellen dürfte. Interessant wird die ALX-Technologie jedoch erst, wenn Alienware die entsprechenden Mainboards auch einzeln verkauft, denn dann könnte man mit dem ALX-Treiber auch zwei ATi-Grafikkarten im Verbund betreiben.
Aus unserem Forum kommen Informationen über ein weiteres Desktop-taugliches Pentium-M Mainboard, das DFI 855GME-MGF. Es basiert auf dem Intel i855GME Northbridge-Chipsatz mit integrierter "Intel Extreme Graphics 2" Grafik-Einheit und der Intel 6300ESB Southbridge. Somit bietet das DFI-Mainboard nebem dem Sockel 479 für den Pentium-M oder Celeron-M zwei DDR-Speichersockel (vom Chipsatz wird bis DDR333 unterstützt), einen AGPx4 Steckplatz, einen PCI-X Steckplatz (nicht mit PCI Express zu verwechseln), zwei PCI-Steckplätze, Realtek ALC655 Onboard-Sound, Gigabit-Ethernet ebenfalls von Realtek, 4 Stück USB 2.0 Ports, gar zwei Firewire-Ports und jeweils zwei Ports für ATA100 und Serial-ATA ...
... Einzig allein der PCI-X Steckplatz läßt somit den ursprünglich einmal vom Hersteller angedachten Anwendungszweck des Boards im Industrie-Bereich erahnen, aber ansonsten ist das Mainboard doch sehr vernünftig ausgerüstet und vollständig Desktop-nutzbar. Allerdings ist es mit umgerechnet rund 240 Euro wie schon das ähnlich ausgestatte AOpen-Mainboard i855GMEm-LFS reichlich teuer, zudem ist das DFI-Mainboard auch derzeit nur in Japan frei erhältlich - und eine Bestellung direkt in Japan ist aufgrund der enormen Transportkosten aus dem Reich der aufgehenden Sonne (noch einmal rund 100 Euro) nicht wirklich lohnenswert.
Shortcuts: Bei Hard Tecs 4U hat man sich kritisch mit der Vergabepraxis von Awards seitens Hardware-Webseiten beschäftigt. Golem berichten über einen neuen Abmahnungsfall der Musikindustrie, welcher sich diesesmal gegen das Keft Network richtet. Problematisch ist hier wohl, daß in diesem Fall die Anschuldigungen fast vollkommen haltlos sind, sich der Beschuldigte aber den mit lockeren 75.000 Euro angesetzten Rechtsstreit schlicht nicht leisten kann - und somit womöglich einknicken muß, obwohl er im Recht ist. Der Planet 3DNow! vermeldet, daß neuere Varianten des Bagle-Wurms die in Windows XP mitgelieferte Firewall deaktivieren können - wobei einige das sogar als "Nutzfunktion" einordnen würden ;-). Prinzipiell sollte man besser von der bei Windows XP mitgelieferten Firewall absehen und auf eine "echte" Firewall setzen - und es schadet definitiv nicht, ab und zu zu kontrollieren, ob diese denn wirklich noch geladen und aktiv ist ...
... Und nochmals Golem berichten über ein Experiment, bei welchem Hirnzellen von Ratten nach einer gewissen Übungsphase ein (simuliertes) Kampfflugzeug absturzfrei geflogen haben. Insbesondere die niedrige für diese durchaus schwierige Aufgabe notwendige Anzahl an Hirnzellen prädestiniert diese Technologie auch für höhere Aufgaben - womöglich bringt die Zukunft ja gar fertige Computer mit "biologischer" CPU. Und letztlich ganz abseits dessen: Wie schon einmal erwähnt, zeigt Pro7 am Montag, den 1. November, um 20:15 Michael Moore´s "Fahrenheit 9/11" in deutscher Erstausstrahlung, der Film wird zudem am Dienstag um 23:20 von SAT.1 wiederholt (aller Vermutung nach im übrigen beidesmal im Original mit deutschen Untertiteln). Alternativ kann man sich zudem das amerikanische Original ab Montag ganz legal bei CinemaNow für 9,95 Dollar downloaden :-).
News des 29. Oktober 2004 |
Bei AnandTech hatte man die Möglichkeit, mit einem Vorserien-Mainboard mit nForce4-Chipsatz einige SLI-Benchmarks zu fahren. Mit einer GeForce 6600GT sowie einer GeForce 6800GT ermittelte man somit jeweils 62 Prozent Vorteil für die SLI-Lösung gegenüber einer einzelnen Grafikkarte desselben Typs. Betrachtet man nur die höchstgewählteste Anforderung von 1600x1200 mit 4x Anti-Aliasing, waren es sogar 70 bzw. 84 Prozent. Ein GeForce 6600GT SLI-Gespann erreichte in diesem kurzen Test jedoch in keinem Fall die Performance einer einzelnen GeForce 6800GT ...
... Da in beiden Fällen der Preis ungefähr derselbe sein dürfte, lohnt sich SLI bei der Mainstream-Grafikkarte GeForce 6600GT wohl überhaupt nicht - besser wäre es, in diesem Fall gleich zur (einzelnen) GeForce 6800GT zu greifen. Generell lohnt sich SLI natürlich nur bei entsprechendem Geldbeutel - und wenn man die Performance auch wirklich benötigt, indem man ständig unter 1600x1200 mit Anti-Aliasing und ansiotropen Filter unterwegs ist. Selbst dann erscheint allerdings ein SLI-Gespann aus heutiger Sicht ein wenig übertrieben, da die aktuellen HighEnd-Karten für heutige Spiele genug an Leistung haben ...
... Denkbar wäre aber der Weg, sich eine SLI-Plattform und zuerst nur eine einzelne Grafikkarte zuzulegen. Dann hätte man die Möglichkeit, daß System erst dann zum SLI-System auszubauen, wenn die Leistung auch wirklich benötigt wird - zudem dürfte in einigen Monaten der Preis von GeForce 6800 GT/Ultra Grafikkarten auch schon wieder gesunken sein. Die Option einer SLI-Plattform wird - bezogen auf den nForce4-Chipsatz - womöglich mit rund 50 Euro Mehrpreis gegenüber gewöhnlichen nForce4-Mainboards zur Verfügung stehen, was ein durchaus gangbarer Weg angesichts der zu erwartenden Mehr-Performance ist.
Bezogen noch einmal auf den NV40 Video-Prozessor gibt es hier eine Petition, welche von nVidia die kostenlose Bereitstellung des nVidia DVD Decoders fordert. Angesichts desssen, daß die NV4x-Grafikkarten zumeist einige hundert Euro kosten, ist dies auch sicherlich ein verständlicher Punkt - mal abgesehen davon, daß nVidia wegen des derzeit noch nicht ansprechbaren Video-Prozessors (es wird ein noch nicht verfügbares Treiber-Update zur Aktivierung dessen Funktionalität benötigt) sowieso in der Bringpflicht ist, nachdem die Funktionen des Video-Prozessors schon zum NV40-Start groß angepriesen wurden.
News des 28. Oktober 2004 |
Zu dem am Dienstag gemeldeten fehlerhaften Video-Prozessor des NV40-Chips gibt es einiges richtigzustellen, da die Sache deutlich verworrener ist, als ursprünglich angenommen. So scheint nicht die komplette Video-Einheit des NV40-Chips defekt zu sein, sondern nur Teile davon. Bisher ist hier konkret nur die Decodierung von HD-WMV Dateien bekannt, welches nicht mehr zum offiziellen Funktionsumfangs des NV40-Chips gehört (obwohl bei Launch seinerzeit versprochen, insofern scheint dies der fehlerhafte Teil zu sein), jedoch zum Funktionsumfangs des NV43-Chips. Ob es noch weitere Funktionen gibt, die fehlen, ist derzeit unbekannt, nVidia hüllt sich diesbezüglich leider in möglichst nichtssagende Formulierungen. Unabhängig der Decodierung von HD-WMV Dateien sind die Video-Fähigkeiten der NV4x-Chips jedoch größtenteils sowieso derzeit nicht nutzbar, da von der Software noch nicht unterstützt ...
... Erst mit einer im November erscheinenden Treiber-Version (wahrscheinlich ForceWare 70 Serie) wird der Einsatz der Video-Fähigkeiten prinzipiell nutzbar, bedingt aber weiterhin den Support der Anwendungssoftware. nVidia stellt diesbezüglich schon einen kostenpflichtigen nVidia DVD-Decoder zur Verfügung - wann andere Anbieter entsprechender Programme die Möglichkeiten der NV4x-Chips unterstützen werden, bleibt abzuwarten. Wir möchten aber nochmals darauf hinweisen, daß zur Decodierung von gewöhnlichen Videos/Movies die heutige Hardware ausreichend schnell genug ist, eine extra Beschleunigung durch den Grafikchip somit nicht zwingend in Vorteile resultiert - denn schneller als in Real-Zeit muß nun einmal kein Video decodiert werden.
Die Virtual Zone hat interessante Dinge zum nVidia NV44 Grafikchip zu berichten. Und zwar sah man ein Sample dieser Karte mit anscheinend nur 16 MB Grafikkarten-Speicher. Offensichtlich soll hier die "Turbo Cache" genannte Technologie (bei ATi nennt sie sich "HyperMemory"), welche einen Teil des PC-Hauptspeichers mit als Grafikkarten-Speicher nutzt, massiv zum Einsatz kommen. Damit würde auch die Idee, welche schon seinerzeit AGP-Texturing zu Grunde lag, nämlich die Einsparung von Grafikkarten-Speicher für LowCost-Grafikkarten, erstmals in die Realität umgesetzt werden ...
... Ob sich damit performante Lösungen erreichen lassen, darf getrost bezweifelt werden, denn zwischen AGPx8 und PCI Express x16 ergibt sich bezüglich der Bandbreite auch nur ein Unterschied mit dem Faktor 2, was also einen prinzipiellen Flaschenhals (nämlich das Grafikkartenspeicher dramatisch schneller ist als PC-Hauptspeicher) nicht in Luft wird auflösen können. Jedoch: Für diese Märkte, wo diese Karten (mit gewöhnlich sowieso nur 64bittigem Speicherinterface) verkauft werden, dürfte dies relativ egal sein, ganz besonders bei der hohen Kostenersparnis durch den deutlich kleineren Grafikkartenspeicher ...
... Trotz das diese Karten keine wirkliche Option für Spieler darstellen, dürfte ein Performance-Vergleich zwischen einer NV44-Karte mit 16 MB und Turbo Cache und einer gewöhnlichen NV44-Karte reichlich interessant sein - womöglich überrascht uns ja auch das Turbo-Cache-Feature mit einer relativ humanen Performance. Abseits dessen sei noch erwähnt, daß der NV44-Chip natürlich nicht allein nur für solcherart Grafikkarten unterhalb der GeForce 6200 eingesetzt werden wird: Vielmehr wird der NV44-Chip das komplette LowCost-Feld inklusive der GeForce 6200 und dieser noch unbenannten Karten unterhalb der GeForce 6200 abdecken.
Shortcuts: Die gestern berichtete Abmahnung gegen TweakPC bezieht sich anscheinend auf diese Meldung, welche allerdings nur noch im Google-Cache zu finden ist. Laut dem Planet 3DNow! sollen die neuen 90nm-Prozessoren seitens AMD mit einigen Mainboards teilweise Probleme verursachen, da deren BIOS-Versionen die neuen Prozessoren noch nicht erkennen und dann teilweise schlicht den Dienst komplett verweigern. Golem vermelden dagegen, daß sich die Musikindustrie vom Gesetzgeber nun noch die Abschaffung der (bisher legalen) Kopiermöglichkeit von Rundfunk- und Internetradioprogrammen "wünscht". Und letztlich wurde wieder ein neuer 3DMark05-Rekord aufgestellt: 10.118 3DMarks waren es mit einem SLI-System samt Athlon 64 FX-55 und zweier GeForce 6800 Ultra Grafikkarten.
neuer Artikel |
NV40-Technik im Detail, Teil 2: Die Ausnutzung der NV40-Möglichkeiten
Der NV40-Chip von Nvidia ist die höchstentwickelte GPU, die es momentan gibt. Das nehmen wir zum Anlass, um auf verschiedene Aspekte dieser GPU einen Blick zu werfen. Dafür haben wir unseren Artikel in drei Folgen unterteilt: Heute geht es im zweiten Teil darum, wie sich die NV40-Pipeline am besten ausnutzen läßt ... zum Artikel
News des 27. Oktober 2004 |
Bei den Elite Bastards hat man sich mit den Performance-Auswirkungen des Far Cry Patches 1.3 beschäftigt, welcher einige neue Features mitbringt bzw. diese unterstützt. Der nun offizielle Support des Shader Model 3.0 bringt den GeForce-6800-Karten durchaus einige Performance gegenüber dem Shader Model 2.0, wobei es hier anscheinend je nach Map deutliche Unterschiede gibt (Training: ±0, Research: +16%). Das ebenfalls integrierte HDR-Feature der GeForce-6800-Karten ist jedoch kaum real nutzbar, da es im Schnitt über 40 Prozent Performance kostet, insbesondere bei gleichzeitiger Nutzung des anisotropen Filters wird das Spiel somit zu langsam ...
... Allerdings hat HDR rein optisch durchaus etwas für sich, wie auf den Screenshots & Movies im nV News Forum zu sehen. Geometry Instancing scheint dagegen hervorragend implementiert worden zu sein, da dieses selbst bei höchstmöglicher Ausnutzung keinerlei Performance kostet. Und letztlich scheint die Kompression von Normal-Maps zumindestens auf den GeForce 6800 Karten keinerlei Performance-Gewinne in Far Cry 1.3 zu erbringen. Leider wurden diese Tests jedoch nur mit einer GeForce 6800GT absolviert. Es wäre jedoch genauso interessant zu sehen, was eine Radeon X800 Karte mit dem Shader Model 2.0b bzw. der 3Dc-Kompression noch an Performance gewinnen könnte.
Bei HWspirit scheint man einen neuen nVidia-Grafikchip ausgegraben zu haben: GeForceFX 5900ZT. Im Gegensatz zur GeForceFX 5900XT (390/350 MHz, 256 Bit Speicherinterface) hat die GeForceFX 5900ZT nur einen Chiptakt von 325 MHz, zudem soll es von dieser extra Versionen mit nur 128 Bit Speicherinterface geben, von welchen allerdings aufgrund des in solchen Fällen üblicherweise geringen Preisunterschieds nur abgeraten werden kann. Allerdings gibt es derzeit wohl nur vom fernöstlichen Hersteller Manli eine solche Karte, insofern ist damit nicht gesagt, daß die GeForceFX 5900ZT auch hierzulande im Markt auftauchen wird.
Eine ziemlich dreiste rechtsanwaltliche Abmahnung haben sich TweakPC eingefangen, wobei die konkrete Sachlage generell auch für die gesamte Online- und Offline-Presse interessant ist. Und zwar hatten TweakPC zur CeBIT-Zeiten die Pressemitteilung eines taiwanesischen Herstellers über ein neues Produkt abgedruckt. Dummerweise hat ein (von TweakPC ungenannter) deutscher Hersteller jedoch auf diese Produktgruppe einen Gebrauchsmusterschutz in Deutschland, so daß der taiwanesische Hersteller seine Produkte hier in Deutschland nicht anbieten darf (was TweakPC natürlich nicht wissen konnten - woher auch) ...
... Der deutsche Hersteller hat nun aber TweakPC eine rechtsanwaltliche Abmahnung samt Unterlassungserklärung zugeschickt, weil jener die Berichterstattung über das Produkt des taiwanesischen Herstellers als eine Art "Benutzungshandlung" ansah, welche durch das Gebrauchsmustergesetz verboten wäre. TweakPC haben sich allerdings lobenswerterweise dazu entschloßen, nicht vor dieser Abmahnung zu kapitulieren, weil eine reine Berichterstattung eben nichts mit einer "Benutzungshandlung" zu tun hat - darunter fallen üblicherweise allein das Anbieten und Verkaufen realer Produkte ...
... Nach einem erfolglosen Schlichtungsversuch seitens TweakPC werden die Anwälte des deutschen Herstellers wegen dieser Lächerlichkeit womöglich vor Gericht ziehen, wo sie jedoch hoffentlich vollkommenen Schiffbruch erleiden werden. Statt der gewünschten Unterlassungserklärung seitens TweakPC hat der deutsche Hersteller wohl eher eine Ordnungsstrafe verdient, dafür, die Gerichte mit einem Fall ohne echte rechtliche Grundlage zu belästigen. Sollte allerdings der deutsche Hersteller vor Gericht tatsächlich Recht bekommen, so droht in der Tat das, was TweakPC in ihrer diesbezüglichen Meldung schon überspitzt schilderten: Für einen Redakteur würden dann 20 eigene Patent-Anwälte benötigt, um jede News vorab auf mögliche Patentverletzungen zu überprüfen ;-).
News des 26. Oktober 2004 |
Wie die ComputerBase berichtet, wird die GeForce 6600 /GT auf AGP am 16. November releast werden - und da es eine genaue Uhrzeit gibt (15 Uhr), scheint nVidia der Karte wohl einen extra Launch zuzugestehen, auch wenn die Performance der AGP-Version sicherlich völlig gleich zu der Performance der PCIe-Version liegen wird. Gleichfalls berichtet man aber auch über eine Knappheit der auch bei dieser Grafikkarte dann eingesetzten HSI-Bridge, was die Auslieferungen an AGP-Versionen der GeForce 6600 /GT durchaus behindern könnte. Auf Seiten ATi wird bekanntermaßen der Rialto-Chip für AGP-Ausführungen der Radeon X700 Serie sorgen, dessen Verfügbarkeit allerdings mit Datum November bis Januar derzeit noch reichlich ungewiß ist.
Nochmals die ComputerBase berichten über den fehlerhaften Video-Prozessor der GeForce 6800 Serie. Hierbei wird prinzipiell das bestätigt, was AnandTech schon Anfang des Monats schrieben: Der Video-Prozessor des NV40-Chips ist fehlerhaft, so daß reihenweise eigentlich in Hardware ausführbare Video-Funktionen (darunter MPEG2/4-, WMV9- und DivX-Encoding und -Decoding) nicht über den Grafikchip zur Verfügung stehen. Dies ist natürlich ein herber Rückschlag für nVidia sowie ein Nachteil für die GeForce 6800 Serie, insbesondere da ATi auf diesem Gebiet sowieso schon jahrelang klar vorn liegt ...
... Für Video-Freaks sind Grafikkarten mit NV40/NV45-Chip (der NV45 als reine PCIe-Ausführung des NV40 hat aller Vermutung nach dasselbe Problem) demzufolge nicht zu empfehlen. Für Normalanwender, welche ab und zu nur einmal ein Video auf dem PC abspielen, dürfte sich jedoch kein spürbarer Nachteil ergeben, da die heutige Hardware allgemein leistungsfähig genug ist, auch ohne Hardware-Unterstützung der Grafikkarte ein Video ruckelfrei abzuspielen. Im reinen Konsumenten-Bereich dürfte allenfalls HDTV-Anwender Nachteile haben, da aufgrund der riesigen Datenmenge von HDTV ein Hardware-Support der Grafikkarte diesbezüglich durchaus sinnvoll wäre ...
... Allerdings wird es mit HDTV in Europa noch ein paar Jährchen dauern, in Amerika wird dies nVidia jedoch sicherlich schon jetzt Kunden kosten. Nicht betroffen sind im übrigen die außerhalb von NV40 und NV45 stehenden Grafikchips: NV43 (GeForce 6600 /GT) und NV44 (GeForce 6200) sind diesbezüglich fehlerbereinigt, von den noch anstehenden Grafikchips NV41 (GeForce 6800 /LE) und NV48 kann man selbiges sicher erwarten. Es wäre zudem möglich, daß eine neuere Revision von NV40 und NV45 den bewussten Fehler behebt, allerdings ist dies dato rein spekulativ.
Hard Tecs 4U berichten über Intel´s Mainboard-Chipsatz-Planungen. So werden im zweiten Quartal 2005 die Chipsätze "Glenwood" und "Lakeport" die bisherigen i915- und i925-Chipsätze beerben, jene werden durchgehend FSB1066 und DDR2/667 unterstützen (wobei es FSB1066-Support auch schon mit dem i925XE zum Ende diesen Jahres geben wird). Zugleich werden diese Chipsätze auch den von Intel geplanten Unterbau für die im dritten Quartal anstehenden DualCore-Prozessoren bilden - ohne das dabei allerdings derzeit klar ist, ob jene DualCore-Prozessoren nicht eventuell prinzipiell auch auf heutigen i915/i925-Mainboards laufen würden.
News des 25. Oktober 2004 |
In einem Thread unseres Forums läuft eine interessante Diskussion, nach welcher bei den nVidia GeForce 6800 GT/Ultra Grafikkarten ein 6800GT-BIOS scheller als ein Ultra-BIOS arbeitet - gemessen natürlich auf den gleichen Taktraten. Ähnliche Effekte gab es auch schon früher teilweise zu beobachten, gerade die höchstgetaktesten Modelle einer HighEnd-Grafikkarten-Serie treten öfters einmal mit etwas entschärften Speichertimings an. Natürlich ist der Unterschied zumeist nicht wirklich weltbewegend, im konkreten Fall waren es 1,4 Prozent unter dem 3DMark03, jedoch immerhin 3,5 Prozent unter dem (bekannt Grafikkarten-limitierten) 3DMark05 ...
... Deswegen allerdings das eigene Grafikkarten-BIOS umzuflashen, ist wohl eher nur in Ausnahmefällen zweckmäßig, und zudem sicherlich nichts für Anfänger beim Flashen von Grafikkarten-BIOSen. Auch sollte klar sein, daß die niedrigeren Speichertimings des Ultra-BIOSes natürlich potentiell eine bessere Übertaktungsfähigkeit des Speichers ergeben, was man dann mit einem GT-BIOS potentiell wieder einbüßen würde. Beispielhaft sei hier ein Fall genannt, wo mit dem originalen Ultra-BIOS eine Übertaktung auf 466/602 MHz erreicht werden konnte, mit dem GT-BIOS jedoch schon bei 450/587 MHz Pixelfehler auftraten. Wer sich dennoch für diese Modifikation interessiert, findet hier die dafür benötigten Files.
Der Tech Report vermeldet, daß laut AMD-Dokumenten die neuen 90nm-Prozessoren von AMD eine Leistungsaufnahme von nur noch maximal 67 Watt aufweisen (sowie 21 Watt im "Cool’n’Quiet" Modus), während AMD bei den 130nm-Prozessoren bekanntermaßen 89 Watt ausweist. Hinzuzusagen gilt hier allerdings, daß die von AMD angegebenen Leistungsaufnahmen sich keineswegs mit von Intel angegebenen Leistungsaufnahmen vergleichen lassen. Faktisch gibt AMD eigentlich gar keine Leistungsaufnahmen für einzelne Prozessoren an - sehr gut daran zu erkennen, daß alle Athlon 64 Prozessoren (bis auf den FX-55) von AMD mit "89 Watt" angegeben werden, egal ob es sich um Prozessoren mit 1.8 oder 2.4 GHz Takt handelt ...
... Diese unterschiedlich getakteten Prozessoren haben natürlich nicht alle die identische Leistungsaufnahme. Die AMD-Angabe bezieht sich vielmehr überhaupt nicht auf einzelne Prozessoren, sondern auf eine komplette Gruppe von Prozessoren, deren höchstes Exemplar womöglich diese 89 Watt zieht. Selbst das ist allerdings noch nicht einmal sicher, denn AMD könnte hier auch einen größeren Sicherheitsabstand eingelegt haben. Für uns scheint es eher so, als wären diese mittlerweile legendären "89 Watt" viel eher eine Angabe für die Mainboard-Hersteller, ganz nach dem Prinzip: "Leg Dein Mainboard-Design bis 89 Watt aus - und dann passt das alles" ...
... Insofern ist nicht einmal gesagt, daß (130nm) Athlon 64 4000+ und FX-53 als höchste Exemplare der "89-Watt-Gruppe" wirklich eine so hohe Leistungsaufnahme haben, womöglich liegt selbst deren Leistungsaufnahme noch deutlich darunter. Der Quervergleich zu den Intel-Prozessoren, deren hohen Taktfrequenzen und hohen Transistorenmengen (beim Prescott) läßt eher die Schätzung zu, daß selbst ein (130nm) Athlon 64 4000+ nur ungefähr 75 Watt zieht. Genauso wird der neue Athlon 64 FX-55, von AMD mit 104 Watt angegeben, nicht gleich diese 104 Watt ziehen (unsere Schätzung: 80 Watt), sondern stellt eher nur das erste Exemplar einer neuen Gruppe von Prozessoren dar, deren höchstes Exemplar womöglich in die Nähe von 104 Watt kommen wird ...
... Vermutlich wurde diese "104-Watt-Gruppe" von AMD nur gegründet, damit sich die Mainboard-Hersteller auf den Support der 90nm DualCore-Prozessoren des nächstens Jahres vorbereiten können, AMD ließ (allerdings undeutlich) kürzlich ein bißchen was in diese Richtung durchblicken. Zurückkommend auf die jetzigen 90nm SingleCore-Prozessoren läßt sich also sagen, daß auch die von AMD angegebenen 67 Watt keine tatsächliche Angabe zur Leistungsaufnahme einzelner 90nm-Prozessoren darstellt. Vermutlich wird AMD in diese "67-Watt-Gruppe" alle noch folgenden SingleCore-Prozessoren hereinquetschen, sprich also bis zu einem 90nm Athlon 64 4200+, welcher dann vermutlich real 55-60 Watt verbrauchen wird. Heruntergerechnet auf die aktuellen 90nm-Prozessoren von AMD ergibt dies dann letztendlich, daß ein 90nm Athlon 64 3200+ schätzungsweise mit 45-50 Watt Leistungsaufnahme dasteht.