News-Archiv 4. - 10. August 2003 (32. Kalenderwoche)
10. August 9. August 8. August 7. August 6. August 5. August 4. August
News des 10. August 2003 |
Es ist zwar keine taufrische Meldung mehr, aber dennoch recht interessant: Die ComputerBase hat sich kurz die BIOS-Entwicklung bei nForce2-Platinen angesehen - die BIOSe bei nVidia-Mainboards werden bekanntermaßen generell von nVidia programmiert und der jeweilige Mainboard-Hersteller hat hier nicht mehr all zu große Möglichkeiten zur Einflußnahme. Dabei konnte generell festgestellt werden, daß die BIOSe seit den ersten Tagen des FSB400 deutlich meßbar langsamer geworden sind, wahrscheinlich, um Signalinstabilitäten in Zusammenhang mit eben jenem FSB400 zu vermeiden ...
... Der springende Punkt hierbei ist, daß dies leider mittlerweile zur gängigen Praxis unter den meisten Chipsatz- und Mainboard-Herstellern geworden ist: Jene Boards, welche zu den Hardware-Testern herausgehen, erhalten teilweise BIOS mit erstaunlichen Leistungen, welche sich dann durch spätere Serien-BIOS nicht wieder bestätigen lassen. Der Unterschied ist zwar nicht weltbewegend, aber dennoch im Rahmen von 3-5 Prozent bei vielen Boards vorhanden. Die Hersteller spielen hier mit schlicht superschnellen Timings im versteckten Teil des BIOS, um in den Leistungsvergleichen gut dazustehen - jedoch werden diese Prozentpünktchen mehr Leistung natürlich auch durch eine potentiell höhere Instabilität erkauft...
... Dummerweise testen die meisten Hardware-Tester neue Mainboards mit hochklassigen Komponenten, insbesondere zumeist mit hochklassigem Speicher, womit eine unter der Oberfläche verborgene Neigung zur Instabilität nicht so schnell zu Tage tritt. Im Alltagsbetrieb beim Endanwender können diese superschnellen Timings aber zu Problemen führen, weswegen die Auslieferungs-BIOSe dann wieder etwas entschärft werden. Zu erkennen ist dieser kleine Trick der Hersteller für den Hardware-Tester meistens erst "danach". Allenfalls durch intensive und zeitraubende Kompatibilitätstests haben Mainboard-Tester eine gewisse Chance, jene Problematik schon vorab zu erkennen, was allerdings bei den meisten der im Web zu "bewundernden" 2-Tage-Tests kaum der Fall sein dürfte.
Sehr intensiv und zeitraubend wurde beispielsweise im DDR400 Speicher-Roundup zu Hard Tecs 4U getestet - bei einer Summe von 20 DDR400-, DDR433, DDR466- und DDR500-Speicherriegeln von Corsair, Crucial, GeIL, Infineon, Kingmax, Kingston, MemorySolutioN, MCI/MDT, OCZ, Samsung und TwinMOS summerierte sich die Testzeit somit auf einige Wochen. Dafür konnte man dann aber auch zuverlässige Angaben darüber machen, bis zu welchen Taktfrequenzen und Timings die getesteten Speicher wirklich stabil sind, wobei hierbei alle getesteten Speicher ihre Herstellervorgaben erfüllen konnten ...
... Interessant sind die Speicher-Benchmarks: Hier wurde nicht blind Speicher A gegen Speicher B mit den identischen Timings getestet, um dann den einen Speicher mit einem eher durch die Meßungenauigkeit begründbaren Vorsprung von 1,5 MB/sec in einem hochtheoretischen Benchmark zum Sieger zu küren, sondern es wurden die Leistungsunterschiede bei unterschiedlichen Speichertimings herausgearbeitet, in Verbindung auch mit dem Aufbau des Speichermoduls (intern single oder double sided). Großartige Unterschiede ergaben sich aber selbst zwischen den Timings 3.0-4-4-8 und 2-2-2-6 nicht, hier sollte die Prämisse des Anwenders womöglich besser auf Stabilität denn als auf Höchstleistungen gehen ...
... Aber auch die Ergebnisse von starken Übertaktungen bzw. diejenigen von DDR500-Speicherriegeln fallen eher mager aus: Durch die bei physikalischen 250 MHz Speichertakt notwendige Erhöhung der Timings egalisiert sich der Vorteil dieses hohen Speichertaktes fast vollständig. So kommt es zu der Situation, daß ein Pentium 4 System mit 250 MHz FSB und asynchronem RAM-Takt von 200 MHz fast genausoschnell ist wie ein System mit 250 MHz FSB und synchronem RAM-Takt von 250 MHz. Für FSB-HighEnd-Overclocking beim Pentium 4 wird also mitnichten zwingend DDR433-, DDR466- oder DDR500-Speicher benötigt ...
... Möglicherweise hängt dies auch an den neuen Intel i865 und i875 DualChannel Plattformen, deren Bandbreite von 6 GB/sec von heutigen Anwendungen wohl noch nicht vollständig ausgenutzt wird, so daß insbesondere weitere Erhöhungen der Bandbreite durch höhere Speichertakte nicht wirklich durchschlagen. So erklärt sich wohl auch, daß das langsamste von Hard Tecs 4U getestete System mit single sided DDR400-Speicher und 3-4-4-8 Timings nur geringfügige 6 Prozent langsamer unter Quake III Arena war als das schnellste getestete System mit 250 MHz FSB- und RAM-Takt (bei identischem CPU-Takt) auf Basis von double sided DDR500-Speichern mit denselben 3-4-4-8 Timings.
Dabei ist DDR500 mittlerweile gar nicht einmal mehr das Ende der Fahnenstange: Denn der amerikanische Speichermodul-Hersteller mit dem leicht programmatischen Namen :-) GeIL wird laut Hardwareluxx nun sogar DDR533 Speichermodule in den Markt bringen - und nebenbei auch DDR500-Module mit 2.5-4-4-7 Timings, was sehr wenig ist, da alle bisherigen DDR500-Module mit 3-4-4-8 antraten. Der DDR533-Speicher ist natürlich wie alle Speichermodule überhalb von DDR400 auch weiterhin nur auf besonders gut übertaktbaren DDR400-Speicherchips aufgebaut, der Funktionalität sollte dies aber keinerlei Abbruch tun ...
... Ironischerweise nimmt damit die immer noch fortschreitende Entwicklung von DDR1-Speichern eine weitere Entwicklungsstufe von DDR2 schon jetzt vorweg. Schon der geplante DDR2/400 Standard ist durch den mittlerweile offiziellen DDR400 Standard eigentlich völlig überflüssig geworden, da DDR2-Speicher bei gleichem Takt nicht schneller ist als DDR1-Speicher. Und ähnliches droht nun auch dem noch recht weit entfernten DDR2/533-Standard: DDR533-Speicher sind absolut genauso schnell, wenngleich sie auch ziemlich teuer sind und nicht den Segen des Speicherstandardisierungsgremiums JEDEC genießen. Wirklich Sinn macht DDR2 so wohl erst ab DDR2/667, welches gemäß der aktuellen Speicher-Roadmap aber auch erst Anfang 2005 in den Markt kommen soll.
News des 8. August 2003 |
Momentan treibt sich ein 45.23er nVidia-Treiber durchs Netz, zu welchem es einiges zu berichten gibt: Zu erhalten ist der Treiber derzeit nur von Fujitsu Siemens, die Dateien stammen allerdings allesamt einwandfrei von nVidia, welche den Treiber auch am nächsten Montag zusammen mit einem WHQL-Siegel offiziell machen werden. Die Treiber enthalten jede Menge Bugfixes für viele Spiele und daneben auch die Einträge für einige neue Grafikkarten. Allerdings können wir momentan ehrlicherweise mit den Einträgen "GeForceFX 5200SE" und "GeForceFX 5600SE" nicht viel anfangen, wohingegen der Eintrag "GeForceFX 5900SE" wohl ein Fehler zu sein scheint, da er im (vom Datei-Datum her neueren) nVidia-Original der 45.23er Treiber nicht auftaucht ...
... Daß der Suffix "SE" hier mit PCI Express Varianten gleichzusetzen ist, halten wir für unwahrscheinlich, denn dafür ist es noch zu früh, außerdem wird nVidia mit dem NV36X, einer Abwandlung des NV36-Chips, sowieso einen regelrecht eigenen PCI Express Chip für den Mainstream-Markt herausbringen. Übrig würden dann nur noch höher getaktete Varianten bleiben - womöglich nennt nVidia ja die 400/400 MHz Variante der GeForceFX 5600 Ultra demnächst "SE", um sie von der "alten" Variante mit 350/350 MHz Taktraten abzugrenzen. Dies erklärt dann allerdings immer noch nicht die GeForceFX 5200SE - vom GeForceFX 5200 /Ultra Chip ist dato auch überhaupt nicht bekannt, daß nVidia jenen eventuell noch mit höheren Taktraten in den Markt bringen will.
Bei NFI haben sich mal wieder ein paar neue Gerüchte zu dem im Herbst/Winter anstehenden nVidia-Chips eingefunden: So wird zum NV36 berichtet, daß dieser am 15. Oktober gelauncht werden soll und nVidia diesesmal sehr bedacht darauf ist, daß dies kein Paperlaunch wird. Der NV38 hingegen soll zusammen mit den Detonator 50 Treibern kommen, welche ihrerseits für den Herbst terminiert sind. Ob das nun früher oder später als der NV36 bedeutet, ist daraus nicht sicher abzuleiten, aber man kann sich wohl ebenfalls auf Oktober für den NV38 einrichten. Und letztlich soll der NV40 nun noch sein Tape-Out gehabt haben - allerdings ist nicht bekannt, wann exakt dies passiert ist, was die Grundlage für die Berechnung seines genauen Markteintritts wäre.
Wem die Taktraten einer normalen GeForceFX 5900 Ultra noch nicht ausreichen, kann sich vertrauensvollerweise an den nVidia-Boardhersteller Gainward wenden, welcher - wieder einmal - die höchstgetakteste Karte dieser Art in seinem Programm hat. Dabei setzt man, wie Golem berichtet, erstmals auf eine serienmäßige Wasserkühlung, womit Gainward es sich erlaubt, die "CoolFX PowerPack! Ultra/1600 XP Golden Sample" genannte Grafikkarte mit 500/475 MHz anstatt der für den verbauten GeForceFX 5900 Ultra Chip üblichen 450/425 MHz zu betreiben. Der Spaß hat natürlich seinen Preis, jene Karte kostet auch Dank des reichhaltigen Zubehörs (Firewire-Karte und Soundkarte) stolze 880 Euro im Gainward-Shop ...
... Doch auch auf ATi-Seite gibt es einen Boardhersteller, welcher sich immer wieder durch erhöhte Taktraten hervorhebt, auch wenn die Produkte von OCSystems hierzulande nicht offiziell vertrieben werden und somit nur über den amerikanischen Online-Shop beziehbar sind. Dafür bietet man zu deutlich humaneren Preisen Radeon 9800 Pro Grafikkarten an, welche mit 425/370 MHz (Chip-default ist 380/340 MHz) schon jetzt ungefähr in die Nähe der vermutlichen Taktraten des noch anstehenden R360-Chips reichen. Wie üblich mit einer Heatpipe und in diesem Fall zusätzlich auch noch mit einem Gehäuselüfter (Zalman ZM80C + OP1, im Test bei 3DChip) ausgestattete, kommt man für die 128-MB-Version mit 450 Dollar und für die 256-MB-Version mit 530 Dollar doch wesentlich günstiger weg als bei der vorgenannten wassergekühlten GeForceFX 5900 von Gainward, auch wenn diese natürlich das gewisse etwas hat.
News des 7. August 2003 |
Aus einer Meldung seitens der Silicon Strategies ist zu entnehmen, daß nVidia offenbar Yield-Probleme beim NV31 und NV35 hat (GeForceFX 5600 /Ultra bzw. GeForceFX 5900 /Ultra; Yield = Ausbeute) - und diese allerdings bis zum Ende diesen Monats gelöst sein sollen. Dabei sollen die momentanen Probleme bei der Chipausbeute eindeutig "nVidia-spezifisch" sein - und damit theoretisch nicht den nVidia-Chipfertiger TSMC betreffen. Einen wirklichen Reim läßt sich allerdings derzeit noch nicht auf diese Geschichte machen, hierzu fehlen leider einige Hintergrund-Informationen zur Vertragslage zwischen nVidia und TSMC ...
... Normalerweise verkaufen Chipfertiger wie TSMC den Chipentwicklern wie nVidia nur fertige Wafer, das Risiko der Chipausbeute läge in diesem Fall bei nVidia - womit Probleme mit der Ausbeute dann auch auf Kosten von nVidia gehen würden. Allerdings gibt es auch andere Geschäftsmodelle bei den Chipfertigern: IBM beispielsweise, welche den NV36-Chip und möglicherweise auch den NV40-Chip für nVidia produzieren werden, verkaufen nur funktionstüchtige Chips (natürlich zu höheren Preisen). Selbiges Recht räumt allerdings auch TSMC seinen Kunden für den Fall ein, daß man zusammen eine neue Produktionstechnologie anstößt ...
... Dies dürfte beispielsweise für den NV30-Chip (GeForceFX 5800 Ultra) gegolten haben, wo TSMC zusammen mit nVidia erstmals einen solch großen Chip im - damals für TSMC neuen - 130nm Herstellungsprozeß gefertigt hat. Ob diese Sonderregelung allerdings noch für die nachfolgenden Chips NV31 und NV35 gilt und wie die Verträge von ATi und nVidia mit TSMC ganz allgemein aussehen, darüber liegen nur Bruchteile von Informationen vor. Somit ist es jedesmal äußerst schwierig zu beurteilen, ob ein gemeldetes Problem bei der Chipausbeute wirklich den Grafikchip-Entwickler betrifft, womit dieser sowohl Lieferprobleme hätte als auch finanzielle Verluste einbuchen müsste, oder ob es "nur" den Chiphersteller betrifft, womit der Entwickler sich rein nur mit den daraus resultierenden Lieferproblemen abfinden müsste.
Bei Hard Tecs 4U hat man sich in einem gründlichen Nachtest das MSI 865 NEO2 FIS2R Springdale-Mainboard noch einmal genauer angesehen - jenes Mainboard, welches seinerzeit bei den ersten Springdale-Tests durch ein dynamisches Overclocking und damit offensichtlich "zu hohe" Performance-Resultate auffiel. Mittels dieses Artikels läßt sich nun aufklären, daß das festgestellte dynamische Overclocking des MSI-Boards keine Cheat-Funktion ist, sondern ein ganz reguläres Features, von MSI inzwischen auch recht breit als D.O.T. (Dynamic Overclocking Technology) beworben ...
... Bei jenem Vorserien-Boards zu Zeiten der ersten Springdale-Tests war D.O.T. per default aktiviert, es fehlte zudem eine Abschaltmöglichkeit. In den neuen Mainboard-BIOSen für MSI´s i865PE- und i875P-Mainboards (auch auf den i875P-Mainboards von MSI gibt es D.O.T., es soll zukünftig auch auf weiteren MSI-Platinen angeboten werden) finden sich nun jedoch einige Einstellungsmöglichkeiten für D.O.T., zusammen auch mit einer Deaktivierungsmöglichkeit. Per default ist D.O.T. allerdings weiterhin aktiv, und zwar mit einer 5prozentigen Übertaktung unter Last (die anderen Stufen sind: Aus, 3 Prozent mehr, 7 Prozent mehr und 10 Prozent mehr Prozessortakt) ...
... Allerdings sind diese Übertaktungen natürlich auch auf jedem anderen guten Springdale-Mainboard mittels der üblichen Overclocking-Funktionen erreichbar. Auch das MSI-Board bietet jene üblichen Overclocking-Funktionen genauso an, insofern scheint D.O.T. sich in erster Linie an Overclocking-Einsteiger zu richten, welche ohne grundlegende Systemkenntnisse trotzdem von Overclocking profitieren wollen. Ob so etwas Markterfolg haben kann, wird sich zeigen - zumindestens konnte das MSI-Mainboard in den Benchmarks von Hard Tecs 4U beweisen, daß es auch ohne D.O.T. eine sehr performante i865PE-Platine ist, welches keinerlei Overclocking benötigt, um mit anderen schnellen Springdale-Mainboards mithalten zu können.
News des 6. August 2003 |
In einem Chat mit Half-Life 2 Entwickler Valve (siehe das Chatlog bei der Half-Life 2 Database) führten die Valve-Mannen zur vieldiskutieren Anti-Aliasing Problematik bei Half-Life 2 folgendes aus: Anti-aliasing has been fixed for all cards. Über das "wie" gab man allerdings keine Auskunft, da nicht jede Grafikkarte jeden der möglichen Lösungswege beherrscht, welche in unserem aktuelle Artikel zum Thema skizziert werden. Nichts desto trotz sollten damit alle Befürchtungen aus der Welt sein, so ein wichtiges Spiel wie Half-Life 2 würde kein Anti-Aliasing unterstützen oder aber die Spekulationen, die beiden großen Grafikchip-Entwickler würde hier bevor- bzw. benachteiligt werden ;-).
Der Planet 3DNow! bringt hochinteressante Infos zum AMD Athlon 64: Als erstes wird der DualChannel Athlon 64 (Sockel 940) im Gegensatz zum SingleChannel Athlon 64 (Sockel 754) den Zusatz "FX" gekommen, also Athlon 64 FX. Desweiteren soll der Athlon 64 FX auch ein anderes Model Rating als der normale Athlon 64 erhalten: Ähnlich wie beim Opteron wird das Model Rating des Athlon 64 FX nur dessen Leistungsklasse ausdrücken, nicht aber eine relative Performance. Konkret heißt das für den Athlon 64 FX mit 2.0 GHz ein Model Rating von "51", der Prozessor würde sich also dann vollständig "Athlon 64 FX-51" nennen ...
... Die weiteren MegaHertz-Schritte würden dann FX-53 für das 2.2 GHz Modell und FX-55 für das 2.4 GHz Modell lauten, AMD addiert also pro 200 MHz noch 2 Punkte auf das originale Model Rating von FX-51 für das 2-GHz-Modell. Die Ratings von weiteren, höher getakteten Prozessoren lassen sich gemäß dieses Schemas dann einfach ermitteln, wobei dabei der sicherlich vom AMD-Marketing auch so gewollte Effekt eintritt, daß sich beim Sprung über eine GigaHertz-Grenze auch die erste Ziffer des Model Ratings aufmerksamkeitswirksam erhöht, also FX-61 für ein (derzeit natürlich noch hypothetisches) 3.0 GHz Modell des Athlon 64 FX ...
... Aber auch zum "gewöhnlichen" Athlon 64 mit SingleChannel-Speicherinterface und im Sockel 754 gibt es neue Informationen bzw. ebenfalls neue Model Ratings. Ursprünglich wollte AMD das 2.0 GHz Modell mit 3400+ vermarkten, nun soll es nur noch 3200+ sein, was gemäß den letzten Performance-Tests (von Opteron-Prozessoren) und natürlich auch eingedenk des Prescott-Effekts sicherlich eine vernünftige Entscheidung ist. Die nachfolgende Modelle bekommen dann allerdings seltsamerweise ungerade Sprünge: 3400+ für das 2.2 GHz Modell (+ 200 Punkte) und dann jedoch 3700+ für das 2.4 GHz Modell (+300 Punkte) ...
... Die beiden letztgenannten Prozessoren wird AMD im übrigen laut den Informationen des Planet 3DNow! erst 2004 releasen, für dieses Jahr treten Athlon 64 FX und Athlon 64 beide "nur" als 2-GHz-Modelle an. Das bisher geplante 1.8 GHz Modelle wird dagegen nicht in den Markt kommen, angeblich weil die Produktionsausbeute bei AMD so gut sei. Anzumerken ist an dieser Stelle auf jeden Fall noch einmal, daß der Athlon 64 FX aller Wahrscheinlichkeit nach teuren ECC-Speicher benötigen wird, womit dieser Prozessor trotz des Performance-Vorteils durch das DualChannel-Speicherinterface für den Desktop-Markt aufgrund der im allgemeinen recht hohen Preise von ECC-Speicher (ca. 50 bis 100 Prozent teurer als normaler Speicher) rein vom Preis/Leistungsverhältnis her uninteressant sein dürfte.
Nachdem der US-amerikanische Antitrust-Prozeß gegen Microsoft in einer ziemlichen Farce endete, wonach sich ein zweifelsfrei schuldiger Monopolismus-Sünder ausgerechnet mit Produkten zur weiteren Festigung seines Monopols freikaufen kann (Software-Lieferungen an Schulen), gibt unerwarteterweise die oftmals als zu weich bezeichnete Europäische Union hier noch einmal Anlaß zur Hoffnung. Denn wie Golem Golem berichten, sieht die EU-Kommission Microsoft derzeit fortgesetzt seine Monopolstellung auf dem Markt der Desktop-Betriebssysteme dazu zu benutzen, um seine Position auf dem Server-Markt auszubauen. Dagegen will man nun vorgehen, derzeit gibt man Microsoft noch eine letzte Gelegenheit zur Stellungnahme ...
... Ansonsten hat die EU-Kommission Microsoft schon eine Reihe von möglichen Lösungsansätzen aufgezeigt, welche sich vorwiegend um die Entbündelung von Betriebssystemen und Zusatzprogrammen sowie die Offenlegung von Schnittstellen für andere Anbieter ähnlicher Zusatzprogramme drehen. Einziges Manko der ganzen Angelegenheit ist wohl, daß auch die EU-Kommission wie schon seinerzeit in den USA sich nur mit einem Teilaspekt von Windows beschäftigt, in diesem Fall rein dem Windows Media Player. Es bleibt die Frage offen, wo die Untersuchungen der EU-Kommission zum Internet Explorer, zu DirectX und zu anderen Dingen bleiben, welche allesamt nichts anderes als das Monopol von Microsoft fördern und damit zum Aufgabengebiet der Wettbewerbs-Wächter der EU gehören sollten.
neuer Artikel |
Das Half-Life 2 Multisampling Anti-Aliasing Problem
Das Half-Life 2 möglicherweise ohne Anti-Aliasing antreten würde, sorgte in den letzten Tagen für reichlich Verwunderung, Verwirrung und Spekulationen, vor allem weil das Nichtvorhandensein dieses mittlerweile bedeutenden Features bei einem solchen Vorzeige-Titel eher sehr ungewöhnlich wäre. Unser Artikel versucht, die technischen Hintergründe für dieses Problem bei Half-Life 2 zu erklären, wie auch, mögliche Lösungsansätze aufzuzeigen ... zum Artikel
News des 5. August 2003 |
Nachdem es am Sonntag über ein Lebenszeichen seitens XGI zu berichten gab, kommt nun von der DigiTimes die Kunde, daß VIA seinen von der Tochterfirma S3 entwickelten DirectX9-Grafikchip DeltaChrome im September vorstellen will. Dabei hält man sogar an der bisherigen Zielsetzung für den DeltaChrome fest und will damit in dessen höchster Ausbaustufe in der Tat den HighEnd-Markt attackieren (und mit kleineren Versionen den Mainstream-Markt). Ob dies allerdings für einen Chip, welcher schließlich schon einmal im letzten Dezember angekündigt wurde, noch schaffbar ist, wäre doch eher zu bezweifeln ...
... Entgültiges kann man hier erst sagen, wenn die vollständigen Leistungsdaten des S3-Chips bekannt sind. Derzeit ist fast nur der große Pluspunkt des Chips bekannt, nämlich daß die Textureneinheiten der 8 Rendering-Pipelines des DeltaChrome trilinear filtern und damit einen Vorteil gegenüber den Chips von ATi & nVidia haben, deren Textureinheiten allesamt nur bilinear filter. Ob dies dem S3-Chip allerdings zu einem realen Performance-Vorsprung verhilft, darüber entscheiden unter anderem aber auch die (derzeit unbekannte) Speicherbandbreite des Chips sowie die Qualität der Treiber. Wo sich S3 mit dem DeltaChrome also letztlich plazieren kann, ist derzeit noch überhaupt nicht absehbar.
Beim chinesischen PC Pop hatte man die ersten Radeon 9800 SE Karten im Test bzw. in zwei Tests. Laut dem ersten Artikel muß man zukünftig eine klare Unterscheidung treffen, wenn man irgendetwas zur Radeon 9800 SE sagt: Denn es gibt in der Tat sowohl eine Version mit 128 Bit DDR-Speicherinterface und 325/250 MHz Taktraten, als auch eine Version mit 256 Bit DDR-Speicherinterface und 380/340 MHz Taktraten. Beiden gemeinsam sind dann die 4 Rendering-Pipelines - hier hat ATi wie schon bei der Radeon 9500 von den physikalisch vorhandenen 8 Pipelines die Hälfte schlicht deaktiviert ...
... In den Benchmarks zeigte sich die 256 Bit Radeon 9800 SE (ca. 250 Euro) geringfügig schneller als die wesentlich preisgünstigere Radeon 9600 Pro (ca. 200 Euro). Einzig unter 4x Anti-Aliasing lag die 256 Bit Radeon 9800 SE etwas deutlicher vorn, was aber den Preisunterschied von ca. 50 Euro wohl trotzdem nicht rechtfertigen kann. Die 128 Bit Radeon 9800 SE rangiert dagegen gewöhnlich ein paar fps unterhalb der normalen Radeon 9600 (ca. 120 Euro). Ein Preis für die 128-Bit-Ausführung ist zwar derzeit noch nicht ermittelbar, jedoch dürfte dieser kaum den Preis der normalen Radeon 9600 schlagen können ...
... Insofern sind beide SE-Karten im Original-Zustand erst einmal vom Preis/Leistungsverhältnis her keine gute Wahl und werden von ATi´s eigenen Mainstream-Karten in Form der Radeon 9600 /Pro überflügelt. Doch in einem zweiten Artikel konnten PC Pop praktisch nachweisen, daß der Radeon 9500->9700 Softmod auch bei der Radeon 9800 SE 256Bit einwandfrei funktioniert. Jene Treiber-Modifikation, welche in Script-Form im RivaTuner enthalten ist, schaltet auch auf dieser Karte die 4 anderen Rendering-Pipelines frei, so daß die Karte nach dieser Modifikation eine vollwertige Radeon 9800 Pro darstellt ...
... Auch die Leistungsmessungen seitens PC Pop konnten einwandfrei nachweisen, daß diese 4 weiteren Pipelines funktionieren und die Radeon 9800 SE 256Bit auf das Niveau einer Radeon 9800 Pro 128MB hiefen (daß die echte Radeon 9800 Pro im Test von PC Pop minimal schneller war, liegt daran, daß eine Version mit 10 MHz höherem Speichertakt benutzt wurde). Insofern ist die Radeon 9800 SE 256Bit dann doch wieder ein vernünftiges Angebot - wenn man den Softmod anwendet und dieser auch funktioniert. Daß der Softmod nicht auf allen Karten funktionieren muß, beweist eine alte Umfrage zum Radeon 9500->9700 Softmod, wo nur 57 Prozent diese Modifikation problemlos hinbekommen haben ...
... Allerdings gilt das vorgesagte ausdrücklich nicht für die 128-Bit-Version der Radeon 9800 SE: Sicherlich dürfte auch dort der SoftMod funktionieren und die 4 restlichen Pipelines freischalten, das Speicherinterface bleibt aber weiterhin auf 128 Bit und durch die recht niedrigen Taktraten dieser Karte sind keine besonderen Leistungssprünge zu erwarten. Im genauen dürfte hier vor allem der sehr niedrige Speichertakt von 250 MHz sich als äußerst bremsend auswirken, so daß wir von der 128-Bit-Versionen der Radeon 9800 SE derzeit - egal ob per Softmod modifiziert oder nicht - nur abraten können.
News des 4. August 2003 |
Einen der seltenen Vergleiche des Intel Pentium-M gegen einen Pentium 4 hat der Tech Report anzubieten. Der Pentium-M auf Basis des Banias-Core ist ein Prozessor rein für den Notebook-Markt, welcher zwar auf Basis der Pentium 4 "Netburst"-Architektur entwickelt wurde, dabei jedoch eine wesentlich höhere Pro-MHz-Leistung und einen deutlich niedrigeren Stromverbrauch mit in die Wiege gelegt bekam. Wie deutlich höher die Pro-MHz-Leistung liegt, sieht man wie gesagt beim Vergleich eines 1.4 GHz Pentium-M gegen einen 1.8 GHz Pentium 4-M (Mobile-Abwandlung des Pentium 4, bezüglich der Leistung unverändert) beim Tech Report ...
... Der 400 MHz geringer taktende Pentium-M liegt nicht nur bezüglich der Rohpower-Benchmarks geringfügig, sondern vor allem auch in nahezu allen Applikations- und Spiele-Benchmarks deutlich vorn, letzteres sogar erzielt mit einer etwas schlechteren Grafiklösung auf Seiten des Pentium-M Systems (gleiche Grafikkarte, aber weniger Grafikkarten-Speicher und ältere Treiber). Natürlich kann der Pentium 4-M derzeit mehr absolute Leistung erreichen, da es diesen bis zu 2.6 GHz gibt (den Mobile Pentium 4 sogar bis 3.06 GHz), während der Pentium-M nur bis 1.7 GHz reicht. Doch für den Einsatz im Notebook müssen es wohl zumeist auch keine 3 GHz sein - und so kann der Pentium-M bei einer um die 30 bis 40 Prozent höheren Pro-MHz-Leistung als ein Pentium 4-M durchaus trotz der recht niedrigen Taktfrequenzen exzellent mithalten ...
... Und abseits der reinen Leistung hätte der Pentium-M dann immer noch seine entscheidenen Vorteile des geringen Stromverbrauchs und der daraus resultierenden Silent-Kühlung anzubieten. Jenes sind auch Vorteile, welche man gern im Desktop-Segment nutzen würde, doch derzeit fehlt dafür der entsprechende Unterbau in Form entsprechender Mainboards. Die wenigen diesbezüglich angebotenen ATX-Mainboards für den Pentium-M sind rein für den Einsatz in kleinen Servern gedacht (auch dort schätzt man den geringen Stromdurst der Mobilen Prozessoren von Intel) und aufgrund ihres Ausbaus und einiger Einschränkungen auch nur dort wirklich nutzbar ...
... Für eine Nutzung des Pentium-M auf dem Desktop müsste sich also letztlich ein Mainboard-Hersteller aufraffen, ein entsprechendes echtes Desktop-Board herauszubringen. Diesbezüglich kann man kaum auf eine aktive Unterstützung seitens Intel hoffen, welche wegen des sehr kleinen und eigentlich nur in Europa existenten Ultra-Silent-Marktes den Pentium-M offiziell auch nicht für den Desktop-Markt bewerben werden. All dies ist aber wahrscheinlich nicht einmal das größte Hindernis - jenes ist scheinbar, daß der kleine europäische Ultra-Silent-Markt bei den zumeist fernöstlichen Mainboard-Hersteller schlicht nicht wahrgenommen wird. Und somit sind die Chancen auf ein Desktop-Mainboard für den Pentium-M denn auch eher leider nur als äußerst gering einzustufen.
Eine interessante Aussage ergibt sich aus einer Umfrage unter US-amerikanischen Internetnutzern: Danach achten zwei Drittel dieser Nutzer, welche sich Musik aus dem Internet herunterladen, nicht darauf, ob diese Musik urheberrechtlich geschützt ist oder nicht - so zu lesen in einem Artikel der Telepolis. Verwunderlich ist in diesem Zusammenhang, daß bei der Interpretation dieser doch sehr erstaunlichen Prozentzahl kaum jemand der Massenmedien auf die Idee kommt, diese nicht auf die angebliche Rechtsunkenntnis der Nutzer zu schieben, sondern - den zugegeben schwereren - Weg des eigenen Nachdenkens zu beschreitet, welcher durchaus auch zu anderen Ergebnissen führen kann ;-) ...
... Denn wenn bei einem so relativ klarem Fall wie dem Urheberrecht zwei Drittel der Befragten keine Bedenken haben, dieses zu brechen, kann die Ursache angesicht dieser hohen Zahl von 66 Prozent eher unmöglich Unwissen sein - die glatte Ignoranz des Urheberrechts ist hier die deutlich wahrscheinlichere Ursache. Leider wird sich diese Auflösung wohl nie in einem der Propaganda-Schreiben der Musikindustrie wiederfinden, denn dann würde diese sich schließlich auf die Diskussion einlassen müssen, woher den die Ignoranz der Nutzer gegenüber einer klaren gesetzlichen Vorschrift herrührt ...
... Und dann würde man am Ende womöglich gar auf die Erkenntnis stoßen, daß viele Nutzer es schlicht nicht akzpetieren, ein Unrechtsbewußtsein gegenüber Großkonzernen zu entwickeln, welche ihrerseits schließlich auch absolut keines gegenüber dem User und Käufer zeigen. Ein breites Unrechtsbewußtsein gegenüber Urheberrechts-Delikten ist kaum mit Aufklärung über das Urheberrecht selber zu erreichen, da die Kenntnis darüber durchaus schon vorhanden ist. Vielmehr muß ein solches Unrechtsbewußtsein beim User schlicht nur aktiviert werden - und dies schafft die Musikindustrie nur, indem sie sich selber an gewisse Regeln hält, ob diese nun in Gesetzesform niedergeschrieben sind oder rein ungeschrieben existieren ...
... Der erste Schritt dazu wäre sicherlich, potentielle Kunden nicht als Kriminelle zu behandeln und der zweite, endlich das mittlerweile jahrealte Versprechen des problemlosen Online-Vertriebs von Musik einzulösen. Technisch gesehen ist der Online-Vertrieb von Musik schon genauso lange realisierbar, wie es dieses Versprechen gibt - praktisch hat die Musik-Industrie hier also nichts anderes als seit mehreren Jahren blockiert. Und all das Geld, was derzeit und demnächst in "Auklärungs"-Kampagnen fließen soll, wäre wohl in der technischen Realisierung einer alle Labels und Künstler umfassenden, Song-basierten, Betriebssystem-ungebundenen, DRM-freien und für alle Internetuser unabhängig ihrer Staatsbürgerschaft nutzbaren Online-Vertriebsplattform für Musik wesentlich besser angelegt.
Kleiner Nachschlag zum Thema neues deutsches Urheberrecht: Jenes sollte bekanntermaßen ab 1. August wirksam werden - doch wie Blickpunkt: Film berichtet, ist dies offenbar noch nicht der Fall. Denn es fehlt derzeit noch die Unterschrift des Bundespräsidenten - und dieser ist im Urlaub ;-). Erst wenn Johannes Rau unterschrieben hat und das Gesetz dann im Bundesgesetzblatt veröffentlicht wurde, ist es ab dem nächsten Tag in Kraft. Nebenbei weisen in dieser Meldung auch zwei der Musikindustrie nahestehende Verbände darauf hin, daß der Handel vom neuen Gesetz betroffenen Produkte besser früher als später aus dem Verkehr ziehen sollte ...
... Dabei scheinen offenbar Brenner außen vor zu bleiben, es geht offensichtlich "nur" um Brenn-Software. Was in gewissem Sinne logisch ist, denn ohne diese Software läuft kein Brenner, weshalb auch die Hardware selber nicht inquisitorisch verfolgt werden "muß". Bei den Brenn-Programmen wird es dann aber wohl eine gewisse Auslese geben und einige Programme werden künftig in Deutschland (und Österreich) offiziell nicht mehr vertrieben werden. Wir weisen in diesem Zusammenhang nochmals auf den Artikel der Chip hin, welcher viele der demnächst "illegalen" Tools noch einmal (letztmalig) vorstellt. Im übrigen werden von diesem Artikel auch die wahrscheinlich weiterhin legalen Tools aufgelistet - womit nicht zu befürchten ist, daß es demnächst gar keine legale Brenn-Software mehr geben wird :-).