News-Archiv 20. - 26. Oktober 2003 (43. Kalenderwoche)
26. Oktober 25. Oktober 24. Oktober 23. Oktober 22. Oktober 21. Oktober 20. Oktober
News des 26. Oktober 2003 |
Zum Filterverhalten der neuen nVidia 50er Treiber gibt es inzwischen von nVidia eine "wundervolle" Aussage, welche da lautet, daß die Tests mit den theoretischen Testprogrammen wie dem inzwischen sehr häufig dafür benutzten D3D AF-Tester nicht jenes Ergebnis widerspiegeln würden, welches unter realen Applikationen zustandekommt. Dies impliziert eigentlich, daß die nVidia-Treiber unter realen Spielen angeblich einen vollen trilinearen Filter und nicht den von uns festgestellten "brilinearen" darstellen würden. Wenn wir ehrlich sind, kamen uns bei der Arbeit an dem entsprechenden Treiber-Artikel ebenfalls leichte Zweifel, ob hier der D3D AF-Tester wirklich dasselbe Ergebnis wie in realen Spielen abliefert (schließlich kann man die Möglichkeit eines Bugs nie vollständig ausschließen) ...
... Doch exakt für diesen Zweck haben wir schließlich in jenem Artikel auch noch einmal mittels 3DMark03 die Filterqualität gegengecheckt, welches ergab, daß die Ergebnisse des D3D AF-Testers korrekt sind. Einen weiteren Nachweis liefern nun HardOCP, welche dieselbe "brilineare" Zwangs-"Optimierung" der 50er nVidia-Treiber im Vergleich zum trilinearen Filter der ATi-Treiber unter Unreal Tournament 2003 abgebildet haben. Glasklar ist auch hier - immer unter Verwendung des Application-Modus - der nur teilweise trilineare Filter der 50er Treiber in einem realen Spiel zu erkennen. PS: Mittels des Tools 3D-Analyze lassen sich solche Tests nun auch in Anwendungen durchführen, welche über keine eigene Funktion zur Einfärbung der MipMaps verfügen, da jenes Tool ab der Version 2.25 ein solches Feature für alle Direct3D-Spiele mitbringt.
Wer immer noch nicht glauben mag, welche potentiellen Gefahren davon ausgehen können, wenn man Herstellerfirmen mittels deren undurchsichtiger Lizenzbestimmungen den Zugriff auf den eigenen Rechner überläßt, der mag sich folgendes Beispiel auf der Zunge zergehen lassen: Laut dem Heise Newsticker hat AOL bei allen seinen Millionen Kunden mittels eines automatischen Updates seiner Software den Windows XP Nachrichtendienst ausgeschaltet. Jener ist eigentlich für den ICQ-liken Nachrichtenaustausch in Netzwerken gedacht, wird jedoch leider, da per default installiert und aktiviert, mittlerweise nur noch von Spammern verwendet. Rein von den Auswirkungen her ist dies sicherlich ein richtiger Schritt, welcher Spam wirksam bekämpft ...
... Doch andererseits hat AOL auf dem Rechner seiner Kunden absolut überhaupt nichts verloren, sofern es nicht um die eigenen Software geht. Womöglich ist dieses Vorgehen sogar von den AOL-Lizenzbestimmungen abgedeckt, ansonsten hätte die Rechtsabteilung von AOL sicherlich vor der Ausführung dieser Maßnahme interveniert, denn de facto handelt es sich hier um einen Einbruch in einen fremden PC (StGB § 303b Computersabotage - gilt zwar nicht für Privatpersonen, aber unter den AOL-Kunden dürften sich auch genügend Firmen befinden). Und dieser ist selbst dann nicht erlaubt, wenn man wie AOL glaubte, "das richtige" zu tun. AOL hat jedenfalls hiermit bewiesen, daß jene Lizenzbestimmungen, welche den diversen Herstellern weitreichende Rechte auf den Rechnern ihrer Kunden einräumen, nicht nur theoretische Paragraphen sind, sondern auch ganz praktisch in die Tat umgesetzt werden.
neuer Artikel |
Hat der "brilineare" Filter eine Zukunft?
Mit den neuen 50er "ForceWare" Treibern senkt nVidia ganz offiziell die Bildqualität der GeForceFX-Chips selbst im Application-Modus etwas ab, ohne jedoch daß der Anwender diesbezüglich eine Wahlmöglichkeit hätte - der sogenannte "brilineare" Filter anstatt des gewöhnlichen trilinearen Filters. In dieser Kolumne wollen wir betrachten, wie dieser brilineare Filter zustandekommt, welche Vor- und Nachteilen dieser hat und welche Einwände es gegen die neue Zwangsfilter-Politik bei nVidia gibt ... zum Artikel
News des 25. Oktober 2003 |
In den NV38-Chips scheint offenbar noch einiges mehr drinzustecken als jene 475 MHz Chiptakt, welcher nVidia-Standard bei der GeForceFX 5950 Ultra ist: Wie Hard Tecs 4U berichten, wird die "CoolFX PowerPack Model Ultra/1800 Golden Sample" von Gainward mit stolzen 550/525 MHz in den Handel kommen - allerdings auch zum ebenso stolzen Listenpreis von 899 Euro. Erreicht wird dies über die Gainward-eigene Wasserkühlung "CoolFX". Nichts desto trotz wieder einmal eine deutlich höher getaktete Karte von Gainward, nachdem die letzten "Golden Sample" Karten des Herstellers zumeist nur wenige Prozent über dem nVidia-Standard takteten ...
... Eine neue Konkurrenz unter den "Übertakter-Hersteller" bekommt Gainward zukünftig scheinbar vom amerikanischen Hersteller GeIL, welcher bisher für seine sehr hoch getakteten DDR-Speichern (DDR500 und DDR533) bekannt war. Jener konzentriert sich allerdings derzeit erst einmal auf ATi-Chips und hier noch auf die "alte" Radeon 9800 Pro, quetscht aus dieser original mit 380/340 MHz getakteten Karte aber immerhin 445/370 MHz heraus, was deutlich mehr ist als bei der regulären Radeon 9800XT (412/365 MHz) und auch etwas mehr als bei OCSystems, welche ihre best-übertakteste Radeon 9800 Pro derzeit mit 425/370 MHz befeuern.
Entwarnung im Fall Doom III & der 60-fps-Grenze: Anscheinend wird id Software nur die Gameplay-Engine auf 60 fps kappen, die Render-Engine läuft weiterhin ungebremst. Allein bei der Gameplay-Engine werden so die Bewegungen der Spiel-Figur wie aller Gegner-Figuren nur maximal 60mal in der Sekunde aktualisiert. Sollte die Render-Engine dagegen schneller als 60 fps laufen können, benutzt sie einfach einen "alten Stand" der Gameplay-Engine mehrmals, bis diese Gameplay-Engine mit ihrer 60-fps-Beschränkung wieder einen neuen Stand liefert. Somit wäre ein wirksamer Schutz gegenüber Speed- und Trickjumps gefunden, ohne aber daß die Grafikkarte, wenn sie denn mehr Bilder in der Sekunden errechnen könnte, eingebremst werden würde.
"Es wird Ernst mit den Jugendschutzbestimmungen im Internet" ... lautet eine aktuelle Meldung des Heise Newstickers und bezieht sich damit auf eine entsprechende Ankündigung des Vorsitzenden der Kommission für Jugendmedienschutz (KJM). Sprich: Während jene in den vergangenen Monaten seit dem Inkrafttreten der neuen deutschen Jugendschutzgesetzgebung vom 1. April diesen Jahres noch alle Augen zugedrückt hat, damit sich insbesondere die Internet-Branche entsprechend umstellen konnte, will man nun offenbar die Zügel zukünftig straffer anziehen, was insbesondere für das deutsche Internet erhebliche Auswirkungen haben wird ...
... Denn nach der neuen Gesetzgebung wird von Anbietern von Telemedien verlangt (das sind scheinbar alle Webseiten, wenn nicht vollkommen privaten Inhalts), eigene Jugendschutzbeauftragte einstellen, welche die Inhalte entsprechend kontrollieren sollen. Kleinere Angebote sollen sich alternativ zentralen Kontrollorganisationen anschließen, welche dann diese Aufgabe (wohl kostenpflichtig) übernehmen. Wie das bei der Masse an Webseiten allein im deutschsprachigen Raum nachverfolgt werden soll, ist allerdings eher unklar, vermutlich wird die KJM erst einmal genügend zu tun haben, mit den größeren Webseiten fertigzuwerden. Nichts desto trotz rollt jetzt in nicht mehr all zu ferner Zukunft wohl der unerbittlich Mahlstein der deutschen Justiz auf das deutsche Internet zu, darauf sollten sich die entsprechenden Seiten nun wirklich vorbereiten ...
... Und es geht hierbei kaum nur um die Angebote aus dem "Erotik"-Bereich, sondern auch um alles, was angeblich "entwicklungsbeeinträchtigend" sein könnte, sprich ganz genauso auch um "Gewalt-Spiele". Verschiedene Webseiten aus dem Spiele-Bereich haben hier schon seit einiger Zeit entsprechende Vorkehrungen getroffen (zumeist mit anmeldepflichtigen "ab 18" Bereichen), aller Vermutung nach wird aber auch der Rest des deutschen Webs mit ähnlichen Maßnahmen nachziehen müssen, sofern Erwachsenen-Inhalte gleich welcher Art angeboten werden. Als letzte Alternative für jene bliebe dann nur noch der Weg des Auswanderns aufgrund der in anderen Ländern (selbst der EU-Zone) mehr als deutlich geringeren Jugendschutz-Bestimmungen.
News des 24. Oktober 2003 |
Mit dem gestrigen Tage hat nVidia bekanntermaßen mit dem 52.16er Treiber auch den ersten 5x.xx Treiber offiziell gemacht. Interessanterweise wechselt nVidia ab diesem Treiber dessen Marketingnamen aus: "Detonator" ist out, "ForceWare" ist in. Ob dies ein sinnvoller Namenstausch ist, wird sich noch zeigen, denn der Name "ForceWare" läßt sich nicht nur auf die GeForceFX-Grafikchips assoziieren, sondern auch auf die Eigenschaft des Treibers, gewisse Treiber-"Optimierungen" unabhängig vom Willen des Anwenders und dessen Einstellungen zu forcieren ;-)) (der Treiber 52.16 hat die identischen "Optimierungen" wie die Treiber 52.10 und 52.14) ...
... Abseits dessen enthalten die 50er Treiber laut den Release Notes (PDF) auch den schon angekündigten Shader-Compiler, welcher automatisch den vom Spiel angeforderten Shader-Code in einen solchem umsetzt, welcher den GeForceFX-Karten besser bekommt. Jener Shader-Compiler arbeitet mit der Neu-Anordnung von Shader-Befehlen und womöglich auch dem Ersatz von auf der GeForceFX langsam laufenden Shader-Befehlen durch (dann zumeist mehrere) schneller laufende Shader-Befehle - alles mit dem Ziel, die Architektur der GeForceFX-Chips möglichst effektiv auszunutzen. Wunderdinge sind von jenem Shader-Compiler jedoch nicht zu erwarten, schließlich muß dieser mit dem fertigem Assembler-Code einer Applikation (Spiel) arbeiten ...
... Die Neu-Kompilierung des originalen Spiele-Codes wäre wesentlich effektiver, kann jedoch natürlich nur vom Spiele-Programmierer vorgenommen werden. nVidia versucht also nachträglich das zu erreichen, was der Spiele-Programmierer (nach Meinung von nVidia) eigentlich schon selber hätte machen sollen: Eine Optimierung auf nVidia-Hardware. Eine Beeinträchtigung der vom Spiele-Programmierer geplanten Bildqualität ist durch jenen Shader-Compiler zwar nicht zu erwarten, wäre aber zumindestens theoretisch auf jeden Fall machbar, so daß die Hardware-Tester bei Bildqualitäts-Tests zukünftig nochmals genauer hinsehen müssen.
Nebenbei ist eine Anpassung des nVidia-Tweaktools aTuner auf die neuen 50er Treiber schon seit einiger Zeit in Arbeit, wird jedoch dadurch erschwert, daß nVidia mit diesen Treibern intern einiges verändert hat, die alten Registry-Keys also zum größten Teil nicht mehr funktionieren. Dementsprechend laufen auch noch nicht alle Funktionen der aktuellen aTuner-Version 1.6.18.5216 (kompatibel bis zum Treiber 52.16) mit den neuen Treibern. Wir bitten hier um möglichst zahlreiche Rückmeldungen der aTuner-User, speziell bei der Benutzung des Treibers 52.16, um dieses Tweaktool schnellstmöglich vollständig kompatibel zu den neuen Treibern machen zu können.
Wenn wir gestern noch davon ausgegangen waren, daß nVidia mit ihren GeForceFX im nächsten Jahr in den Doom III Benchmarks besonders gut dastehen könnte (wegen des extra NV3X-Renderpfades des Spiels) und damit einen Gegenpol zu den Half-Life 2 Benchmarks hätte, welche weiterhin in der Hand von ATi bleiben, so könnte ausgerechnet id Software nVidia hier einen Strich durch die Rechnung machen. Denn wie von verschiedenen Seiten berichtet, will man die Doom III Engine bei 60 fps herunterregeln, um die bei Quake III Arena möglichen Speed-Jumps zu verhindern ...
... Speed-Jumps oder auch Trick-Jumps sind Sprünge (mit der Spielfigur), welche nur bei einer bestimmten fps-Zahl funktionieren - eine von Profi-Spielern weidlich ausgenutzte Eigenart der Q3A-Engine. Ob es wirklich Sinn macht, dies bei Doom III mittels einer solch drastischen Maßnahme auszuschalten, ist allerdings eher zu bezweifeln, da Doom III primär ein SinglePlayer-Spiel ist und die Speed-Jumps nun auch nicht unbedingt wirklich entscheidend bei MultiPlayer-Partien unter Quake III Arena sind. Sollte id Software jedoch bei diesem Vorhaben bleiben, wird das Benchmarking mit Doom III deutlich erschwert werden, da eine Test-Sequenz gefunden werden müsste, welche selbst mit HighEnd-Karten in (idealerweise) keiner einzelnen Szene jene 60 fps nach oben hin durchbricht.
neuer Artikel |
GeForceFX 5700/5950: Nvidia erweitert die Produktpalette
Gestern hat Nvidia bekanntermaßen zwei neue Grafikchips vorgestellt: NV36 aka GeForceFX 5700 /Ultra und NV38 aka GeForceFX 5950 Ultra. In der nachfolgenden Kolumne wollen wir diese und vor allem deren Einordnung in die schon bestehenden Linie an GeForceFX-Grafikchips etwas näher betrachten ... zum Artikel
News des 23. Oktober 2003 |
Nachdem ATi am 30. September bzw. 15. Oktober seine neuen Lösungen für das HighEnd- und Mainstream-Segment vorgestellt hat, ist heute nun nVidia dran und präsentierte die neuen Grafikchips NV36 und NV38 aka GeForceFX 5700 /Ultra und GeForceFX 5950 Ultra, entsprechende Artikel überschwemmen wie üblich gerade das Netz (Liste). Doch während ATi seine Radeon 9600XT und 9800XT Karten in erster Linie als Ergänzung der bestehenden Radeon 9600/9800 Grafikkarten-Linie sieht, scheint zumindestens die GeForceFX 5700 /Ultra als regelrechter Ersatz für das bisherige Angebot nVidia´s im Mainstream-Segment, die GeForceFX 5600 /Ultra, vorgesehen zu sein ...
... Dafür spricht zum einen, daß die GeForceFX 5600 /Ultra mit NV31-Chip noch auf dem NV30 basierte, welche seinerseits recht schnell nach der Markteinführung des Nachfolger-Chips NV35 (GeForceFX 5900 /Ultra) von nVidia aus dem Programm gestrichen wurde - und zum anderen, daß jene GeForceFX 5600 /Ultra inzwischen schon nicht mehr auf der nVidia-Produktseite verlinkt wird ;-). Insofern darf wohl davon ausgegangen werden, daß die GeForceFX 5600 /Ultra das gleiche Schicksal erleiden wird wie die GeForceFX 5800 /Ultra und jene demnächst schon von den Grafikkarten-Herstellern kaum noch angeboten werden wird bzw. die Händler ihre Restbestände (eventuell auch zu günstigen Preisen) abzuverkaufen beginnen ...
... Hierfür spricht auch, daß die Grafikkarten-Hersteller Produkte auf Basis der neuen NV36- und NV38-Chips zumindestens laut nVidia regelrecht ab sofort in den Handel bringen werden, was für den Launch von neuen Grafikchips mittlerweile doch eher ungewöhnlich schnell ist, aber natürlich mitnichten einen Kritikpunkt darstellt ;-). Die Schnelligkeit, mit welcher bei diesem Launch - und auch bei dem der neuen ATi-Chips - der reale Markteintritt von darauf basierenden Grafikkarten vollzogen wird, deutet aber auch schon klar darauf hin, daß wir es hier wie bei ATi mit nur überarbeiteten Chips zu tun haben - jedenfalls mehr oder weniger ...
... Im Prinzip vollkommen unverändert erscheint uns der NV38-Chip (GeForceFX 5950 Ultra) als einfach nur eine höher getaktete Version des NV35 (GeForceFX 5900 /Ultra), gänzlich ohne interne Veränderungen. Deren Listenpreis liegt wie im übrigen wie bei der Radeon 9800XT bei stolzen 500 Dollar. nVidia hieft bei dieser die Taktraten von 450/425 auf 475/475 MHz und betrachtet die GeForceFX 5950 Ultra demzufolge auch nur als eine Ergänzung der GeForceFX 5900 /Ultra Karten nach oben hin (womit es im übrigen unwahrscheinlich ist, daß es noch eine non Ultra Version der GeForceFX 5950 geben wird). Demzufolge hält sich der Leistungsgewinn zwischen GeForceFX 5900 Ultra und GeForceFX 5950 Ultra auch in argen Grenzen - eine hübsche Similarität der Ereignisse zum Radeon 9800XT Launch ...
... Der Leistungszuwachs der NV38-basierten Grafikkarte liegt somit gegenüber der NV35-basierten zumeist irgendwo in der Region zwischen 5 und 10 Prozent - nichts weltbewegendes, aber mehr schaffte die Radeon 9800XT gegenüber der Radeon 9800 Pro bekanntlich auch nicht. Sicherlich interessanter ist nun der Vergleich GeForceFX 5950 Ultra vs. Radeon 9800XT, also der beiden neuen HighEnd-Lösungen: Nach der Betrachtung von unzähligen heute veröffentlichten Benchmarks sehen wir aber wieder nur einen Gleichstand zwischen ATi und nVidia. Auch wenn der eine oder andere der heute veröffentlichen Tests womöglich mehr in die eine oder andere Richtung tendiert, so gleicht sich das Bild insgesamt gesehen wohl doch aus ...
... Die immer noch vorhandene und durch theoretische Tests wie den ShaderMark jederzeit nachweisbare relative Shader-Schwäche der nVidia-Hardware ist zwar weiterhin unter Tomb Raider: AoD und Half-Life 2 feststellbar, allerdings war es aufgrund des dort in früheren Tests festgestellten sehr großen Abstandes von ATi zu nVidia auch weniger zu erwarten, daß nVidia jenen Abstand vollständig würde aufholen können. In den anderen Benchmarks neuerer Spiele, teilweise auch dort mit Shader-Einsatz, schlägt sich das neue nVidia-Flagschiff jedenfalls respektabel - und immerhin können die Kalifornier darauf hoffen, daß man die Doom III Benchmarks (mit eigenem NV3X-Renderpfad) im nächsten Jahr gewinnen wird und damit wieder einen "eigenen" Vorzeige-Benchmark wider der für nVidia sicherlich schwer verdaulichen Half-Life 2 Zahlen vorzuweisen hat ...
... Während nun von den bisherigen Herbstchips Radeon 9600XT, Radeon 9800XT und GeForceFX 5950 Ultra alle "nur" Höhertaktungen schon bekannter Chips darstellen, ist der NV36-Chip aka GeForceFX 5700 /Ultra zumindestens halbwegs eine neue Kreation, wenn auch keine neue Architektur. Als halbierter NV35 und damit in gewissem Sinne auch als halbierter NV38 folgt der NV36 den Spuren seines Vorgängers NV31 (GeForceFX 5600 /Ultra), welcher schließlich auch ein halbierter NV30 war. Durch die Verwandschaft zum NV35/NV38 gewinnt der NV36 jedoch vor allem dessen bessere Shader-Performance, welche noch zusätzlich dadurch beflügelt wird, das nVidia beim NV36 den Vertex Shader des NV35 anscheinend vollständig und nicht wie beim NV31 abgespeckt übernommen hat ...
... Gleichzeitig erfolgte die übliche Erhöhung der Taktraten, in diesem Fall von 400/400 MHz (zweite Revision der GeForceFX 5600 /Ultra, die erste hatte nur 350/350 MHz) auf 475/450 MHz. nVidia setzt hier im übrigen bei der Ultra-Version der Karte erstmals im Mainstream-Markt auf 128 MB DDR2-Speicher - für nur 199 Dollar Listenpreis für die Ultra-Version ist dies schon aller Ehren wert. Interessanterweise erlaubt der Speichercontroller des NV36-Chips die Verwendung von DDR1-, DDR2- und GDDR3-Speichern, hier könnte es ergo zu einer gewissen Versionsvielfalt kommen. Sicher ist zumindestens, daß es noch eine non Ultra Version der GeForceFX 5700 geben wird, welche per nVidia-Standard 128 MB DDR1-Speicher tragen soll, über deren Taktraten ist allerdings derzeit noch gar nichts bekannt ...
... Und so halten wir uns Benchmark-technisch erst einmal an die GeForceFX 5700 Ultra und deren Differenz zum eigenen Vorgänger, der GeForceFX 5600 Ultra: Im Gegensatz zu vorigem Vergleich liegt hier der neuere Chip doch deutlich überhalb des alten Chips, in den meisten Messungen zwischen 10 und 20 Prozent. Insbesondere in Benchmarks mit Shader-Einsatz sprintet die GeForceFX 5700 Ultra der GeForceFX 5600 Ultra davon - so sollte es aufgrund der technischen Ansetzung schließlich auch sein. Wichtig natürlich genauso der Vergleich GeForceFX 5700 Ultra vs. Radeon 9600XT: Hier erleben wir in der Summe der heute veröffentlichten Benchmarks abermals einen Gleichstand. Wobei dies für nVidia ein klarer Erfolg ist, denn im "alten" Vergleich Radeon 9600 Pro vs. GeForceFX 5600 Ultra zog die nVidia-Karte noch den kürzeren ...
... Somit hat es nVidia mit dem heutigen Tage geschafft, im HighEnd-Segment das schon bekannte Patt-Verhältnis wieder herzustellen und im Mainstream-Segment aus einem bisher vorhandenen Rückstand zumindestens ein Patt zu machen. Die mit dem heute nun auch offiziellen Treiber 52.16 benutzten Filter-"Optimierungen" tragen daran einen wohl vollkommen unbedeutenden Anteil, denn selbst wenn man die damit erzielten 1 bis 3 Prozent Performance-Vorteil abzieht, würde das Gesamtbild auch nicht wirklich anders aussehen. Jetzt bleibt abzuwarten, was die Kartenhersteller daraus machen - insbesondere, ob der doch wirklich niedrig angesetzte Listenpreis der GeForceFX 5700 Ultra am Markt Bestand haben wird, dürfte dabei von Interesse sein.
News des 22. Oktober 2003 |
Die DigiTimes berichten einiges zu möglichen neuen Grafikboard-Herstellern für XGI - aber auch für ATi und nVidia. So sollen Asus, Gigabyte, MSI und wie schon bekannt CP zukünftig auch XGI-Grafikkarten anzubieten gedenken. Bei Asus wurde hier sogar "Oktober 2003" als Termin genannt, was man unter Umständen so auslegen könnte, als wollte XGI in den nächsten Tagen nach den offiziellen Ankündigungen auch erste testbare Boards folgen lassen. Praktisch gesehen sollte XGI hier in der Tat langsam einmal etwas handfestes vorlegen, damit die Grafikkarten der einzelnen Boardhersteller noch rechtzeitig zum Weihnachtsgeschäft den Weg in die Läden finden ...
... Desweiteren wird ECS als bisheriger Verbauer von XGI-Grafikchips neuerdings alleinig dem ATi-Lager zugerechnet und Gigabyte baut (nun inzwischen offiziell) inzwischen wieder (zusätzlich) nVidia-Grafikkarten, nachdem man dies schon vor einigen Jahren getan hatte und dann jedoch zum ATi-Hauptpartner für den asiatischen Raum wurde. Es ist also einiges an Bewegung drin im Markt der Grafikboard-Hersteller und langsam nähern wir uns wieder den Anfangszeiten, als solche Hersteller wie Hercules, Creative, ELSA und Diamond noch regelmäßig Grafikkarten mit Grafikchips von allen wichtigen Chip-Herstellern im Programm hatten.
Laut einem Bericht vom "nVidia Editor´s Day" seitens GameSpot wird nVidia den inoffiziellerweise schon geleakten Detonator 52.16 in den nächsten Tagen offiziell machen, womöglich schon morgen zum NV38-Start. Jener zeigt (zumindestens die geleakte Version) nach einem Kurz-Test allerdings dieselben "Optimierungen" wie die bei den Treibern 52.10 und 52.14 ermittelten auf. Danach soll es bei nVidia mit den Detonator 55.xx und später mit den Detonator 60.xx Treibern weitergehen. Auf die Aussage, daß nVidia zukünftig im Idealfall nur noch einen neuen Treiber im Jahr veröffentlichen will, können wir uns allerdings derzeit keinen Reim machen, schließlich releast nVidia mehrmals im Jahr neue Grafikchips und diese wollen natürlich entsprechend durch die Treiber unterstützt werden.
Wie der Heise Newsticker berichtet, will die Deutsche Telekom ihr Glasfasernetz zukünftig ebenfalls DSL-fähig machen, entsprechende Tests hierzu seien positiv ausgefallen. Insbesondere im Osten Deutschlands wurden von der DTAG ab 1990 massenweise Glasfasernetze als Zukunftsprojekt verlegt, welche auch zu Transferleistungen im Gigabyte-Bereich fähig sein, dazu jedoch nie genutzt wurden. Zur Abwicklung von DSL sind diese Glasfasernetze jedoch technisch nicht geeignet (DSL basiert zwingend auf Kupferdrähten), so daß das "modernste Telekommunikations-Netz Europas" derzeit fast ungenutzt ist ...
... Mittels der neuen Telekom-Pläne soll DSL nun auch in Glasfasergebieten machbar sein - allerdings ohne der Nutzung des Glasfasernetzes. Unter dem schönen Wort "Überbau" des Glasfasternetzes verbirgt sich nämlich nichts anderes, als daß in die Kabelkanäle jenes Netzes noch ein paar ordinäre Kupferdrähte eingezogen werden, mittels welcher dann gewöhnliches DSL ermöglicht werden kann. Dazu müssen noch die entsprechenden Verteilerstellen der Telekom sowie auch die Hausanschlüße der Kunden entsprechend umgerüstet werden. Die eigentlich deutlich fortschrittlichere Glasfasertechnik bleibt aber weiterhin ungenutzt und damit eine (teure) Investitionsruine ;-).
Ein Nachtrag zur Zensur bei Google bzw. den gestrigen News: Einige Leser wünschten sich einen Nachweis unserer Anmerkung, daß der Index von google.de nicht deckungsgleich mit dem von google.co.uk ist, also: Hier und hier finden sich die entsprechenden Nachweise. Dies sind natürlich kleinere und auch zumeist verschmerzbare Fälle, der Unterschied zwischen deutschen und britischen Index dürfte somit insgesamt gesehen nur äußerst minimal sein. Nichts desto trotz zensiert Google: Für Deutschland sind dies vornehmlich verfassungswidrige Angebote und für Amerika vornehmlich Angebote, welche (angeblich) gegen den DMCA verstoßen (womit sich so gut wie jeder unliebsame Zeitgenosse mundtot machen läßt, wie im Fall von Scientology-Kritikern).
News des 21. Oktober 2003 |
Noch einmal etwas zu den gestern dargebrachten eventuellen Problemen des ATi Catalyst 3.8 Treibers: ATi hat hierzu noch einmal eine Stellungnahme herausgegeben, nach welcher ATi keinerlei Probleme mit diesem Treiber feststellen konnte und jener somit seitens ATi weiterhin als sicher angesehen wird. Ob sich die Sache damit allerdings erledigt hat, bleibt abzuwarten: Denn auch wenn die angeblich zu hohen Chip-Temperaturen durch die 3.8er Treiber nur auf recht wenigen Systemen nachgewiesen werden konnten (und somit nicht wirklich sicher ist, wer oder was hierfür verantwortlich ist), wird doch in diversen Foren nicht gerade selten über seltsam hohe Refreshraten beim 3.8er Treiber berichtet ...
... Der Punkt ist, daß dies bei Grafikkarten und Monitoren geschah, welche mit früheren Treibern dieses Problem eben nicht hatten - und auch nicht alle über dieses Problem berichtenden User werden einfach mal so sinnlos an ihren Refresh-Einstellungen herumgefummelt haben. Die Horror-Story von 200 defekten Monitoren durch jenen Treiber-Fehler konnte man - egal der ATi-Stellungnahme - schon vorher als Unsinn abtun, doch an den zu hohen Refreshraten scheint durchaus etwas dran zu sein. Wobei wir uns durchaus nicht ärgern würden, wenn wir uns hier irren - es wäre schlicht nur ein Problem weniger für die Hardware-Welt. Aber lieber einmal zuviel gewarnt als einmal zu wenig, insbesondere wenn es um potentielle Hardware-Schäden geht und die Warnung ausdrücklich nicht den Hersteller selber (ATi) und dessen (gute) Produkte angreifen will.
Bei der Overclockers Workbench hatte man ein erstes Referenz-Mainboard auf Basis des SiS 755 AMD64-Chipsatzes im Test. SiS kommt etwas später in den Markt als nVidia und VIA und muß sich nun erst einmal gegen deren Chipsätze nForce3 Pro150 und K8T800 durchsetzen. Im letzten Test dieser Chipsätze gegeneinander - auch unter Beteiligung der anderen AMD64-Chipsätze ALi M1687 und AMD 8131/8151 - konnten allen diesen getesteten Chipsätzen eine fast identische Performance bescheinigt werden, minimale Vorteile waren allenfalls bei VIA´s Lösung zu erkennen ...
... Eine ähnliche Leistungsgleichheit zu den anderen AMD64-Chipsätzen läßt sich aber auch dem SiS 755 bescheinigen. Durch die Verlegung des Speichercontrollers in die CPU bei den K8-Prozessoren Athlon 64, Athlon 64 FX und Opteron ist scheinbar der einzig wirklich Performance-relevante Teil der Chipsätze eben nicht mehr in diesen zu finden, womit die K8-Chipsätze keine relevanten Performance-Unterschiede untereinander mehr erreichen können. Somit ist rein bezüglich der Performance scheinbar ein AMD64-Chipsatz so gut wie der andere, so daß vor allem die Feature- und Preisseite den Ausschlag geben sollte - und natürlich dies, was der jeweilige Mainboard-Hersteller daraus macht.
Die Düsseldorfer Bezirksregierung hat ein neues "Opfer" für ihre Zensurbestrebungen gefunden - die Suchmaschinen. Diese sollen künftig für die von ihnen dem Suchenden gelieferten Inhalte rechtlich verantwortlich gemacht werden. Dies widerspricht allerdings dem Zweck von Suchmaschinen auf das gröbste (diese sollen suchen und finden, jedoch nicht urteilen) und öffnet genauso auch auch den Glücksrittern des Internetzeitalters, sprich den Abmahn-Anwälten, Tür und Tor für neue Abmahnungsmöglichkeiten (weil "rechtlich verantwortlich" dann auch bezüglich Nutzung von Markennamen etc. eine Rolle spielen würde) ...
... Auf großartigen Widerstand seitens der Suchmaschinen-Betreiber wird man aber vermutlich kaum stoßen, zeigt doch selbst Google Deutschland für deutsche Nutzer auf Basis einer internen Zensur-Liste nicht wirklich alle Suchergebnisse an, wenn man standardmäßig über google.de anstatt beispielsweise über google.co.uk sucht (Nachweis: (1) + (2)). Womit sich Deutschland im übrigen mehr und mehr in so illustrer Gesellschaft wie die Haupt-Filternationen Saudi-Arabien und China befindet. Letztere verweisen im übrigen bei jeder sich passenden Gelegenheit gerade auch auf die Düsseldorfer Sperrverfügungen, wenn das Thema auf die "Große chinesische Netz-Mauer" kommt - auch wenn dieser Vergleich bzw. diese Assoziation der Düsseldorfer Bezirksregierung sicherlich weniger gefallen dürfte ;-).
News des 20. Oktober 2003 |
Sich dem mittlerweile recht selten gesehenen Thema PCI-Grafikkarten haben sich Sudhian Media angenommen. Mit dabei waren eine stattliche Riege an PCI-Grafikkarten von GeForce2 MX200 bis zur GeForceFX 5600 sowie Radeon 7000 bis zur Radeon 9200SE. Eigentlich sollte die GeForceFX 5600 als einzige Karte des Testfeldes mit Mainstream-Grafikchip diesen Vergleich klar gewinnen, doch an der Leistungsspitze sind die Unterschiede zwischen GeForceFX 5600, GeForceFX 5200 und Radeon 9100 sowie mit Abstrichen der GeForce4 MX440 zumeist viel knapper als zu erwarten wäre. Eher abzuraten wäre dagegen von der Radeon 9200SE, da deren Taktraten und damit Leistungen doch deutlich unterhalb der Radeon 9100 liegen ...
... Als Leistungssieger wäre jedoch nicht die GeForceFX 5600, sondern vielmehr die Radeon 9100 zu küren, welche insbesondere in höheren Auflösungen deutlich länger durchhält als die GeForceFX 5600 - und dies obwohl die nVidia-Karte mit 275 MHz sogar einen etwas höheren Speichertakt als die ATi-Karte mit 250 MHz aufweist. Viel höhere Leistungen als jene Radeon 9100 sowie GeForceFX 5200/5600 wird es allerdings auf PCI-Basis sowieso nicht geben, da der mittlerweile zu schwache PCI-Bus mit nur 133 MB/sec Transferrate (selbst AGPx1 hat 256 MB/sec) dann limitiert. Demzufolge wird die auf der Computex zu sehende GeForceFX 5900 auf PCI seitens Palit wohl kaum in den Retail-Markt kommen, denn eine wirkliche Mehr-Leistung kann diese Grafikkarte auf dem PCI-Bus nicht bringen.
Zum ATi Catalyst 3.8 Treiber kommen aus dem Forum von Short-Media einige Warnungen bezüglich potentieller Probleme mit diesen Treibern. Zum einen werden Radeon 9800/Pro/XT User (oder solche, welche mit einem Radeon 9800/Pro/XT BIOS unterwegs sind) vor einer möglichen Überhitzung der Karten gewarnt, da mit dem Catalyst 3.8 die Chip-Temperatur um erstaunliche 10-15°C höher sein soll als mit dem Catalyst 3.7. Dies dürfte nun nicht sofort bei jedem Benutzer dieser Karten zu einem Ausfall derselben führen, aber insbesondere Nutzer übertakteter Radeon 9800/Pro/XT Karten sollten die Sache aufmerksam beobachten und eventuell aus Sicherheitsgründen vorerst lieber wieder zum Catalyst 3.7 zurückwechseln ...
... Das andere Problem betrifft wieder die Radeon 9800/Pro/XT User und zusätzlich die Radeon 9700/Pro User, zusätzlich könnten auch noch sämtliche ATi-Grafikkarten mit DualHead-Technologie betroffen sein. Hier wird davon berichtet, daß die Grafikkarte beim Umschalten von 2D nach 3D (und umgedreht) unter Umständen den Monitor fälschlicherweise mit der höchsten von der Grafikkarte machbaren Refreshrate ansteuert. Bei den heutzutage verbauten hochwertigen RAMDACs können dies bis zu 200 Hz sein, was jedoch die wenigsten Monitore mitmachen. Erstklassige Monitoren dürften diese Übersteuerung im besten Fall aushalten, aber insbesondere ältere Geräte, welche kaum besseres als 100 Hz schaffen, könnten im schlimmsten Fall auch durch diese Aktion beschädigt werden ...
... Nicht betroffen von diesem Problem sind Anwender, welche über einen Monitor verfügen, welcher selber erkennt, ob eine nicht vom Monitor unterstützte Refreshrate angesteuert werden soll und dies im Zweifelsfall verhindern (ohne Gewähr: neuere Marken-Monitore sollten eigentlich über diese Funktionalität verfügen). Ob eine Festlegung der Refresh-Raten mittels der diversen für diesen Zweck herumschwirrenden Tools diesen Bug vollständig ausschalten kann, ist nicht bekannt, so daß auch in diesem Fall die Empfehlung gilt, sicherheitshalber den Calalyst 3.7 zu benutzen (siehe Treiber-Archiv: Windows 98/ME sowie Windows 2000/XP). ATi sind die beiden Probleme im übrigen bekannt, man konnte sie jedoch derzeit noch nicht reproduziern, so daß wohl nur eine kleine Zahl von Anwendern betroffen scheint.