News-Archiv 26. August - 1. September 2002 (35. Kalenderwoche)
1. September 31. August 30. August 29. August 28. August 27. August 26. August
News des 1. September 2002 |
Der Grafikchip-Hersteller Trident hat mit seinem DirectX8-Grafikchip XP4 bekanntermaßen große Ziele - man will unter die Top3 der Grafikchip-Hersteller. Nichts geht jedoch für einen reinen Chiphersteller ohne die Grafikboard-Hersteller - und diese sind theoretisch ziemlich fest in der Hand von ATi & nVidia. Nichts desto trotz haben sich schon einige fernöstliche Boardhersteller zum XP4-Chip bekannt - bisher wollen HIS, Chaintech, Inno3D und Jetway entsprechende Grafikkarten auf den Markt bringen ...
... Zwar sind die letzteren beiden nur höchstselten und Chaintech auch nicht unbedingt übermäßig im deutschen Markt vertreten, die Grafikkarten von HIS werden in unseren Gefilden mittels des deutschen HIS-Partners ENMIC doch recht erfolgreich verkauft, so daß die XP4-Versorgung in Deutschland als wohl gesichert erscheint. Allerdings steht zu bezweifeln, daß ohne wenigstens ein Schwergewicht unter den Boardherstellern sich ein wirklich durchschlagender Erfolg für den XP4 erzielen läßt. Möglicherweise muß der XP4 hier erst einmal den Wegbereiter spielen, um einem dem XP4 nachfolgenden Chip dann eine vernünftigere Ausgangslage zu geben.
Eines der besten Reviews zur ATi Radeon 9700 Pro haben Digit-Life abgeliefert. Für diejenigen, welche etwas damit anfangen können, dürften sicherlich die sehr umfangreichen theoretischen Tests interessant sein, in den nachfolgenden Spiele-Benchmarks ergibt sich natürlich dann auch wieder das von den anderen bisherigen Tests bekannte Ergebnis. Beachtenswert sind jedoch vor allem die Bildqualitäts-Vergleiche bezüglich des anisotropen Filters sowie bezüglich des Anti-Aliasings.
TweakPC haben für die Linux-Einsteiger einen sehr ausführlichen Installations-Guide für Linux anzubieten. Auf Basis der SuSE 8.0 Linux-Distribution werden alle Installationsschritte bis hin zu den elementaren Einstellungen des Betriebssystems und der Linux-Oberfläche erklärt. Zudem geht man auch noch auf die Installation der wichtigsten Anwendungsprogramme (StarOffice, Opera) ein und erklärt, wie man sich im Fall des Falles eines Absturzes :-) verhält.
Die Telepolis berichtet über eine neue "Gefahrenquelle" im Internet - Cyberläuse, welche den Surfern Rechenkapazität abziehen. Das geniale an der Idee ist, daß es sich nicht um fest installierte Programme mit Zusatzfunktionen handelt, sondern daß jener Ressoucen-Diebstahls nur während dieser Zeit stattfindet, in welcher man eine in dieser Art präparierte WebSeite betrachtet. Über Java und Javascript werden dem Rechner des Surfers beim Betrachten dieser WebSeite diverse minimale Aufgaben aufgehalst, welche auch in Sekundenschnelle gelöst und noch bevor der Surfer die nächste WebSeite ansteuert, wieder zurückgeschickt werden ...
... Der Surfer bemerkt diesen Vorgang nicht, da die abgeknöpfte Rechenleistung sowieso nur brachgelegen hätte - und kann diesen Vorgang zudem kaum zurückverfolgen, da der eigene Rechner nur "temporär" für fremde Interessen benutzt wird. Was jedoch nicht heißen mag, daß dieses legal wäre: Zwar stellt es kein Hacking dar, aber auch das Anzapfen fremder Ressoucen ist strafbar. Und während für den einzelnen User dieser Vorgang wie gesagt nicht einmal spürbar sein dürfte, kommen bei ein paar Millionen im Internet verbundener PCs durchaus Rechenleistungen heraus, welches einigen monetärem Wert haben dürften. Abhilfe kann hier eine gute Firewall schaffen, welche allerdings in diesem Fall auch ebenso gute Sachkenntnisse zur Benutzung von Firewalls erfordert ...
... Alternativ hilft der übliche Tip zum Verzicht auf aktive Inhalte in den eigenen Browsersettings - denn ohne Java, Javascript und ActiveX dürfte die ganze Sache prinzipiell nicht funktionieren. Neben der negativen Anwendung des Ressoucen-Diebstahls ergibt sich jedoch auch die Idee zu einer anderen: Man könnte das Ganze auch als Micropayment-System verwenden. Mit Zustimmung des Users würde man dann Inhalte gegen Rechenleistung anbieten können - es wäre das einzige Micropayment-System, welches anonym, sicher und allgemeingültig wäre, noch dazu de facto kostenlos für die User. Das einzige was hierzu fehlt, ist ein Markt für überschüssige Rechenleistungen - obwohl es diesen angesichts diverser wissenschaftlicher Großprojekte mit teilweise riesigem Bedarf an Rechenleistung eigentlich geben sollte.
News des 31. August 2002 |
Eine neue Roadmap zu S3/VIA Grafikchips haben Digit-Life aufgetrieben. Im Vergleich zu den letzten halbwegs sicheren Daten zum Columbia-Grafikchip zeigt sich, daß VIA weg vom Design der 4 Rendering-Pipelines mit je 2 Textureneinheiten hin zu einem Design mit 8 Rendering-Pipelines mit je einer Textureneinheit gewechselt ist. Zudem hat man die Vorstellungen zum Chiptakt von ca. 300 MHz auf nun 300 bis 400 MHz erhöht, der Speichertakt soll im übrigen 300 bis 350 MHz betragen. Von der Featureseite her soll der Columbia wohl vollständig DirectX9 unterstützen, bei der Performance will man in den Bereich von 11.000 bis 15.000 3DMarks kommen. Damit könnte der Chip durchaus zu einem recht interessantes Produkt werden ...
... Dafür entscheidend ist natürlich der Releasetermin, welcher laut dieser Roadmap mit dem ersten Halbjahr 2003 angegeben wird, nachdem erste Samples für das vierte Quartal diesen Jahres geplant sind. Die Zeitspanne des ersten Halbjahres ist natürlich recht weit gefaßt - mit einem Releastermin in den ersten zwei Monaten des Jahres 2003 könnte man noch in den Zweikampf "Radeon 9700 vs. NV30" eingreifen, im Juni 2003 reichen die genannten Daten dagegen wohl gerade noch für den Mainstream-Markt aus. Allerdings ist sogar zu "befürchten", daß VIA der Mainstream-Markt vollkommen ausreicht - die Taiwanesen haben schon des öfteren angedeutet, daß sie relativ wenig von einem Engagement im HighEnd-Markt halten. PS: Für das Jahr 2004 arbeitet man an einem "Columbia 2" Chip mit der angeblich dreifachen Performance des Columbia-Chips.
Laut Hard Tecs 4U wird es am 7. Oktober mit dem Athlon XP 2700+ den ersten Athlon-Prozessor mit 166 MHz DDR FSB geben - hoffentlich kann AMD jenen dann im Gegensatz zum Paperlauch der Athlon XP Modelle 2400+ und 2600+ auch liefern. Mit 2.16 Ghz realer Taktfrequenz wird allerdings die bei den beiden vorgenannten Prozessoren erst eingeführte neue Berechnungsformel für das Model Rating von "Taktfrequenz x 1.5 - 600" gleich wieder durchbrochen - der Athlon XP 2700+ errechnet sich dann mit "Taktfrequenz x 1.5 - 550". Diese leichte Erhöhung des Model Ratings ist aber durch den zu erwartenden Leistungsgewinn durch den höheren FrontSideBus sicherlich zu rechtfertigen.
Die ersten Reviews zum derzeit wohl schnellsten mobilen Grafikchip, dem eben erst vorgestellten ATi Mobility Radeon 9000, haben AnandTech und ExtremeTech anzubieten. Nominell soll der Mobility Radeon 9000 wie die Desktop-Variante des Radeon 9000 aufgebaut sein, was eine sehr anständige Spiele-Performance zuzüglich DirectX 8.1 Features für den mobilen Markt verspricht. In den Performancetests wird nVidia´s derzeit schnellste mobile Lösung, der GeForce4 Go Chip, klar um zwischen 10 bis 25 Prozent geschlagen - nicht übermäßig viel, aber der ATi-Chip liegt sowieso noch featuremäßig klar vorn, da der GeForce4 Go als GeForce4 MX Abkömmling nur DirectX7 Features bieten kann.
Der Detonator 40.41 läßt uns noch nicht ganz los: Zum einen haben wir unserem Artikel zum Point Sampling Filtering im 40.41er nVidia-Treiber noch zwei Updates verpasst. Im ersten Update weisen wir auf die Doppelbelegung des anisotropen Settings "0" in den Treiberpanels hin - nur durch jene wird der Bug ausgelöst, welcher das Point Sampling Filtering aktiviert. Denn erst wenn man das Setting "0" manuell bestätigt, wird Point Sampling gefiltert - im absolut unveränderten Normalzustand greift die default-Variante bilinear/trilinear (je nachdem, was die Applikation anfordert). User, welche nichts an diesem Setting verändert haben, konnten und können somit den Point Sampling Effekt gar nicht feststellen :-) ...
... Im zweiten Update haben wir noch einmal eine Liste mit allen möglichen Settings des anisotropen Filters unter Direct3D in diesem Treiberpanel des 40.41ers Treibers zusammengestellt - mit den jeweiligen Auswirkungen und dem Vergleich, wie es richtigerweise sein sollte. Daraus ergibt sich, daß der 40.41er Treiber beim Setzen auf 8x anisotrope Filterung nur eine 4x anisotrope Filterung liefert, obwohl weiterhin 8x angezeigt werden. Dies ist dann der zweite Bug dieses Optionspanels - hier wird nVidia wohl noch einmal nachlegen müßen und wird dies laut einer Meldung von 3DGPU auch tun. Für die Zwischenzeit macht es aber auch unser Tweaktool aTuner, welches problemlos mit dem 40.41er Treiber zurechtkommt und dieselben Optionen für den anisotropen Filter bugfrei anbietet ...
... Desweiteren sind jede Menge Artikel zum 40.41er Detonator erschienen, fast ausschließlich Leistungsvergleiche. Jedoch ergibt sich aus diesen kaum etwas neues. Zwar gibt es hier und da Abweichungen zu früheren Treibern, aber in der Summe aller Artikel schlägt allein 3DMark2001 konstant im 10-Prozent-Bereich aus. Selbst unter höheren Auflösungen oder/und Anti-Aliasing ändert sich dieses nicht. Nichts desto trotz kann sich natürlich jeder Anhand der Liste aller Artikel zum 40.41er selber ein Bild machen. Allen jenen, welche zudem auf der Suche nach einem Refreshrate-Fix für den 40.41er Treiber sowie den normalerweise versteckten Optionspanels für die AGP-Settings, das Overclocking und die Hardware-Überwachung sind, kann im übrigen dieser Thread unseres Forums weiterhelfen.
neuer Artikel |
Point Sampling beim 40.41er nVidia-Treiber
Wie schon in den heutigen News angekündigt, wollen wir uns noch einmal kurz mit der Bildqualität des neuen 40.41er nVidia-Treibers beschäftigen und dort im speziellen mit dessen Point Sampling Filterung als Standard-Einstellung. Die entsprechenden Screenshots zeigen, daß dies eine höchst ungünstige Lösung ist und daß man dieses Setting schnellstmöglich ändern sollte, falls man den 40.41er Treiber benutzt ... zum Artikel
News des 30. August 2002 |
Viel Wirbel gab es in den letzten Stunden um den gestern Nachmittag von nVidia releasten "Detonator 40.41", der entsprechende Thread in unserem Forum geht jetzt schon über 8 Seiten :-). Denn während einige über die fantastischen Leistungen des neuen Treibers schwärmten, berichteten andere von der völlig gleichen Performance wie vorher oder gar schweren Problemen bei der Installation des neuen Treibers. Doch der Reihe nach: Erst einmal veröffentlichte nVidia mit dem 40.41er Beta-Treiber gestern Abend den ersten Treiber einer neuen Treiber-Generation, "Detonator 40" genannt ...
... Dabei bringt dieser Treiber einige Verbesserungen mit: So legt nVidia nun endlich auch die anisotropen Modi unter Direct3D frei (gab es unverständlicherweise bisher nur unter OpenGL), desweiteren gibt es eine Overscan-Funktion für den TV-Out, welcher möglicherweise endlich entsprechende Fremdtools unnötig und den TV-Out von nVidia-Grafikkarten konkurrenzfähig machen könnte. Aber es wäre natürlich kein nVidia-Treiber, wenn es nicht auch eine vollmundige Versprechung bezüglich eines Performance-Plus´ geben würde: Bis zu 25 Prozent soll der neue Treiber mehr bringen - mit deutlicher Betonung auf "bis zu". Denn wie ersten Benchmarks von Hard Tecs 4U zu entnehmen, bewegt sich ausschließlich im 3DMark2001 etwas ...
... Jener legt mit 10 Prozent Performanceplus zwar durchaus kräftig zu - eine praktische Relevanz hat dies jedoch nicht, da die Ergebnisse der anderen Spiele-Benchmarks klar sich überhaupt nicht bewegen. Aus Performance-Erwägungen ergibt sich somit eigentlich kein Grund, auf den neuen Treiber zu wechseln - es sei denn, man spielt die ganzen Tag nur 3DMark :-). Einen gewissen Nachteil hat der neue Treiber zudem: Die default-Einstellung für den Texturenfilter unter Direc3D lautet nun nicht mehr wie in den bisherigen Treibern bilinear/trilinear, sondern sieht aus wie ein Point Sampling Filter. Dieser uralte Filtermodus aus vor-Voodoo-Zeiten ergibt ein teilweise hässliches Klötzchenmuster bei einigen Texturen, Screenshots hierzu werden wir heute vormittag noch in einem kleinen Artikel nachreichen ...
... Um erst einmal jenen zu helfen, die Probleme mit der Installation des neuen Treibers haben oder aber welche nach scheinbar erfolgreicher Treiber-Installation die Treiber-Menüs vermissen: Dieser neue 40.41er Treiber verlangt zwingend eine vorherige De-Installation des bisherigen Treibers. Danach bootet man das Betriebssystem neu und bricht dann den automatisch startenden Hardware-Assistenten, der die nun treiberlose Grafikkarte installieren will, ab. Wenn man dann den Treiber über das Starten der "40.41_winxp.exe" installiert, sollte es auch keine Probleme mehr geben. Falls es zu schweren Darstellungsfehlern kommt, soll im übrigen angeblich die Deaktivierung von FastWrites im BIOS des Mainboards helfen.
Warp2Search wollen im 31.00er Treiber die Real-Namen der kommenden nVidia-Chips NV18 und NV28 entdeckt haben. Völlig unspektakulär soll die Ablösung von GeForce4 MX/Ti sich nun "GeForce4 MX with AGP8X" (NV18) und "GeForce4 Ti with AGP8X" (NV28) nennen. Leider konnten wir selber in den INF-, EXE- und DLL-Dateien dieses Treibers keinerlei Hinweise auf jene Namen finden - insofern ist diese Information stark unter Vorbehalt zu betrachten. Nicht unter Vorbehalt ist allerdings, daß es nur zwei GeForce4 Ti Grafikkarten auf AGPx8-Basis geben wird, dies bestätigen auch die INF-Files anderer nVidia-Treiber. Aller Wahrscheinlichkeit nach wird nVidia keine GeForce4 Ti4400 mit AGPx8 auflegen - angesichts der auch in Zukunft immer näher aneinanderrückenden Preise der GeForce4 Ti Karten sicherlich eine sinnvolle Entscheidung.
In der linken Seitenleiste unser WebSite ist ab sofort eine neue Sektion aufgetaucht: Der aTuner. Unser kompaktes Tuning-Programm für nVidia´s GeForce-Grafikkarten hat nun seine eigenen Seiten bekommen, in welchem man sich ausführlich über alle Neuigkeiten, die Grundfunktionen und die erweiterten Optionen des Programms sowie den Experten-Modus informieren kann. Dazu gibt es zwei FAQs und natürlich den Download der letzten stabilen (1.1.7.5) sowie der neuesten Beta-Version (1.1.9.4). Beide genannte aTuner-Versionen kommen im übrigen schon mit dem neuen Detonator 40.41 zurecht.
News des 29. August 2002 |
Der Tech Report hat einmal einen ganzen Artikel lang den SiS Xabre 400 Chip mit und ohne seinem Texturen - "TurboMode" antreten lassen - mit durchaus interessanten Ergebnissen: So bringt der per default eingestellte TurboMode dem Xabre 400 Chip in den Spieletests unter 1024x768 einen gigantischen Vorteil von im Schnitt 63 Prozent. Besonders dramatisch ist dies im theoretischen Villagemark zu sehen: 115 fps mit TurboMode und nur noch 31 fps ohne (+270%). Im Vergleich mit den anderen Grafikchips liegt der Xabre 400 so mit TurboMode nur knapp hinter einer GeForce4 Ti4200 (!), ohne TurboMode jedoch noch klar hinter GeForce4 MX440 und Radeon 7500 zurück ...
... Und dabei ist der TurboMode aus Sicht einer vernünftigen Bildqualität wirklich keine Empfehlung wert: Die Texturen sind deutlich unschärfer, zudem gibt es im TurboMode nur einen bilinearen Zwangsfilter (d.h. die Einstellungen des Spiels diesbezüglich werden ignoriert). Blanke Ironie ist dann natürlich, wenn im SiS-Treiber der TurboMode per default aktiviert ist, es zu diesem keine Einstellungsmöglichkeiten in den Treiber-Panels gibt und von SiS keinerlei offizielle Informationen zu diesem Thema vorliegen. Irgendwo kann man da schon von "Cheat" reden - nicht unbedingt gegenüber den Hardware-Testern, welcher mittlerweile den TurboMod-Key in der Windows-Registry entdeckt haben, sondern eher gegenüber den Hardware-Käufern, welche doch wohl in der Mehrheit sicherlich gar nichts von diesem Umstand wissen.
Einige weitere Informationen zum vorgestern schon erwähnten neuen C1-Stepping des Pentium 4 Northwoods kommen von den Overclockers. Alle neu vorgestellten Pentium 4 Modelle (2.5, 2.6, 2.66 und 2.8 GHz) kommen bekanntermaßen gleich prinzipiell im C1-Stepping. Die Modelle 2.4B ("B" = 133 MHz QDR FSB) und 2.53 GHz sollen dieser Tage noch im C1-Stepping nachfolgen, den Rest der Pentium 4 Modellreihe wird es aber erst im Oktober als C1-Stepping geben. Diese beiden Angaben sind aber nur Auslieferungstermine seitens Intel - bis jene C1-Prozessoren im Einzelhandel erhältlich sind, vergehen auch immer noch ein paar Tage mehr. Zudem ist immer damit zu rechnen, daß der eine oder andere Händler noch größere Lagerbestände des bisher aktuellen B0-Steppings hat, so daß man auf diese Angaben durchaus noch einen Monat drauflegen sollte, wenn man unbedingt einen C1-Prozessor erwischen will.
Ein herausragendes Pentium 4 Chipsatz & Mainboard Roundup haben Hard Tecs 4U online gestellt. Auf wohl rekordverdächtigen 51 Seiten (27.000 Wörter!) wurden die neuen Chipsätze VIA P4X333 und P4X400 sowie SiS 648 zuzüglich 6 aktueller Mainboards von Asus, Epox, MSI und Soltek auf Basis aller derzeit wichtigen Pentium 4 Chipsätze (VIA P4X400, SiS 645DX & 648, Intel i845E & i850E) gründlich auseinandergenommen. Zusätzlich fand man noch Zeit, sich solchen "Nebenthemen" wie dem rein praktischen DDR400-Support bei VIA P4X400 und SiS 648, dem "DDR354"-Modus von Intel´s DDR-RAM Chipsätzen und dem Unterschied von 16- und 32bittigen RDRAM-Speicher zu widmen. Für Nutzer älterer Netzteile könnte im übrigen das dort getestete Epox BEAR Mainboard interessant sein: Es kommt auch mit nicht "Pentium 4 kompatiblen" Netzteilen ohne ATX12V-Stecker zurecht.
Zur gestrigen Meldung zu den Vertex & Pixel Shadern 2.1 noch ein Nachtrag: Die Shader 2.0 definieren "nur" einen allgemein gültigen Mindeststandard. Alles, was darüber hinausgeht, soll an Hersteller-spezifische Caps (Erweiterungen) gebunden sein. Da in Zukunft die meisten Shader-Programme nur noch mit Shader-Hochsprachen wie Cg, HLSL oder der kommenden OpenGL 2.0 Hochsprache geschrieben werden, wird die Unterstützung dieser Caps zudem wohl recht automatisch über diese Programmiersprachen stattfinden. Der von den Shader-Hochsprachen ausgeworfene Programmcode verfolgt erst einmal einen default-Pfad nach der Shader-Version 2.0, unterstützt jedoch durch die Abfrage der vorhandenen Caps auch diese über extra erzeugte Pfaden für die jeweiligen erweiteren Shader-Fähigkeiten automatisch mit ...
... Im gewöhnlichen dürften damit jedoch keinere bessere Effekte auf Grafikchips mit erweiterten Shader-Fähigkeiten (NV30) erzeugbar sein, da diese dann nicht mehr über den default-Pfad (Radeon 9700) darstellbar sind. Aber man kann jene Caps durchaus dafür nutzen, Shader-Programme schneller ablaufen zu lassen - was ein als nicht zu gering einzuschätzender Vorteil wäre. Und noch eine Korrektur zu gestern: Die Shader 3.0 bringen nicht die Unterstützung von Dynamic und Static Branching sowie von Loops und Sub-Shadern - diese gibt es teilweise mit schon mit 2.0, teilweise werden diese durch 2.0 mit Caps erreicht. Dies war eine Fehlinterpretation unsererseits - es ist richtigerweise derzeit nicht bekannt, was genau die Pixel & Vertex Shader 3.0 bringen werden.
News des 28. August 2002 |
Von Reactor Critical kommen hochinteressante neue Informationen bezüglich DirectX9: Demnach will Microsoft in dieses angeblich noch den Support für die Vertex & Pixel Shader 2.1 und 3.0 mit integrieren. Unter der Version 2.1 kann man sich wohl die erweiterten Shader-Funktionen des nVidia NV30-Chips vorstellen - dies wäre zumindestens naheliegend, ist allerdings trotzdem nur eine momentane Vermutung. Was genau die Version 3.0 bringen soll, ist derzeit unklar - aber dies alles passiert natürlich mit dem Ziel, längere und komplexere Shader-Programme zu ermöglichen ...
... Unklar ist jedoch, ob Microsoft die Vertex und Pixel Shader Versionen 2.1 und 3.0 noch in DirectX 9.0 einbauen wird oder erst in DirectX 9.1, welches ursprünglich im nächsten Frühjahr zu erwarten wäre. Möglich wäre hier natürlich auch noch die Variante, daß die Shader 2.1 in DirectX 9.0 kommen - und die Shader 3.0 erst in DirectX 9.1. Und auch nicht von der Hand zu weisen ist die neue Information, daß Microsoft nun ganz ohne DirectX 9.1 auskommen und alle für dieses geplanten Features noch in DirectX 9.0 integrieren will. Letzteres würde den Release-Termin von DirectX 9.0 zwar noch weiter nach hinten verschieben, da jedoch in den nächsten Monaten noch keinerlei Spiele mit DirectX9-Unterstützung erscheinen werden, ist dies wohl eher untragisch.
Im übrigen erwähnen Reactor Critical in vorgelinkter Meldung eher beiläufig einen Winter-Refresh des Matrox Parhelia Chips. Wir haben derzeit allerdings außer dieser genannten keine weiteren Informationen zu diesem Chip bzw. ob dieser überhaupt kommt. Begrüßenswert wäre natürlich eine Umstellung des Parhelia auf den 0.13 micron Fertigungsprozeß (bisher in 0.15 micron)), da der Chip dadurch dann mit 300+ MHz getaktet werden könnte. Und angesichts der gar nicht einmal schlechten Benchmarks der Parhelia bei Taktgleichheit (zur GeForce4 Ti) sowie der sehr guten Skalierung mit dem Chiptakt würde Matrox mit einem 300+ MHz Parhelia-Chip einen gehörigen Performance-Sprung von schätzungsweise 25 - 40 Prozent hinlegen können. Ob Matrox allerdings wirklich an einer "Parhelia 2" arbeitet, ist aber derzeit wie gesagt höchst ungewiß.
Zum schon genannten nVidia NV30 Chip behaupten The Inquirer im übrigen, dieser würde am 9. September vorgestellt werden. Dabei soll es sich allerdings um einen "Paperlaunch" handeln - was allerdings mittlerweile bei Grafikchips normal zu werden scheint. Ähnlich wie beim Launch von ATi´s Radeon 9700 Chip kann man davon ausgehen, daß nVidia zuerst die Technologie vorstellen wird, einige Wochen später erste Benchmarks mit frühen Samples veröffentlicht werden und das erst danach die Massenproduktion anläuft. Womit dann zwischen reiner Vorstellung und Auslieferung durchaus einige Wochen Zeit liegen werden ...
... Wir gehen wie schon öfters an dieser Stelle erwähnt derzeit davon aus, daß größere Chargen von NV30-Grafikboards unsere Gefilde erst im neuen Jahr erreichen werden. Im übrigen läßt sich bezüglich des kommenden Zweikampfes "Radeon 9700 vs. NV30" trefflich darüber streiten, in wie weit die erweiterten Shader-Möglichkeiten des NV30 überhaupt eine Relevanz haben werden. Sicherlich wird nVidia diese bei der Vermarktung des NV30 als Argument einsetzen - und sollten jene mit einer Vertex & Pixel Shader Version 2.1 wirklich von Microsoft "offiziell" gemacht werden, ist dies gar nicht einmal von der Hand zu weisen. Zwei Dinge gilt es hier jedoch immer einzurechnen ...
... Erstens benutzen Spieledesigner bei prinzipiell ähnlicher Hardware überaus gern den kleinsten gemeinsamen Nenner - in diesem Falle würden die erweiteren Shader des NV30 jedoch glatt brachliegen. Und zweitens ist es nicht unwahrscheinlich, daß solch komplexen Shader-Programme, wie sie der NV30 ermöglicht, erst dann geschrieben werden, wenn jener Chip schon längst LowCost geworden ist. Noch tasten sich die Spieledesigner erst einmal an DirectX8 heran - von den vollen Ausnutzung der Möglichkeiten von DirectX9 in realer Software sind wir wohl noch Jahre entfernt. In der Summe hieße dies allerdings: Aller Wahrscheinlichkeit nach werden die erweiterten Shader-Möglichkeiten des NV30 bei diesem Chip nie eine praktische Rolle spielen.
News des 27. August 2002 |
AMD hatte seinen großen Tag am 21. August mit der Ankündigung der Athlon XP 2.0 GHz / 2400+ und 2.13 GHz / 2600+ Prozessoren - gestern nun war Intel dran mit der Vorstellung der Pentium 4 Modelle 2.5, 2.6, 2.66 und 2.8 GHz. Eine Liste der bisherig veröffentlichten Tests findet sich hier, wobei man sich in diesen vornehmlich auf das 2.8 GHz Modell konzentrierte. Durch die vorerwähnten neuen AMD-Prozessoren kann dieser Pentium 4 mit 2.8 GHz allerdings nicht so einfach die Leistungskrone vom 2.53 GHz Modell übernehmen, sondern muß sich erst einmal gegen den Athlon XP 2600+ beweisen. In allen bisherigen Tests stellt diese Aufgabe für den neuen Gigahertz-Boliden jedoch kein Problem dar - allerdings aber auch kein Wunder angesichts des Model Ratings jenes Athlon XP 2600+ Prozessors ...
... Im großen Gegensatz zu AMD kann Intel seine neuen Prozessoren jedoch auch ausliefern - AMD´s Athlon XP 2400+ und 2600+ waren bekanntlich ein reiner "Paperlaunch" (was bei Desktop-Prozessoren doch sehr ungewöhnlich ist, bei Grafikchips dagegen derzeit leider eher normal) und man erwartet diese erst im kommenden Monat im Markt. Zu erwähnen sind noch die beiden letzten Modelle mit 100 MHz QDR FSB, welche Intel bauen wird - der 2.5 GHz und der 2.6 GHz Pentium 4. Jene sind zum einen für Aufrüster interessant, deren Mainboards keine 133 MHz QDR FSB hergeben und zum anderen natürlich für Overclocker, welche mit diesen Prozessoren die 133 MHz QDR FSB knacken wollen ...
... Dies wird allerdings aufgrund des hohen Grundtakts beider Prozessoren nicht ganz so einfach und wahrscheinlich erst mit späteren Chargen realisierbar, denn immerhin würde diese 133 MH QDR FSB beim 2.5 GHz Modell schon stolze 3,3 GHz Overclocking-Takt ergeben. Die Overclocking-Ergebnisse des 2.8 GHz Modells reichen im übrigen von 3.0 bis 3.3 GHz, wobei allerdings nur in 3 von 10 Overclocking-Tests mehr als 3.15 GHz ermittelt wurden. Hochinteressant an den neuen Pentium 4 Modellen ist jedoch in erster Linie das neue C1-Stepping dieser Prozessoren. Im Normalfall erhalten CPUs ab und zu neue Steppings, welche zumeist nur den Overclocking-Eigenschaften zuträglich sind. Dieses neue Stepping beinhaltet jedoch auch einige kleine Performance-Tweaks an der CPU selber ...
... Nachgewiesen werden konnte dies durch den Test von Ace´s Hardware, welche einem "alten" 2.53 GHz Pentium 4 im "alten" B0-Stepping einen auf 2.53 GHz heruntergetakteten Pentium 4 im C1-Stepping gegenüberstellten und in diesem Test einen kleinen, jedoch zweifelsfrei vorhandenen Vorsprung von zwei Prozent für das C1-Stepping ermitteln konnten. Zuerst dachte man als Erklärung an den für die Performance des Level1-Caches relevanten Instruction Translation Lookaside Buffer (TLB), welcher nach einer WCPUID-Anzeige nun 128 statt 64 Einträge aufnehmen können soll. Laut Intel ist dies jedoch nur eine falsche Anzeige seitens WCPUID (Update: alle Pentium 4 haben 128 Einträge, die bisherigen "64" sind die falsche Anzeige), ohne das man dann aber auf die genauen Änderungen des C1-Steppings näher einging ...
... Das neue C1-Stepping trifft aber nicht nur auf die neu vorgestellten Prozessoren zu, nach und nach werden auch alle bisherigen Pentium 4 Modelle nur noch in diesem ausgeliefert werden. Zum C1-Stepping gehört im übrigen nicht der Core-Shrink auf 131 mm² - jener wurde schon mit dem 2.4 GHz / 2.53 GHz Modell durchgeführt. Intel hielt es allerdings für unnötig, dies als neues Stepping zu deklarieren, so daß es momentan Northwood-Prozessoren im B0-Stepping mit 146 mm² Core-Fläche und welche mit 131 mm² Core-Fläche gibt. Und nicht das dies mißverstanden wird: Wirklich bessere Overclocking-Resultate sollten die 131er Chips nicht unbedingt bringen, da die Verlustleistung mehr oder weniger identisch ist und nun auf weniger Fläche abgegeben werden muß. Jener von Intel nie offiziell gemachter Core-Shrink hatte wohl eher nur produktionstechnische Gründe.
News des 26. August 2002 |
Hardware Accelerated hatten Trident Micro in einem Interview, in welchem doch recht ausführlich über den XP4-Grafikchip gesprochen wurde. So erfahren wir, daß der XP4 sogar schon Displacement Mapping unterstützen soll, obwohl er ansonsten keine weiteren DirectX9-Features beherrscht. Zudem will Trident sowohl Supersampling als auch Multisampling Anti-Aliasing unterstützen, der Performance-Verlust unter dem Einsatz von Anti-Aliasing soll dabei laut Trident nur ca. 20 Prozent betragen. Auch die zwei Textureneinheiten pro der vier Rendering-Pipelines wurden bestätigt ...
... Bei den Zukunftsaussichten steckt Trident die Erwartungen ziemlich hoch: Zum einen will man im nächsten Jahr zu den Top3 der Grafikchip-Hersteller gehören (ohne Angabe, auf welchen Markt sich dies bezieht) und zum anderen zukünftig nVidia-like alle 6 Monate neue Grafikchips vorstellen. Auch angesichts der von Trident wieder angeführten Leistungsprognosen für die T3-Version des XP4-Chips von 80 Prozent einer GeForce4 Ti4600 und 70 Prozent einer Radeon 9700 Pro müssen wir allerdings sagen: Trident haut allgemein schon ziemlich auf die Pauke. Ob sich alle getroffenen Leistungsprognosen wirklich in dieser Form halten lassen, ist derzeit noch arg ungewiß.
Einen dicken Hund im immerwährenden Zweikampf Intel vs. AMD scheinen Van´s Hardware gefunden zu haben. So stieß man auf ein AMD-Dokument, welches offenlegt, wie das insbesondere von den größeren Hardware-Seiten oder auch den Print-Magazinen recht oft eingesetzte Benchmark-Tool Sysmark 2002 gegenüber der 2001er Ausgabe zugunsten von Intel´s Pentium 4 "optimiert" wurde. In der Tat ist es schon mehr als merkwürdig, wenn in der 2002er Ausgabe des Sysmark´s exakt jene Tests weggefallen sind, in welchen AMD gut dasteht und dafür jene Tests, welche Intel gut dastehen lassen, wiederholt ausgeführt werden. AMD hat hier schon seinen Protest angekündigt - vorerst wird man beim Sysmark 2001 bleiben ...
... Zugleich will AMD seine im Juni diesen Jahres erworbene Mitgliedschaft der hinter dem Sysmark stehenden BAPCo (ein Zusammenschluß diverser IT-Firmen zur Erstellung industrieweiter Benchmarksprogramme) nutzen, um die Hintergründe für diese Änderungen am Sysmark zu erfahren und bei zukünftigen Versionen selber mitwirken zu können. Jener BAPCo-Beitritt wurde in vorgenanntem, bei Van´s Hardware downloadbaren AMD-Dokument bereits angekündigt, um Licht hinter die Intel-Optimierungen des Sysmark 2002 zu bringen. Möglicherweise kommt hier der eigentliche "Knall" noch - oder aber AMD läßt sich von der BAPCo mit vielen AMD-Optimierungen für den 2003er Sysmark überzeugen, die Angelegenheit doch nicht an die große Glocke zu hängen ;-).
Eine Einsteiger-Anleitung für den alternativen Messenger Trillian haben WinTotal erstellt. Normalerweise denkt man bei Messenger-Tools zuerst immer an ICQ oder auch MSN, Y! und AIM - jedoch sind diese Tools zumeist inkompatibel zueinander, bilden also "geschlossene Nutzergruppen". Trillian hebt diese Begrenzung auf, man kann problemlos mit Usern dieser vier Messenger-Dienste kommunizieren, ohne deshalb deren Programme nutzen zu müssen. Als wichtiger Vorteil gegenüber vor allem ICQ kommt Trillian werbefrei daher, zudem ist es derzeit noch absolut Spam-frei und bietet als Schmankerl eine mit 128 Bit verschlüsselte Verbindung (nur zu anderen Trillian-Usern). Und letztlich läßt es sich sogar noch als IRC-Client nutzen :-).