News-Archiv 11.-17. November 2002 (46. Kalenderwoche)
17. November 16. November 15. November 14. November 13. November 12. November 11. November
News des 17. November 2002 |
Eine auf den Montag datierte, aber heute schon online zu visitierende Meldung auf Investor´s Business Daily bringt aufgrund der dahinterstehenden offiziellen Quelle (nämlich nVidia selber) die Gewißheit, daß sich der NV30-Chip "GeForceFX" nennen wird. Zusätzlich gibt es die Information, daß jener zu einem durchaus ansprechenden Preis von 360 $ unters Volk gebracht werden soll - wobei dies in unseren Breiten auf ca. 460 Euro hinauslaufen sollte (+ 16 % MwSt. + ca. 10 % durch höhere Steuerlast). Offiziell liegt dieser Preis sogar unterhalb dem der Radeon 9700 Pro, welcher von ATi mit 399 $ angegeben wird - allerdings sind die Marktpreise inzwischen schon niedriger ...
... Zum marktfähigen Preis (niemand sagt, es wäre billig - aber der Preis ist konkurrenzfähig) kommt allerdings die bittere Pille des Auslieferungstermins: Februar 2003 - eine offizielle nVidia-Aussage. Damit hat ATi´s Radeon 9700 letztlich einen fünfmonatigen Auslieferungsvorsprung - fast eine komplette Chipgeneration. PS: Im übrigen ist es hübsch zu sehen, wie Investor´s Business Daily voll und ganz auf das nVidia-Marketing vom "cinematographischen Chip" einsteigt. Soviel zum Thema, Börsen-Analysten und angebliche Insider würden eine wirkliche Ahnung davon haben, was die von ihnen bewerteten Firmen verkaufen und wie deren Markt wirklich aussieht :-).
Im Beyond3D Forum läuft eine interessante Diskussion über die Minimum-Frameraten, welche Unreal Tournament 2003 auswirft. In der Tat weichen diese teils erheblich (um das Doppelte) von mittels Fraps gemessenen Minimum-Frameraten ab. Dennoch stimmen die von UT2003 ermitteltenen Minimum-Frameraten, wie sich jeder mittels der Frameraten-Logs im "Benchmark/CSVs" Verzeichnis von UT2003 selber überzeugen kann (in Excel oder ähnliches Programm laden, erste Spalte gibt die für die Darstellung jedes Frames benötigte Zeit in Millisekunden an). Fraps scheint hier selber nicht ganz so hochakkurat an die Messungen heranzugehen ...
... Auffallend ist beim Benchmarking von UT2003 natürlich, daß die Minimum-Framerate der meisten Benchmarks im Bereich von 0 bis 3 fps liegt, fast immer jedoch unterhalb von 10 fps - ganz egal, ob die Durchschnitts-Framerate schon bei über 100 fps liegt. Bei einem Blick in die CSV-Dateien kann man sich von der Richtigkeit dieser Werte überzeugen, jedoch stellt man dabei auch fest, daß zumeist nur ein einziger Einzel-Wert so weit nach unten "ausreißt". Was uns zu einem alten Thema bringt: Die Aussagefähigkeit von Minimum-Frameraten, welche auf der Messung eines einzelnen Frames basieren ...
... Wie an diesem Beispiel zu sehen, ist die Aussage solcher Art von Minimum-Frameraten gleich null. Diese Art von Minimum-Frameraten in einem offiziellen Test zu benutzen, halten wir sogar für gefährlich. Auf der Basis eines einzelnen, in einer Zehntelsekunden erzeugten Einzel-Wertes läßt sich gar keine Aussage machen, der statistische Fehler ist hier im dümmsten Fall größer als der Einzel-Wert selber. Minimum-Frameraten sind nur dann sinnvoll, wenn sie auf einer größeren Zahl von Einzel-Werten basieren, beispielsweise den niedrigsten 10 Prozent oder den niedrigsten 100 Einzel-Werten eines Benchmark-Durchlaufs ...
... Diese Möglichkeit ist dann logischerweise nur auf Spiele und Benchmarks eingeschränkt, welche alle Einzel-Werte mitprotokollieren. Momentan sind dies unseres Wissens nach nur Dungeon Siege, Serious Sam TFE & TSE sowie Unreal Tournament 2003. Gerade letzteres macht es einem mit vorformatieren Excel-Dateien wirklich einfach, sich selber eine sinnvolle Minimum-Framerate zusammenzustellen. Insofern sollte man diese Funktionalität auch nutzen und diese unsinnigen auf nur einem einzigen Einzel-Wert basierenden "Minimum-Frameraten" besser komplett links liegen lassen.
Und gleich noch einmal zum Unreal Tournament 2003 Benchmarking: Leider muß man sagen, daß das Benchmarken von Botmatches in UT2003 bis auf Ausnahmen bzw. den "privaten" Gebrauch nicht für einen professionell erstellten Vergleich zu gebrauchen ist. Wenn man die Datei "botmatch-all.bat" in unterschiedlichen Auflösungen durchjagt (dauert ca. 1-2 Stunden), wird man feststellen, daß einige Botmatches unter höheren Auflösungen teils schneller sind als unter niedrigeren Auflösungen. Dieser Effekt ist zudem von PC zu PC und zwischen den beiden derzeitigen Spielversionen noch verschieden. Wie wir allerdings beobachten konnten, läuft das Match an sich immer gleich ab ...
... Die geniale Playback-Engine von UT2003 schafft es also, trotz daß die Bot-KI bei jedem einzelnem Botmatch immer wieder neu errechnet wird (!), daß immer wieder die 100%ig gleichen Botmatches entstehen. Jedoch sind die Beobachter-Perspektiven und -Standorte nicht immer gleich - und dies ergibt den Unterschied, da der Betrachter-Standort selbst bei identischem Match maßgeblichen Einfluß auf die Frameraten hat. Insofern halten wir es bis auf Ausnahmen nicht für sinnvoll, UT2003 mittels Botmatches zu benchmarken und warten daher lieber auf den nächsten Patch mit gefixter Demo-Funktion. Damit sollte sich ein ganz normales Demo eines UT2003-Internetmatches erstellen lassen, welches man dann zum Benchmarken verwenden kann.
News des 16. November 2002 |
Zum eigentlich erst auf der am Montag beginnenden Comdex offiziell vorzustellenden nVidia NV28M mobilen Grafikchip haben sowohl AnandTech als auch ExtremeTech erste Artikel anzubieten. Der NV28M ist eine mobile Abwandlung des NV28, welcher die AGPx8-Ausführung des NV25-Chips ist, auf welcher die allseits bekannte GeForce4 Ti Grafikchip-Serie basiert. Die Unterschiede zwischen NV28 und NV28M sind allerdings gering, im eigentlichen hat nVidia nur die Chip-Spannung gesenkt, um weniger Abwärme zu produzieren. Nichts desto trotz ist der Leistungsbedarf und die Wärmeentwicklung des NV28M immer noch eher Desktop-like, von einer echten mobilen Ausführung kann man eigentlich nicht sprechen ...
... Dafür sind natürlich auch alle Desktop-Features im ersten NV28M-Derivat, dem GeForce4 4200 Go enthalten, sprich DirectX8-Beschleunigung gepaart mit hochsolider Grundleistung. Die Taktraten sind allerdings aufgrund der hohen Abwärme niedriger als bei der Desktop-Ausführung: Der GeForce4 4200 Go taktet nur mit 200/200 MHz anstatt den 250/250 MHz einer 64MB GeForce4 Ti4200. Mittels des PowerMizer-Tools wird die GeForce4 4200 Go zudem in Idle-Phasen dynamisch auf bis zu 25/50 MHz heruntergetaktet, um Notebook-üblich Strom zu sparen ...
... Im Benchmark-Teil beider Artikel gelingt es der GeForce4 4200 Go, die ATi Radeon 9000 Mobility jeweils klar zu schlagen, womit der neue nVidia-Chip der derzeit schnellste Grafikchip im mobilen Markt ist. An die Werte einer Desktop GeForce4 Ti4200 kommt der nVidia-Chip natürlich aufgrund der wesentlich niedrigeren Taktraten nicht heran. Vielmehr liegt die GeForce4 4200 Go irgendwo zwischen Desktop GeForce4 Ti4200 und Desktop GeForce4 MX440, grob gesprochen also auf Desktop GeForce4 MX460 Niveau. Dieser hat man natürlich die DirectX8-Fähigkeiten voraus - sofern jene auf einem Notebook eine Rolle spielen ;-).
Zur Radeon 9700 Pro von Tyan schwirrt momentan die Falschmeldung umher, jene würde mit 400 MHz Chiptakt antreten. Richtig ist, daß die Karte mit einem modifizierten Design und anderem Kühler antritt, doch weiterhin auf dem ATi-default von 325/310 MHz getaktet. Tyan legt einzig allein ein Overclocking-Tool bei, welches (theoretisch) bis zu 400 MHz Chiptakt erlaubt - was allerdings auch andere Overclocking-Tools vermögen. Im ersten Test dieser Tyan-Karte bei TweakUp war denn auch kein höheres Overclocking als 344/339 MHz stabil realisierbar - ein eher durchschnittliches Übertaktungsergebnis für eine Radeon 9700 Pro.
Daß einen am Zeitschriftenstand beim Zeitungshändler oder im Supermark dutzende PC-Magazine mit reißerischen Aufmachern wie "So brennen Sie jede CD" oder ähnlich anblinken, wird mittlerweile als normal und keiner Aufregung wert betrachtet. Die neuestes PC-Welt 12/2002 (ironischerweise nur bis 29. November erhältlich) gibt hier jedoch ein besondes krasses Beispiel ab: Bei dieser wird auf Titelseite direkt mit illegaler Software aus dem Netz geworben - Musik, Software und Filme. Dabei läßt das Wort "illegal" eigentlich keine Zweifel, daß es sich hierbei nicht um ursprünglich kostenlose Software handeln kann ...
... Zum Thema Filesharing kann man stehen wie man will, jedoch stellt sich die Frage, wieso die Verwertungsgesellschaften dem bezahlenden Endandwender durch kopiergeschützte CDs und Formate sowie CD-Abfragen und CD-Keys immer mehr Steine in den Weg legen (neuestes Beispiel: Gothic II), auf der anderen Seite aber solcher Art "Journalismus" nicht einen Riegel vorschieben. Möglicherweise mag sich der Text des entsprechenden Artikels kaum von dem anderer gleichgelagerter Artikel unterscheiden, doch mit dem Aufmacher wirbt die PC-Welt regelrecht für die illegale Nutzungsmöglichkeit - was unter Umständen sogar Straftatsbestand (Anstiftung) erfüllen könnte. Wer wie die Verwertungsgesellschaften bei jeder unpassenden Gelegenheit den moralischen Zeigefinger gegenüber dem Endanwender hebt, sollte sich genauso auch um dieses Thema kümmern.
News des 15. November 2002 |
Nun scheint es zu 99% sicher, daß nVidia´s NV30-Chip (GeForceFX ?) mit nur einem 128bittigen DDR-Speicherinterface antreten wird und damit ATi´s Radeon 9700 Pro den Vortritt bezüglich der theoretischen Maximal-Bandbreite lassen muß. Denn in einem Interview von David Kirk, Chef-Entwickler bei nVidia, mit Hardware Accelerated gab sich dieser wiederum recht skeptisch zu einem 256bittigen Interface und sieht dieses erst in der nVidia-Zukunft ("We´ll move to 256bit when we feel that the cost and performance balance is right"). nVidia kann diesen Nachteil allerdings mit einem wesentlich höheren Speichertakt (500 MHz DDR/II zu 310 MHz DDR/I) teilweise wieder ausgleichen, so daß man bezüglich der Bandbreite nur um ca. ein Fünftel zurückliegt (14,9 GB/sec. zu 18,5 GB/sec) ...
... Ein anderer interessanter Teil des Interview betrifft die nVidia Shader-Hochsprache Cg. Hier gab nVidia zu Protokoll, daß man einen Compiler für nVidia-Hardware und einen allgemeinen Direct3D-Compiler mitliefert. Die Plattform-Unabhängigkeit bezüglich OpenGL scheint es also rein nur für nVidia-Produkte gegeben - logisch, da unterhalb von OpenGL 2.0 die Grafikchips mit zumeist Hersteller-spezifischen OpenGL-Extensionen angesprochen werden und es keinen allgemeingültigen OpenGL 1.3/1.4 Standard gibt (kommt erst mit OpenGL 2.0). Damit bietet Cg jedoch de facto kaum einen größeren Leistungsumfang als Microsoft´s HLSL, auf welcher Cg letztlich technisch basiert ...
... Einzig allein die Möglichkeit, daß man zum Standard-Code noch zusätzlich auf nVidia-Hardware optimierten Code compilieren kann, könnte für die Spieleprogrammierer interessant sein. Andererseits macht nicht jeder Spieleprogrammierer sich die Arbeit der Implementierung von mehreren Code-Pfaden (wie id Software bei Doom III, allerdings unter OpenGL). Interessant wird es dann, wie Microsoft endlich die eigene Shader-Hochsprache HLSL veröffentlicht (erst nach dem Release von DirectX 9.0), dann bekommt Cg auf dem eigenem Territorium eine harte Konkurrenz ...
... Nur noch ironisch kann man den letzten Teil des Interviews sehen, in welchem David Kirk mehr oder weniger über DirectX8 ablästert. Jene einst als bahnbrechend beworbene Technologie bzw. die mit ihr eingeführten Vertex und Pixel Shader fällt nun nach nVidia in die Schublade "zu schwierig zu programmieren" - das klang zum Start von DirectX8-Grafikchips mittels der GeForce3 noch ganz anders ;-). Da auch schon jener Produktstart mit einer "Verdammung" der Vorgängertechnologie DirectX7 einhergang, darf die (ironische) Frage erlaubt sein, was die Grafikchip-Hersteller zu derzeit hochgejubelten DirectX9-Chips sagen werden, wenn dann irgendwann ihre eigenen DirectX10-Chips bereitstehen ;-).
Noch etwas zum nVidia NV30, diesesmal aus der Gerüchteküche von The Inquirer. Jene haben einige genauere Spezifikationen zum NV30 zusammengebastelt, welche aber teilweise nach einer Kommentierung schreien, damit sie nicht falsch aufgefasst werden. So schreibt man etwas von 48 GB/sec Bandbreite, welche durch die 128bittig angebundenen und mit 500 MHz taktenden DDR/II-Speicher zuzüglich der Lightspeed Memory Architecture III (LMA3) erreicht werden sollen. Was natürlich Schwachsinn ist, da eine theoretische Maximalbandbreite nicht durch Bandbreiten-schonende Maßnahmen wie LMA3 erhöht werden kann ...
... Denn es erhöht sich allein die Effektivität der 14,9 GB/sec. theoretischer Maximalbandbreite, welche der NV30 hat. Und selbst wenn man den LMA3-Effekt rein für einen Vergleich auf diese theoretischer Maximalbandbreite draufrechnen wollen (= 48 GB/sec bei NV30), so kann man dies nicht einfach so mit der "normalen" Bandbreite der Radeon 9700 Pro (18,5 GB/sec) vergleichen, da auch diese über Bandbreite-schonende Maßnahmen verfügt (HyperZ III, unterteilter Speichercontroller = ähnlich wie nVidia) und demzufolge deren Bandbreite für diesen Vergleich ähnlich fälschlicherweise hochgerechnet werden müßte ...
... Aus jenen 48 GB/sec, selbst wenn diese Angabe direkt von nVidia stammt, also den Schluß zu ziehen, der NV30 sei bezüglich der Speicherbandbreite der Radeon 9700 Pro überlegen, ist nicht nur sehr gewagt, sondern auch falsch. Momentan kann das Ergebnis dieses Vergleichs noch keiner wissen, jedoch liegt ohne Bandbreite-schonende Maßnahmen der NV30-Chip wie oben ausgeführt ca. ein Fünftel gegenüber der Radeon 9700 Pro bei der Speicherbandbreite zurück. Bei den Bandbreite-schonenden Maßnahmen hat nVidia zumindestens den Vorteil, daß der NV30-Speichercontroller höchstwahrscheinlich stärker als bei der Radeon 9700 unterteilt ist (4x32 Bit DDR zu 4x64 Bit DDR), ansonsten läßt sich zum Vergleich LMA3 zu HyperZ III derzeit absolut noch nichts sicheres sagen ...
... Jedoch kann man bei dem aufzuholenden Rückstand des NV30 von einem Fünftel davon ausgehen, daß es eher einem Wunder gleichkommen würde, wenn der NV30 letztlich wesentlich mehr effektive Bandbreite bieten würde wie ATi´s Radeon 9700 Pro. Anzumerken gilt es noch The Inquirer´s Aussagen zu den NV30-Kapazitäten beim Anti-Aliasing und beim anisotropen Filter: Bis zu 8x AA (ist möglicherweise ein Mischmodus zwischen Supersampling und Multisampling wie derzeit 4xS, nur eben mit 8 Subpixeln) und 16x AF (nVidia 128tap = ATi 16x) soll der NV30 beherrschen, wobei die dafür eingesetzten Verfahren nach früheren Meldungen nicht grundverschieden zu denen der GeForce4 Ti sein sollen.
neuer Artikel |
Der Begriff "Hidden Surface Removal" (im Kontext sinngemäß "verdeckte Flächen unsichtbar halten"), abgekürzt mit HSR, wird für vielfältige Methoden gebraucht. Jede 3D-Grafikkarte und so gut wie jede 3D-Engine hat HSR-Mechanismen. Diese unterscheiden sich jedoch erheblich. Wir möchten in diesem Artikel wesentliche HSR-Techniken vorstellen
Zunächst sollen die Hardware-Methoden beleuchtet werden, und dann hinterfragen wir, was die Software tun kann. In beiden Fällen werden auch gängige Optimierungs-Möglichkeiten besprochen, denn natürlich wird die 3D-Grafik schneller, wenn die ohnehin nicht sichtbaren Flächen gar nicht erst bearbeitet werden müssen, so dass bislang eine Menge "Forschung und Entwicklung" in dieser Richtung betrieben wurde. Uns geht es in diesem Artikel nicht um die graue Theorie, was man alles machen könnte, sondern um konkrete Realisierungen, wie man sie heute vorfindet ... zum Artikel
News des 14. November 2002 |
Reactor Critical wollen den Produktnamen des nVidia NV30 in Erfahrung gebracht haben: GeForceFX soll sich das gute Stück nennen. Geschlußfolgert wird dies aus der Plausibilität des Namens, welcher traditionelles (GeForce) mit neuem ("FX" aus CineFX, der NV30-Architektur) eigentlich recht ideal verbindet, sowie aus der kürzlich neu registrierten Domain GeForceFX.com, welche doch recht eindeutig auf nVidia hinweist (auch wenn die Registrierung selber offenbar über eine Mittelsfrau gemacht wurde - man vergleiche jedoch deren geografische Nähe zu nVidia).
Noch einmal zum DirectX 9.0 Release Candidate 0, welchen Microsoft als Public Beta zum Download stellt. Wir möchten anmerken, daß diese Version im eigentlichen nur etwas für Anwender ist, welche in irgendeiner Form DirectX9-Effekte nutzen wollen. Bei jeder normalen Installation ist dringend von diesem Release abzuraten, selbst Hardware-Tweaker werden mit DirectX9 kein einziges Frame mehr aus einem PC herauskitzeln können. So lange nicht irgendwelche Anwendungsprogramme DirectX9 zur Lauffähigkeit zwingend benötigten, besteht keinerlei Notwendigkeit und nicht der geringste Vorteil, auf DirectX9 und ganz besonders nicht auf Pre-Release Versionen upzudaten.
Am heutigen Tage hat Intel nun die 3-GHz-Grenze bei PC-Prozessoren durchbrochen und seinen 3.06 GHz Pentium 4 vorgestellt. Wie schon öfters berichtet, beinhaltet dieser Prozessor zudem eine wichtige Neuerung: HyperThreading. Jenes kann man sich als eine Zwischenstufe zwischen Ein- und DulProzessoring vorstellen: Die zur Ansteuerung für das Betriebssystem notwendigen CPU-Teile (Register) sind doppelt vorhanden, so daß sich die CPU als zwei Prozessoren im Betriebssystem meldet. Der Rest der CPU (Ausführungseinheiten) ist weiterhin nur einfach vorhanden, insgesamt betrifft HyperThreading nur 5 Prozent der gesamten CPU-Fläche ...
... Durch diese Simulation eines DualProzessor-Systems gegenüber dem Betriebssystem soll erreicht werden, daß die vielen Ausführungseinheiten des Pentium 4 eine höhere Auslastung erreichen - HyperThreading soll schlicht in mehr Pro-MHz-Leistung für den Pentium 4 resultieren. Leider sind die Voraussetzungen dafür recht hoch: Das benutzte Mainboards muß einen der Intel-Chipsätze i845E, i845G B-Stepping, i845PE, i845GE oder i850E tragen, zudem muß das Betriebssystem Windows XP Home/Pro oder Linux ab Kernel 2.4.18 sein. Windows 2000 wird offiziell nicht unterstützt, obwohl es theoretisch mit MultiProzessoring und damit mit HyperThreading eigentlich zurechtkommen sollte ...
... Nach dieser doch recht hohen Eingangsschwelle kann man dann aber durchaus einige Performance-Zuwächse durch HyperThreading feststellen, wie in den gesammelten Artikeln zum 3.06 GHz Pentium 4 nachzuschlagen. Insbesondere Multimedia-Programme schlagen recht gut auf HyperThreading an, Spiele dagegen fast überhaupt nicht. Dies liegt an der Programmierung von heutigen Spielen, welche auch von echten MultiProzessor-Systemen keinen Nutzen haben. Mittels der Einführung von HyperThreading könnte sich dies eventuell ändern und zukünftige Spiele werden möglicherweise MultiProzessor-optimiert geschrieben werden, jedoch wird dies noch eine ganze Weile auf sich warten lassen ...
... In der Zwischenzeit ist HyperThreading aus zweierlei Sicht interessant: Erstens profitieren davon Nutzer ganz bestimmter Programme - jener Programme, in denen HyperThreading 60 bis 80 Prozent zulegt. Dies mögen wenige Fälle sein, aber wer diese Programme (meist Multimedia-Anwendungen) intensiv nutzt, wird vom Leistungszuwachs durch HyperThreading begeistert sein. Zweitens profitieren jene Nutzer, welche öfters mit vielen Anwendungen gleichzeitig arbeitet: Das Arbeitsfeeling wird mit HyperThreading einfach besser und kommt dem eines echten DualProzessor-Systems sehr nahe. Dieser Effekt ist kaum mittels Benchmarks nachzuweisen, man muß ihn schlicht erlebt haben ...
... Uninteressant ist HyperThreading dagegen als allgemeingültiges SpeedUp, dafür reagieren insgesamt zu wenige Anwendungen mit Leistungsgewinnen. Zudem stellt sich wieder einmal die Frage, wer überhaupt noch etwas mit derartig viel Leistung respektive Megahertz anfangen soll, da einzig allein Spiele diese noch nutzen können. Doch ausgerechnet bei jenen beginnen sich höheren Auflösungen, Anti-Aliasing und anisotroper Filter immer mehr durchzusetzen, was nahezu jedes Spiel klar Grafikkarten-limitiert werden läßt und damit HighEnd-Prozessoren immer mehr das Wasser abgräbt. Die Frage nach dem Megahertz-Wahn ist zwar nicht neu, aber sie wird - für beide Prozessoren-Hersteller - immer bedrohlicher.
News des 13. November 2002 |
Microsoft scheint nun endlich mit DirectX 9.0 auf die Zielgerade zu kommen, denn man stellt den Release Candidate 0 der kommenden 3D-Grafikschnittstelle als Public Beta zum Download zur Verfügung. Da in der letzten Beta-Version, die nur wenige Tage zurückliegt, offenbar keine weiteren Bug gefunden worden, stehen die Aussichten nicht schlecht, daß die offizielle Endanwender-Version von DirectX 9.0 noch in diesem Jahr veröffentlicht werden wird. Realistisch betrachtet mag dies nicht unbedingt wegen sofort anstehender DirectX9-Spiele interessant sein ;-), sondern vielmehr wegen Microsoft´s DirectX 8/9 Shader-Hochsprache HLSL, welche ohne ein offizielles DirectX9-Release nicht fertiggestellt werden kann.
The Inquirer haben das Gerücht in die Welt gesetzt, bei Intel würde man überlegen, die Pentium 4 Busprotokoll Lizenz, welche zum Bau von Pentium 4 Chipsätzen notwendig ist, dem Chipsatz-Hersteller SiS zu entziehen. Der Grund hierfür ist der eher überraschende Erfolg von SiS, welche Intel erfolgreich Marktanteile im OEM-Segment abringen. Nichts desto trotz ist ein Lizenzentzug eher unwahrscheinlich: Zum einen würde dies das aktuelle Geschäft kaum betreffen, da Intel die schon erteilte Lizenz für das 533-MHz-Busprotokoll (vermutlich) nicht zurückziehen kann und damit SiS frühestens die Lizenz für das 666-MHz-Busprotokoll verweigern könnte ...
... Dies wäre allerdings für SiS kaum ein Hinderungsgrund: In jenem Markt, wo SiS Intel weh tut, sprich im OEM-Segment, werden 666-MHz-FSB-Prozessoren (Prescott-Core, ab Mitte 2003 mit 3.5 GHz und mehr) nicht so bald eingesetzt werden. Und im Retail-Markt reicht auch der inoffizielle Support von FSB666, sofern die Hardware dies problemlos mitmacht. Zum anderen wäre eine solche Aktion wettbewerbsrechtlich mit einem nicht zu unterschätzenden Risiko verbunden. Wenn SiS als Lizenznehmer wegfällt, dann verbleibt nur noch ATi als letzter Intel-Lizenznehmer (der Marktanteil von ATi bei Mainboard-Chipsätze ist im Prinzip nicht existent), was durchaus einige Wettbewerbshüter auf den Plan rufen könnte und zudem auch ein guter Hintergrund für rechtliche Schritte seitens SiS wäre ...
... Immerhin läuft weiterhin der bekannte VIA/Intel-Streit (Meldungen von einem Verkaufsstop in Deutschland sind verfrüht), nVidia sind die Intel-Lizenzen zu teuer, während ALi sowie ATi von den Marktanteilen her unrelevant sind. Zusammen mit dem SiS-Fall kann man Intel durchaus nachsagen, eine beinharte Lizenzpolitik zu führen, was nicht unbedingt wettbewerbsfördernd ist. Aber möglicherweise gehört der neuerliche SiS/Intel-Konflikt nur zum üblichen Abtasten der gegnerischen Positionen und Stärken vor den anstehenden Lizenzverhandlungen zum 666-MHz-Busprotokoll. Beim 533-MHz-Busprotokoll gab es zuerst auch solche Töne, trotzdem bekam SiS seinerzeit noch eine Lizenz erteilt.
Nach einem Bericht der Telepolis plant das US-Verteidigungsministerium die Total-Überwachung des weltweiten Internets und wird dazu innerhalb von 5 Jahren einen Prototyp eines entsprechenden Computersystems entwickeln und aufbauen. Mit der Total-Überwachung ist im übrigen nicht die Überwachung bekannter oder mutmaßlicher Terroristen und anderer Straftäter gemeint, sondern die vollständige Überwachung aller an das Internet angeschloßenen Bewohner dieses Planeten. Das Ziel ist eine "totale Informationskenntnis", um terroristische Aktivitäten schon im Vorfeld erkennen zu können ...
... Die Zielsetzung der Terrorismus-Bekämpfung ist sicherlich jeder Diskussion erhaben, die dafür eingesetzten Mittel aber nicht. Letztlich läuft dieses Modell auf eine totale Überwachungsgesellschaft hinaus - und dies nicht erst mit der 25. Ausbaustufe, die wir alle nicht mehr erleben werden, sondern schon mit genau diesem Konzept. Irritierend dabei ist, daß es keinen Aufschrei der Empörung über derartige Pläne gibt - ganz besonders im "Land of the free", welches ja ebenfalls "totalüberwacht" werden soll. Die Frage, ob Freiheit überhaupt mit Totalüberwachung vereinbar ist, ist letztlich eine gesellschaftliche, welche auch von der Gesellschaft ausdiskutiert werden sollte, ehe Geheimdienste und Regierung dieserart Projekte anschieben ...
... Denn die möglicherweise wichtigste Konsequenz aus dem Überwachungsstaat wird viel zu selten beachtet: Es gibt keinen Weg zurück. Bis auf eher unliebsame Ereignisse wie der Untergang der Zivilisation ist der Überwachungsstaat die erste und einzige Gesellschaftsform in der Geschichte, welche sich selber vor dem Fall schützen kann - indem man nicht nur Terroristen überwacht, sondern eben auch die Überwachungsgegner. Das vom Pentagon geplante Überwachungssystem ist somit mitnichten eine News des Tages, sondern eventuell die wichtigste Meldung des Jahres, weil die Konsequenzen einfach dramatisch hoch sind. (Diskussion zum Thema)
News des 12. November 2002 |
Ein weiteres Update auf nVidia´s Are You Ready? Seiten offenbart wieder einiges an nun offiziellen Informationen zum am 18. November auf der Comdex in Las Vegas vorzustellenden NV30-Chip. So findet sich nun eine Technikseite (englisches Original & deutsche Übersetzung), von welcher fröhlich grinsend David Kirk, seines Zeichens nVidia´s Chef-Entwickler, daherblickt und im nachfolgenden Text dem geneigten Leser einige Vorzüge der CineFX-Architektur des kommenden HighEnd-Chips näherzubringen versucht ...
... Aus diesem Text läßt sich schlußfolgern, in welche Richtung nVidia mit dem NV30-Chip und dessen Marketing in erster Linie gehen will: Höherwertigere Grafik in 3D-Spielen. Dabei übertreibt nVidia in einigen Passagen allerdings auch wieder etwas: Wie 128 Bit Rendering in Spielen zwingend notwendig sein soll, wenn der derzeitige Standard 32 Bit sind und die nächste logische Entwicklung erst einmal 64 Bit Rendering wäre, kann mit den Erfahrungen des Rendering für Kino-Effekte kaum erklärt werden, da die dafür verwendeten professionellen Renderer mehrheitlich auch "nur" auf 64 Bit Genauigkeit setzen ...
... Zudem wird aus reinen Performancegründen in Spielen kaum mehr als auf 64 Bit Genauigkeit eingesetzt werden, darüber hinaus übersteigt der Performanceverlust für 128 Bit Genauigkeit den Nutzen der damit hinzugewonnenen Bildqualität. Das Thema NV30-Performance wird im übrigen nur am Rande erwähnt ("niemand wird enttäuscht sein") - was aber in gewissem Sinne nicht falsch ist, denn nach der Radeon 9700 Pro ist Performance wirklich meistens im Überfluß vorhanden. Die angestrebte höherwertigere 3D-Grafik ist aber natürlich ein hochgradig zweischneidiges Schwert ...
... Denn allein die herausragenden technischen Möglichkeiten des NV30-Chips bezüglich seiner Programmierbarkeit ergeben noch kein einziges besser aussehendes Spiel. Doch auf diese eigentlich mit jedem neuen Chip erneut auftauchende Frage hat nVidia - erstmals - eine Antwort parat: Cg. nVidia´s Shader-Hochsprache soll es den Spiele-Programmierern ermöglichen, auf eine effektive Weise die Shader-Funktionen des NV30-Chips in ihren Spielen einzusetzen. Dies mag sich großartig anhören, noch dazu wo bisherige nVidia-Chips und deren neue Technologien noch nie derartige gute Software-Unterstützung zur Verfügung hatten ...
... Doch betrachtet man den NV30 und Cg aus der neutralen Ecke, so hat diese nVidia-Rechnung einige Haken: Zum einen wäre da Cg, welches leider nicht so allgemeingültig ist, wie dies nVidia gerne hätte. Denn Cg wird als doch mehr oder weniger herstellerspezifisches Programm nicht bei jedem Spieleprogrammierer Anklang finden - ganz besonders, wo mit Microsoft´s HLSL für DirectX 8/9 und 3Dlabs´ GLslang für OpenGL 2.0 Hersteller-übergreifende Standard-Shadersprachen in den Startlöchern stehen. Und des weiteren ist der Markt für DirectX9-Effekte momentan und selbst in einem Jahr noch verschwindend gering ...
... Ende des nächsten Jahres werden DirectX9-Beschleuniger wie Radeon 9500/9700 und nVidia NV3x einen gesamten Marktanteil von gerade einmal 5 bis 10 Prozent haben. Selbst unter Gamern werden es kaum mehr als 30 Prozent sein - nicht jeder rüstet schließlich seinen PC jährlich auf die neueste und teuerste Technologie auf. Doch mit bestenfalls 30 Prozent Marktanteil für DirectX9-Beschleuniger wird kein Spielehersteller es wagen, ein DirectX9-only-Spiel herauszubringen - damit würde man sich schließlich um 70 Prozent der potentiellen Kundschaft bringen ...
... Zum Ende des nächsten Jahres werden gerade einmal die DirectX8-only-Spiele dominieren, weil dann DirectX8-Grafikkarten eine entsprechend weite Verbreitung zumindestens unter Gamern gefunden haben werden. Insofern ist es sogar vermessen, wenn nVidia exakt mit dem NV30-Chip den Grafikdurchbruch für 3D-Spiele für sich in Anspruch nimmt. Es wird diesen Durchbruch geben - aber erst 2004/2005 in realen Spielen, 2002/2003 höchstens in Technologie-Demos. Der NV30 ist zweifelsohne ein wichtiger Schritt auf dem Weg zu einer zukünftig besseren Grafik - denn ohne die entsprechend vorhandene Hardware (Radeon 9500/9700, NV3x) werden Spieleprogrammierer neue Effekte prinzipiell nie ausnutzen ...
... Insofern ist jedes Stück der höheren Programmierbarkeit des NV30-Chips zu begrüßen - aber es wäre eine Illusion zu glauben, dessen Möglichkeiten würden in kürzerer Zeit ausgenutzt werden. Ergo ist die höhere Programmierbarkeit des NV30 eigentlich nur eine Zugabe - auch wenn dies nVidia´s NV30-Marketingkonzept zuwiderlaufen mag. Für das hier und jetzt sowie die Spiele des Jahres 2003 entscheidet die Rohleistung des Chips und wie intelligent die Verfahren zur Bandbreitenschonung und jene für den anisotropen Filter und für Anti-Aliasing sind. Und jene Fragen werden sich wohl im Laufe des 18. Novembers klären lassen :-).
News des 11. November 2002 |
Mit der CPU-Abhängigkeit und -Skalierung von ATi Radeon 9700 Pro und nVidia GeForce4 Ti4600 haben sich die x-bit Labs beschäftigt. Dabei konnte wieder einmal ein stärkerer Verbrauch an CPU-Ressourcen durch den ATi-Treiber nachgewiesen werden: Unter der eher CPU-limitierten Auflösung 800x600 liegt fast überall die GeForce4 Ti4600 trotz klar unterlegener Grafik-Leistung vorn. Dieser Effekt ist auf kleineren CPUs (Pentium 4 mit 1.6 GHz) ausgeprägter als auf HighEnd-Prozessoren (Pentium 4 mit 2.8 GHz), was deutlich für den größeren Verbrauch an CPU-Leistung durch den ATi-Treiber spricht ...
... Jedoch muß man auch sagen, daß insbesondere unter der 800x600 Auflösung die Frameraten mehrheitlich im Sorgenfrei-Land liegen (und wenn nicht, dann liegt es am Spiel selber), und damit die Unterschiede zwischen GeForce4 Ti4600 und Radeon 9700 Pro von meist weniger als 10 fps herzlich uninteressant sind. Die Aussage der höheren CPU-Lastigkeit des ATi-Treibers hat somit einen eher theoretischen Wert. In jeder höheren Auflösung gewinnt die Radeon 9700 Pro dann erwartungsgemäß mit größeren Abständen - und dies bei einem Frameraten-Niveau, wo die ermittelten Leistungsunterschiede in realen Games auch noch entsprechend spürbar sind ...
... Einzig allein unter 1024x768 auf einem niedrig getaktetem Pentium 4 (1.6 GHz) kann die GeForce4 Ti4600 noch einen Gleichstand erzwingen. Dies ist ein deutlicher Hinweis darauf, daß neuen HighEnd-Chips wie der Radeon 9700 Pro auch eine entsprechende CPU zur Seite gestellt werden sollte. Jedoch gelten alle diese Schlußfolgerungen nur für den Betrieb ohne anisotropen Filter und ohne Anti-Aliasing. Unter dem Einsatz dieser beiden bildqualitätsverbessernden Features wird die CPU in 3D-Spielen weitestgehend bedeutungslos, da beide Features nahezu jedes Spiel Grafikkarten-limitiert werden lassen.
Der Tech Report ist der Frage nachgegangen, wie stark sich Distributed Computing auf die Performance auswirkt. Dies hat man am Beispiel des Folding@Home Clienten der Stanford-Universität ausführlich nachgemessen, bekanntester Vertreter von Distributed Computing dürfte SETI@Home der Berkley-Universität sein. Im Prinzip dürfte sich eigentlich kein Performance-Unterschied ergeben, denn diese Programme arbeiten theoretisch ausschließlich während Leerlaufzeiten. Und genau auf dieses Ergebnis kam der Tech Report dann auch: Egal, ob HighEnd- oder LowEnd-System und egal, ob man größere Applikationen, Multimedia-Programme oder Spiele am laufen hat, der Effekt des genannten Clienten liegt bei unterhalb eines halben Prozents, also vollkommen unerheblich.