News-Archiv 23. - 29. August 2004 (35. Kalenderwoche)
28./29. August 27. August 26. August 25. August 24. August 23. August
News des 28./29. August 2004 |
Im Beyond3D Forum ist ein anscheinend von ATi stammendes Dokument aufgetaucht, welches ein paar neue Details über den demnächst anstehenden RV410-Chip offenbart. Danach unterteilt sich dieser Chip erwartungsgemäß in zwei Varianten: Radeon X700XT und Radeon X700 Pro, wobei die XT-Version die höherwertigere ist. Zudem gibt es auch eine preisliche Einordnung: Die Radeon X700 Pro soll im 200-Dollar-Segment antreten, die Radeon X700XT im 300-Dollar-Segment, was angesichts der Preisvorgaben von nVidia bei GeForce 6600 (149 Dollar) und GeForce 6600GT (199 Dollar) durchaus überraschend ist ...
... Für dieses seltsame Preisgefüge bieten sich momentan zwei Erklärungen an: Die erste bezieht sich auf die Real-Preise der GeForce 6600GT, welche zum Start deutlich überhalb der Listenpreise liegen werden. Faktisch ist die GeForce 6600GT eigentlich keine 199-Dollar-Karte, sondern geht eher in Richtung 250 Dollar. nVidia wählte diesen Listenpreis nur, um unter die psychologisch wichtige Grenze von 200 Dollar zu kommen. Gut möglich, daß ATi diesbezüglich ehrlicher ist und die Radeon X700XT gleich bei 299 Dollar Listenpreis einordnet, die Straßenpreise aber dann wie üblich etwas günstiger bei 250 Dollar liegen, was dem nVidia-Angebot entspricht ...
... Die andere mögliche Auflösung wäre, daß ATi es sich leisten kann, die Radeon X700XT höher anzusetzen als die GeForce 6600GT. Bisher nahmen wir aufgrund der bekannten technischen Daten zum RV410-Chip (8 Pixel-Pipelines, 6 Vertex Shader, 128 Bit DDR-Speicherinterface, Shader 2.0b) eigentlich eher einen Leistungsgleichstand zum NV43-Chip an, auch bezüglich der Taktfrequenzen wird bei diesem bisher nichts deutlich besseres als bei der GeForce 6600GT (500/500 MHz) erwartet. Das einzige, was uns als Erklärung dazu einfällt, wäre der Punkt, daß die bisherigen Informationen zum Speicherinterface des RV410-Chips zumeist nur bessere Annahmen waren. Es wäre also angesichts des höheren Listenpreises der Radeon X700XT durchaus im Bereich des Möglichen, daß ATi uns bei dieser Karte mit einem 256 Bit Speicherinterface überrascht.
Bei AnandTech ist ein Blockschaltdiagramm des nVidia nForce4 Chipsatzes aufgetaucht. Hochinteressant ist dabei die Lösung für den SLI-Betrieb, denn nVidia hat eine Möglichkeit gefunden, diesen mit nur 16 PCI Express Lanes zu ermöglichen. Der nForce4-Chipsatz kommt somit anscheinend mit insgesamt nur 20 PCI Express Lanes aus (auf dem Blockschaltdiagramm sind 4 zusätzliche PCIe-Steckplätze sichtbar, vermutlich sind dies PCIe x1 Steckplätze). Dabei gehen die 16 PCI Express Lanes für den Grafikkarten-Steckplatz nicht direkt zu diesem, sondern zu einem "NV-SLI Switch" genannten Bauteil, welches die PCI Express Lanes entsprechend aufteilt ...
... Wird nur ein Grafikkarten-Steckplatz bestückt, bekommt dieser die vollen 16 Express Lanes - werden dagegen beide Grafikkarten-Steckplätze bestückt, bekommt jeder davon 8 Express Lanes (ergibt eine Busgeschwindigkeit wie AGPx8). Eine recht intelligente Methode, welche PCI Express Lanes spart und damit den Chipsatz günstiger macht. Den Mehrpreis gegenüber der normalen Ausführung des nForce4 werden bei der SLI-Ausführung des nForce4 damit nur jener SLI-Switch und der zweite Grafikkarten-Steckplatz ausmachen, was eigentlich keinen großen Betrag ergeben dürfte.
Shortcuts: Daß es zu WGF nicht schon mehr Informationen bezüglich dessen konkreter Ausführung gibt, ist nicht ganz korrekt, denn von Microsoft gibt es schon eine entsprechende Präsentation (PPT). Laut der DigiTimes wird Intel beim kommenden IDF vom 7. bis 9. September aller Wahrscheinlichkeit nach genaueres zu seinen DualCore-Plänen sagen. Und letztlich vermeldet Golem die offizielle Ankündigung des Windows XP Nachfolgers "Longhorn" durch Microsoft für das Jahr 2006. Um diesen Termin halten zu können, hat Microsoft allerdings das neue File- und Suchsystem WinFS von der Liste der Longhorn-Features streichen müssen. WinFS wird jedoch trotzdem entwickelt und wird wohl mit einem Service Pack nachgereicht werden.
neuer Artikel |
GeForce-Karten: Ältere Spiele verschönern
Halbwegs moderne GeForce-Karten haben genügend Power, um alte Spiele mit allen aktivierten Details zu flüssig rendern – und weisen noch immer überschüssige Leistung auf. Wirklich alte 3D-Spiele sind zudem manchmal noch in der Auflösung begrenzt. In diesem Artikel wollen wir einige Möglichkeiten vorstellen, die heutige 3D-Leistung in noch mehr Qualität umzusetzen ... zum Artikel
News des 27. August 2004 |
Nachdem DirectX 9.0c nun inzwischen "durch" ist, mag sich der eine oder andere eventuell die Frage stellen, wie es nun danach weitergeht mit DirectX. Wenn man es kurz und knapp beantworten wollte: Gar nicht. Denn auch wenn es auf den Roadmaps des einen oder anderen Grafikchip-Entwicklers genannt wird, ist bei Microsoft kein DirectX10 in Arbeit. Vielmehr plant man in Redmond den kompletten Umsturz und entwickelt eine völlig neue Grafikschnittstelle, Windows Graphics Foundation (WGF) genannt. Die Gründe für WGF und gegen eine Weiterentwicklung von DirectX sind dabei in erster Linie interner Natur ...
... Bezüglich der Möglichkeiten für die Spiele-Programmierer wird WGF also nicht viel anders als eine weitere DirectX-Version sein. Bisher sind von WGF allerdings nur der Support von Shader 4.0 bekannt, welcher die Grenze von Vertex und Pixel Shader nahezu vollkommen aufheben. Weitere Änderungen von WGF sind derzeit noch weitgehend im Dunklen, der Name der neuen Schnittstelle deutet aber schon an, daß es sich hierbei nicht allein nur um 3D-Grafik drehen soll. Wirklich nachteilig ist allerdings das Ansinnen von Microsoft, WGF nur für den Windows XP Nachfolger "Longhorn" entwickeln zu wollen (Longhorn wird zudem weiterhin DirectX unterstützen) ...
... Technisch ist dies sicherlich kaum zu begründen, vielmehr soll wohl auch der Gamer damit "erinnert" werden, irgendwann einmal auf Longhorn umzusteigen ;-). Natürlich wird es nach dem Erscheinen von WGF (bzw. Longhorn) einige Zeit dauern, ehe erste Spiele dessen neue Möglichkeiten ausnutzen, aufgrund der installierten Basis von Grafikkarten werden die Spielehersteller sicherlich noch einige Jahre lang Rücksicht auf non-WGF-Hardware nehmen und ihre Spiele somit DirectX-kompatibel halten müssen. Nichts desto trotz ist dies eine aus Sicht der Gamer nicht wirklich begrüssenswerte Entwicklung, denn Longhorn hat sich bisher eigentlich nur einen Namen als TCPA-System mit übermäßigem Ressourcenhunger gemacht, um welches man besser einen größeren Bogen machen wollte ...
... Davon abgesehen hat WGF natürlich auch direkte Auswirkungen auf die kommenden Grafikchips. ATi´s NextGen-Grafikchip R520 wird bekanntermaßen erst einmal den Shader 3.0 Support mitbringen. Wie es darüber hinaus aussieht, ist allerdings derzeit noch eher nebulös. Der NV50-Chip von nVidia könnte durchaus WGF-kompatibel sein, denn auch wenn dieser nun anscheinend deutlich vor Longhorn erscheinen wird, war zum Designstart des NV50 die gewaltige Verzögerung des Microsoft-Betriebssystems noch nicht absehbar. Genauso gut ist es aber auch das Gegenteil dessen möglich. Eher unwahrscheinlich sind dagegen Grafikchips mit 3D-Features, welche deutlich über DirectX9 hinausgehen, aber noch nicht WGF-kompatibel sind: Denn alles, was nicht in DirectX9 oder aber WGF spezifiziert ist, wird von den Spiele-Entwicklern kaum genutzt werden.
Bei den VolariGamers gibt es ein Preview mit ersten Benchmark-Ergebnissen der XGI Volari V3 XT. Gemäß den Daten zum seinerzeitigen Volari-Launch müsste es sich bei dem V3-Chip eigentlich um einen DirectX8-Chip handeln, welcher auf den Trident XP4 zurückgeht. Da der Artikel jedoch in aller Klarheit von dem Vorhandensein einer Pixel Shader 2.0 Einheit redet, scheint es sich beim V3 XT wohl um eine Weiterentwicklung des XP4 zu handeln. Daß der Chip nur Vertex Shader 2.0 "kompatibel" ist, läßt jedoch zumuten, daß der V3 XT keinen eigenen Vertex Shader besitzt, sondern diese Aufgabe der CPU überträgt ...
... Dies ist bei in Mainboards integrierten Grafikchips durchaus üblich, doch selbst bei mobilen Grafikchips - wo der V3 XT schließlich herstammt - eher unüblich. Leider sieht so auch die Performance des V3 XT aus: Selbst eine Radeon 9200SE mit nur 64bittiger Speicheranbindung ist teils deutlich schneller. Es ist zwar prinzipiell schön, mal wieder ein Lebenszeichen von XGI zu bekommen - gerade mit einer offensichtlichen Neuentwicklung - doch wird XGI mit diesem Grafikchip wohl allerhöchstens in fernöstlichen Gefilden etwas reißen können. Dagegen könnte ein Lebenszeichen von ernsthaften Desktop-Grafikchips seitens XGI durchaus nicht schaden :-).
News des 26. August 2004 |
Die x-bit Labs haben endlich den zweiten Teil ihres Artikels zum Stromverbrauch von Grafikkarten online gebracht, welcher nun die nVidia-Karten behandelt. Das besondere an diesem Artikel ist im übrigen die Meßtechnik, welche allein den Stromverbrauch der Grafikkarten mißt - und nicht, wie zumeist üblich, den des Gesamtsystems. Überraschenderweise schnitten die neuen nVidia-Karten, die von nVidia zum Launch noch mit Werten von über 100 Watt angegeben wurden, jedoch recht positiv ab: 55 Watt unter Last für eine GeForce 6800GT und 72 Watt für eine GeForce 6800 Ultra sind anständige Resultate, die nicht dramatisch überhalb von Radeon X800 Pro (48 Watt) und Radeon X800 XT-PE (63 Watt) liegen ...
... Als größter Stromfresser wurde jedoch nicht die GeForce 6800 Ultra, sondern die GeForceFX 5950 Ultra mit 74 Watt geoutet. Auch die anderen Karten der GeForceFX-Serie schlagen zumeist ziemlich kräftig zu, die GeForceFX 5700 Ultra verbraucht gar mit 46 Watt glatt das Doppelte einer Radeon 9600XT. Insgesamt gesehen erscheint das Thema Stromverbrauch jedoch bei weitem nicht so dramatisch wie anfänglich angenommen. Gerade mit den beiden neuen Chip-Generationen beider Hersteller konnte der Stromhunger trotz deutlich gestiegener Performance sogar noch etwas gesenkt werden ...
... Abseits dessen lassen sich aus den ermittelten Zahlen noch zwei weitere Annahmen ziehen: Zum einen scheint die Grenze für eine gewöhnliche passive Kühlung ab Werk irgendwo bei 25 bis 30 Watt zu liegen. Diesen Hinweis gibt der Wert der GeForceFX 5700 von 25 Watt - und diese Karte wird teilweise passiv gekühlt angeboten. Und zweitens scheint die Grenze für eine lüfterlose Heatpipe ab Werk bei 50 bis 55 Watt zu liegen: Die Radeon 9800 Pro (47 Watt) gab es in der Ultimate-Edition von Sapphire noch mit lüfterloser Heatpipe, die Radeon 9800XT (60 Watt) hatte dagegen einen Zusatzlüfter dabei. Sollte letztere Erkenntnis zutreffen und die Meßwerte korrekt sein, müssten sich im übrigen Radeon X800 Pro und GeForce 6800GT ebenfalls mit lüfterloser Heatpipe kühlen lassen.
Der Artikel ist zwar nicht mehr ganz taufrisch, dennoch befindet sich beim japanischen PC-Watch (maschinelle englische Übersetzung) die bisher detaillierteste Roadmap zu mobilen Grafikchips. Danach soll es nach der kürzlich vorgestellten ATi Mobility Radeon 9800 mit Codenamen M18 noch kräftig weitergehen: ATi scheint mit den Chips M28 und M28 Pro in der Tat ganze 16 Pixel-Pipelines in den mobilen Markt bringen zu wollen. Bei nVidia hingegen scheint man nicht ganz so voluminös an die Sache herangehen zu wollen, als höchste Entwicklung steht derzeit der NV41M-Chip in der Roadmap, welcher wohl 12 Pixel-Pipelines aufweisen wird ...
... Zur Performance dieser Lösungen ist mit der Nennung der Anzahl der Pixel-Pipelines natürlich noch nichts gesagt, da gerade bei den mobilen Grafikchips die Taktraten stark von Notebook zu Notebook variieren. Beachtenswert ist im übrigen, daß sich bei beiden Entwickler die schon vom Desktop-Bereich bekannte Aufteilung in LowCost-, Mainstream- und HighEnd-Segment zukünftig auch im mobilen Markt wiederfinden wird - ein klarer Hinweis darauf, daß der mobile Markt immer mehr als Bedeutung gewinnt: Für den mobilen Mainstream-Bereich werden ATi M26 und nVidia NV43M antreten, für das mobile LowCost-Segment ATi M22 und nVidia NV44M.
Gemäß einem Artikel der FiringSquad werden unter dem in der Beta von Counter-Strike: Source befindlichem Valve Stress Test GeForceFX-Karten per default nur mit DirectX8-Shadern gefüttert, während GeForce6- und Radeon-Karten (ab der 9500) DirectX9-Shader abbekommen. Keine feststellbaren Unterschiede in der Bildqualität sowie keinerlei Performance-Unterschiede bei den Benchmarks zwischen DirectX8- und DirectX9-Mode lassen vermuten, daß die GeForceFX-Karten von der Source-Engine derzeit automatisch auf den DirectX8-Modus zurückgestuft werden, auch wenn man mittels Konsolenkommando einen höheren Modus zu erzwingen versucht. Interessant ist nebenbei, daß bei Radeon 9800XT als auch GeForce 6800GT die Performance im DirectX8-Mode um bis zu 20 Prozent höher war, obwohl bei den Bildqualitäts-Vergleichen dieser Karten auch keine wirklich großen Unterschiede auffielen.
Shortcuts: Die x-bit Labs berichten über eine Gigabyte GeForce 6800 mit passiver Heatpipe-Kühlung ab Werk - gemäß dem vorgenannten Artikel zum Stromverbrauch sollte dies ja problemlos möglich sein. TweakPC berichten über einen Speichertakt-Rekordversuch seitens des Speicherherstellers OCZ, bei welchem aus einem DDR2/667-Modul immerhin 383 MHz physikalischer Takt gekitzelt werden konnten. Und letztlich berichtet Mediabiz, daß die US-Musikindustrie neue Klagen gegen Filesharer angestrengt hat, welche nun erstmals auch Nutzer des eDonkey-Netzwerkes treffen - was wohl als Hinweis darauf verstanden werden kann, daß es keine vermeintlich "sicheren" P2P-Netzwerke gibt.
News des 25. August 2004 |
Wir bitten um Entschuldigung für den gestrigen News-Ausfall.
Die x-bit Labs haben eine Aussage von Matrox zum Thema PCI-Express-Grafikkarten des kanadischen Herstellers aufgetrieben, wonach Matrox diesbezüglich gegen Ende 2004 oder Anfang 2005 etwas tun will. Vakant ist natürlich, ob damit Parhelia-Grafikkarten auf PCI-Express-Interface oder aber eine generell neue 3D-Architektur gemeint ist. Prinzipiell gesehen wäre es durchaus an der Zeit für eine neue 3D-Architektur seitens Matrox - zudem haben die x-bit Labs durchaus Recht mit ihrem Einwurf, daß Matrox für den Windows XP Nachfolger Longhorn noch einen Pixel Shader 2.0 fähigen Grafikchip benötigt.
Ebenfalls die x-bit Labs haben sich mit der Frage beschäftigt, welches die beste CPU für Doom 3 sei. Die bisherigen Vergleiche sahen immer einen gewissen Vorteil für die AMD-CPUs, welches die x-bit Labs prinzipiell auch bestätigen konnten - mit dem von id Software beigelegten Timedemo1. Doch bei der Messung eines weiteren, extra CPU-belastenden Timedemos kamen einigermaßen andere Ergebnisse zum Vorschein: Plötzlich konnten sich die Pentium 4 Prozessoren sehr gut einordnen, die Pentium 4 Extreme Editions den Benchmark sogar gewinnen. Zwar kann sich Intel keinen Vorteil gegenüber AMD erarbeiten - doch die bisherige Aussage, wonach die AMD-Prozessoren die klar bessere Wahl für Doom 3 wären, kann somit nicht mehr aufrecht gehalten werden.
Shortcuts: Bei Schattenjaeger gibt es eine umfangreiche Anleitung, wie man alte DOS-Spiele auf heutigen Betriebssystemen doch noch zum Laufen bekommt. Hard Tecs 4U berichten über die verschiedenen Varianten des kommenden nVidia nForce4 Chipsatzes: Eine normale Version, eine Ultra-Version mit Serial-ATA 300 sowie eine SLI-Version mit zwei Grafikkartenslots. Die ComputerBase berichtet dagegen von einem etwas seltsamen K7-Mainboard seitens ASRock, welches sich mittels Zusatzkarte auf eine K8-Tauglichkeit umrüsten läßt. Laut The Inquirer wird der ATi NextGen-Grafikchip R520 über Shader 3.0 Fähigkeiten verfügen, aber nicht darüber hinaus gehen. TweakPC berichten von einer "GeForce 6610XL", welche eine OEM-Version der GeForce 6600 darstellen soll, zu welcher aber dato jegliche weitere Daten fehlen ...
... Die FiringSquad hat die LowCost-Prozessoren Celeron D 2.8 GHz und Sempron 3100+ (1.8 GHz) im Overclocking-Betrieb verglichen: Wie im Normal-Betrieb liegt aber auch in diesem Vergleich der AMD-Prozessor vorn. Die ComputerBase haben einen interessanten Benchmark zum Rückkanal des Grafikkartenspeichers anzubieten: Danach erreicht ausgerechnet eine AGP-Karte einen dramatisch besseren Wert als der Rest der PCI Express Konkurrenz ;-)). Laut DarkVision Hardware wird ATi den RV410-Chip nun am 15. September offiziell vorstellen. Gemäß der WinHelpline ist der zusätzliche Zoll auf außer-europäische TFT-Monitore, über welchen wir hier berichteten, vorerst gestoppt. Und letztlich: Was passiert, wenn ein mehr oder weniger unvorbereiteter und zudem "etwas" schreckhafter Mitbürger Doom 3 spielt? Seht es Euch selber an :-).
neuer Artikel |
NV40-Technik im Detail, Teil 1: Geheimnisse der Pixelshader-Einheit
Der NV40-Chip von Nvidia ist die höchstentwickelte GPU, die es momentan gibt. Das nehmen wir zum Anlass, um auf verschiedene Aspekte dieser GPU einen Blick zu werfen. Dafür haben wir unseren Artikel in drei Folgen unterteilt: Heute geht es darum, wie die NV40-Pipeline arbeitet – und warum Nvidia sie ausgerechnet so designte ... zum Artikel
News des 23. August 2004 |
Hochinteressantes zum Thema Entwicklungszeiten von Grafikchips lesen wir bei Golem: Danach gibt es eine Aussage seitens nVidia, daß sich die Zeiträume zwischen neuen Chipgenerationen zukünftig auch bei nVidia auf 1,5 Jahre ausdehnen werden. Was insofern ironisch ist, als daß ATi diese Feststellung schon vor rund einem Jahr traf und seinerzeit nVidia noch stur (und natürlich Marketing-wirksam) an dem bisherigen Jahres-Rhythmus festhalten wollte (einmal ganz abgesehen davon, daß dies in den zurückliegenden Jahren nur in den wenigsten Fällen auch wirklich funktioniert hat) ...
... Konkret sprach nVidia im übrigen davon, daß eine neue Architektur nicht für Anfang/Mitte 2005 zu erwarten ist, wie bisher allgemein erwartet. Laut nVidia wird es die nächste Chip-Generation aka NV50 erst Ende 2005 geben - bleibt zu hoffen, daß zusätzliche Verspätungen dies nicht auf Anfang 2006 verzögern. Somit wird uns die NV4x-Generation noch recht lange begleiten, wobei regelmäßig Refresh-Chips mit höheren Taktraten antreten werden, welche mittels derzeit noch vorhandener Takt-Reserven, ständig steigender Produktionsausbeute und neuen Produktionsverfahren (110nm, eventuell 90nm) ermöglicht werden. Als Refresh der NV40/NV45-Chips ist bereits der NV48 für das Jahresende angedacht, zudem wird es nächstes Jahr dann sicherlich ebenfalls Refresh-Chips für das Mainstream- und LowCost-Segment geben.
Eine Meldung bei 3DGPU gibt den Hinweis, wie man die Nutzung von UltraShadow II auf einer GeForce 6800 /SE/GT/Ultra Karte unter Doom 3 verbessern und so noch etwas an Performance herausholen kann: Benötigt wird hierfür der 61.77er nVidia-Treiber sowie das Konsolen-Kommando "r_useDepthBoundsTest 1" sowie letztlich ein Restart des Spiels. Die ComputerBase hat dafür entsprechende Benchmarks anzubieten (allerdings ist es nicht korrekt, daß UltraShadow II nicht in Doom 3 aktiv ist, der Depth Bounds Test ist nur ein Teil von UltraShadow II, dessen eigentlicher Hauptteil sehr wohl unter Doom 3 aktiv ist), wonach allerdings nur 1,5 bis 3 Prozent Performance-Vorteil durch den Depth Bounds Test gemessen wurden.
Bei Hardwareluxx hat man sich die aktuellen PCI Express Grafikkarten angesehen und in der Leistung verglichen. Derzeit ist der Markt an PCIe-Grafikkarten noch recht klein, da PCI Express im Retail-Markt derzeit einen eher unbedeutenden Anteil hält und nur im OEM-Bereich in rauhen Mengen verbaut wird. Dadurch ergibt sich auch, daß noch nicht für jedes Marktsegment von jedem Hersteller auch PCIe-Grafikkarten erhältlich sind, diese Lücken werden sich erst mit der Zeit schließen. So fehlen derzeit noch die HighEnd-Karten von ATi auf PCIe, so daß jenes Roundup noch maßgeblich von den nVidia-Karten dominiert wird.
Die OC-Zone haben ein Interview mit Richard Huddy von ATi geführt, in welchem dieser etwaigen SLI-Überlegungen bei ATi eine deutliche Abfuhr erteilte, gleichzeitig aber ausdrücklich das System von Alienware als Möglichkeit nannte, bei ATi zu MultiChip-Lösungen zu kommen. Dabei überrascht ein wenig die Heftigkeit der Attacke gegen SLI, denn die Problematik, das SLI mehr Netzteil-Power benötigt sowie eine höhere Geräuschkulisse erzeugt, trifft letztlich genauso auch auf das System von Alienware zu. Doch da gerade die neuen ATi-Chips R420/423 bezüglich ihrer Leistungsaufnahme als auch der Geräuschentwicklung recht genügsam sind, würden sich diese für SLI sicherlich eignen :-).