News-Archiv 20.-26. Januar 2003 (4. Kalenderwoche)
26. Januar 25. Januar 24. Januar 23. Januar 22. Januar 21. Januar 20. Januar
News des 26. Januar 2003 |
Die gestern noch als bisher fehlend "bemängelten" ersten unabhängigen Performance-Tests der GeForceFX wird es wohl schon ab Montag im Web geben - und ab Anfang Februar in den Print-Magazinen. Einen Vorgeschmack auf die kommenden Tests liefert dabei ausgerechnet unser Forum, in welchem Thilo Bayer von der PC Games Hardware ein paar Zahlen von eben erst getätigten GeForceFX-Benchmarks blicken ließ. Danach nehmen sich GeForceFX, GeForce4 Ti4600 und Radeon 9700 Pro unter dem Botmatch von Unreal Tournament 2003 aufgrund dessen CPU-Limitierung nicht viel ...
... Wirklich auswertbar sind so nur die (eigentlich unrealistisch schnellen) Flybys, in welchen GeForceFX und Radeon 9700 Pro unter 1024x768 auf identischem Niveau liegen, unter 2x Anti-Aliasing mit 4x anisotropen Filter die GeForceFX jedoch um glatte 30 Prozent (143 zu 110 fps) davonziehen kann. Diese Benchmarks sind natürlich nicht überzubewerten, der Tests eines einzelnen Spiels ist nun einmal keine Aussage zur generellen Leistungsfähigkeit. Trotzdem lässt sich erkennen, daß ohne Anti-Aliasing und ohne anisotropen Filter sich kaum Unterschiede einstellen werden, möglicherweise die GeForceFX sogar "verlieren" wird ...
... Doch deren Zielrichtung wird sicherlich nicht sein, ohne Anti-Aliasing und ohne anisotropen Filter anstatt 200 fps nun 250 oder 300 fps zu bieten. Vielmehr wird das Duell gegen die Radeon 9700 Pro gerade eben auf den Gebieten Anti-Aliasing, anisotropen Filter und hohe Auflösungen ausgetragen - hier werden wir wohl schon am Montag schlauer sein. Ein weiterer Punkt wird - neben dem Preis der GeForceFX - aber eventuell auch für viele Anwender interessant sein: Die Lautstärke der FXFlow genannten Kühllösung. Diejenigen, welche die GeForceFX schon auf deren Vorstellung auf der Comdex in Las Vegas im November 2002 "hören" konnten, berichteten hierzu nichts gutes - und leider hat sich diesbezüglich auch in der Serienversion nichts getan ...
... Das Laufgeräusch der GeForceFX soll sich so eher nach einer Turbine anhören, was zumindestens die LowNoise-Anhänger doch abschrecken wird. Einschränkenderweise sei erwähnt, daß die GeForceFX 5800 Ultra im 2D-Betrieb automatisch auf 300/300 MHz heruntergetaktet wird und so in diesem Modus nicht der FlowFX-Kühler zum Einsatz kommt. Dieser schaltet sich erst im 3D-Betrieb ein, wenn die Karte automatisch auf 500/500 MHz hochgetaktet wird. Wie sich dies rein praktisch anhört, müssen die kommenden Tests ergeben, möglicherweise ist das Laufgeräusch im 2D-Modus ja durchaus christlich, während im 3D-Modus zumeist sowieso die Brüllwürfel mittels der Musik- und Sounduntermalung des jeweiligen Spiels den Ton vorgeben.
Da oben schon einmal das Benchmarking von Unreal Tournament angesprochen wurde, hierzu einige Anmerkungen: Sicherlich sind die Flybys für Grafikkarten-Tests reizvoller (was nicht "besser" heisst), weil sie auf unterschiedliche Grafikkarten im Gegensatz zu den allgemein als CPU-limitiert bekannten Botmatches eindeutig besser reagieren. Jedoch haben die Flybys wiederum den Nachteil, daß sie gänzlich unrealistische Frameraten produzieren - bei der GeForceFX und der Radeon 9700 Pro schon über 200 fps. Die mit derartigen Benchmarks erzielte Aussage ist für die Realität also mehr oder weniger nichtig, da in dieser UT2003-Matches auch auf diesen Grafikkarten normalerweise mit um die 30 bis 70 fps ablaufen, nicht aber mit 200 fps ...
... Abhilfe gibt es hier aus zwei Richtungen: Die erste Lösung ist ein Grafikkarten-limitiertes Botmatch. Ja, dieses ist möglich - denn: Der Fehler der meisten Botmatches ist, daß sie das Geschehen nur aus einer Beobachter-Perspektive zeigen, zumeist aber nicht aus einer Spieler-Perspektive, was enormen Einfluß auf die zu erreichenden Frameraten hat. Es musste also nur ein Botmatch gefunden werden, welches das Spiel möglichst aus einer Spieler-Perspektive zeigt. Und Voila, dieses Botmatch ist dann auch schon kräftigst Grafikkarten-limitiert. Der Nachteil dieser Methode wie auch der eines jeden anderen Botmatches ist natürlich, daß die so erzielten Ergebnisse immer nur für die jeweilige UT2003-Version gelten ...
... In allen anderen UT2003-Versionen haben die Botmatches immer komplett unterschiedliche Abläufe und werfen damit auch komplett unterschiedliche Resultate aus. Abhilfe kann hier die zweite Lösung bringen, ein aufgezeichnetes Demo eines realen UT2003-Matches. Das Demo-Aufzeichnen und -Abspielen ist ab Version 2166 möglich, allerdings sind die Abspiel-Ergebnisse erst ab Version 2181 Beta korrekt, vorher gab es noch einen kleinen Bug bei der Zeiterfassung. Auch mittels dieser Demos drängt sich die Erkenntnis auf, daß Unreal Tournament in realen Matches mitnichten CPU-limitiert ist (wie es die Botmatches bisher vermuten ließen), sondern vielmehr geradezu exzellent auf unterschiedliche Grafikkarten reagiert. Wir werden deshalb in den nächsten Tagen auch ein oder zwei unserer zum Benchmark-Zweck erstellten UT2003-Demos veröffentlichen.
News des 25. Januar 2003 |
nVidia´s PR-Chef Brian Burke hat gegenüber nV News die Taktraten für die zwei GeForceFX-Varianten offiziell gemacht. Bisher hatte nVidia als einzige Angabe "~ 500 MHz Chip- und Speichertakt" für die höhere GeForceFX-Variante herausgegeben, wohingegen die niedrigere GeForceFX-Variante auf 400 MHz vermutet wurde. Richtig spekuliert: Die GeForceFX 5800 Ultra wird hochoffiziell mit 500/500 MHz und die GeForceFX 5800 hochoffiziell mit 400/400 MHz antreten. Den amerikanischen Listenpreis (ohne Mehrwertsteuer) gab nVidia dabei mit offiziell 399 $ für die GeForceFX 5800 Ultra an ...
... Mittels des derzeit sehr Import-freundlichen Euro-Kurses (schon sehr seltsam: als der Euro klar unter dem Dollar lag, wurde er als Weichwährung verunglimpft, heutzutage kommt bei den derzeitigen Kursständen aber auch keine rechte Freude auf) plus deutscher Mehrheitsteuer sollte dies theoretisch 440 Euro ergeben, wobei auf dem alten Kontinent aufgrund der höheren Steuerbelastung die Strassenpreis wohl höher, in Richtung 500 Euro, liegen werden. Für die normale GeForceFX 5800 hat nVidia im übrigen noch keinen offiziellen Listenpreis angegeben, gemäß den bisherigen Händlerankündigungen sollte diese um die 50 bis 100 Euro unterhalb der GeForceFX 5800 Ultra rangieren.
Im jüngsten Hardware-Preisguide auf AnandTech geht man im übrigen davon aus, daß erste GeForceFX-Karten um den 3. oder 4. Februar im amerikanischen Handel auftauchen werden - so daß es also bis zum europäischen Verkaufsstart eigentlich nicht mehr weit sein kann. Verwunderlich ist nur, daß es bisher noch keinerlei Performance-Tests bei den "üblichen Verdächtigen" AnandTech & Tom´s Hardware Guide gegeben hat. Spätestens Anfang Februar wird es aber erste unabhängige GeForceFX-Zahlen geben, da Gamestar und PC Games Hardware (und wohl auch andere Print-Magazine) inzwischen entsprechende Karten von nVidia erhalten haben.
News des 24. Januar 2003 |
Geht es nach The Inquirer, dann ist ATi mit dem Radeon 9700 Nachfolge-Chip R350 schon weiter als bisher gedacht: Das finale Silizium des R350-Chips würde jeden Tag erwartet. Sollten danach keine Schwierigkeiten mit der finalen Boardvariante und in der Massenproduktion von Board und Chip auftauchen, könnten ATi´s Boardhersteller erste R350-Karten möglicherweise schon im April (oder gar Ende März?) ausliefern. Somit könnte man sich auf einen Launch des R350 auf der CeBIT einstellen, welches natürlich die Kreise der GeForceFX empfindlich stören würde, da zur diesjährigen CeBIT alle nVidia-Grafikkartenhersteller ihre GeForceFX-Boards groß präsentieren wollen ...
... Rein Takt-technisch berichten The Inquirer von einem Ziel 400 bis 425 MHz für Chip und Speicher, wobei letzterer angesichts der Taktfrequenz höchstwahrscheinlich schon DDR/II ist. Dabei soll die vermutlich Radeon 9800 oder 9900 genannte Karte eine GeForceFX in 8 von 10 Benchmarks geschlagen haben - was unsere Vermutung bestätigt, daß der Radeon 9700 Nachfolger die GeForceFX vermutlich nur knapp überrunden wird. Woher allerdings ATi eine GeForceFX für diese Benchmark-Serie gegen ihre R350 hat, berichten The Inquirer jedoch leider nicht ;-).
Auf Seiten nVidia´s gibt es wenigstens in zwei neu aufgetauchten inoffiziellen Detonator-Treibern ein paar Lebenszeichen der GeForceFX. Der 40.52er, fälschlicherweise unter Umständen als 42.52 bezeichnet, ist der erste Treiber für Windows 95/98/ME mit Einträgen für die GeForceFX (je zwei Einträge für GeForceFX und QuadroFX), allerdings dürfte jener aufgrund seines Alters (September 2002) noch für DirectX8 sein. Interessanter ist da der DirectX9 unterstützende 42.51er für Windows 2000/XP: In diesem finden sich drei GeForceFX- ("GeForceFX 5800", "GeForceFX 5800 Ultra" sowie "NV30"), zwei QuadroFX-, zwei NV31- und zwei NV31GL-Einträge, wobei "GL" die Kennung für die jeweiligen Quadro-Chips darstellt ...
... Bestätigt werden diese Angaben durch den noch neueren DirectX9-Treiber 42.70, welcher neben den vorgenannten zusätzlich Einträge für drei NV34- und zwei NV34GL-Versionen mitbringt. Was diese in diesem Treiber machen, ist derzeit unklar: Der NV34-Chip wurde bisher frühestens im Sommer gesehen, aber eventuell ist nVidia hier ja schneller als mit der GeForceFX ;-)). Der überzählige GeForceFX-Eintrag muß im übrigen nichts bedeuten, er wird eventuell nur für die derzeitigen GeForceFX-Testsamples benötigt, deren BIOS sich noch als "NV30" und nicht unter dem Verkaufsnamen melden.
Da hatten wir am Mittwoch noch lobenderweise erwähnt, daß Chipsatz- und Prozessorenhersteller VIA kein TCPA-Mitglied ist - jedoch: Falsch gedacht bzw. leider hat sich diese Information inzwischen schon wieder überholt. Auf einer bei Against TCPA (interessante Seite mit unter anderem einer TCPA-Hardwareliste) aufgetauchten aktualisierten TCPA-Mitgliederliste stehen nun als neue TCPA-Mitglieder die Chipsatzhersteller ALi, SiS und eben auch VIA. Leider ist diese Liste nur inoffiziell, da die TCPA ihre offizielle Mitgliederliste nach wie vor geheim hält (soviel zum Thema "trustworthily" aka "vertrauenswürdig").
News des 23. Januar 2003 |
Erste Testresultate zu VIA´s neuem C3-Prozessor mit Nehemiah-Core haben Digit-Life anzubieten. Danach kann der neue Core gegenüber dem bisherigen Ezra-T Core auf gleicher Taktfrequenz einen Vorteil von 39 Prozent bei Applikations-Benchmarks und 24 Prozent bei Spiele-Benchmarks erzielen - ein durchaus respektabler Leistungszuwachs also. Nach wie vor reicht es aber nicht, um an die Pro-MHz-Leistung eines Celeron-Prozessors mit dem - allerdings nicht mehr hergestellten - Tualatin-Core heranzukommen, hierzu müsste VIA noch um die 100 Prozent Mehrleistung (!) drauflegen.
Schon im Dezember fiel ein Bug der damaligen ATi-Treiber bei Unreal Tournament 2003 auf, wo unter dem anisotropen Filter die Detail-Texturen plötzlich deutlich schlechter gefiltert wurden als ohne jenen anisotropen Filter (normale Texturen wie Boden-Texturen etc. sind davon nicht berührt), Screenshots hierzu kann man in unserem Forum begutachten. Der Grund liegt wohl darin, daß sich der von Unreal Tournament 2003 voreingestellte LOD-Bias für Detail-Texturen nicht mit der Art verträgt, wie ATi das LOD für den anisotropen Filter ermittelt. Bisher hat ATi diesen Bug allerdings noch nicht gefixt, obwohl die entsprechende Bug-Meldungen ATi schon längst bekannt ist ...
... Behelfsmäßig lösen kann dies der Radeon 9500/9700 Benutzer (Radeon 8500/9000/9100 Benutzer sind offenbar nicht betroffen) mit einem Eintrag in der UT2003.ini, in welcher die Option "DetailTexMipBias" vom Wert "0.8" auf "0.0" gesetzt werden muß, was allerdings nur unter dem Einsatz des anisotropen Filters wirklich Sinn macht. Einfacher wäre hier in der Tat ein Fix im ATi-Treiber. Auf die Performance hat dieses Setting allerdings nur äußerst geringe bis keine Auswirkungen, so daß hier mitnichten von einem Treiber-Cheat gesprochen werden kann.
Den Test eines neuen lüfterlosen Netzteils in zwei Teilen haben Teschke anzubieten: Teil 1 und Teil 2. Das vom Hersteller RSG stammende 300 Watt Netzteil ist eigentlich für den Industrieeinsatz gedacht und entspricht damit nicht der ATX-Norm, so daß es etwas Bastelarbeit benötigt, dieses in einem handelsüblichen ATX-Gehäuse zu befestigen (es ist allerdings auch eine ATX-Version geplant). Dafür war es aber auch problemlos möglich, selbst ein mit Komponenten gut ausgestattetes System mit Athlon XP 2.13 GHz / 2600+ (immerhin 68 Watt Leistungsaufnahme) und Radeon 9700 Pro als Haupt-Leistungsverbraucher jederzeit passiv zu kühlen ...
... Fairerweise muß man dazusagen, daß dieser Test allerdings mit einem kleinen Vorteil für das RSG-Netzteil lief: An der Stelle, wo das Netzteil eingebaut war, wurde auf der Gehäuse-Außenseite noch ein großer passiver Aluminium-Kühler angebracht, welcher jedoch nicht zur Standard-Ausstattung des Netzteils gehört. Nichts desto trotz ist das Ergebnis trotzdem erstaunlich: Das bisher einzige passive Netzteil von Engelking (Tests bei Hardwares und TobiTech) läuft nur bis zu einer Netzteil-Temperatur von ca. 45 Grad passiv und schaltet dann seine Lüfter ein, was nur zum rein passiven Betrieb von Prozessoren bis ca. 1,2 GHz reicht. Das RSG-Netzteil hingegen lief auch mit einer Netzteil-Temperatur von bis zu 62 Grad noch fehlerfrei.
News des 22. Januar 2003 |
Ein paar (hoffentlich fundierte) Fakten und einige eher wirre Spekulationen (NV40 mit 10 Rendering-Pipelines - hochgradig unwahrscheinlich) zu den kommenden nVidia-Chips nach der GeForceFX sind bei Chip zu finden. Sollten die notierten Fakten stimmen, so wird der NV31 mit 80 Millionen Transistoren antreten, der NV34 dagegen mit nur noch 45 Millionen Transistoren. Bei nur 4 Rendering-Pipelines anstatt der 8 bei der GeForceFX halten wir diese Angabe beim NV31 für in Ordnung, beim NV34 hört sich dies dagegen unglaublich niedrig an und wird wohl nur durch eine größere Abspeckung des Vertex Shaders zu erreichen sein ...
... Zumindestens das Ziel eines DirectX9-Chips für den LowCost-Markt wäre mit diesen nur 45 Millionen Tranistoren definitiv zu erreichen, so würden sich auch Kartenverkaufspreise von unter 100 Euro für NV34-Boards realisieren lassen. Bei NV35 und NV40 geht man von 130 respektive 150 Millionen Transistoren aus, womit beide wohl eher bei den 8 Rendering-Pipelines bleiben werden, beim NV40 wird der Anstieg der Transistorenmenge wohl aus den Vertex und Pixel Shadern 3.0 resultieren. Chip nennt zudem noch Taktraten für zwei NV31- und vier NV34-Ausführungen, die aber wohl noch nicht so ernst genommen werden sollten, da zu so einem frühen Zeitpunkt nVidia sicherlich noch keine entgültige Festlegung der Taktfrequenzen getroffen hat ...
... Sollten die genannten Taktraten aber zumindestens halbwegs stimmen, so läßt sich erkennen, daß nVidia insbesondere beim NV34 mit recht hohen Chiptakten über 300 MHz und dafür relativ niedrigen Speichertakten unter 300 MHz herangeht. Hier offenbart sich ein Vorteil der 0.13 micron Fertigung: nVidia hat keine Probleme, die NV31- und NV34-Chips - noch dazu mit deren relativ geringen Transistoren-Mengen - entsprechend weit hochzutakten und kommt somit allein schon durch den hohen Chiptakt auf eine hochsolide Grundleistung. Damit kann man es sich auch dann leisten, beim Speicher eher sparsam bezüglich der Leistung und damit der Taktrate heranzugehen, womit die Fertigung der NV31- und NV34-Boards wiederum entsprechend günstig gestaltet werden kann.
Wie der Heise Newsticker berichtet, hat Microsoft einige weitere Details zu seinem TCPA-System "Palladium" herausgegeben, welches erstmals in dem wohl 2004 anstehenden Windows XP Nachfolge-Betriebssystem "Longhorn" zum Einsatz kommen wird. Dabei versuchte man auch gegen die momentane Anti-TCPA-Stimmung entgegenzurudern, verriet sich allerdings selber mehrmals: So deutet die Aussage "Palladium bringe "nur" neue technische Möglichkeiten für den Rechner mit sich. Was die Menschheit damit anfängt, ist ihre Angelegenheit." seitens Microsoft klar an, daß man sich des gewaltigen Mißbrauch-Potentials von TCPA & Palladium wohlbewußt ist ...
... Nebenbei gesagt ist es leider auch nicht so, daß wirklich "die Menschheit damit etwas anfängt", vielmehr liegen die Geschicke von TCPA & Palladium in den Händen der TCPA-Firmen wie Microsoft, IBM, Intel, AMD & Co. Gleichfalls ließ man auch die wahre Bestimmung von TCPA & Palladium durchblicken: Es geht um Kontrolle. Allerdings scheint Microsoft hier mißverstanden zu haben, wer Longhorn denn nun kauft und bezahlt: Denn die Kontrolle wird nicht der zahlende Anwender bekommen, sondern die Hersteller von Longhorn-Software, welche ihre teils abstrusen Lizenzbestimmungen mit TCPA & Palladium am Anwender vorbei durchsetzen werden können. Die Erklärung, in wie weit dies ein Vorteil für den zahlenden Anwender sein soll, blieb Microsoft bisher schuldig.
Daß man Sicherheitsfeature auch integrieren kann, ohne damit gleich den Anwender vom kompletten System auszusperren, beweist VIA (im übrigen einige der wenigen wichtigen IT-Firmen, die nicht zu den TCPA-Mitgliedern gehören) mittels der Integration eines "echten" Zufallszahlengenerator in den neuen C3-Prozessor auf Basis des neu vorgestellten Nehemiah-Cores. Von Software erstellte Zufallszahlen sind üblicherweise nicht wirklich zufällig, da Computer-Programme nun einmal nur logisch und nie zufällig arbeiten ...
... Beim Nehemiah benutzt man dagegen das elektrischen Rauschen im Chip zur Erzeugung dieser Zufallszahlen, welche für eine sichere Kryptographie und Identifizierung verwendet werden können. Dies ist allerdings eher nur ein Neben-Features des Nehemiah: VIA integrierte in den Prozessor nun auch Intels SSE1-Befehlssatzerweiterung anstatt AMDs 3DNow!, was dem Nehemiah angesichts des doch vorhandenem SSE1-Supports bei heutiger Software durchaus Vorteile bringen sollte. Zudem hat man noch an einigen anderen Sachen im Chip gefeilt, wie der Meldung von Hard Tecs 4U zu entnehmen ist ...
... Momentan hat VIA den Nehemiah allerdings bisher nur mit 1.0 GHz im Angebot, im Verlauf des Jahres sollen die Taktfrequenzen dann bis auf 1.5 GHz angehoben werden. Dies mag sich nach wenig anhören, zudem hatten VIA-Prozessoren in der Vergangenheit auch eine zumeist nur arg mittelmäßige Pro-MHz-Leistung zu bieten, dafür sind diese Prozessoren aber auch ab Werk für eine rein passive Kühlung vorgesehen. Dort, wo HighEnd-Leistung nicht erforderlich ist oder dort, wo das Betriebsgeräusch die wichtigste Entscheidung ist, kann man die VIA-Prozessoren somit durchaus mit in die engere Wahl zu ziehen.
News des 21. Januar 2003 |
Nach wie vor hält der amerikanische Board-Hersteller und offizieller GeForceFX-Lauchpartner eVGA an dem Counter auf seiner Webseite fest, welcher das Auslieferungsdatum für die GeForceFX auf den 9. März 2003 datiert. Dagegen stehen immer mehr Ankündigungen anderer Boardhersteller, aus den letzten Tagen seien hier Terratec und AOpen genannt, welche ihre GeForceFX-Boards bereits gegen Mitte Februar im Handel sehen. Momentan schwankt es ein wenig zwischen diesen zwei Terminen und auch wir können uns momentan nicht entscheiden, wem wir nun diesbezüglich Glauben schenken wollen.
Währenddessen hat nVidia aber immerhin zuerst einmal auch eine Quadro-Grafikkartenserie auf Basis des GeForceFX-Chips für den professionellen CAD-Einsatz angekündigt. PNY, ELSA und Leadtek werden davon ab Februar zwei Ausführungen - QuadroFX 1000 und QuadroFX 2000 - ins Rennen schicken, die sich wahrscheinlich nur im Takt unterscheiden werden, was aber derzeit noch ungeklärt ist. Eine diesbezügliche PNY-Pressemitteilung spricht im übrigen von 16x Anti-Aliasing für die QuadroFX-Boards, während nVidia die GeForceFX bisher nur mit 8x Anti-Aliasing angekündigt hat. Eventuell ergibt diese der GeForceFX fehlende Möglichkeit ja einen Anreiz für einen GeForceFX-zu-QuadroFX Mod :-).
Wir hatten am 6. Januar ausführlich über die Pläne des BIOS-Herstellers AMI berichtet, nachdem dieser seine BIOS-Versionen für die Mainboards der demnächst anstehenden Athlon 64 & Opteron Prozessoren TCPA-fähig zu machen gedenkt. Cleverweise hat Miata, ein User unseres Forums (gute Idee & Thx!), gleich einmal bei AMI nachgefragt, ob diese zukünftig auch noch non-TCPA BIOSe zur Verfügung stellen werden - und auch schon eine Antwort bekommen, welche in unserem Forum nachschlagbar ist. Danach wird AMI den Mainboard-Herstellern weiterhin beide Möglichkeiten - mit und ohne TCPA - anbieten ...
... Da die AMI-BIOSe modular aufgebaut sind, wäre dies auch kein größerer Aufwand für AMI, so daß man zumindestens in näherer Zukunft definitiv zweigleisig fahren wird. Ob TCPA also in einem Mainboard ist, hängt damit vom Mainboard-Hersteller ab. Verbaut dieser einen Fritz-Chip, wird dieser natürlich ein TCPA-BIOS einsetzen, ansonsten ist die Sache auch herzlich sinnlos. Und ob der Mainboard-Hersteller einen Fritz-Chip und damit TCPA auf sein Produkt bringt, entscheidet sich letztlich bei der Produktplanung für die anstehenden K8-Mainboards. Wenn es den Nutzern gelingt, den Mainboard-Herstellern in den kommenden Wochen klarzumachen, daß TCPA-Mainboards im Retailmarkt nichts zu suchen haben, dann werden diese jene Vorhaben auch in der Schublade liegen lassen.
News des 20. Januar 2003 |
Savage2K haben ein Interview mit S3 zum DeltaChrome DirectX9-Grafikchip geführt, jedoch: S3 hat darin zwar viel geredet, aber leider weniger gesagt :-). Einzig allein als neue Information war zu entnehmen, daß die schon bekannten 300/300 MHz Taktraten für den DeltaChrome die "mittleren Taktraten" darstellen sollen, was also zu der schon bekannten niedriger getakteten DeltaChrome-Variante mit zwischen 200 und 240 MHz noch die Möglichkeit zu einer höher getakteten Variante eröffnet, was mittels des verwendeten 0.13 micron Prozesses eigentlich recht problemlos machbar sein sollte ...
... Keinerlei Auskunft gab es hingegen zu möglichen Board-Herstellern von DeltaChrome Desktop-Grafikkarten. Damit hat S3 aber eine interessante Nuance angestoßen: Ohne nahmhafte Board-Hersteller wird man in Europa und Amerika kaum größere Marktchancen haben, dies mußte schon SiS mit dem Xabre-Chip erfahren und auch PowerVR war zu KYRO-Zeiten nicht unbedingt mit Boardherstellern gesegnet. Möglicherweise sieht das S3 auch ähnlich, die kleinen Hinweise im Interview lassen jedenfalls erkennen, daß man seine Chancen eher im asiatischen Markt sieht. So besteht möglicherweise die Gefahr, daß S3 den europäischen und amerikanischen Markt nur halbherzig angehen wird.
Die x-bit Labs haben eine wohl wirklich wilde Spekulation in die Welt gesetzt, wonach die GeForceFX-Abkömmlinge NV31 und NV34 nicht alle DirectX 9.0 Features enthalten sollen - oder aber man hat sich in der Überschrift zum Artikel nur höchst unglücklich ausgedrückt, denn im Artikel-Text steht wieder etwas von "nicht alle GeForceFX-Features", was doch ein gehöriger Unterschied ist. Und in der Tat gehen auch unsere bisherigen Vermutungen zu NV31 und NV34 von auch einer technologischen Abspeckung dieser beiden Mainstream-Chips aus, jedoch keinesfalls unterhalb die Mindestanforderungen von DirectX9 (im Sinne der Vertex und Pixel Shader 2.0), was für einen Chip des Jahres 2003 auch keinerlei Sinn machen würde.
Währenddessen haben sich im Beyond3D Forum neue Spezifkationen für nVidia´s NV31 und NV34 eingefunden. Natürlich sind diese derzeit unbestätigt, aber von einer Quelle, die in der Vergangenheit oftmals mit Vorab-Spezifikationen Recht hatte. Der für das Frühjahr anzusetzende NV31-Chip wird wie erwartet mit 4 Rendering-Pipelines und einem 128 Bit Speicherinterface antreten, letzteres allerdings nach DDR1-Standard (ob DDR1 oder DDR2 ist für die Performance nicht relevant). Der Chiptakt soll bei ca. 300 MHz liegen, der Speichertakt wird möglicherweise in derselben Region rangieren (viel Spielraum nach oben ist mit DDR1-Speichern sowieso nicht gegeben) ...
... Zur Technik des NV31 wurden zudem die DirectX9-Features wie auch die Bandbreite-schonenden Features der GeForceFX Z-Culling, Z-Compression und das neue Color Compression genannt, so daß hier noch nicht klar ist, ob der NV31 überhaupt Feature-technisch gegenüber der GeForceFX abgespeckt wurde. Für das dritte Quartal steht dann der NV34 an, wobei hier derzeit nur dessen 4 Rendering-Pipelines genannt wurden. Regelrecht neu ist dagegen die Information über einen NV36-Chip, welcher die Mainstream-Ausführung des im 4. Quartal antretenden GeForceFX-Refreshs NV35 darstellen soll.