News-Archiv 28. Juli - 3. August 2003 (31. Kalenderwoche)
3. August 2. August 1. August 31. Juli 30. Juli 29. Juli 28. Juli
News des 3. August 2003 |
Eine hübsche Zusammenfassung der wichtigsten Antworten des Bjorn3D-Chats mit einigen nVidia-Treiberingenieuren findet sich in unserem Forum. So läßt sich erfahren, daß die nächste große Treiber-Offensive irgendwann im Herbst kommen soll, möglicherweise dann ja der ominöse Detonator 50 releast. Man will zudem deutlich an der Shader-Performance der GeForceFX arbeiten - was diese auch nötig hat, denn die meisten Benchmarks unter Einsatz von Direct 8/9 Shadern sehen derzeit ATi vorn. Die Performance-Optimierung unter Unreal Tournament 2003 wird im übrigen als "Bug" bezeichnet - die Professionalität dieser Optimierung und daß sie allein auf den Dateinamen "UT2003.exe" reagiert, sprechen allerdings eine deutlich andere Sprache ;-).
In der aktuellen c´t gibt es mal wieder ein Lebenszeichen des Trident XP4 Grafikchips, welcher ja zumindestens den Weg in einige Notebooks gefunden hat. So auch in diesem Fall (die reinen Benchmarks sind auch in unserem Forum nachschlagbar), wobei sich der XP4-Chip, bewaffnet 32 MB Grafikkarten-Speicher auf einem Pentium-M mit 900 MHz, unter Direct3D mit einem 3DMark2001-Wert von 4913 recht wacker schlägt, unter OpenGL mit 81 fps unter HighQuality dagegen angesichts der 200-fps-Werte heutiger Desktop-Grafikkarten ein eher mageres Resultat abliefert. Rein wegen des äußerst niedrigen Stromverbrauchs sollte der XP4-Chip aber eigentlich trotzdem für Notebooks sehr interessant sein. Ob dessen Konzept jedoch weiterentwickelt wird, liegt jetzt allein bei XGI, welche bekanntlich im Juni die Grafikchip-Sparte von Trident übernommen hatten.
Eben jene XGI bringen sich im übrigen laut der DigiTimes mal wieder ins Gespräch, indem man den Abschluß von Vertriebsverträgen mit den drei größten asiatischen IT-Ausstattern vermelden kann. XGI als Tocherfirma von SiS, welche sich alleinig um die Entwicklung von Grafikchips kümmert, ist natürlich vor allem im asiatischen Markt vertreten. Beispielsweise die Xabre-Grafikkarten werden dort in großen Stückzahlen eingesetzt, während sie hierzulande derzeit noch keinen Fuß fassen können. Dies will XGI schließlich auch mit dem Xabre II Grafikchip ändern - doch bei dieser Gelegenheit fällt auf, daß sich jener inzwischen schon verspätet hat ...
... Denn noch zur CeBIT versprach SiS (seinerzeit gab es das Tocherunternehmen XGI noch nicht) eine offizielle Vorstellung des Xabre II bis zum Ende des Juni, frühere Samples sollten erste Tests sogar noch vor diesem Zeitraum ermöglichen. Nun denn, Juni und Juli sind inzwischen vorbei, vom Xabre II fehlt aber derzeit auch der leiseste Hauch einer Spur. Damit verkalkuliert man sich bei XGI natürlich auch bezüglich der geplanten Xabre II Rivalen: Die SiS-Präsentation zur CeBIT zeigte die höchste Version des Xabre II - laut SiS-Planungen wohlgemerkt - in den Gefilden einer GeForceFX 5900 Ultra bzw. einer Radeon 9800 Pro ...
... Dies dürfte sich nun inzwischen ebensowenig halten lassen wie die Planungen zur mittleren Version des Xabre II, welche man bei SiS/XGI in den Gefilden einer GeForceFX 5600 Ultra bzw. einer Radeon 9600 Pro sah. Denn wenn der Xabre II Chip im Herbst als derzeit frühestmöglicher Termin herauskommt - immer gesetzt den Fall, es gibt keine weiteren Verzögerungen - dann stehen schließlich schon nVidia NV38 und ATi R360 als neue HighEnd- und nVidia NV36 und ATi RV360 als neue Mainstream-Rivalen bereit. XGI würde in dieser Situation wohl wieder einmal klarer dritter Sieger werden - was definitiv nicht die Zielsetzung des Xabre II Chips seitens SiS war und natürlich auch die Chancen von SiS/XGI auf höhere Marktanteile deutlich mindern würde.
News des 2. August 2003 |
Heute können wir ein kleines bißchen in der Grafikkarten-Historie kramen, denn es gibt gleich zwei Meldungen bzw. Artikel zu offiziell nicht releasten 3dfx-Karten: Zum einen gibt es bei NextHardware ein paar Bilder einer lauffähigen Rampage-Karte zu sehen, Spiele-Screenshots von dieser in Aktion unter Unreal Tournament und 3DMark2001 gibt es im übrigen in einem italienischen Forum. Ebenfalls diesbezüglich interessant ist das Forum von NextHardware, dort finden sich komplette Spezifikationen des 3dfx Rampage-Chips, wenngleich natürlich inoffizielle ...
... Der Rampage-Chip wurde von 3dfx seinerzeit zur Ablösung der Voodoo-Chips, welche in den Voodoo 1/2/3 Grafikkarten Verwendung fanden, entwickelt. Durch die Verzögerungen des Projekts wurde zuerst noch die bekannten Voodoo 4/5 Grafikkarten auf den Markt geworfen, welche letztlich auch nur auf verbesserte und höher getaktete Voodoo-Chips setzten. Durch das unsanfte Ableben von 3dfx wurde das Rampage-Projekt dann nicht mehr fertiggestellt, obwohl es durchaus als Hoffnungsträger für 3dfx galt. Denn immerhin wäre der Rampage noch vor der GeForce3 der erste Grafikchip mit Pixel Shader Pipelines geworden, 3dfx hatte seinerzeit auch Anteil daran, daß die Vertex und Pixel Shader Spezifikation Bestandteil von DirectX8 wurden ...
... Im Gegensatz zur GeForce3 sollte der Rampage allerdings wahrscheinlich keinen Vertex Shader, sondern nur eine normale T&L Einheit bieten (womöglich auch nur Software T&L). Den Vertex Shader nach DirectX8 sollte ein Co-Prozessor namens "Sage" übernehmen, welcher wahlweise zusammen mit dem Rampage auf einem Grafikboard verbaut werden konnte. In dieser Kombination sollten solche Grafikkarten dann unter dem Namen "Spectre" in den Markt gebracht werden, wobei in der Maximal-Konfiguration bis zu vier Rampage-Chips zusammen mit einem Sage-Chip auf einem Spectre-Grafikboard möglich gewesen wären ...
... Somit wäre es wohl auch nicht besonders tragisch, daß der Rampage-Chip selber nur die für diese Zeit normalen 4 Rendering-Pipelines und einen Chiptakt von 200 bis maximal 250 MHz mitgebracht hätte (GeForce3: ebenfalls 4 Pipelines, 200 MHz Chiptakt), denn für 3dfx wäre wieder einmal "MultiChip" das Zauberwort gewesen. Im Consumer-Bereich wäre man somit mit der Konfiguration mit zwei Rampage- und einem Sage-Chip angetreten, jedenfalls laut den Informationen eines exzellenten 3dfx-Artikels bei Hard:Overclock. Interessant wäre der Rampage-Chip auf jeden Fall geworden, stellte dieser doch die erste wirkliche Neuentwicklung seitens 3dfx nach dem originalen Voodoo-Grafikchip dar.
Abseits dessen gibt es bei Sudhian Media den zweiten Teil eines 3dfx-Tributs zu lesen, welcher sich diesesmal mit der Voodoo5-6000 und deren Performance beschäftigt. Dazu wurde die Karte durch einige ältere, für diesen Fall allerdings passende Benchmarks gegen die Konkurrenten der damaligen Zeit um GeForce2 Ultra und GeForce3 gescheucht. Lässt man dabei die Werte der 3DMarks außen vor, in welchen die 3fdx-Karte aufgrund ihrer nicht vorhandenen T&L-Einheit und der nicht vorhandenen Shader-Fähigkeiten nicht gewinnen kann, zeigt sich ein gar nicht einmal so schlechtes Leistungsbild für die Voodoo5-6000 ...
... Unter 16 Bit hat sie zwar gewöhnlich keine Chance gegen die zwei vorgenannten nVidia-Grafikchips, und auch die normale GeForce2 GTS schließt unter 16 Bit gefährlich weit zur 3dfx-Karte auf. Doch in ihrem eigentlichem Revier, den 32-Bit-Benchmarks, kann die Vodooo5-6000 durchaus überzeugen: Sie liegt unter 1024x768 mit 6 Prozent vor der GeForce2 Ultra und nur 7 Prozent hinter der GeForce3. Dabei haben die nVidia-Karten in diesem Vergleich den Vorteil deutlich neuerer Treiber (Version 30.82 vom August 2002), während die Entwicklung der 3dfx-Treiber zumindestens offiziell seit Anfang 2001 eingestellt ist ...
... Es läßt sich hier also durchaus die Vermutung aufstellen, daß die 3dfx Voodoo5-6000 mit hypothetisch angenommenen neueren Treibern besser dastehen würde oder aber daß die nVidia-Grafikkarten mit Treibern des gleich alten Datums nicht ganz so schnell von der Partie wären. Natürlich hätte es, wenn die Voodoo5-6000 wie geplant im 2. Halbjahr 2000 erschienen wäre, immer noch das 3DMark-Problem für 3dfx gegeben: Schon gegen die normale GeForce2 GTS sieht die Voodoo5-6000 im 3DMark2000 wie auch im 3DMark2001 kein Land und wäre demzufolge von Teilen der Hardware-Berichterstatter wohl ziemlich "verrissen" worden. Daß die 3DMarks eben auch nur einzelne Benchmarks sind und damit nicht als alleiniger Gradmesser der 3D-Performance benutzt werden sollten, ist bei jenen Berichterstattern eben leider erst eine Erkenntnis dieser Tage (wenn überhaupt).
neuer Artikel |
Die "Älteren" unter uns ;-) werden sich mit Sicherheit erinnern: Halo ging einstmals der Ruf einer absoluten Spiele-Sensation voraus. Und umso größer war die seinerzeitige Enttäuschung (und Empörung) der PC-User, als vor mehr als zwei Jahren bekannt wurde, daß das Spiel exklusiv auf der Xbox erscheinen würde, nachdem "Big Mamma" Microsoft sich den Halo-Entwickler Bungie kurzerhand einverleibt hatte, wie es die Aliens in Halo nicht besser hätten tun können :-).
In der Zwischenzeit hat sich nun doch einiges getan. So rung sich Microsoft unter anderem dazu durch, Halo nun doch noch auf dem PC herauszubringen. Doch auch die PC-Spiele haben sich seit den zwei Jahren, als Halo auf der Xbox erschien und von einigen als "bestes Action-Game aller Zeiten" gefeiert wurde, weiterentwickelt. Und so steht das PC-Halo vor der undankbaren Aufgabe, mit der Technik von vor zwei Jahren und dem sowieso immer eher zweifelhaften Ruf einer Konsolen-Portierung nun auch noch die kritischen PC-User begeistern zu wollen ... zum Artikel
News des 1. August 2003 |
Bei NFI, deren Informationen bekanntlich die Grundlage für unseren kleinen Spezifikations-Artikel zum nVidia NV36 Mainstream-Grafikchip bildeten, gibt es zu eben jenem ein gewisses Updates: Danach ist es womöglich ein Irrtum, daß der NV36 mit einem 256 Bit DDR-Speicherinterface antreten soll, was natürlich auch alle bisherigen Performance-Prognosen zum NV36 umwerfen würde. Abseits dessen will man wissen, daß die Ultra-Version des NV36 mit 500/400 MHz Taktraten kommt und die normale Version mit 400/325 MHz. Was davon jetzt zutreffend ist - wir können es wirklich nur abwarten :-).
Netzteile sind wohl noch die letzten Störenfriede in dem Rechner eines Silent-Freaks, da sie die am schwersten zu dämmenden Teile sind. Nun gibt es inzwischen reichlich Silent-Netzteile (wobei man ehrlicherweise geregelte Netzteile nicht als "silent" bezeichnen dürfte, da deren Lüfter unter Volllast dann trotzdem wieder mit 3000 U/min und mehr drehen) und auch ein paar völlig passiv gekühlte Netzteile. Doch für bereits bestehende Rechner, an denen möglichst nicht am Netzteil herumgebastelt werden soll, sind bisher nur recht wenige Lösungen vorhanden, welche dann zumeist mit dem nicht ungefährlichen Basteln direkt am Netzteil selber verbunden sind ...
... Einen interessanten Ansatz bietet nun die bei Hartware getestete Netzteil-Schallbox seitens ichbinleise.de, welche wohl am besten mit einem "schallgedämmter Auspuff" zu umschreiben ist. Diese Schallbox kann so gut wie an jedem Rechner eingesetzt werden, benötigt keinen Eingriff am Netzteil selber, ist mit ca. 20 Euro ziemlich preisgünstig - und laut dem Hartware-Test ist die zusätzliche Dämm-Wirkung selbst bei einem Silent-Netzteil noch einwandfrei vorhanden. Insofern scheint die Schallbox ein vernünftiger Weg zu sein, wenngleich bislang breite Praxis-Erfahrungen zu dieser natürlich noch fehlen.
Wer sich jedoch zum Schritt des Netzteil-Wechsels entschlossen hat oder aber für einen komplett neuen Rechner plant, der findet bei DirkVader das derzeit wohl ultimative Silent-Netzteil Roundup. Ganze 16 der leider unumgänglichen Krachmacher wurden dabei auf ihre Nennleistung als Netzteil, die Kühlleistung und natürlich die Geräuchentwicklung hin getestet. Interessanterweise kommen hierbei die zwei im Test befindlichen völlig lüfterlosen Netzteile nicht besonders gut weg, da sie bezüglich der Kühlleistung als "kritisch" gewertet wurden (immerhin um bis zu 11 bis 14 Grad höhere CPU-Temperatur im Last-Betrieb als andere Netzteile) ...
... Für Anwender mit den allerneuesten Prozessoren dürfte das dann langsam knapp werden, aber auch allgemein ist man mit einem Lüfter-gekühltem Netzteil natürlich immer auf der sicheren Seite, was die Rechner-Innentemperaturen angeht. Trotzdem kommen hier einige der getesteten Netzteil noch auf erstaunlich gute Geräusch-Werte für das gesamte Rechnersystem heran (ein Silent-Lüfter für die CPU und eine entkoppelte Festplatte waren die zusätzlichen, allerdings unhörbaren Geräuschquellen): So erreichten die Netzteile Ley Exklusiv NTPS-450a-E, A Conto NoiseMagic Enermax 1500, MR Fortron 350 Watt ichbinleise-Edition, Zalman ZM400A-APF, Global WIN SAF420 420W-P4 und Cooltek HPC360-202 mit Ergebnissen von 25 bis 26 dBA die Wertung von "kaum hörbar" auch noch im Last-Betrieb.
Kurze interne Meldung: Wir haben heute eine kleine technische Änderung an 3DCenter vorgenommen, mit welcher die Mindest-Auflösung von vorher 800x600 auf nunmehr 1024x768 erhöht wurde. Dies war schon lange geplant, um im "Innenraum" der Seite größere Bilder ermöglichen zu können. Mit der alten Mindest-Auflösung waren wir dabei auf maximal 440 Pixel begrenzt, nun sind es wenigstens 660 Pixel, welche Bilder breit sein dürfen. Natürlich ist es bedauerlich, dafür die Kompatibilität zur 800x600 Auflösung aufgeben zu müssen, aber irgendwann mußte dieser schon lange geplante Schritt schließlich erfolgen. Wir hoffen, daß die derzeit nur noch ca. 3 Prozent 800x600 User das halbwegs akzeptieren können. Da der reine "Innenraum" weiterhin unterhalb von 800 Pixeln breit ist, kann man 3DCenter auch zukünfig noch lesen, ohne für jede Text-Zeile extra hin- und herscrollen zu müssen.
News des 31. Juli 2003 |
Wieder einmal etwas zu den Taktraten der Radeon 9800 non Pro: Ganz offensichtlich liegen diese nun bei 325/290 MHz, also doch etwas unter den Taktraten der Radeon 9700 Pro (325/310 MHz). Dies bestätigt zum einen die Webseite von HIS/ENMIC und zum anderen auch Sapphire auf telefonische Nachfrage, einzig allein bei Connect3D taktet man laut der Produktseite seine non Pro Karte mit 325/310 MHz. Nehmen wir die 325/290 MHz mal als für die meisten Radeon 9800 non Pro geltenden Standard, so dürfte die Performance ziemlich exakt der einer Radeon 9700 Pro entsprechen, den Unterschied beim Speichertakt von 7 Prozent dürften die minimalen Chip-internen Verbesserungen des R350-Cores ziemlich exakt wieder wettmachen ...
... Dann kommt es schlicht auf den Preis an, ob eine Radeon 9800 oder eine Radeon 9700 Pro das bessere Angebot darstellt - und hier liegt erstaunlicherweise momentan die neuere Radeon 9800 vorn: Laut dem Geizhals.at Preisvergleich sind Radeon 9700 Pro Grafikkarten derzeit im gewöhnlichen für über 300 Euro zu haben, während Radeon 9800 Grafikkarten teilweise schon für unter 300 Euro angeboten werden. Aufpassen muß man dabei nur, nicht eine Radeon 9800 SE zu bekommen, welche derzeit für ca. 250 Euro angeboten wird und mittels nur der Hälfte der Rendering-Pipelines nicht schneller als eine (deutlich günstigere) Radeon 9600 Pro ist.
Den bisher unseres Wissens nach ersten Test einer 64 Bit GeForceFX 5200 hat der Planet Savage in Form eines GeForceFX 5200 Roundups unter der Beteiligung der Karten von Gainward, Inno3D und Palit anzubieten. Eine 64 Bit GeForceFX verfügt nur über die Hälfte des Speicherinterfaces normaler GeForceFX 5200 /Ultra Karten, welche regulär mit 128 Bit DDR-Speicherinterface antreten. Erreicht wird das 64 Bit Interface dadurch, daß für 64-MB-Karten das Design der 128-MB-Karten benutzt wird und einfach 2 der 4 Speicherplätze nicht bestückt werden - dann hat man nur noch ein 64 Bit DDR-Speicherinterface ...
... Daraus resultiert auch, daß es (fast) keine GeForceFX 5200 /Ultra Karte mit 128 MB gibt, welche über ein solches 64 Bit DDR-Speicherinterface verfügt (Ausnahme: eine Karte von Prolink), dies ist bisher ausschließlich bei einigen 64-MB-Versionen dieser Karte aufgetreten. Im Test von Planet Savage trat die Inno3D-Karte mit so einem 64bittigen Interface an, was sich absolut deutlich in den Benchmarks zeigte. Die GeForceFX 5200 ist nun schon von Haus aus keine schnelle 3D-Karte, das 64 Bit DDR-Speicherinterface zieht die Karte dann nochmals deutlich nach unten, so daß 64 Bit GeForceFX 5200 Karten selbst für das LowCost-Segment keine Empfehlungen für den 3D-Einsatz bekommen können.
News des 30. Juli 2003 |
Der Planet 3DNow! bringt mal wieder ein paar neue Informations-Happen zum Thema DualChannel Athlon 64: Danach wird AMD wie schon berichtet im September sowohl einen SingleChannel Athlon 64 als auch einen DualChannel Athlon 64 herausbringen. Laut dem Planet 3DNow! sollen nun aber beide Varianten trotz des Leistungsunterschieds von AMD gleich gerated werden (1.8 GHz als 3100+, 2.0 GHz als 3400+), da der SingleChannel Athlon 64 für ECC DDR400-Speicher, der DualChannel Athlon 64 dagegen nur für normalen DDR333-Speicher spezifiziert ist (ECC = einem Sicherheits-Feature für Server-Systeme, dieser Speicher kostet im gewöhnlichen deutlich mehr) ...
... So könnte sich das gleiche Rating zwischen Single- und DualChannel Athlon 64 durchaus als gerechtfertigt präsentieren - und natürlich läßt diese Information Raum für reichlich Spekulationen. So darf vermutet werden, daß jene Gerüchte, wonach AMD Probleme mit dem DualChannel Speicherinterface bei hohen Frequenzen hätte, wohl richtig sind. Nur so läßt sich erklären, daß nach dem Opteron nun auch der DualChannel Athlon 64 nur mit ECC DDR333-Speicher betrieben werden kann, obwohl DDR400 inzwischen längst offizielle JEDEC-Norm ist (PS: die bei vielen Opteron-Mainboards im BIOS befindliche Option zum Ausschalten von ECC disabled nur die ECC-Funktion, man muß allerdings trotzdem ECC-Speicher einsetzen) ...
... Sollte im übrigen jener DualChannel Athlon 64 ernsthaftig ECC-Speicher zum Betrieb benötigen, wäre dieser wohl schon allein vom Kostenpunkt her uninteressant und der per Definition langsamere SingleChannel Athlon 64 die erste Wahl für Desktop-Systeme. Da der bisher ermittelte Leistungsunterschied zwischen Single- und DualChannel beim K8 sowieso eher gering ist, geht derzeit für den Desktop-Markt also alles stark in Richtung SingleChannel Athlon 64. Für die späteren Athlon 64 Ausbau-Stufen ("San Diego" Core in 90nm nächstes Jahr), welche allesamt nur noch mit DualChannel Speicherinterface geplant sind, kann sich AMD allerdings wohl eher nicht mehr leisten, den Desktop-Käufer mit der Anforderung von ECC-Speicher zu vergraulen.
Der tecChannel hat es nun doch noch geschafft und die nicht einfach zu entschlüsselnde Windows XP Aktivierung per Internet entschlüsselt (die deutlich einfachere Aktivierung per Telefon wurde schon vor 2 Jahren entschlüsselt), welche immerhin einige große Datenpakete nach Redmond schickt ;-). Prinzipiell gesehen kann man mit diesem Artikel nun Entwarnung geben: Microsoft hält sich in diesem Fall vorbildlich zurück und übermittelt keine persönlichen Daten und selbst die an Microsoft dabei übermittelten Hardware-Informationen wurden so verpackt, daß sie keinen Rückschluß auf die tatsächlich verwendete Hardware zuläßt. Natürlich gibt es immer noch die Möglichkeit, daß Microsoft mit späteren Service Packs daran etwas ändert, die Lizenzen lassen solche Änderungen am Käufer vorbei schließlich jetzt schon zu.
Auch wenn mit dem übermorgigen 1. August und damit dem Inkrafttreten des neuen deutschen Urheberrechts vermutlich nicht gleich alles illegal und damit aus dem Verkehr gezogen wird, was in irgendeiner Form einen Kopierschutz aushebeln kann, sondern es wohl erst eine gewisse Phase des Herantastens an die neuen gesetzlichen Regelungen geben wird, ist es absolut nicht verkehrt, sich für alle Fälle diejenigen Programme zu sichern, welche womöglich bald in Deutschland und im deutschen Internet nicht mehr angeboten werden dürfen ...
... Dazu kann man sich den Artikel von Chip zu Gemüte führen, welcher - wohl letztmalig - die entsprechenden Programme noch einmal auflistet. Und ganz unabhängig, ob die dort genannten CD-Kopierprogramme und sonstigen Kopierschutz-Knacker nach dem neuen deutschen (und österreichischen) Urheberrecht nun wirklich illegal werden, die meisten deutschen Webseiten, insbesondere dabei die großen, werden diese Tools inklusive der Berichterstattung über diese am 1. August wohl vorsorglich von ihren Webseiten herunternehmen - Selbstzensur ist nun einmal die effektivste und unangreifbarste Zensurart :-(.
neuer Artikel |
Und schon wieder der nächste nVidia-Grafikchip: Der NV38 soll allem Anschein nach als kurzfristige Ablösung des NV35 aka GeForceFX 5900 /Ultra agieren und dabei natürlich in erster Linie die Kreise des ATi R360 Chips stören, welcher für den selben Zeitraum (Herbst) und daselbe Markt-Segement (HighEnd) ansteht. Womit wir im Herbst unerwarteterweise noch einmal ein HighEnd-Duell zwischen ATi und nVidia sehen werden können, noch bevor die eigentlichen Winter-Chips ATi R420 und nVidia NV40 ihren Zweikampf ausfechten werden ... zum Artikel
News des 29. Juli 2003 |
Neues von den Bitboys haben World of Hardware zu berichten. Die finnischen Grafikchip-Entwickler haben allerdings nichts neues bezüglich Desktop-Grafikchips auf Lager, sondern "nur" den lange angekündigten Grafikchip für Handhelds, Mobiltelefone und PDAs unter dem Namen "Acceleon" fertiggestellt - und damit im übrigen zum ersten Mal in der mittlerweile einige Jährchen dauerenden Firmengeschichte überhaupt ein Produkt zur Produktionsreife gebracht, was von den alten Hasen aus der Zeit des Glaze3D-Hypes sicherlich auch schon als beachtenswerte Leistung gewertet werden wird ;-) ...
... Die Bitboys hatten mit ihren 1998 bis 2001 veröffentlichten Plänen für ihre Desktop-Grafikchips Glaze3D & Avalanche seinerzeit für ziemliches Aufsehen und teilweise auch für den schon genannten Glaze3D-Hype gesorgt, diese Projekte jedoch aus diversen Gründen wieder einstampfen müssen und danach mit der vorhandenen Technologie an eben jenem mobilen Kleinst-Grafikchip gearbeitet. Und obwohl bei den Bitboys das KnowHow für eine Rückkehr in den Desktop-Markt wahrscheinlich vorhanden wäre, hat man diesen Schritt schon vor längerem weitestgehend ausgeschlossen, wie dies auch unserem Artikel zu den Bitboys-Grafikchips zu entnehmen ist ...
... Die einzige Ausnahme hiervon wäre, wenn irgendein Halbleiter-Hersteller an die Bitboys herantreten würde und jenen einen regelrechten Auftrag für einen neuen Desktop-Grafikchip geben würde - und zwar dieser Form, daß die Bitboys rein nur entwickeln und für das fertige Design Lizenzen vergeben, wie jetzt auch im Fall der Acceleon-Chips geschehen. Angesichts des derzeit schon sehr hart umkämpfen Marktes bei den Desktop-Grafikchips ist es aber eher unwahrscheinlich, daß eine neue Partei hier noch einsteigen will, so daß jene einzige von den Bitboys deklarierte Ausnahme wohl eher nie genutzt werden und es nach dem Ableben von Trident vorerst weiterhin bei 6 Grafikchip-Entwicklern für den Destop-Markt (ATi, Matrox, nVidia, PowerVR, S3/VIA, XGI/SiS) bleiben wird.
Die OpenGL-eigene Shader-Hochsprache GLslang scheint nun endlich auf die Zielgeraden einzubiegen. Wie Golem berichten, soll die maßgeblich von 3Dlabs vorangetrieben Shader-Hochsprache nun in OpenGL 1.5 enthalten sein, welches soeben angekündigt wurde (allerdings bislang ohne Termin). GLslang wird dann das darstellen, was die High-Level Shader Language (HLSL) seitens Microsoft für DirectX darstellt: Eine (vergleichsweise) einfach strukturierte Programmiersprache, mit welcher sich die mittels DirectX 8/9 Hardware möglichen 3D-Effekte viel einfacher und zeitsparender in OpenGL-Spiele einbinden lassen ...
... John Carmack von id Software hat beispielsweise angekündigt, seine NextGen-Engine nach Doom III unter Benutzung einer Shader-Hochsprache schreiben zu wollen - aller Wahrscheinlichkeit nach wird dies dann GLslang sein, da id Software eigentlich ein fester Verfechter von der Plattform-übergreifenden 3D-Schnittstelle OpenGL ist :-). Für den Anwender mag jetzt HLSL oder GLslang direkt erst einmal nichts bringen, indirekt sollte die Benutzung dieser beiden Shader-Hochsprachen allerdings dafür sorgen, daß sich Shader-Effekte endlich breitflächiger durchsetzen dürften, da die Arbeitsersparnis durch die Shader-Hochsprachen enorm sein soll. Nachdem es seit 2001 mit der GeForce3 die erste Shader-fähige Grafikkarte gab, wird es langsam aber auch einmal Zeit, daß deren Möglichkeiten von mehr als nur einer Handvoll von Spielen genutzt werden.
News des 28. Juli 2003 |
Sowohl bei Seijin als auch bei The Inquirer heizt man die Gerüchteküche zum kommenden nVidia HighEnd-Chip NV40 mit ein paar neuen Informationen zum Chip (oder eher Bruchstücken davon) weiter an: Danach soll der Chip angeblich über 12 Pipelines verfügen, was doch schon ziemlich ungewöhnlich wäre (wenn auch keineswegs unmöglich). Wesentlich glaubwürdiger erscheint da aber schon die Information, daß der NV40 prinzipiell mit PCI Express Interface antreten wird und für die momentanen AGPx8 Mainboards dann eine AGP Bridge bereithält - gleiches wurde im übrigen schon zum NV40-Konkurrenten ATi R360 berichtet.
Hard Tecs 4U haben den Thermaltake SubZero4G Peltierkühler im Test - jenen Kühler, von welchem Hersteller ActiveCool bei seiner Vorstellung im Oktober letzten Jahres noch vollmundig versprach, er würde eine CPU auf 26°C herunterkühlen können. Neben einer guten theoretischen Abhandlung zum Thema Peltierkühlung beschäftigt sich der Artikel natürlich mit genau jenem Punkt, bei dessen Prüfung allerdings sogar nur im Idle-Modus des Prozessors gerade einmal 31°C erreicht werden konnten. Im Normalbetrieb werden mit CPU-Temperaturen von 51°C bis 59°C allerdings dann Werte erreicht, zu welchen jeder gute konventionelle Luftkühler ebenfalls in der Lage ist. Jene konventionellen Luftkühler haben dabei allerdings den Vorteil, geringere Geräuschbelastungen als zwischen 42dBA und 45dBA erreichen zu können und nicht um die 60 Watt zusätzlichen Stromverbrauch zu haben ...
... Ironischerweise ist aber gerade der Stromverbrauch dieses Peltiers noch zu niedrig - sicherlich zwar nicht im Sinne einer geringeren Stromrechnung ;-), dafür jedoch im Sinne einer besseren Kühlleistung. Denn das verwendete 70-Watt-Peltier ist offenbar noch zu gering dimensioniert, Peltier-Elemente für Prozessoren sollten auch eigentlich eher das 1,5 bis 2fache der Prozessoren-Verlustleistung (bei derzeitigen Prozessoren bis zu 80 Watt) haben, damit sie einen entsprechenden Effekt erzielen können. Ergo sind Peltiers für Prozessoren wohl erst ab 150 Watt wirklich interessant - wobei sich dann natürlich die Frage aufdrängt, mit welcher Kühlung (und mit welcher Lautstärke) man diese 150 Watt Verlustleistung auf der anderen Seite des Peltier-Elements dann "abtragen" will.
Einige KT266A-Veteranen werden sich womöglich noch an einen älteren Artikel unsererseits erinnern, in welchem es gelang, auf einem KT266A-Mainboard einen FrontSideBus von 182 bzw. sogar 210 MHz stabil zu erreichen, obwohl dieser Chipsatz offiziell nur bis 133 MHz (FSB266) ausgelegt ist. Die seinerzeit von uns geschlußfolgerte Erklärung, es müsse auf den damals genannten KT266A-Mainboards Epox 8KHA+ und Abit KR7A-RAID demzufolge höhere PCI- und AGP-Teiler geben, war allerdings falsch, wie wir später feststellen mussten: In den BIOSen beider Mainboards waren nachweislich keine höheren PCI- und AGP-Teiler freigeschaltet, als für den FSB266 notwendig (PCI-Teiler 1/4 und AGP-Teiler 1/2) ...
... Die sehr hohen seinerzeitigen Übertaktungsergebnisse waren somit in diesem Fall nur auf eine (wohl eher seltene) Unempfindlichkeit der verwendeten PCI-Geräte gegenüber den sehr hohen PCI- und AGP-Taktraten zurückzuführen, wahrscheinlich zusätzlich begünstigt auch durch deutlich niedrige Chipsatz-Timings im Overclocking-Betrieb (ab einem bestimmten FSB), welche die Hersteller in ihre BIOS-Versionen einprogrammiert hatten. Nun denn, die seinerzeit geäußerte Theorie, daß der KT266A-Chipsatz aber sehr wohl höhere PCI- und AGP-Teiler leisten kann (weil es dem Chipsatz selber egal ist und die verbauten Taktgeber PCI-Teiler bis zu 1/7 beherrschen), wurde nun aber nachträglich von Epox höchstselbst bestätigt, wenn auch nur indirekt ...
... Denn im Download-Bereich von Epox befindet sich ein BIOS für das Epox 8KHA+ Mainboard vom 25. April diesen Jahres, welches gemäß offiziellem Begleittext für die "Implementierung aller unterstützter Athlon CPU´s" da ist. Und zu jenen unterstützten CPUs gehört laut der letzten offiziellen CPU-Unterstützungsliste von Epox (PDF) auch der Athlon XP Thoroughbred 2800+ mit FSB333 (nicht aber der Barton), was im übrigen auch durch in unserem Forum nachschlagbare Epox-Mails eindeutig bestätigt wird. Die Bedingung für den FSB333 auf dem Epox 8KHA+ ist allerdings DDR333-Speicher, da der KT266A-Chipsatz den Speicher offenbar nicht asynchron zum FrontSideBus ansteuern kann. Allerdings berichten einige User in unserem Forum auch davon, daß der FSB166 bei einem regulären FSB133-Prozessor teilweise nicht funktioniert und dann teilweise auch ein PCI-Teiler von nur 1/4 verwendet wird ...
... Aller Wahrscheinlichkeit nach steht somit der höhere PCI-Teiler 1/5 mit jener BIOS-Version nur für echte FSB333-Prozessoren zur Verfügung. Dies ist jedoch wohl eher eine Angelegenheit, wie das BIOS programmiert wurde - technisch gesehen wäre es sicherlich möglich, den PCI-Teiler 1/5 auch für alle Prozessoren zur Verfügung zu stellen. Entscheidend ist hier aber weniger der Umstand, daß jenes Epox-Board nun inzwischen FSB333-Prozessoren tragen kann, sondern die generell für alle Mainboards und Chipsätze geltende Erkenntnis, daß es den BIOS-Programmierern durchaus möglich ist, höhere PCI- und AGP-Teiler einzuprogrammieren - und zwar egal ob der Chipsatz jene offiziell unterstützt. Entscheidend ist hierfür wohl alleinig, was der auf dem Mainboard verbaute Taktgeber zu leisten im Stande ist (Thx @ Malte für den Hinweis auf diesen alten Fall).