News-Archiv 27. Februar - 5. März 2006 (9. Kalenderwoche)
4./5. März 3. März 2. März 1. März 28. Februar 27. Februar
News des 4./5. März 2006 |
Zur Windows Vista News vom Freitag gilt es noch zwei Dinge nachzutragen: Als erstes findet sich außer dem Media Center dann doch noch ein erheblicher Unterschied zwischen den Versionen Home Basic und Home Premium: Die neue Oberfläche "Aero" wird bei Home Basic erstaunlicherweise fehlen - trotz das gerade dieses Feature von Microsoft stark gepuscht wird (obwohl noch zu beweisen wäre, ob Aero wirklich einen Produktivitätsgewinn erbringt). Wie die Oberfläche bei Home Basic aussehen wird, ist noch nicht ganz klar, vermutlich wird man aber nicht ganz auf den Windows-2000-Standard zurückgehen, sondern wahrscheinlich etwas ähnliches wie jetzt schon unter Windows XP bieten ...
... Und zum zweiten hat unsere allgemeine Berichterstattung zu Windows Vista für einige Kritik gesorgt - die wir aber durchaus auch annehmen wollen. In diesem Punkt wird es sicherlich unmöglich sein, das alle Welt derselben Meinung ist, denn was sich für die einen als Fortschritt darstellt, kann sich für den anderen als reinen Zwang zum Upgrade herausstellen. Daß unsere News vom Freitag eher auf der kritischen Seite steht, hat aber auch seine Begründung: Denn derzeit bekommt Microsoft unserer Meinung nach durch die vielen Nachrichten im Web über Windows Vista eine fast uneingeschränkt positive Propaganda für sein neues Betriebssystem ...
... Anders formuliert: Es fehlten uns (primär dem Newsschreiber, innerhalb der Redaktion gibt es da auch andere Meinungen) schlicht die kritischen Gegenstimmen. Es steht somit die Befürchtung im Raume, daß sich für Otto Normalsurfer ein Bild ergibt, wonach Windows Vista das nun alles perfekt und sicher machende Betriebssystem sei, Zweifel an dessen Anschaffung somit schon fast ketzerisch seien. In diesem Punkt macht sich ein Großteil der Presse derzeit leider zum kostenlosen Werbemedium für Microsoft, was auch von Vista-Beführwortern kaum begrüßt werden kann. Ansonsten kann man zu diesem Punkt aber gern auch in unserem Forum mit uns diskutieren.
In einem interessanten Artikel von Technology Review wird ein generell neues Internet gefordert, dessen technische Grundlage von Grund auf neu erstellen werden sollte - womit man besser für die heutigen Anforderungen gerüstet wäre, insbesondere in Sicherheits-Fragen. Vom rein technischen Standpunkt gibt es dagegen sicherlich überhaupt nichts zu sagen, allerdings wird hier womöglich der Aspekt unterschätzt, welchen Einfluß Regierungen und Unternehmen aller Wahrscheinlichkeit auf eine solch völlige Neugestaltung der technischen Grundlagen des Internets nehmen würden. Die technische Grundlage des jetzigen Internets konnte seinerzeit noch weitgehend ohne Beeinflußung von Regierungen und Unternehmen erstellt werden, was sicherlich auch zum großen Erfolg des Internets beigetragen hat.
Wir hatten letzte Woche darüber berichtet, daß sich verschiedene Internet Service Provider (ISPs) daran versuchen, von großen Inhalteanbietern im Web "Durchleitungsgebühren" zu verlangen. Hierbei gilt erst einmal anzumerken, daß unsere seinerzeitige Berichterstattung in einem Punkt falsch war: Die ISPs wollten die betroffenen Inhalteanbieter nun nicht gleich ganz für ihre Nutzer blockieren, allerdings sollte es die volle Bandbreite (und damit Geschwindigkeit) nur dann geben, wenn die Inhalteanbieter den ISPs dafür entsprechende Gebühren zahlen. Wie darauf aufsetzend die Netzeitung berichtet, köchelt die Debatte in den Vereinigten Staaten nun einer Entscheidung entgegen. Momentan stehen hierfür zwei konkurrierende Gesetzesvorlagen an: Die eine will den ISPs generell jegliche Form von Limitierungen verbieten, während die andere nur das Verbot der ultimativen Leitungskappung vorsieht.
News des 3. März 2006 |
Etwas, worauf SLI-interessierte User schon des längeren gewartet haben, gibt es nun im Forum zu NGOHQ: Einen Patch, welcher SLI auch auf non-SLI-Mainboards ermöglicht. Prinzipiell wird dabei die SLI-Sperre der nVidia Grafikkartenreiber umgangen - SLI steht damit auf generell jedem Mainboard zur Verfügung, egal wieviele Grafikkarten-Slots das Mainboard hat. Damit sollte es beispielsweise auch möglich sein, nVidia-Grafikkarten mit SLI-on-board (zwei Grafikchips auf einer Grafikkarte) auf einem Mainboard mit nur einem Grafikkarten-Slot zu betreiben. Wichtigste Anwendungsmöglichkeit dieses Patches dürfte aber der Support von SLI-Grafikkarten auf non-nVidia-Mainboards sein ...
... Hierzu wird berichtet, daß der Patch auf Mainboards mit ULi-Chipsätzen bisher problemlos funktionierte - kein Wunder, stammt der Patch doch in seiner Original-Form von ASRock, welche damit SLI auf ihren ULi-Mainboards ermöglichen. NGOHQ haben hier im eigentlichen auf die Arbeit von ASRock zurückgegriffen und dabei nur die Limitierung auf ASRock-Mainboards ausgeschaltet. Von Mainboards mit Intel-Chipsätzen war jedoch zu hören, daß bei diesen der Patch noch nicht zum gewünschten Resultat führte, allerdings arbeiten NGOHQ an einer Lösung dieses Problems. Dagegen gibt es bereits eine Meldung, wonach der Patch auch auf einem Mainboard mit ATIs Radeon Xpress 200 CRossFire Chipsatz funktionierte :) ...
... Abzuwarten bleibt noch, ob damit auch wirklich DualGrafikchip-Grafikkarten auf Mainboards ohne SLI-Fähigkeiten laufen - theoretisch sollte es so sein, aber diesbezüglich gibt es noch keine Erfolgs- oder Mißerfolgsmeldungen. Davon ganz abgesehen, beweißt das Funktionieren des SLI Patches zumindestens unter einigen Systemen, daß die Zurückhaltung seitens ATI und nVidia, CrossFire bzw. SLI auch auf anderen als den eigenen Mainboard-Chipsätzen zu unterstützen (ATI gibt CrossFire wenigstens noch auf Intel-Chipsätzen frei) nicht auf technisch begründbaren, sondern offenbar allein Marketing-Begründungen resultiert - zum Nachteil der Anwender. Wir werden zu diesem Thema weiter berichten, falls es neue, verbesserte Versionen des SLI Patches gibt, den wir im übrigen auch auf unserem Server zum Download stellen.
Nachdem die Informationen über die verschiedenen Versionen von Windows Vista durch einen Fehler bei Microsoft nun sowieso schon mehr oder weniger "draußen" waren, hat der Softwarehersteller diese nun auch offiziell bekanntgegeben. Ansehen kann man sich die Unterschiede der einzelnen Vista-Versionen u.a. bei Hard Tecs 4U oder auch (umfangreicher, dafür englischsprachig) bei Paul Thurrott's SuperSite for Windows. Die für den normalen PC-Nutzer wohl wichtigsten Versionen werden dabei die Home Basic, Home N und Home Premium sein, wobei Home Basic und Home N prinzipiell indentisch sind, die Home N Version nur (wegen Auflagen der EU-Wettbewerbshüter) um den Windows Media Player erleichert sein wird ...
... Die Home Premium Version hört sich nun auf den ersten Blick wie eine bessere Version an, wie ein Nachfolger der Pro-Version von Windows XP. Dies täuscht jedoch: Bei Home Premium bekommt der Käufer letztlich nur ein Media Center dazu, im Endeffekt ist die Home Premium Version also der Nachfolger der (verzichtbaren) Media Center Edition von Windows XP. Im Normalfall dürfte für die meisten Käufer also nur die Home Basic Version interessant sein - wenn Windows Vista überhaupt eine interessante Neuerwerbung sein sollte. Denn bei aller medialer Berieselung zum neuen Microsoft-Betriebssystem kommt oftmals die Überlegung aus dem Gerichtsfeld, ob das neue OS denn wirklich notwendig ist bzw. welche Vorteile es denn abgesehen von Marketing-Sprüchen wirklich anzubieten hat ...
... Punkte wie die oftmals genannte (und seitens Microsoft auf intensiv propagandierte) höherer Sicherheit kann man da gleich einmal generell streichen: Zwar kann man Microsoft nicht absprechen, diesbezüglich aktuell Fortschritte zu machen, allerdings passieren diese immer noch deutlich zu langsam, um die sich ja auch ständig weiterentwickelnden Schadprogramme und deren Programmierer irgendwie in ernsthafte Bedrängnis bringen zu können. Zudem muß klar sein, daß die Hälfte der microsoftschen Sicherheits-Anstregungen nichts mit Sicherheit für den Anwender zu tun haben, sondern sich schlicht um DRM & TCPA etc. drehen - was natürlich allein der Sicherheit von Microsoft bzw. von Medieninhalte anbietenden Firmen dient ...
... Doch was kann Microsoft nach den doch schon recht ausgereiften Betriebssystemen Windows 2000 und XP mit Windows Vista noch revolutionär Neues bieten, was einen echten Mehrwert für den Heimanwender darstellen würde - und damit auch den Nachteil der deutlich höheren Systemanforderungen wieder wettmachen würde? Nichts von dem, was Microsoft diesbezüglich auf der Vista-Agenda hat, ist (für den Heimanwender wohlgemerkt) wirklich so durchschlagskräftig bzw. nur auf Windows Vista beschränkt, als das sich Windows Vista wirklich lohnen würde. Bis auf einen Punkt: Das neue Grafik-Subsystem Direct3D10, für welches ATI und nVidia im Spätsommer mittels R600 und G80 erste kompatible Grafikchips vorstellen werden ...
... Obwohl nun aber Direct3D10 sicherlich problemlos auch unter Windows 2000/XP anbietbar wäre, wird Microsoft dieses nur für Windows Vista freigeben - und bringt damit den einzigen Punkt, der wirklich für Windows Vista gegenüber Windows 2000/XP spricht (zumindestens, wenn man gleichzeitig eine Direct3D10-Grafikkarte erwirbt). Damit resultiert aber auch der "sanfte" Zwang für die meisten Endanwender, im Laufe der Zeit auf Windows Vista umsteigen zu müssen, letztlich nur aus einer künstlichen Limitierung seitens Microsoft - nämlich der rein politischen Entscheidung, Direct3D10 nur unter Windows Vista anzubieten. Schade, daß sich EU-Wettbewerbshüter derzeit mit solchen Nebensächlichkeiten wie dem Windows Media Player herumschlagen, anstatt ihren Blick auf solcherart Fälle zu lenken, wo ein bestehendes Monopol dazu mißbraucht wird, den Käufern mehr Geld aus der Tasche zu ziehen als notwendig wäre.
News des 2. März 2006 |
Schon am mittwöchlichen ersten Tag des neuen Monats hatte ATI mit dem CrossFire Xpress 3200 Chipsatz auf Basis der RD580-Northbridge seinen neuesten Mainboard-Chipsatz für AMD-Prozessoren vorgestellt, welcher durch die Konzentration auf das doppelte PCIe x16 Grafikkarten-Interface primär auf den CrossFire-Einsatz zielt (deswegen wohl nun auch "CrossFire" anstatt "Radeon" im Namen), gleichzeitig aber auch ein Update der bisherigen Mainboard-Chipsätze von ATI darstellt. Hauptkonkurrent des CrossFire Xpress 3200 Chipsatzes dürfte natürlich nVidias nForce4 SLI X16 sein, welcher ebenfalls über die doppelte PCIe X16 Anbindung verfügt - allerdings lassen sich beide Chipsätze letztlich nicht direkt miteinander vergleichen, da der ATI-Chipsatz nur CrossFire-Karten und der nVidia-Chipsatz nur SLI-Lösungen unterstützt, aber nicht vice versa ...
... Insofern sind CrossFire- wie SLI-User sowieso letztlich an Mainboards mit den jeweils "richtigen" Chipsätzen gebunden, findet also kein echter Wettbewerb statt. Vergleichen kann man somit den CrossFire Xpress 3200 nur mit seinem direkten Vorgänger, dem Radeon Xpress 200 CrossFire auf Basis der R480-Northbridge, bei welchem die beiden Grafikkartensteckplätze als maßgeblichen Unterschied nur mit PCIe x8 angebunden sind. In den Launch-Artikeln der verschiedenen Webseiten (Liste) ergab dies einen Performance-Vorteil in Spiele-Benchmarks von runden 3 Prozent zugunsten des neuen Chipsatzes - welches natürlich auch an internen Verbesserungen des RD580 liegen könnte, das läßt sich leider nicht auftrennen ...
... Davon abgesehen machte der neuen Chipsatz bzw. das bei allen Launch-Artikeln verwendete Asus A8R32-MVP Deluxe Mainboard (bei AnandTech gibt es einen weiteren Artikel, welcher weitere RD580-Mainboards von Abit und DFI zeigt; desweiteren hat Sapphire ebenfalls ein Mainboard mit dem CrossFire Xpress 3200 angekündigt) seine Sache zumeist sehr ordentlich. Insbesondere die Übertaktungs-Fähigkeiten dieses Mainboards sowie auch die grundsätzliche Übertaktungs-Eignung des Chipsatzes wissen dabei zu überzeugen - ATI hat nach eigenen Angaben den CrossFire Xpress 3200 bewußt für Übertakter ausgelegt. Ob das letztlich auch zu besseren Übertaktungsergebnissen führt, kann dann allerdings nur die Praxis zeigen. Die Vorzeichen stehen allerdings nicht schlecht, in einer Benchmark-Session zusammen mit techPowerUp! konnte ATI gleich einmal den 3DMark05-Weltrekord weiter steigern - auf einem CrossFire Xpress 3200 Mainboard.
Unser Forum enthält einen interessanten Eintrag, in welchem erklärt wird, wie man den beim Übertakten manchmal hinderlichen Geometrie-Takt aktueller nVidia-Hardware nach unten drücken kann. Wie bekannt, takten die (aktuellen) G70-basierenden Grafikkarten den Geometrie-Teil des Grafikchips mit 40 MHz höher als den "Rest" des Chips, haben somit also im eigentlich zwei (relevante) Taktraten. Jetzt kann dieser höhere Takt der Geometrie-Einheiten unter Umstände Probleme beim Übertakten machen, so daß man den Geometrie-Takt besser auf das gleiche Taktniveau wie den restlichen Chip setzt ...
... Möglich wird dies gemacht durch das Tool NiBiTor, mit welchem man das eigene Grafikkarten-BIOS entsprechend modifizieren kann. Allerdings ist dieses Tool damit natürlich nur für eher erfahrene Anwender geeignet, zudem sollte man vor solchen Aktionen immer eine Sicherheitskopie des originalen Grafikkarten-BIOS auf einer sich automatisch einspielenden Boot-Diskette anlegen (wie man so etwas anlegt, wird prinzipiell hier erklärt). Prüfen kann man die Taktraten dann u.a. mit dem Echtzeit-Taktgraph des RivaTuners, während das ATITool eines der (auch für nVidia-Grafikkarte) derzeit beliebtesten Tools zum Übertakten bzw. Prüfen auf Pixelfehler bei Übertaktungen ist.
Einen wirklich bemerkenswerten Artikel zum Thema der Speicher-Kompatibilität auf dem Athlon 64 haben Au-Ja! abgeliefert. Das Thema ist bekanntermaßen diffizil, da AMD nach wie vor keine DRAM Command Rate von 1T bei der Speicherbestückung von vier doppelseitigen mit 200 MHz (DDR400) betriebenen Speicherriegeln ermöglicht und auch sonst die AMD-Richtlinie für den Speichereinsatz beim Athlon 64 bzw. Opteron einige Haken aufweisen. Au-Ja! haben sich ausführlich mit der Theorie von Speicherzugriffen und der AMD-Richtlinie bezüglich der verschiedenen Revisionen des Athlon 64 beschäftigt und dann auch noch einige Praxistests unter verschiedener Hardware angestrengt.
Auf eine besondere Nuance der nun beschlossenen EU-Richtlinie zur präventive Telekommunikations-Vorratsdatenspeicherung sowie des Entschlusses des Deutschen Bundestages zur Umsetzung dieser weisst die Telepolis hin: Die Verantwortung für diese wird von bundesdeutschen Politikern wieder einmal gänzlich nach Brüssel verschoben (wobei nur ein Abgeordneter der Großen Koalition dann auch tatsächlich gegen die EU-Richtlinie gestimmt hat). An dieser Stelle darf dann aber mal ganz keck die Frage gestellt werden: Wozu wird das nationale Parlament überhaupt noch benötigt, wenn es sich doch eh in der Pflicht sieht, EU-Richtlinien zwingend zuzustimmen?! Dann können wir auch gleich eine EU-Regierung wählen - einmal ganz abgesehen davon, daß das EU-Parlament in der jetzigen Form als Demokratie-Placebo eh nicht viel taugt, da es keine eigenen Gesetzesvorschläge einbringen darf ;).
neuer Artikel |
ATI Radeon X1900 XT/XTX Review
Mit dem R580-Grafikchip und der darauf basierenden Radeon X1900 Grafikkarten-Serie stellte ATI am 24. Januar den Refresh-Chip des R520 (Radeon X1800 Serie) vor. Mit den neuen Grafikkarten gelang es ATI gemäß der seinerzeitigen Artikel, den absoluten Performance-Thron wieder von nVidia zurückzuerobern, welcher kurzzeitig von der (allerdings seinerzeit kaum lieferbaren) GeForce 7800 GTX 512MB besetzt wurde. Daß wir zum Launch-Zeitpunkt keine eigenen Benchmarks zur Radeon X1900 Serie anbieten konnten, wollen wir nun heute mit diesem Artikel ausbessern ... zum Artikel
News des 1. März 2006 |
Wir bitten um Entschuldigung für den mehrtägigen News-Ausfall. Dieser war geschuldet der Arbeit an dem schon des längeren versprochenen Vergleichsartikel Radeon X1900 XT/XTX gegen GeForce 7800 GTX. Jener Artikel ist nun aber in den letzten Tagen weitgehend fertiggestellt worden, muß noch hier und da verfeinert und gegengelesen werden, steht aber ansonsten zu einer Veröffentlichung irgendwann am Nachmittag des Donnerstags an.
Zum G71 Refresh-Chip seitens nVidia haben wir bisher klar die Auffassung vertreten, daß dieser mit satten 32 Rendering-Pipelines antreten würde. Nachdem wir nun aber neue Dokumente vorliegen haben, müssen wir diese Ansicht jedoch revidieren und können sicher sagen: Der G71-Chip hat nur 24 Rendering-Pipelines. Vom prinzipiellen Aufbau scheint der Chip mit 24 Rendering-Pipelines, 16 ROPs, 8 Vertexshader- und 24 Pixelshader-Einheiten an einem 256bittigen DDR-Speicherinterface damit unverändert zum Vorgänger G70, wobei wir natürlich derzeit nicht sagen können, ob nVidia nicht eventuell an den Innereinen des Chips gefeilt hat. Der einzige wesentliche Unterschied zwischen G70 und G71 liegt somit in der Fertigung: Während der G70 in TSMCs 110nm Prozeß hergestellt wird, kommt der G71 bereits im 90nm low-k Prozeß desselben Herstellers an, was für höhere erreichbare Taktraten sorgen sollte ...
... Dies resultiert dann in den Taktraten von 650/800 MHz bei der GeForce 7900 GTX und von 450/660 MHz bei der GeForce 7900 GT, welche im übrigen auch über dieselben 24 Rendering-Pipelines verfügen wird wie die große Variante. Allerdings besteht noch ein Unterschied bezüglich der Speicherbestückung von GeForce 7900 GTX und GT: Während erstere mit 512 MB daherkommt, wird es die kleinere Version nur mit 256 MB Grafikkarten-Speicher geben. Anzumerken wäre noch, daß nVidia den Unterschied zwischen dem Takt der Geometrie-Einheiten und dem Takt des restlichen Chips beim G71-Chip anscheinend ausweitet: Waren es beim G70 noch 40 MHz Differenz, sollen es beim G71 nunmehr 75 MHz Differenz sein - dies führt auch zu der hier festgestellten höheren Geometrie-Leistung, ohne das der G71-Chip jedoch wirklich eine höhere Anzahl an Vertexshader-Einheiten hätte ...
... Und letztlich liegt uns noch eine sichere Information zur Mainstream-Lösung GeForce 7600 GT vor. Danach kommt diese G73-basierende Karte mit 12 Rendering-Pipelines an einem 128bittigen DDR-Speicherinterface daher, insofern kann man wohl auch von 12 insgesamt vorhandenen Pixelshader-Einheiten bei einer noch unbekannten Anzahl an Vertexshader-Einheiten ausgehen. Die Taktraten der Karten liegen bei 560/700 MHz, ausgeliefert werden wird diese als 256-MB-Version. Note: Die vorstehend zu GeForce 7900 GTX und GT sowie GeForce 7600 GT angegebenen Daten über Anzahl der Pixel-Pipelines, Speicherinterface, Speicherbestückung und Taktraten (außer: Geometrie-Takt) entstammen aus einem uns vorliegenden Dokument eines Herstellers dieser Karten und können somit als ziemlich gesichert betrachtet werden.
Bei DailyTech hat man auf die Frage, ob denn nun die neuen Grafikkarten der ATI Radeon X1000 Serie HDCP-ready eine offizielle wie auch eindeutige Antwort seitens ATI bekommen: ATI hat seine Chips HDCP-ready gemacht, womit es den Boardherstellern möglich ist, HDCP-ready Grafikkarten zu bauen. Dafür sind jedoch neben dem HDCP-ready Grafikchip auch noch andere Komponenten erforderlich, so daß ein HDCP-ready Grafikchip allein noch keine HDCP-ready Grafikkarte ergibt. Ganz offensichtlich haben einige Händler in den Vereinigten Staaten diverse neue ATI-Grafikkarte nämlich als HDCP-ready offeriert, was allerdings auf die gesamte Karte gesehen nicht zutreffend ist und damit sicherlich noch für einige Verärgerung bei der Kundschaft führen dürfte ...
... Allerdings sind die Aussagen seitens ATI auch noch nicht ganz vollständig: Denn rein Grafikchip-seitig ist unseres Wissens nach schon der R300 (Radeon 9700 Pro) HDCP-fähig (auf nVidia-Seite ab dem NV40 aka GeForce 6800 Ultra). Die eigentliche Neuerung bei der Radeon X1000 Serie war es, daß die meisten Grafikkarten schon seitens des Referenzdesigns von ATI mit HDMI-Port geplant wurden, dem DVI-Port mit HDCP-Verschlüsselung. Dies ist aber eher ein Feature der Boardhersteller, welches noch dazu nicht zwingend umgesetzt werden muß - so gibt es Radeon X1000 Grafikkarten mit HDMI, und auch welche ohne HDMI. Doch zur vollständigen HDCP-Kompatibilität fehlt letztlich noch eine dritte und entscheidende Komponente: Und das ist ein extra HDCP-Chip, welcher irgendwo auf dem Grafikboard untergebracht werden müsste ...
... Das dies bisher noch kein Grafikkarten-Hersteller auf irgendeiner Grafikkarte getan hat, ist diesen jedoch nicht anzulasten: Jener extra HDCP-Chip verwaltet den AACS-Kopierschutz - und da dieser bis vor kurzem nicht final spezifiziert war, konnten die Grafikkarten-Hersteller schlicht keine entsprechenden HDCP-fähigen Karten bauen. Doch wie schon in den News des letzten Donnerstags genannt, geht AACS nun mit einer Interims-Version ins Rennen, mit der Verzögerung von einigen Wochen sollte der Bau von vollständig HDCP-fähigen Grafikkarten, die dieses Logo dann auch zu Recht tragen können, möglich sein. Wiederum bei DailyTech gibt es schon einmal ein erstes Muster einer entsprechenden voll HDCP-fähigen ATI-Grafikkarte zu sehen, auch wenn es sich hierbei scheinbar nur um eine LowCost-Grafikkarte für den OEM-Markt handelt.
Bei Matrox hat man sich mal wieder etwas ganz neues ausgedacht: Die RGU aka Remote Graphics Unit ;). Wie 3DChips (mit Bild) berichten, handelt es sich dabei schlicht um einen gewöhnlichen Grafikchip, nur daß dieser aus dem normalen PC-System mittels einer Glasfaser-Anbindung ausgelagert wird und somit bis zu 250 Meter weit weg von der CPU und den anderen Systemkomponenten seinen Dienst tun kann. Interessant dürfte dies natürlich nur für professionellen Anwendungen sein, aber hübsch ist die Idee trotzdem. Und ganz nebenbei zeigt Matrox mit dieser Innovation, daß es das Unternehmen weiterhin gibt - zwar nicht mehr (wie früher) mit einem Standbein im Gamer-Markt, dafür aber um so fester im Markt der Spezial-Lösungen für das Business-Segment.
Von einem anderen Veteranen des 3D-Geschäfts hört man dagegen keine positive Kunde: Wie u.a. Golem berichten, steigt 3Dlabs aus dem Geschäft mit PC-Grafikchips komplett aus und wird sich zukünftig - wie auch schon die Bitboys und PowerVR - auf Grafikchips für Kleingeräte wie Handhelds etc. konzentrieren. Damit verliert der Markt einen weiteren alteingesessenen Entwickler, der zwar nur selten etwas für den Consumer-Markt getan hat, aber dennoch lange Zeit zumindestens im Markt der professionellen Grafikbeschleuniger sehr aktiv war. Allerdings war von 3Dlabs zuletzt sowieso kaum noch etwas zu hören, das technisch hochinteressante P10-Projekt von anno 2002 war das letzte große Achtungszeichen, war seiner Zeit aber wohl zu weit voraus (und ist es immer noch). Allerdings könnte es durchaus passieren, daß einige der 3Dlabs-Ingenieure nun bei den verbliebenen Playern im Markt der PC-Grafikchips anheuern und damit einige 3Dlabs-Ideen weiterleben werden.