News-Archiv 5. - 11. Juni 2006 (23. Kalenderwoche)
10./11. Juni 9. Juni 8. Juni 7. Juni 6. Juni 5. Juni
News des 10./11. Juni 2006 |
Die HardwareZone hat den scheinbar ersten Test der GeForce 7950 GX2 auf Quad-SLI abgeliefert. Zum Einsatz kam dabei der Beta-Treiber 91.27, in welchem die Unterstützung von Quad-SLI auf der GeForce 7950 GX2 noch aktiv ist - "noch" deshalb, weil der GeForce 7950 GX2 eigentlich die Treiber-Version 91.29 mitgegeben wird, nVidia dementsprechend den Quad-SLI Support nachträglich deaktiviert hat. Wie schon berichtet, wird der offizielle Support von Quad-SLI erst zum Ende des Sommers kommen, bis zu diesem Zeitpunkt wird Quad-SLI auf der GeForce 7950 GX2 also nur mit dem vorgenannten Beta-Treiber möglich sein, welcher mit der Zeit natürlich unmodern werden dürfte - insgesamt also keine Situation, in welcher man unbedingt zu diesem Weg raten kann ...
... Davon abgesehen fiel die Performance dieses Quad-SLI Gespanns überraschend gut aus - gerade, wenn man an die ersten Testberichte zu Quad-SLI auf der GeForce 7900 GX2 zurückdenkt, welche da oftmals kaum schneller war als ein reguläres SLI-Gespann aus zwei GeForce 7900 GTX Karten war. Heuer nun rennt Quad-SLI auf zwei GeForce 7950 GX2 Karten der einzelnen GeForce 7950 GX2 unter F.E.A.R. wie auch Riddick um satte 69 Prozent davon - unter Quake limitiert dagegen schon wieder die CPU selbst bei 4x Anti-Aliasing samt einem 8x anisotropen Filter. Erst unter 8xS Anti-Aliasing geht es hier für Quad-SLI so richtig los, dann kommt aber auch wieder ein Performance-Unterschied von 68 Prozent heraus ...
... Gegenüber einem regulären SLI-Gespann aus zwei GeForce 7900 GTX Karten braucht sich Quad-SLI auf Basis zweier GeForce 7950 GX2 Karten also nicht mehr zu verstecken: Unter F.E.A.R. und Riddick sind es unter 4xAA samt 8xAF 38 Prozent, unter Quake 4 bei wiederum 8xAA samt 8xAF dann 29 Prozent (Auflösungen aller vorgenannten Benchmarks: 1280x1024 und 1600x1200). Vom Preisunterschied her ist das ganz passend, der liegt nämlich bei runden 34 Prozent von Quad-SLI auf GeForce 7950 GX2 Basis gegenüber zwei GeForce 7900 GTX Karten. Allerdings verdeutlichen die Ergebnisse unter Quake 4 ebenfalls, daß man mit zunehmender Grafikkarten-Power deutlich häufiger auf Spiele treffen wird, die dann plötzlich CPU-limitiert werden - und dann würden eben auch acht parallel arbeitende Grafikchips nichts mehr nützen.
Wie Hard Tecs 4U berichten, will Intel mit der kommenden Broadwater-Chipsatzfamilie ebenfalls wieder die CrossFire MultiGrafikkarten-Technologie unterstützen. Dazu braucht es natürlich die Zustimmung von ATI, mit welchen Intel derzeit darüber verhandelt. Etwas schade ist in diesem Zusammenhang, daß die Chipsatz-Hersteller überhaupt erst bei den Grafikchip-Entwicklern um die Zustimmung für die Unterstützung von SLI bzw. CrossFire buhlen müssen, anstatt einfach das zu machen, was der Markt verlangt - und der verlangt klar nach Mainboards, welche nicht auf SLI oder CrossFire festgelegt sind, sondern wo beide MultiGrafikkarten-Technologien selbstverständlich genutzt werden können.
Wir hatten letzte Woche zu den Vorwürfen seitens der Computerbild gegenüber Microsoft berichtet, wonach der Softwarekonzern angeblich gängelnde und die journalistische Freiheit einschränkende Bedingungen denjenigen Print-Magazinen auferlegen wollte, welche die Office 2007 Beta auf ihre Heft-CDs pressen wollen. Daraufhin gab es allerdings Widerworte seitens Microsoft (verständlich), aber auch der c't, welche die Darstellung der Computerbase zum größten Teil bestritt. Zwar ist bisher immer noch nicht der originale Text des Vertragswerkes von Microsoft frei verfügbar, so daß man sich ein unabhängiges Bild machen könnte, allerdings wirft das Statement eines c't-Mitarbeiters im Heise-Forum ein wirklich neues Licht auf die Angelegenheit ...
... In diesem wurde die Vorgeschichte dargelegt, welche zum Verständnis der jeweiligen Motivation der Beteiligten von Nutzem ist: So hatte Microsoft seinerzeit beim Service Pack 2 für Windows XP ein Computermagazin (welches das wohl war?) vorrangig beliefert, womit dieses Computermagazin aufgrund der früher auf der Hef-CD veröffentlichten Software seine Auflage stark steigern konnte. Daraufhin hatten natürlich die anderen Computermagazine bei Microsoft interventiert und auf gleiche Bedingungen für alle gepocht. Ein Resultat daraus war, daß sich Microsoft auf die sichere Seiten zurückgezogen hat und seine Software nun eben nur noch nach Unterschrift unter ein ellenlanges Vertragswerk herausgibt - sicherlich Overkill, aber zumindestens derzeit noch ohne praktische Auswirkungen, wenn man diesbezüglich der c't einfach mal Glauben schenken will. Das andere Resultat darauf war die Reaktion der Computerbild, welche nun offenbar vorsätzlich Microsoft eine reinzuwürgen gedachten, da man die frühere Exklusivität nicht mehr innehat ;) ...
... Letztlich glätten sich nun sogar die Wogen bezüglich des Versuchs von Microsoft, Einfluß auf den Inhalt der entsprechenden Heft-CDs zu nehmen. Die entsprechende Vertragspassage war ja in ihrer Eindeutigkeit kaum zu überbieten, selbst wenn sie aus dem Zusammenhang gerissen worden wäre. Doch jene Passage, wonach sich Microsoft das Recht vorbehält, die Software auf der Heft-CD mit der Office 2007 Beta mitzubestimmen, hat schon ihre Richtigkeit: Allerdings bezieht sie sich nicht generell auf alle dem Heft beigelegte Software, sondern alleinig nur auf diese CD, welche die Microsoft-Software enthält (und welche nebenbei zumindest bei der c't sogar ein Microsoft-Logo ziert) - wie der c't-Mitarbeiter hier bestätigt. Die Print-Magazine lösen so etwas schlicht dadurch, eine extra CD nur für die Microsoft-Software aufzulegen - was sich für so ein großes Paket wie die Office 2007 Beta natürlich auch generell anbietet.
Shortcuts: In unserem Forum ist das Bild einer Radeon X1300 Grafikkarte zu sehen, welche für eine PCIe x1 Verbindung ausgelegt ist. Ob nutzvoll oder nicht, es ist zumindestens erst einmal eine Steckkkarte für PCIe x1 Steckplätze ;). Gleich noch einmal unser Forum berichtet über erste DDR3/1333 Speicher, die auf der Computex zu erspähen waren. Was durchaus interessant ist, schließlich takten die bisher schnellsten DDR2-Speicher gerade einmal auf 533 MHz (DDR2/1066) - hier läßt die neue Speichersorte also schon einmal die (Takt-)Muskeln spielen. Allerdings wird DDR3 - wie am Donnerstag schon erwähnt - nicht vor Mitte 2007 als Hauptspeicher in den PC-Markt kommen. Beim tecChannel gibt es einen Artikel zum Thema "Automatic Acoustic Management", sprich dem Akustik-Tuning von Festplatten laut dem (S)ATA-Standard. Neben den im Artikel genannten Tools kann man hierfür auch das Hersteller-übergreifende Programm "Silent Drive" empfehlen.
News des 9. Juni 2006 |
Daß es nVidia gelingen würde, bei der GeForce 7950 GX2 den Speichertakt gegenüber der vorherigen DualChip-Grafikkarte GeForce 7900 GX2 nochmals um 100 MHz (auf nunmehr 600 MHz) zu steigern, war sicherlich weniger zu erwarten - auch weil auf diesen Karten schließlich zwei Chips samt zweimal 512 MB Speicher auf jeweils recht beengten Verhältnissen arbeiten müssen und sich somit enge Limits bezüglich der maximal möglichen Verlustleistung ergeben. Insofern erstaunt es um so mehr, daß es seitens XFX gleich eine noch einmal ziemlich gut übertaktete GeForce 7950 GX2 gibt, welche anstatt mit den Standardtaktraten von 500/600 MHz mit 570/775 MHz antritt. Die "M570 XXX" genannte Version kommt damit schon den Taktraten einer GeForce 7900 GTX von 650/800 MHz recht nahe. Natürlich kann man auch eine reguläre GeForce 7950 GX2 Karte in diese Richtung hin zu übertakten versuchen, der Vorteil dieser XFX-Karte liegt aber selbstverständlich in der Hersteller-Garantie, welche auch für diese Übertaktung "ab Werk" gilt.
Allerdings scheint die aktuelle Übertaktungs-Offensive seitens nVidia, nachdem es mit der Protektion des Grafikchip-Entwicklers zahlreiche Karten mit teilweise deutlich angehobenen Taktraten zu kaufen gibt (insbesondere auf Basis der GeForce 7900 GT), auch in einer etwas höheren Anzahl an Reklamationsfällen zu resultieren, wie HardOCP vermelden. Dabei sind ausdrücklich nicht die regulär getakteten, sondern allein die ab Werk übertakteten Karten der GeForce 7900 Serie betroffen - dies dann aber Hersteller-übergreifend. Nach den Aussagen der Hersteller BFG, eVGA und XFX sei allerdings der Anstieg der Reklamationsquote nach wie vor überschaubar und man sieht - bis auf eVGA - keinen Grund zum direkten Handeln. Zumindestens eVGA versprach für die Zukunft aber eine bessere Qualitätskontrolle sowie einen einfacheren Reklamtionsablauf ...
... nVidia hingegen dürfte sich (wie in der Vergangenheit) diesbezüglich wieder einmal auf den Standpunkt zurückziehen, daß die jeweiligen Karten vom Grafikkarten-Hersteller schlicht zu weit übertaktet wurden. Was sicherlich nicht prinzipiell falsch ist, allerdings braucht nVidia die stark übertakteten GeForce 7900 GT Versionen faktisch für den Markt von 300 bis 400 Euro, in welchem nVidia derzeit keinerlei reguläres Angebot hat, seitens ATI aber die Radeon X1900 XT sehr gut positioniert ist. Vermutlich werden alle Hersteller diese Probleme in erster Linie auszusitzen versuchen, denn mit den stetigen Fortschritten in der Produktion dürfte die Ausfallquote auch bei den ab Werk übertakten Grafikkarten mit der Zeit ganz automatisch zurückgehen.
Wie sich der Charakter einer Nachricht verändern kann, sobald man die falschen Fachleute an die Interpretation dieser heranläßt, kann man derzeit eindrucksvoll an einem Beispiel sehen, von welchem Golem berichten: Danach will die Nachrichtenagentur Bloomberg in Erfahrung gebracht haben, daß Intel zum 23. Juli deutliche Preisenkungen von bis zu 60 Prozent plane. Je nach Fasson deutet man diese Nachricht dann in Richtung einer Gewinnwarnung für die Börsianer oder aber den Start eines Preiskampfes mit AMD. Beides trifft jedoch mitnichten zu, denn: Zum 23. Juli wird Intel schlicht die Preise seiner dann "alten" Prozessoren senken, denn zu diesem Tag stehen dann die neuen Prozessoren auf Basis der Core-Prozessorenarchitektur an ...
... Die konkreten Preissenkungen kann man beispielsweise hier nachschlagen, sie beziehen sich allesamt auf Prozessoren nach der nun auslaufenden Netburst-Architektur. Intel bereitet also - wie bisher bei jedem großen Launch üblich - den Markt nur preislich auf die Ankunft der neuen Prozessoren vor. Dies wird also weder einen (daraus resultierenden) Gewinneinbruch wie auch einen Preiskrieg gegen AMD nach sich ziehen, da die Preise der neuen Prozessoren den alten Preisen der bisherigen Prozessoren entsprechen werden. Sicherlich verkauft Intel nach dem 23. Juli die bisherigen Netburst-Prozessoren für wirklich deutlich abgesenkte Preise, allerdings werden diese Netburst-basierenden Prozessoren mit dem Markteintritt der Core-basierenden Prozessoren schließlich technologisch weitgehend uninteressant und demnächst mehr oder weniger die bisherige Rolle der Celeron-Prozessoren übernehmen.
Shortcuts: Die PC Games Hardware zeigt eine DualChip-Grafikkarte mit zwei GeForce 7600 GT Grafikchips seitens Galaxy. Wie schon bei den bisherigen diesbezüglichen Angeboten (vor allem auf Basis der GeForce 7800 GT) darf hier aber ernsthaft die Sinnfrage gestellt werden, da in den allermeisten Fällen der Griff zu einer gleichpreisigen SingleChip-Karte für etwas mehr Performance (samt besserer Aufrüstbarkeit) steht. Laut The Inquirer will nVidia den Quad-SLI Treiber für die GeForce 7950 GX2 leider erst zum Ende des Sommers (was ein durchaus dehnbarer Begriff ist) veröffentlichen. Allerdings soll Quad-SLI auf der GeForce 7950 GX2 auch jetzt schon mittels des Beta-Treibers 91.27 möglich sein ...
... Laut Informationen seitens Bit-Tech könnte der Starttermin von Intels Conroe Desktop-Prozessoren aus der neuen Core-Prozessorenarchitektur für den 23. Juli nur den Verkaufsstart für OEM-Systeme bedeuten, die Auslieferung für den Retail-Markt dagegen erst im September starten. Die aktuell mal wieder aufgeflammten Gerüchte über einen Zusammenschluß von AMD und ATI nimmt Intel laut einer Meldung von TweakTown ziemlich ernst und berät schon über mögliche Gegenmaßnahmen. Die sehen hoffentlich kein Zusammengehen von Intel und nVidia - was gemäß eines weiteren Gerüchts seitens NGOHQ sowieso nicht im eigentlichen Sinne von nVidia sein sollen: Danach will der Grafikchip-Entwickler angeblich (!) langfristig in den Prozessoren-Markt einsteigen.
News des 8. Juni 2006 |
DailyTech haben ein paar neue Informationen über weitere in der näheren Zukunft anstehende ATI-Grafikchips. So werden für August/September die Chips RV505, RV560 und RV570 erwartet. Beim RV505 handelt es sich um einen neuen LowCost-Chip, welcher allerdings von der Positionierung her der bisherigen Radeon X1300 Serie gleicht. Wahrscheinlich wird ATI mit dem RV505 die bisher auf Basis des RV515-Chips hergestellte Radeon X1300 also "nur" mit einer neuen Chip-Basis ausstatten. Der Hauptgrund für diesen Schritt dürfte allein bei der Kostenseite zu suchen sein, denn der RV505 soll in der Produktion etwas günstiger sein als der RV515 - auch wenn bis jetzt immer noch nicht klar ist, ob ATI nun seine 80nm-Pläne umsetzen kann oder ob die neuen Chips dann doch noch einmal in 90nm daherkommen ...
... Daneben wäre noch zu erwähnen, daß ATI hier ebenfalls noch einen RV506-Chip in Vorbereitung hat, dieser soll im Gegensatz zum RV505 von TSMC-Konkurrent UMC gefertigt werden, was ATI preisliche Verhandlungsspielräume gegenüber beiden Chipfertigern gibt und außerdem das Risiko einer der Nachfrage nicht hinterherkommenden Chipproduktion bei diesen beiden perspektivisch millionenfach hergestellten LowCost-Chips mindert. Desweiteren nennen DailyTech einen "RV515 Pro", wobei diese Bezeichnung etwas schwierig zu deuten ist, denn eigentlich sollte die Radeon X1300 Pro schon unter dieser laufen. Zudem erscheint es uns als etwas unwahrscheinlich, daß ATI den RV515-Chip nochmals (das "Pro" deutlich schließlich darauf hin) mit mehr Takt ausliefert, immerhin taktet vorgenannte Radeon X1300 Pro mit 600 MHz Chiptakt für eine LowCost-Karte schon ausgesprochen hoch ...
... Der nächste genannte Chip ist der RV560, welcher resultierend in der Radeon X1700 Serie die Ablösung für die Radeon X1600 Serie darstellen soll. Als technische Daten wurden hier ein 128bittiges DDR-Speicherinterface sowie die Taktraten von 450/650 MHz genannt, Angaben zu den Rendering-Pipelines und der Anzahl der Shader-Einheiten fehlen allerdings. Da jedoch von der Chip-Taktrate schon eine Radeon X1600 Pro hierbei mithalten kann, ist schwer davon auszugehen, daß der RV560-Chip mehr Rendering-Pipelines aufweist als der bei der Radeon X1600 Serie zum Einsatz kommende RV530-Chip. Wie viele es genau sind, ist derzeit aber immer noch eine offene Frage: 12 Rendering-Pipelines wären defintiv schön, sind aber derzeit nicht wirklich sicher ...
... Sicher soll hingegen sein, daß Grafikkarten auf Basis des RV560 sowohl in PCI Express als auch in AGP-Bauform geben wird - ob sich allerdings damit die letzten ATI-Angebote unter AGP in Form der Radeon X850 XT-PE (immerhin 16 Rendering-Pipelines und 256bittiges Speicherinterface!) schlagen lassen, wird man sehen müssen. Neben dem RV560 soll es zudem noch den RV570-Chip geben - welcher allerdings unserer Meinung nach ein und derselbe Chip ist. Denn laut DailyTech sollen RV560 und RV570 bis auf das Speicherinterface vollkommen identisch sein: Beim RV560 ist es ein 128bittiges und beim RV570 ein 256bittiges DDR-Interface. Da es sich kaum lohnen dürfte, ansonsten gleiche Chips nur wegen differiernder Speicherinterfaces extra zu produzieren, dürfte ATI den RV560-Chip wohl aus der RV570-Produktion gewinnen: Ein RV570 mit hälftig deaktiviertem Speicherinterface ergibt dann einfach einen RV560 ...
... Beim RV570 soll es dann zwei Versionen geben: Eine Standard-Version und eine bislang "RV570XL" genannte und sehr hoch getaktete Version. Letztere soll angeblich beim Chiptakt 600 MHz und beim Speichertakt 1100 - anscheinend physikalische - MHz erreichen (hier dürfte wohl schon GDDR4 zum Einsatz kommen), was für einen Mainstream-Grafikchip - auch angesichts des 256bittigen Speicherinterfaces - schon ausgesprochen viel wäre. Sollte der RV570XL dann auch noch über 12 Rendering-Pipelines verfügen, würde dieser Chip für sicherlich viele User ein interessantes Angebot darstellen. Und letztlich gibt es noch ein paar Worte zu den kommenden HighEnd-Projekten von ATI: Zum R580+ soll es Samples gar erst zum Jahresende geben. Dies dürfte dann dementsprechend auch die Chance drücken, daß der NextGen-Chip R600 noch dieses Jahr ausgeliefert werden wird.
Die kürzlich wieder einmal aufgetauchten Gerüchte, die Prozessoren-Hersteller wollten sich mit jeweils einem der Grafikchip-Entwickler verbünden, wurden nun zumindestens bezüglich AMD - erneut - ins Reich der Fabeln verwiesen, wie Hard Tecs 4U berichten. Alle Jahre wird es wieder einmal aufgekocht, daß AMD oder Intel jeweils entweder ATI oder nVidia übernehmen wollten - was hoffentlich auch für alle Zeiten ein Gerücht bleiben mag. Denn in der Situation, daß einer der Prozessorenhersteller einen der Grafikchip-Entwickler übernimmt, wäre insbesondere der andere Grafikchip-Entwickler schon fast gewzungen, seinerseits mit dem übrig bleibenden Prozessorenhersteller zusammenzugehen. Die Folge wäre dann eine Situation, in welcher die Konkurrenz auf dem Grafikchip-Markt nur noch indirekt wäre, sich der komplette Markt dann inklusive den Grafiklösungen nur noch in Intel und AMD unterteilen würde.
Der Heise Newsticker berichtet von ersten auf der Computex zu sehenden DDR3-Speichermodulen. Allerdings wird DDR3 nicht so fix in den Markt kommen: Bei Intel wird es die DDR3-Unterstützung erst Mitte nächsten Jahres geben, bei AMD dürfte es kaum früher, sondern eher denn noch später werden. Nebenbei: In dem Punkt, daß GDDR3-Speicher auf DDR3-Chips basieren solle, irrt der Heise Newsticker. GDDR3 basiert ebenso wie GDDR2 noch auf der DDR2-Speichertechnologie, wo im Gegensatz zu DDR1 die Speicherzellen nur mit der Hälfte des Nominaltaktes laufen. Bei DDR3 werden dann dagegen die Speicherzellen nur noch mit einem Viertel des Nominaltaktes betrieben. Wahrscheinlich basiert aber das nun anstehende GDDR4 auf DDR3-Chips - bislang wurde diese Vermutung aber noch nirgendwo bestätigt oder sprach einer der Hersteller klare Fakten zu dieser Frage aus.
News des 7. Juni 2006 |
Wie u.a. der Heise Newsticker berichtet, hat sich ATI auf der Computex nun endlich auch zum Thema Physik-Beschleunigung (auf Grafikkarten) zu Wort gemeldet. Wie auch nVidia setzt ATI dabei prinzipiell auf die neuen Physikengine "Havok FX", was dieser wohl entscheidende Vorteile bezüglich der Marktdurchdringung gegenüber dem Konzept von Ageias PhysX geben dürfte. Ebenfalls wie nVidia sieht auch ATI die Physikberechnung auf Grafikkarten primär als Sache von MultiGrafikkarten-Systemen an. Allerdings präsentierte man dazu auf der Computex eine wirklich seltsame Konstruktion: Zwei Radeon X1900 XT Karten berechneten hierbei die Grafik - und eine Radeon X1600 war für die Physikberechnung zuständig ...
... Allerdings ist dieses faktische Dreifach-CrossFire alleinig nur bei Physikberechnungen möglich - die dritte Grafikkarte mit an der Grafik rechnen zu lassen, ist derzeit nicht vorgesehen. Zudem dürfte nur eine gewisse Anzahl an Mainboards über einen weiteren PCI Express x4 Slot (oder besser) für die Aufnahme der dritten Grafikkarte verfügen. Im Fall des Falles aber kann sich ATI um eine ganze Dimension vor nVidia plazieren: Denn dort geht die zweite Grafikkarte eines SLI-Systems vollständig für die Physikberechnung drauf, während bei ATIs Dreifach-CrossFire weiterhin zwei Grafikkarten an der eigentlichen Grafik rechnen ...
... Interessant ist auch, daß laut ATI bereits eine Mainstream-Grafikkarte vom Schlage einer Radeon X1600 ausreichen soll, um - Angabe seitens ATI - die Rechenleistung einer Ageia PhysX-Karte zu übertreffen. Natürlich muß dies erst durch unabhängige Tests verifiziert werden, aber zumindestens vom Preispunkt her erscheint diese Lösung als sehr attraktiv, sind doch Radeon X1600 Pro/XT Karten inzwischen für grob um die 100 Euro erhältlich. Und sollte die Radeon X1600 für die Physik-Berechnung wirklich so potent sein wie von ATI angegeben, würden sich diese hervorragend dafür eignen, auch einzelnen Grafikkarten als regulärer Physikbeschleuniger beigegeben zu werden - immer vorausgesetzt, man hat das passende CrossFire-Mainboard dafür ...
... Sollte dies nicht der Fall sein, gibt es aber immer noch die Möglichkeit, auch mit einer einzelnen ATI-Grafikkarte zu einer Physikbeschleunigung zu kommen: Über den Treiber ist dabei einstellbar, wieviel Ressourcen des Grafikchips man für die Grafik- und wieviel für die Physikberechnung einteilen will. Diese Option scheint es allerdings nur bei einzelnen Grafikkarten zu geben, bei mehreren Grafikkarte wird generell eine Karte voll und ganz für die Physik-Berechnungen benutzt. Ein paar Bilder und auch ein Video der ATI-Präsentation auf der Computex kann man sich im übrigen bei TweakTown zu Gemüte führen. Davon abgesehen wird es nun natürlich spannend, was nVidia weiterhin konkretes zum Thema zu sagen hat - und wann es denn nun losgeht mit der Havol FX Engine.
Laut The Inquirer kam von der E3 das Gerücht, Intel wolle wieder in den Markt der Gaming-Grafikchips einsteigen. Zu Zeiten von 3dfx Voodoo2 und nVidia Riva TNT 1/2 hatte der Prozessorenhersteller sich schon einmal in diesem Markt versucht - zuerst mit dem i740-Chipsatz und später mit dem i752. Doch beide Chips lagen sowohl von den 3D-Features als auch von der Performance her um einiges hinter der seinerzeitigen Konkurenz zurück und wurden dementsprechend in erster Linie auf LowCost-Grafikkarten verbaut und verschwanden nach rund zweijährigem Gastspiel dann auch schon wieder vom Markt. Ob Intel nun heuer wieder zurückkommt, ist derzeit schwerlich einzuschätzen - aber zumindestens wäre es ein ähnliches Abenteuer wie schon seinerzeit ...
... Denn von den 3D-Features her mag heutzutage aufgrund der DirectX-Versionen zwar größere Klarheit als damals herrschen, den integrierteren Grafikchips von Intel (GMA900 und GMA950) fehlen aber dennoch einige Feature, um mit den "echten" Grafikchips mithalten zu können - in erster Linie sind dies anisotroper Filter wie auch Anti-Aliasing. Und so etwas zaubert man auch nicht mal ebenso aus dem Hut, denn selbst wenn die prinzipielle Technik hierbei auf bekannten mathematischen Formeln beruht, so kommt doch die Performance vornehmlich aus jahrelanger Optimierungsarbeit von hunderten Software-Ingenieuren - was Intel keineswegs mal so aus dem Handgelenk schütteln könnte, wie im übrigen auch an den diesbezüglichen Bemühungen von S3 und XGI zu sehen ...
... Intels Hauptproblem beim Grafikchip-Markt dürfte aber noch nicht einmal der schwierige Wieder-Einstieg, sondern vor allem die extrem kurzen Zyklen sein: Auch wenn wirklich neue Architekturen in letzter Zeit nicht mehr jedes Jahr kommen, so haben ATI und nVidia durch vermehrten Einsatz von Refresh-Chips weiterhin die 6-Monate-Marke für jeweils neue Produkte eingehalten. Um dieses Tempo mithalten zu können, wäre Intel allerdings gezwungen, sich eine Grafikchip-Abteilung zu halten, welche in ihrer Größe den Firmen ATI und nVidia nahekommt, sowie auch mit entsprechenden Entwicklungskosten samt zusätzlichen Anlaufkosten zu kalkulieren. Dies hätte dann aber schon einen erheblichen Einfluß auf die Bilanzen von Intel, womit die ganze Angelegenheit noch unwahrscheinlicher wird. Eine kleine Chance gibt es aber dennoch: Möglicherweise könnte Intel versuchen, alleinig nur im LowCost-Markt mitzumischen ...
... Hierbei würde eine aufgebohrte Version der integrierten Grafikchips von Intel ausreichen (einfach die doppelte oder dreifache Pipeline-Anzahl, dürfte entwicklungstechnisch mit recht geringen Zusatzkosten realisierbar sein), deren Limitierungen bezüglich 3D-Features wären im LowCost-Markt nicht besonders tragisch. Zudem bräuchte Intel für diesen Markt nicht zwingend die aus Benchmark-Erfolgen von HighEnd-Grafikchips resultierende gute PR, weil diese Chips vorwiegend an die OEM-Kundschaft verkauft werden, welche zum einen eher über den Preis anzusprechen ist und zum anderen - großer Vorteil - Intel über die Gespräche bezüglich CPU und Chipsatz ja sowieso schon am Verhandlungstisch sitzen hat. Bislang ist dies alles aber natürlich rein im Reich der Spekulationen anzusiedeln, griffige Informationen hierzu gibt es noch keine.
News des 6. Juni 2006 |
Ein paar Dinge gibt es zum Launch der nVidia GeForce 7950 GX2 noch nachzutragen: Erstens einmal handelt es sich um eine doch gegenüber der bisherigen GeForce 7900 GX2 abweichende Grafikkarte, da die Taktraten ersterer nun 600/600 MHz betragen, die Taktraten das zweitgenannten älteren Karte jedoch nur bei 500/600 MHz liegen. Hieraus dürfte sich auch erklären, weshalb die GeForce 7950 GX2 so gut gegenüber einem SLI-Gespann aus zwei GeForce 7900 GT Grafikkarten abschneidet: Man hat schlicht einen nicht unerheblichen Vorteil beim Chip-Takt gegenüber dieser nur mit 450/660 MHz antretenden Karte, der Nachteil beim Speichertakt ist durch die Verdopplung durch SLI in diesem Fall dagegen deutlich zweitrangig Update: Dies ist nicht korrekt, auch die GeForce 7950 GX2 taktet regulär weiterhin mit 500/600 MHz ...
... Preislich ist die GeForce 7950 GX2 bei den derzeitigen Straßenpreisen von 550 Euro dann besonders gegenüber einem SLI-Gespann aus zwei GeForce 7900 GT Grafikkarten ein unschlagbares Angebot, da letztgenannte Karten in ihrer 512-MB-Edition (die GeForce 7950 GX2 trägt bekanntlich zweimal 512 MB) derzeit nicht für unter 290 Euro zu bekommen sind und damit trotz etwas schwächerer Leistung etwas teurer in der Anschaffung sind. Desweiteren hat sich der Punkt der zukünftigen Quad-SLI Fähigkeit der GeForce 7950 GX2 inzwischen dahingehend geklärt, daß auch schon aktuel verkaufte GeForce 7950 GX2 Karten mit dem richtigen Beta-Treiber Quad-SLI beherrschen. Hier dürfte es sich also nunmehr nur um eine Frage der Zeit handeln, wann nVidia dieses Feature auch für die GeForce 7950 GX2 offiziell freischaltet ...
... Und letztlich bringt die GeForce 7950 GX2 als bisher einzige HighEnd-Karte volle HDCP-Kompatibilität mit sich - d.h. der Grafikchip unterstützt HDCP, es befindet sich auf dem Grafikboard ein kleiner HDCP-Baustein mit dem entsprechenden HDCP-Schlüssel und letztlich ist der digitale Ausgang mittels HDCP abgesichert, meist realisiert mittels einer HDMI-Schnittstelle. Prinzipiell ist dies zwar auch schon bei den bisherigen HighEnd-Karten möglich, wurde aber bisher von keinem der Grafikkarten-Hersteller umgesetzt. Bei der GeForce 7950 GX2 plante nVidia den HDCP-Schlüssel sowie den HDMI-Ausgang gleich beim Referenzdesign mit ein, so daß man davon ausgehen kann, daß alle am Markt erhältlichen GeForce 7950 GX2 Karten vollständig HDCP-kompatibel sein werden.
Der Heise Newsticker berichtet von der Computex zum einen über Intels demnächst anstehenden neue Chipsatz-Generation namens "Broadwater", zum anderen aber auch über nVidias nForce 500 Chipsätze, die nun auch für Intel-Prozessoren verfügbar werden. Die Intel-Editionen des nForce 500 beherrschen dabei natürlich auch schon den Support der kommenden Prozessoren aus der Core-Prozessorenarchitektur. Gleiches können von sich derzeit nur brandaktuelle i975X-Mainboards sagen - allerdings ist es schwer festzustellen, welches i975X-Mainboard nun Core-fest ist und welches nicht. Dies ist primär eine Frage der richtigen Prozessorspannungen bzw. ob das Mainboard spät genug gebaut wurde, damit der Mainboard-Hersteller die Anforderungen der Core-Prozessoren noch mit berücksichtigen konnte. Gerüchterweise sollen i975X-Platinen mit Baudatum ab diesem April schon Core-fähig sein, sicher geht man jedoch nur, wenn man in einem solchen Fall mit "seinem" Mainboard-Hersteller Rücksprache hält.
AnandTech berichten ebenfalls von der Computex in Taiwan, welche heute startet: So sollen die kommenden Direct3D10-Grafikkarten nunmehr nicht vor Jahresende zu erwarten sein, was wohl auch eine Reaktion auf den immer wieder verschobenen Start von Windows Vista darstellen dürfte. Interessanterweise sollen die neuen Grafikkarten um die Chips ATI R600 und nVidia G80 zwischen 130 und 300 Watt Leistung verbrauchen - hier lohnt es sich schon, der Grafikkarte künftig immer ein extra Netzteil beizulegen ;). Die Hersteller von Netzteilen scheinen aber schon auf diese Situation zu reagieren: Zum einen wird es in Zukunft verstärkt Netzteile mit über 1000 Watt Nennleistung geben, andererseits gab es aber auch schon ein Zusatznetzteil für den 5¼-Zoll-Slot zu bestaunen.
Wie der Heise Newsticker berichtet, hat Toshiba ein Firmware-Update für seine ersten HD-DVD Player herausgegeben, welches einige Ungereihmtheiten ausbügelt. Bei dieser Gelegenheit ging der Heise Newsticker aber gleichzeitig einmal auf - aus unserer Sicht - prinzipielle Unstimmigkeiten von HD-DVD ein (welche vermutlich aber ebenso auch bei Blu-Ray vorliegen): Und zwar hält man sich dabei offensichtlich nicht streng an die Regel, möglichst mit den Formaten des Ausgangsmaterials zu arbeiten und verliert somit Bildqualität durch die Umrechnung von Einzelbildern. Konkret geht es darum, daß auf in den USA vertriebenen HD-DVDs 24 Bilder pro Sekunde gespeichert sind, die Player von Toshiba diese jedoch mit 30 Bildern pro Sekunde ausgeben und zu diesem Zweck zusätzliche Bilder in den Film "einarbeiten", was sich jedoch anscheinend in Rucklern bei der Wiedergabe äußert ...
... An dieser Stelle erstaunt es, daß gerade bei einem neuen Format wie HD-DVD bzw. Blu-Ray nicht gleich Nägel mit Köpfen gemacht und mit einer generell höheren Anzahl an Bildern pro Sekunde gearbeitet wurde. Dieses ist schließlich aufgrund der heutigen digitalen Kameratechnik absolut kein Problem mehr. Gerade im Zuge der Qualitätsoffensive durch HD-DVD und Blu-Ray sollte dieser uralte 24-fps-Standard langsam aber sicher einmal über Bord geworfen werden - gerade im Kino auf großen Leinwänden sieht der geübte Egoshooter-Spieler ;) die zu geringe Bildanzahl doch teilweise recht deutlich. Und bei den momentan immer größer werdender Fernsehgeräte oder gar Home-Cinema-Anlagen sollte man diese Lücke bei der Bildqualität doch eher heute als morgen schließen - an der zur Verfügung stehenden Speicherkapazität kann es angesichts von HD-DVD und Blu-Ray jedenfalls kaum liegen. Aber womöglich will man diesen Punkt derzeit auch bewußt noch gar nicht angehen - schließlich will in einigen Jahren ja dann auch noch die mit Sicherheit anstehende Nachfolgetechnologie mit entsprechender Argumentation an den Konsumenten und die Konsumentin gebracht werden ;).
neuer Artikel |
Zum Launch der GeForce 7950 GX2
Mit der Vorstellung der GeForce 7950 GX2 hat nVidia erstaunlicherweise keine weitere für Quad-SLI bestimmte Grafikkarte in den Markt gebracht, sondern attakiert damit die bisherigen Performance-Spitzenreiter im HighEnd-Markt, GeForce 7900 GTX und Radeon X1900 XTX. Die GeForce 7950 GX2 ist somit derzeit in erster Linie als neues Single-Angebot zu betrachten, was den HighEnd-Markt etwas unerwartet doch wieder umkrempelt. Unser Artikel geht in dabei in aller Kürze auf die Besonderheiten der GeForce 7950 GX2 ein, begleitet das Launch-Geschehen sowie liefert daneben auch eine aktualisierte Liste des momentanen Grafikchip-Lineups von ATI und nVidia für das Mainstream- und HighEnd-Segment ... zum Artikel
News des 5. Juni 2006 |
Mit dem heutigen Nachmittag entläßt nVidia nun endlich die GeForce 7950 GX2 in die freie Wildbahn - und damit überraschenderweise jedoch nicht Quad-SLI. Denn zwar handelt es sich bei der GeForce 7950 GX2, zu welcher derzeit erste Artikel eintrudeln, um die erwartete Re-Inkarnation der für Quad-SLI genutzten GeForce 7900 GX2 (die 7950 ist nur schlicht kürzer und damit besser kompatibel zu den meisten Gehäusen), die GeForce 7950 GX2 selber ist jedoch derzeit nicht für Quad-SLI freigegeben. Hier haben anscheinend die großen PC-Bauer bei nVidia erfolgreich interveniert (und ein von The Inquirer in die Welt gesetztes Gerücht stimmte ausnahmsweise ;) mal), so daß Quad-SLI noch für eine gewisse, derzeit unbestimmte Weile den PC-Bauern vorbehalten sein wird ...
... Die spannendste Frage hieran ist natürlich, ob eventuell jetzt gekaufte GeForce 7950 GX2 Karten mittels eines späteren Treibers die Fähigkeit zu Quad-SLI erhalten - oder ob dann wieder ein Neukauf fällig wäre. In dieser Frage konnte allerdings keiner der bisherigen Testberichte Aufklärung geben, eine Antwort muß somit verschoben werden. Für den Moment handelt es sich bei der GeForce 7950 GX2 somit schlicht um eine Grafikkarte mit "SLI on Board" - nur eben mit zwei GeForce 7900 GT Grafikchips und damit in Performance-Regionen noch überhalb der GeForce 7900 GTX vorstossend. Allerdings hat die GeForce 7950 GX2 gegenüber bisherigen DualChip-Grafikkarten einen entscheidenen Vorteil: Sie ist nicht auf ein SLI- oder auch nur ein nVidia-Mainboard angewiesen ...
... Damit weist nVidia natürlich praktisch nach, was theoretisch schon des längerem bekannt ist: DualChip-Grafikkarten benötigen keine SLI-Mainboards, diese Beschränkung bisheriger DualChip-Grafikkarten ist allein eine Absatzankurbelungs-Strategie für SLI-fähige Mainboard-Chipsätze (welche noch dazu unnötig ist, da man angesichts des doch geringen Preisunterschieds zwischen SLI-fähigen und nicht SLI-fähigen Mainboards generell besser zu letzterem greift, selbst wenn man aktuell kein SLI-System plant). Für die GeForce 7950 GX2 ergibt sich aus diesem Umstand jedoch zusätzlich die Situation, mehr wie eine reguläre Grafikkarte daherzukommen - und damit faktisch das neue Top-Angebot von nVidia im HighEnd-Markt darzustellen ...
... Ganz besonders aufgrund des erstaunlich niedrig angesetzten Preispunktes (für dieses Hardware-Angebot!) von vom Start weg unter 550 Euro Straßenpreis geht die GeForce 7950 GX2 somit in direkte Konkurrenz zu GeForce 7900 GTX und Radeon X1900 XTX. Zwar kosten die beiden vorgenannten SingleChip-Grafikkarten im Schnitt 70 bis 100 Euro weniger, können jedoch von der Leistung her nicht mit der GeForce 7950 GX2 mithalten: Diese hat einen fast überall recht klaren Vorsprung vor den beiden bisherigen Top-Grafikkarten, im Schnitt sind es sogar 20 bis 30 Prozent. Wenn die GeForce 7950 GX2 wirklich für den Preispunkt von 550 Euro (oder weniger) im Handel verfügbar wird, dann wäre dies die klar bessere Lösung gegenüber GeForce 7900 GTX und Radeon X1900 XTX (gegenüber letzterer aus reiner Performance-Sicht) ...
... Bezüglich des Punktes Preis sollte man allerdings mit einem endgültigen Urteil wohl noch abwarten, bis die ersten Karten als "lieferbar" gelistet sind - denn zwischen den derzeitigen (nicht lieferbaren) Listungen von teilweise bis hinunter zu 510 Euro Straßenpreis für eine GeForce 7950 GX2 und derem offiziellen Listenpreis von 649 Dollar besteht doch schon ein erheblicher Unterschied. Auch wird man sehen müssen, wie eventuell die Preise der GeForce 7900 GTX sowie der Radeon X1900 XTX auf dieses neue nVidia-Angebot reagieren werden. Bis dahin aber stehen die Vorzeichen glänzend für die GeForce 7950 GX2, der eindeutige neue Performance-King zu einem sogar noch ansprechenden Preis/Leistungsverhältnis zu werden.
Gemäß der VR-Zone sollen die ForceWare 90 Treiber seitens nVidia die Option enthalten, Physik-Berechnungen über die Grafikkarte abzuwickeln, Bedingungen hierfür soll allerdings ein SLI-System sein. Inwiefern dann die zweite Grafikkarte komplett nur für die Physik-Berechnungen genutzt wird, ist noch nicht bekannt, wäre allerdings zumindestens bei HighEnd-Grafikkarten eine ziemliche Verschwendung. Die Einschränkung auf ein SLI-System deutet allerdings eher darauf hin, daß eine Grafikkarte nur entweder Grafik- oder Physik-Berechnungen ausführen kann - wenn eine Grafikkarte gleichzeitig beides könnte, wäre eine Beschränkung dieser Technologie auf SLI-Systeme schließlich nicht notwendig. nVidia hatte vor einiger Zeit bereits angekündigt, künftig mit dem Physikengine-Hersteller Havok an einer (freien) Physikengine namens "Havok FX" zu arbeiten, mit welcher Grafikkarten zukünftig auch die Physikberechnung übernehmen sollen.
Bei dieser Gelegenheit ein paar Worte zu den kommenden ForceWare 90 Treibern allgemein, basierend auf eigener Erfahrung mit dem 91.28er Treiber. Mit diesen Treibern wird nVidia bekanntlich auch ein neues Control Panel einführen, welches in Konkurrenz zu ATIs neuer Treiber-Optik seit dem Start des Catalyst Control Centers gehen soll. Positiverweise verzichtet nVidia dabei auf den Zwang zur Installation von .NET (der kommt mittels Windows Vista sowieso noch früh genug), aber auch ansonsten benötigt das neue nVidia Control Panel der ForceWare 90 Treiber keine andere exotische Software ;), noch wird gar (welch grässlicher Gedanke) der Internet Explorer als Oberfläche zweckentfremdet ...
... Offensichtlich hat nVidia hier selber in die Tasten gehauen und dabei ein völlig eigenes Control Panel im Windows XP Style entworfen - das dann sogar noch in einen Download hineinpasst, welcher mit ca. 30 MB nicht deutlich größer ausfällt als bisherige Treiber. Ein paar Bilder des neuen Control Panels kann man sich hier anschauen, auffällig ist dabei allerdings nur, daß nVidia derzeit vornehmlich die bekannten Optionen in das neue Control Panel portiert hat, neue Optionen dort aber noch kaum zu finden sind. Allerdings scheint die aktuelle Version des neuen Control Panels noch etwas Optimimierungsbedarf bezüglich der Performance zu haben, manchmal kommt einem das Panel noch so vor, als würden da einige hundert MegaByte an Daten hinten dran hängen. Jedoch ist der Speicherverbrauch des neuen Control Panels ausgesprochen human: Runde 23 MB nach dem Laden und auch nur runde 31 MB bei der 3D-Vorschau ...
... Dabei funktioniert das ganze sogar ohne jegliche autostartende Prozesse - die gibt es zwar auch bei nVidia (nunmehr ganze vier an der Zahl), aber nach deren vollständiger Deaktivierung läßt sich das neue Conrol Panel nach wie vor problemlos aufrufen und bedienen. Einziger kleiner Haken ist derzeit noch, daß das altherkömmliche Control Panel, welches unter den Anzeige-Eigenschaften nach wie vor schlummert, ab und zu mal nicht mehr funktionieren will und dann nur noch stur auf das neue Control Panel verweist. Wir können derzeit zwar leider nicht spezifizieren, wann genau dieser Bug auftritt, aber nichts desto trotz sollte nVidia dies noch fixen - schließlich kann man zumindestens derzeit noch problemlos alle relevanten Optionen über das altherkömmliche Control Panel unter den Anzeigeeigenschaften bedienen.