News-Archiv 10. - 12. Dezember 2007 (50. Kalenderwoche)
15./16. Dezember 14. Dezember 13. Dezember 12. Dezember 11. Dezember 10. Dezember
News des 15./16. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die Radeon HD 2900 Pro war ja "seinerzeit" eine ziemlich kurzfristige Angelegenheit zum Abverkauf des R600-Grafikchips, nun ist aber eine Radeon HD 2900 Pro 256Bit aufgetaucht, hinter welcher sich eine Radeon HD 2900 Pro mit nur 256 Bit DDR breitem Speicherinterface, aber ansonsten den gleichen technischen Daten wie die übliche Radeon HD 2900 Pro verbirgt. Damit dürfte diese Karte kaum langsamer als die originale Radeon HD 2900 Pro sein, diese konnte ihr sehr breites 512 Bit DDR Speicherinterface ja auch nur höchst selten in Performance umsetzen. Zu einem Preis von ab 130 Euro ist die Radeon HD 2900 Pro 256Bit durchaus nicht uninteressant, wenigstens nach unten hin: Denn ab 120 Euro gibt es die Radeon HD 2900 GT, welche auch nur ein 256 Bit DDR Speicherinterface hat, deren R600-Chip aber auf 240 Shader-Einheiten (von 320) limitiert wird.
Angesichts des geringen Preisunterschieds wäre hier also die Radeon HD 2900 Pro 256Bit klar vorzuziehen. Auf der anderen Seite drückt von oben auch schon wieder die Radeon HD 3850 256MB zu Preisen ab 140 Euro. Diese hat dieselben technischen Daten (320 Shader-Einheiten und ein 256 Bit DDR Speicherinterface), dazu aber minimal höhere Taktraten, schon Direct3D 10.1 und PCI Express 2.0 und natürlich ihren Neuheitswert. Zudem dürfte der Stromverbrauch der Radeon HD 2900 Pro 256Bit bei satten 130 bis 150 Watt liegen, während die Radeon HD 3850 256MB auf 65 Watt zu schätzen ist. Ein kleiner Punkt spricht aber dennoch für die Radeon HD 2900 Pro 256Bit: Sie gibt es üblicherweise gleich mit 512 MB Grafikkartenspeicher, während die 512-MB-Versionen der Radeon HD 3850 gleich wieder ein Stück teuer bei ab 160 Euro angesiedelt sind.
Bei HardOCP gibt es einen ersten Mini-Test zu ATIs kommendem Hybrid-CrossFire, womit sich also extra Grafikkarte und integrierte Mainboard-Grafik zusammenschalten lassen, um entweder Strom zu sparen oder alternativ mehr Performance zu bringen. Während ersteres jederzeit unseren ungeteilten Beifall erhält, hatte zweitere Idee bislang mit Zweifeln zu kämpfen, ob die integrierte Mainboard-Grafik in einem CrossFire-Verbund überhaupt eine große Hilfe sein kann. Allem Anschein nach funktioniert dies aber - wenn auch auf niedrigem Niveau. So konnten HardOCP einen Performance-Boost von satten 50 Prozent unter Crysis mit Hybrid-CrossFire verzeichnen - gegenüber einem Vergleichswert nur mit der extra Grafikkarte.
Allerdings war diese extra Grafikkarte eine auf RV620-Basis, dem Nachfolger des RV615-Chips (Radeon HD 2400 Serie), ergo eine totale LowCost-Lösung. Daß man auf diesem niedrigen Niveau Performance-Gewinne selbst unter Zuschaltung einer integrierten Grafik erzielen kann, ist dann nicht mehr so verwunderlich - schließlich handelt es sich bei der benutzten integrierten Grafik um die des RS780-Chipsatzes, welcher einen RV615-Grafikchip in sich trägt. Sobald man das ganze allerdings mit Mainstream- oder HighEnd-Chips koppeln würde, kann schnell die zusätzlich nötige Verwaltungsarbeit den Gewinn an Rohleistung übersteigen. In einem solchen Fall kann man aber immer noch die Stromspar- und natürlich die MultiMonitoring-Features von Hybrid-CrossFire nutzen - insbesondere diese Punkte dürften Hybrid-CrossFire sowie auch nVidias kommendes Hybrid-SLI auch für den HighEnd-Markt interessant machen.
Wie der Planet 3DNow! ausführt, nennt sich AMDs Fusion-Projekt nun offiziell "Swift" und soll im zweiten Halbjahr 2009 erscheinen. Unter Fusion bzw. nunmehr Swift ist die Integration einer Grafikeinheit in den Prozessor oder wenigstens aufs Prozessor-Trägermaterial zu verstehen. Der Anwendungszweck liegt hierbei aber in erster Linie in günstigen All-in-One-Systemen und kurz- sowie mittelfristig nicht im Mainstream- und HighEnd-Bereich, womit es also auch weiterhin extra Grafikkarten geben wird. Selbst die von AMD für Swift geplante Radeon HD 3800 Grafiklösung ist gemessen am geplanten Erscheinungstermin in mehr als anderthalb Jahren auch nicht mehr als weltbewegend anzusehen - genauso wenig wie die Mainstream/Performance-Beschleuniger des ersten Halbjahres 2006 jetzt noch jemanden vom Hocker reißen.
News des 14. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Auf AMDs "2007 Financial Analyst Day" hat der CPU- und Grafikchipentwickler auch über die kommenden ATI-Grafikchips gesprochen. Mittels der dabei gezeigten Präsentationen ist nun endgültig klar, daß der R680 kein einzelner Grafikchip, sondern eine DualChip-Lösung auf Basis zweier RV670-Chip sein wird. Damit wird AMDs demnächst schnellste Grafikkarte allerdings höchstens im Preisbereich von 400 Euro zu finden sein und somit keinesfalls in Konkurrenz zu nVidias HighEnd-Modell GeForce 8800 Ultra gehen können. Hier könnte aber auch der Grund dafür liegen, daß sich nVidia letztlich bis jetzt nicht dazu gezwungen sah, ein neues Spitzenmodell aufzulegen, sondern weiterhin mit GeForce 8800 GTX und Ultra lebt.
Zusätzlich soll es zudem wie schon bekannt die Grafikchips RV635 für das Mainstream-Segment und RV620 für das LowCost-Segment geben. Der kompletten Riege der neuen ATI-Chips sind dabei die grundsätzlichen Eigenschaften des RV670-Chips gleich: PCI Express 2.0, Direct3D 10.1 und Fertigung in 55nm. Zum RV620 ist bislang schon bekannt, daß dieser recht sicher eine reine 55nm-Ausführung des RV615 (Radeon HD 2400 Serie) darstellt, sprich ohne ein Mehr an Hardware-Einheiten. Beim RV635, welcher das Erbe des RV630 (Radeon HD 2600 Serie) antreten soll, ist dies noch etwas unsicher: Denn zum einen würde ATI aufgrund der relativen Schwäche des RV630-Chips eine Aufstockung der Hardware-Einheiten sicherlich gut zu Gesicht stehen.
Aber auf der anderen Seite hat ATI nun den RV670-Chip im Performance-Segment, welcher bis in Preissregionen von 150 Euro herabreicht und braucht daher inzwischen wohl kaum eine deutlich schnellere Mainstream-Lösung, welche dann nur in eine unnötige Konkurrenz zum RV670 gehen würde. Seitens der VR-Zone wuren zwar schon ein paar technische Daten zur "Radeon HD 3600" vermeldet, diese sind derzeit aber noch wenig glaubwürdig (angeblich keine Hardware-Veränderungen zum RV630-Chip, aber dann doch mehr Textureneinheiten und nur ein höherer Speichertakt, aber kein höherer Chiptakt), hier bleibt das Prinzip "Abwarten" vorerst bestehen.
Und letztlich will ATI die neuen 55nm-Chips wohl allesamt noch für den Mobile-Bereich adaptieren, dort sollen diese dann unter jeweils eigenem Codenamen in der M8X-Familie laufen. Hierbei handelt es sich natürlich nicht um extra Chips, vielmehr werden diese Mobile-Grafikchips wie auch bei nVidia sowie AMD und Intel im Prozessoren-Bereich der normalen Produktion entnommen, nachdem die produktionsinterne Prüfung ergeben hat, daß sie auch mit besonders niedrigen Spannungen zuverlässig zu betreiben sind. Bislang hatte ATI im Mobile-Segment nur den RV630-Chip umgesetzt, jedoch keine Produkte für den Performance- und HighEnd-Bereich - dieses soll nun wohl nachgeholt werden.
Während damit die nächsten Grafikchips von AMD/ATI doch recht klar aussehen, werden die Planungen für den dahinter anstehenden R700-Grafikchip, welche bislang eigentlich als sicher galten, durch eine Meldung der X-bit Labs in arge Tweifel gezogen. Danach soll AMD/ATI auf vorgenannter Veranstaltung die Aussage getroffen haben, daß für das Jahr 2008 keine neue Grafikchip-Familie (außer den R6x0-Abkömmlingen) geplant sei. Zwar kann man hier noch einwenden, daß wenn der R700-Chip als MultiCore-Design möglicherweise deutlich näher am R600-Design liegt als bisher gedacht, dieser eventuell nicht als "eigene Architektur" gezählt werden kann. Für die Grafikchip-Entwickler sind solche rein technischen Überlegungen allerdings nicht maßgeblich, dort wird faktisch alles als "neue Architektur" ausgegeben, egal wie gering die Unterschiede sein mögen.
Eher ziehend wäre da noch das Argument, daß AMD sich vor dem vorbeschriebenen Release von weiteren Grafikkarten der Radeon HD 3000 Serie nicht in die Karten ob der Nachfolge-Architektur schauen lassen will. Nichtsdestotrotz muß man aufgrund dieser klare Worte von der Möglichkeit ausgehen, daß der R700-Chip in der Tat (erheblich) nach hinten verschoben wurde. Was in sich allerdings vollkommen unlogisch wäre: Immerhin existiert die R600-Architektur seit Anfang 2006 - und ATI kann damit kaum über das komplette Jahr 2008 bestehen. Spätestens zur Winter-Saison 2008 wird man wieder mit etwas neuem kommen müssen - und ob es noch einmal reicht, die R600-Architektur unter neuem Namen aufzuwärmen, wäre doch eher zu bezweifeln.
News des 13. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Mit dem Donnerstag hat nVidia etwas überraschend Triple-SLI doch noch in diesem Jahr vorgestellt - nachdem die letzten Gerüchte von einer Verschiebung auf Anfang des nächsten Jahres ausgingen. Diese Verschiebung betrifft aber weiterhin die eigentlich für Triple-SLI vorgesehene Mainboard-Plattform nForce 780, welche (angeblich) aufgrund von Problemen mit Intels 45nm-Prozessoren bzw. derem FSB1600 in der Tat erst nächstes Jahr antreten wird. Somit kommt Triple-SLI derzeit erst einmal nur auf den bekannten nForce 680 Chipsätzen, welche allerdings im Gegensatz zum nForce 780 nur für zwei der Grafikkarten-Steckplätze eine x16-Anbindung anbieten können, der dritte Grafikkarten-Steckplatz wird dann immer nur mit x8 angebunden werden.
Und da die wenigsten derzeit schon verkauften nForce-680-Platinen schon über drei Grafikkarten-Steckplätze verfügen und damit sowieso in jedem Fall für Triple-SLI ein Neukauf des Mainboards notwendig wird, lohnt es eventuell doch, bis nächstes Jahr und dort auf die 780er Chipsätze zu warten, denn bei diesen soll es genügend PCI Express Lanes für die x16-Anbindung von mindestens drei Grafikkarten-Steckplätzen geben (angeblich sogar von vier Grafikkarten-Steckplätzen, aber dies würde keinen richtigen Sinn ergeben, da nVidia nun einmal Triple-SLI und kein Quad-SLI macht). Insofern ist die aktuelle Vorstellung von Triple-SLI eher denn als Technik-Demonstration zu betrachten - falls man wirklich an dieser absoluten HighEnd-Lösung interessiert ist, dann sollte man schon warten, bis man diese in ihrer Vollendung bekommt - und keine Kompromisse eingehen.
Zudem würde man nVidia damit noch ein wenig Zeit geben, um den eigenen Grafikkarten-Treiber besser auf Triple-SLI anzupassen, was gerade bei solchen MultiGrafikkarten-Technologien immer der wichtigste Punkt bezüglich der letztlich herauskommenden Performance ist. Denn auch jetzt bei der offiziellen Präsentation gibt es noch Ausreißer in die falsche Richtung hin, wo also Triple-SLI langsamer läuft als normales SLI. Trotzdem darf die allgemeine Leistungsfähigkeit von Triple-SI schon jetzt als gut betrachtet werden: Dort, wo sich die ganze Sache überhaupt erst lohnt - also Auflösungen in der Richtung von 2560x1600 - gewinnt Triple-SLI gegenüber normalem SLI nochmals gute 35 bis 40 Prozent, was angesichts von 50 Prozent mehr Hardware-Power durch die dritte Grafikkarte ein sehr vernünftiges Ergebnis darstellt.
Insofern scheint es nVidias Treiberteam tatsächlich hinbekommen zu haben, die Rohpower der dritten Grafikkarte auch auszunutzen, immerhin wäre dies eine Effizienz von 70 bis 80 Prozent für die dritte Grafikkarte. Trotzdem dürfte Triple-SLI kaum über den Status eines Prestige-Projektes hinauskommen, erscheinen die praktischen Anforderungen einfach zu umfangreich für einen Performance-Gewinn von 35 bis 40 Prozent. Schließlich benötigt man ein neues Mainboard und zumeist auch ein neues Netzteil (die PC Games Hardware ermittelten einen Stromverbrauch von satten 819 Watt für ihr Triple-SLI System), zudem bleibt aufgrund der DualSlot-Grafikkarten allerhöchstens ein Steckplatz auf dem Mainboard für weitere Steckkarten wie Soundkarten und RAID-Controller übrig.
Der Aufwand für Triple-SLI ist also nicht gerade gering - und wenn man dann dafür nur 35 bis 40 Prozent Mehrperformance bekommt, lohnt sich die Angelegenheit wohl in den meisten Fällen nicht wirklich. Ein solch hoher Einschnitt ins System wäre wohl zu rechtferigen, wenn es um eine Performance-Verdopplung (Quad-SLI) gehen würde, aber eben nicht für im allerbesten (theoretischen) Fall 50 Prozent mehr. Etwas besser würde es aussehen, wenn nVidia nicht wie aktuell nur die GeForce 8800 GTX und Ultra für Triple-SLI zulassen würde, sondern auch SingleSlot-Grafikkarten auf G92-Basis - sprich die GeForce 8800 GT. Denn mit dieser würde man nicht alle Steckplätze auf dem Mainboard verbauen und käme wohl auch mit einem eher normalen Netzteil noch über die Runden, der insgesamt notwendige Aufwand wäre also wesentlich überschaubarer.
Eine Andeutung, daß es Triple-SLI auch für andere Grafikkarten geben wird, hat nVidia ja schon gemacht - ob damit allerdings auch die GeForce 8800 GT gemeint ist, bliebe abzuwarten. Davon abgesehen liegt das größte Problem von Triple-SLI derzeit eher weniger im Einflußbereich von nVidia oder der anderen Hardware-Hersteller: Es gibt derzeit halt kaum Software, welche Triple-SLI auch ausnutzen könnte. Faktisch fällt einem hier nur Crysis ein, welches so verschwenderisch mit der Leistung umgeht, daß sich sogar Triple-SLI noch lohnt. Die meisten anderen Spiele zeigen mit GeForce 8800 GTX und Ultra unter normalen SLI selbst bei HD-Auflösungen mehr als zufriedenstellende Leistungen, hier gibt es rein von den Frameraten her gar keinen wirklichen Anreiz zugunsten von Triple-SLI.
Zu den kürzlich erwähnten Sockeln der Nehalem-Prozessorenarchitektur wäre noch hinzuzufügen, daß die neuen Sockel natürlich auch Auswirkungen auf die Aufrüstbarkeit der entsprechenden Intel-Plattformen haben werden. Intels nächstes Jahr anstehende 4er Chipsatz-Serie soll ja (wenigstens bei einigen Chipsätzen) den Support für die aktuelle Core-2-Architektur und die Nehalem-Architektur mitbringen - durch die unterschiedlichen Sockel wird aber trotzdem in jedem Fall ein Mainboard-Wechsel notwendig, will man von der Core-2-Architektur auf die Nehalem-Architektur wechseln. Aus Aufrüster-Sicht ist dies natürlich weniger schön, allerdings war die Änderung der Pin-Zahl an den Prozessorsockeln durch die Integration des Speichercontrollers in die Nehalem-Prozessoren wohl kaum zu vermeiden.
News des 12. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Zur neuen GeForce 8800 GTS 512MB (G92) wäre noch hinzufügen, daß mit dieser Karte recht kurzfristig die bisherige GeForce 8800 GTS 640MB (G80) wie auch die GeForce 8800 GTX auslaufen werden, laut unbestätigen Angaben schon im Januar. Aus der G80-Garde bleibt somit nur die GeForce 8800 Ultra erhalten, welche allerdings wie schon die anderen G80-basierten Karten ihren absolut erheblichen Mehrpreis (75 Prozent) gegenüber der GeForce 8800 GTS 512MB (G92) nicht mit einer entsprechenden oder gar ähnlichen Mehrleistung unter Auflösungen von bis zu 1600x1200 bzw. 1680x1050 (20 bis 25 Prozent) rechtfertigen kann. Eine verbliebene Domäne der HighEnd-Boliden GeForce 8800 GTX und Ultra gibt es allerdings noch: Unter extremen Auflösungen wie 2560x1600 und neueren Spielen zeigen die G80-Boliden dem G92-Chip den Wert ihres breiteren Speicherinterfaces.
Laut den Messungen der ComputerBase liegt eine GeForce 8800 GTX bei Direct3D10-Titeln unter 2560x1600 mit 4x Anti-Aliasing noch 40 Prozent vor der GeForce 8800 GTS 512MB (G92), bei der GeForce 8800 Ultra beträgt dieser Abstand sogar satte 60 Prozent. Wer eine solche Auflösung nutzt oder mit einer etwas niedrigeren Auflösung und dafür 8x Anti-Aliasin hantiert, dürfte nach wie vor mit GeForce 8800 GTX und Ultra besser fahren. Insbesondere die Preise der GeForce 8800 GTX sind derzeit ja am fallen, die Karten sind aktuell schon für 380 Euro zu haben. Allerdings hat sich inzwischen auch die Preislage bei der GeForce 8800 GTS 512MB (G92) aufgehellt: Nach Startpreisen, die teils deutlich über dem hiesigem Listenpreis von 299 Euro lagen, gibt es nun ausreichend Angebote zu dieser Preislage oder auch darunter - dafür allerdings nun keine Lieferfähigkeit mehr ;).
Bei Beyond3D hat man sich mit den Die-Größen der kommenden LowCost-Grafikchips ATI RV620 und nVidia G98 beschäftigt, welche mit 67 bzw. 86mm² wirklich klein ausfallen. Bei beiden Grafikchips geht es den Grafikchip-Entwicklern ATI und nVidia natürlich weniger um die Performance, sondern um für das OEM-Geschäft interessante Dinge: 3D-Features, Video-Fähigkeiten und natürlich der Preis. Kleinere Grafikchips bedeuten hier natürlich eine günstigere Fertigung und damit bessere Marktchancen für die Grafikchip-Entwickler. Als 3D-Beschleuniger für Spieler lassen sich die auf diesen Grafikchips basierenden Grafikkarten dann aber natürlich kaum noch einordnen, denn auch wenn die 3D-Featurepalette vollständig ist, reicht dafür deren Grundperformance bei weitem nicht aus.
Nochmals Beyond3D berichten über die GDDR5-Anstrengungen der Speicherchip-Hersteller Hynix, Qimonda und Samsung. Die beiden erstgenannten geben dabei bisher als (maximales) Taktziel von GDDR5 immerhin 2.5 GHz aus, Samsung will sogar bis 3.0 GHz gehen. In den Markt kommen soll GDDR5 nunmehr im zweiten oder dritten Quartal des kommenden Jahres, was womöglich mit dem Erscheinen der nächsten HighEnd-Generation um nVidias D9E-Chip und ATIs R700-Chip zusammentreffen dürfte. Abzuwarten bliebe allerdings, mit welchen Speicher-Taktfrequenzen diese dann antreten werden, die Speicherchip-Hersteller werden anfänglich sicherlich noch nicht die genannten Maximal-Taktfrequenzen liefern können.
Hard Tecs 4U berichten ein wenig zu den kleinen Haken beim kommenden X48 Mainboard-Chipsatz von Intel, welcher offiziell den Support von FSB1600 und von DDR3/1600 bringen soll. So unterstützt der X38-Chipsatz speziell im FSB1600-Betrieb rein offiziell nur DDR3/1066- und DDR3/1600-Speicher (sowie generell nur DDR3-Speicher), im letztgenannten Fall (FSB1600 und DDR3/1600) sind sogar nur zwei Speichermodule gleichzeitig einsetzbar. Sicherlich werden die Hersteller von Marken-Mainboards hier mehr bieten als nur das Intel-offizielle - aber wenn man sich dann sowieso außerhalb der offiziellen Intel-Spezifikationen stellen will, kann man auch zu guten X38-Mainboards greifen, welche diese Möglichkeiten schließlich schon jetzt bieten.
Shortcuts: Die WinFuture vermeldet eine neue Notebook-Lösung von ATI namens "Mobility Radeon HD 2700". Da der nächste Mainstream-Grafikchip von ATI, der RV635, sich aber bislang noch nicht blicken lassen hat, dürfte diese Mobile-Lösung wohl weiterhin auf dem bei der Radeon HD 2600 und der Mobility Radeon HD 2600 angesetztem RV630-Grafikchip aufsetzen, die höhere Nummer im Namen dürfte schlicht eine höhere Taktfrequenz andeuten. Und letztlich gibt es bei Fudzilla noch den ersten Test einer passiv gekühlten Radeon HD 3850 512MB von Sapphire, welche bis zum Erscheinen von passiv gekühlten GeForce 8800 GT Karten die sicherlich leistungsstärkste lüfterlose Lösung im Markt darstellen dürfte.
News des 11. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die in den letzten Tagen oftmals erwähnte G92-basierte GeForce 8800 GTS wurde nun auch offiziell vorgestellt, entsprechende Testberichte fluten wie zu erwarten das Netz. Leider hat es nVidia bei dem mißverständlichen Namen belassen, unter diesem nun drei verschiedene Grafikkarten unterwegs sind: Die originale GeForce 8800 GTS auf G80-Basis mit 96 Shader-Einheiten, die neue GeForce 8800 GTS auf G80-Basis mit 112 Shader-Einheiten und letztlich nun auch noch die GeForce 8800 GTS auf G92-Basis mit 128 Shader-Einheiten. Wenigstens ist letztere an ihren 512 MB Grafikkartenspeicher zuverlässig zu erkennen, eine "GeForce 8800 GTS 512MB" ist also immer G92-basiert. Oftmals wird an dieser Stelle aber auch noch zur Sicherheit der Codename des Grafikchips angegeben, also "GeForce 8800 GTS 512MB (G92)", was sicherlich angesichts dieser drei Versionen der GeForce 8800 GTS nicht verkehrt ist.
Bei der Performance der neuen Karten hatten (leider) die Vorab-Berichte recht: Auch wenn das Echo zur GeForce 8800 GTS 512MB (G92) erst einmal grundlegend positiv ausfällt, ergibt die genauere Betrachtung, daß diese Karte sich doch zu wenig von der GeForce 8800 GT 512MB absetzen kann, um ihren Mehrpreis rechtfertigen zu können. Zwischen diesen beiden Karten liegen zwischen 10 und 20 Prozent Performance, wobei sich dieser Unterschied auch nicht unter höheren Auflösungen vergrößert, sondern sogar die geringfügige Tendenz feststellbar ist, daß in extremen Auflösungen der Unterschied etwas kleiner wird. Damit kann die GeForce 8800 GTS 512MB (G92) aber genau das nicht erfüllen, was man sich von einer Grafikkarte des HighEnd-Segments erwartet: Deutlich mehr Leistung unter höheren Auflösungen oder/und höheren Anti-Aliasing Modi.
Es bleiben somit nur die sozusagen durchgehend 10 bis 20 Prozent Vorteil gegenüber der GeForce 8800 GT 512MB, welche aber wie gesagt wenig zum preislichen Unterschied passen. Denn selbst zum offiziellen Listenpreis der GeForce 8800 GTS 512MB (G92) von 299 Euro sind dies derzeit 80 Euro preislicher Unterschied, zum aktuellen Straßenpreis der GeForce 8800 GTS 512MB (G92) Karten sind es sogar glatte 100 Euro Preisunterschied. Dies sind gute 45 Prozent Mehrpreis - und für die gezeigten 10 bis 20 Prozent Performance-Unterschied ist dies einfach zuviel. Die GeForce 8800 GTS 512MB (G92) ist eine gute Karte, aber passt halt nur schwer in dieses preisliche Gefüge, welches nVidia mit der GeForce 8800 GT 512MB selbst aufgestellt hat.
Wer wirklich etwas mehr Leistung als mit dieser GeForce 8800 GT 512MB wünscht, greift einfach zu den ab Werk übertakteten Varianten dieser Grafikkarte und kommt somit bei einem vertretbaren Mehrpreis auch in die Nähe der Leistungen einer GeForce 8800 GTS 512MB (G92). So setzt sich beispielsweise im Test von The Tech Report eine ab Werk auf 660/1500/950 MHz übertaktete GeForce 8800 GT von MSI zwischen reguläre GeForce 8800 GT 512MB (600/1500/900 MHz) und die neue GeForce 8800 GTS 512MB (G92), sogar mit klarer Tendenz zu letztgenannter Karte. Zwischen der derzeit für unter 250 Euro erhältlichen MSI-Karte und der neuen GeForce 8800 GTS 512MB (G92), welche ihrerseits nicht unter 300 Euro zu bekommen ist, liegen kaum 5 Prozent Performance-Unterschied - klarer Punktsieg für die übertaktete GeForce 8800 GT.
Seitens Beyond3D bringt man Informationen über die mit der im zweiten Halbjahr 2008 zu erwartenden Nehalem-Prozessorenarchitektur zugehörigen neuen Prozessoren-Sockel. Dabei wird Intel allein für den Desktop-Bereich wieder drei verschiedene Sockel je nach Markt-Segment benutzen, was nach der derzeitigen Zusammenführung aller Intel-Plattformen auf den einheitlichen Sockel 775 als eher unglücklich zu bezeichnen ist. Allerdings ergeben sich die drei verschiedenen Sockel 715, 1160 und 1366 jeweils aus der Nutzung des integrierten Speichercontrollers der Nehalem-Prozessoren bzw. wieviel Intel von diesem für jedes Marktsegment freischaltet. Denn anscheinend nur mit den Extreme-Prozessoren (und natürlich den Xeon-Modellen des Workstation/Server-Segments) wird man den vollen dreiteiligen Speichercontoller bekommen, dies resultiert dann im Sockel 1366.
Der normale Markt an DualCore- und QuadCore-Prozessoren wird auf dem Sockel 1160 mit nur dem doppelten Speichercontroller leben müssen, während Intel im LowCost-Segment diesen gar vollständig abzuschalten gedenkt, dafür gibt es dann den Sockel 715. Die unterschiedlichen Sockelgrößen ergeben sich also aus der benötigen Pin-Anzahl - je mehr vom integrierten Speichercontoller genutzt wird, um so größer muß diese ausfallen. Im Umkehrschluß wird damit auch verständlich, wieso nicht gleich alle Prozessoren für den Sockel 1366 gebaut werden - das würde einfach sowohl am Prozessor als auch am Mainboard teurer ausfallen, was besonders im LowCost-Segment ungünstig für die Wirtschaftlichkeit der Plattformen wäre. Insbesondere beim Umrüsten ist das ganze System natürlich ziemlich ungünstig, weil man dann mittels des Mainboard-Sockels schon ziemlich festgelegt ist, wohin die Reise gehen kann und wohin nicht.
Insbesondere das günstige Aufrüsten von billigen OEM-PCs mit einfach einem neueren Prozessor dürfte damit dann in vielen Fällen nicht mehr möglich sein, denn im OEM-Bereich wird wohl der Sockel 715 dominieren. Zudem werden damit aber auch die Unterschiede zwischen den Markt-Segmenten größer: Im LowCost-Segment wird man einen primären Vorteil der Nehalem-Prozessorenarchitektur in Form des integrierten Speichercontrollers gar nicht erst bekommen, und zwischen den "normalen" Prozessoren und den Extreme-Editionen wird dann nicht nur wie bisher ein (eher geringfügiger) Taktratenunterschied herrschen, sondern eben auch eine deutlich höhere Speicherbandbreite zugunsten der Extreme-Modelle.
News des 10. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
In einem Interview mit dem ATI-Forum geht ATI davon aus, daß schon in der zweiten Jahreshälfte 2008 die ersten Spiele mit der Nutzung von Direct3D 10.1 erscheinen werden. Die nachfolgende Aussage, daß ab diesem Zeitpunkt alle Nutzer ohne einer entsprechenden Grafikkarte wieder neu in Direct3D-10.1-Modelle investieren müssten, ist natürlich schwer irreführend, weil noch lange keine Spiele erscheinen werden, welche Direct3D 10.1 zwingend voraussetzen werden. Die von ATI angesprochenen Spiele des zweiten Halbjahres mit der Nutzung von Direct3D 10.1 werden natürlich ausnahmslos ebenfalls auch die erste Version von Direct3D10 unterstützen - wahrscheinlich sogar noch DirectX9, denn noch immer müssen die Spieleentwickler damit rechnen, daß der Großteil der potentiellen Kundschaft nicht Windows Vista und gleichzeitig eine Direct3D10-Grafikkarte besitzt.
Wie schon früher an dieser Stelle ausgedrückt, sind die Chancen von Direct3D 10.1 eher als gering einzuschätzen, da der technologische Sprung gegenüber Direct3D10 einfach zu klein ist und außerdem schon eine große Anzahl an Direct3D10-Karten verkauft wurde. Mit der Zeit und der Marktdurchdringung von Direct3D-10.1-Karten dürften sicherlich einige Spielerentwickler hier und da einen extra Renderpfad für Direct3D 10.1 erstellen und diesen mit dem einen oder anderen zusätzlichen Effekt schmücken. Direct3D-10.1-only-Spiele sind dagegen als ziemlich unwahrscheinlich zu betrachten und zumindestens mittelfristig gleich vollkommen auszuschließen. Insofern muß der Besitzer einer Direct3D10-Karte nun wirklich nicht nur wegen Direct3D 10.1 einen Neukauf antreten.
Bei den Preisvergleichen von PreisRoboter und Geizhals gibt es erste Listungen zur G92-basierten GeForce 8800 GTS zu Preisen von 320 bis 360 Euro. Dies ist natürlich gegenüber der GeForce 8800 GT 512MB ein ganzes Stück mehr - diese ist derzeit für um die 220 Euro zu bekommen und laut den ersten Tests nur 10 Prozent langsamer als die G92-basierten GeForce 8800 GTS. Allerdings könnte es sich hierbei auch noch um typische Startpreise handeln, welche also innerhalb weniger Tage auf ein normalverträgliches Niveau absinken. Sinnvoll erscheint die G92-basierten GeForce 8800 GTS allerdings auch nur, wenn deren Preis nicht höher als 270 Euro ausfällt, immer eingedenk des doch eher enttäuschenden Performance-Abstands zur GeForce 8800 GT 512MB.
Gemäß Hard Tecs 4U hat Intel einen Fehler in den 45nm QuadCore-Prozessoren entdeckt, welcher den Marktstart der für Januar geplanten Modelle um einen Monat verschieben wird. Die ebenfalls für den Januar geplanten 45nm DualCore-Modelle sind davon allerdings nicht betroffen und werden wie geplant in den Markt entlassen werden. Was nun aber mit dem schon im Markt befindlichen 45nm QuadCore-Modell in Form des Core 2 Extreme QX9650 ist, wurde bislang nicht bekannt - würde aber natürlich im Sinne der Nutzer dieses Prozessors noch brennend interessieren. Wie beim TLB-Bug in AMDs K10-Prozessoren soll es sich hierbei allerdings auch nur um einen Fehler handeln, welcher mehr oder weniger nur unter Laborbedingungen vorkommt.
Wie die WinFuture berichtet, lag der Anteil von Windows Vista an der installierten Basis im November bei 9,19 Prozent, damit konnte man gegenüber dem Oktober etwas mehr als ein Prozent hinzugewinnen und dürfte zum Jahresende die 10-Prozent-Marke durchbrechen. Doch selbst wenn der Zugewinn von 1,25 Prozent vom Oktober zum November einen etwas positiveren Trend gegenüber der Mitte des Jahres darstellt, als der Zugewinn pro Monat teilweise bei unter einem Prozent lag, ist dies immer noch deutlich zu wenig, um mittelfristig Windows XP auch nur nahe zu kommen. Wenn man es mal hochrechnen wollte: Von 10 Prozent zum Ende des Jahres ausgehend, zuzüglich 1,25 pro Monat im Jahr 2008 würde man Ende nächsten Jahres bei gerade einmal 25 Prozent stehen - mehr als zwei Jahre nach dem Marktstart wäre das wirklich schwach.
Natürlich gibt es durchaus noch Potential für größere Sprünge durch Windows Vista: Üblicherweise, wenn die Versorgung des Vorgänger-Betriebssystems mit Patches, neuen Programmversionen und ähnlichem langsam zurückgeht, setzt noch einmal ein großer Run auf das neuere Betriebssystem ein. Allerdings rennt Microsoft dafür inzwischen auch schon wieder die Zeit davon, denn schließlich steht angeblich schon 2009 das nächste Microsoft-Betriebssystem an, bislang "Windows 7" genannt. Und sobald dessen Release in Reichweite kommt, dürfte der Zugewinn an Marktanteilen für Windows Vista wieder in den Keller fallen, weil dann jeder halt schon auf das nächste Betriebssystem wartet. Oder anders formuliert: Kommt Windows 7 tatsächlich im Jahr 2009, ist das Jahr 2008 die allerletzte Chance für Windows Vista, um ordentlich an Marktanteilen zu gewinnen. Verpasst man diese Chance, kann es durchaus passieren, daß beim Release von Windows 7 das "alte" Windows XP immer noch mit um die 60 Prozent Marktanteil das klar dominierende Betriebssystem ist.