News-Archiv 24. - 30. Dezember 2007 (52. Kalenderwoche)
29./30. Dezember 28. Dezember 27. Dezember 26. Dezember 25. Dezember 24. Dezember
News des 29./30. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei HardSpell gibt es erste (allerdings unvollständige und unzusammenhängende) Benchmark-Ergebnisse der kommenden nVidia GeForce 8800 GS, welche nVidia primär für den OEM-Markt projektiert hat und welche dort wohl in Konkurrenz zur Radeon HD 3850 gehen soll, zu welcher nVidia derzeit (und bis zum Erscheinen der GeForce 9600 GT) kein preislich passendes Konkurrenzangebot hat. Dafür soll der G92-Chip weiter abgespeckt werden, so ist die GeForce 8800 GS als Karte mit nur 96 Shader-Einheiten und nur 192 Bit DDR Speicherinterface geplant. Zusammen mit den Taktraten von 575/1438/850 MHz sollte sich doch ein guter Unterschied zur GeForce 8800 GT ergeben, deren 512-MB-Edition über Taktraten von 600/1500/900 MHz bei 112 Shader-Einheiten und einem 256 Bit DDR Speicherinterface verfügt.
Im übrigen ergibt das "krumme" Speicherinterface auch wieder eine ungewöhnliche Speicherbestückung von 384 MB - möglich sind natürlich auch 192 und 768 MB. Interessanterweise liegen jedoch seitens Expreview andere Informationen vor, wonach zumindest Grafikkarten-Hersteller Palit seine GeForce 8800 GS deutlich anders gestalten will: So kommt eine Version mit 112 Shader-Einheiten und den default-Taktraten, eine weitere Version hat ebenfalls 112 Shader-Einheiten, dann aber Taktraten von 650/1625/950 MHz samt gleich 768 MB Speicher. Während die "einfache" Version mit 112 Shader-Einheiten aufgrund des Unterschieds bei den Taktraten und dem kleineren Speicherinterface der GeForce 8800 GT weiterhin nicht gefährlich werden sollte, dürfte es bei der 768-MB-Karte dann doch schon knapper werden.
Zwar hat diese immer noch die geringere Speicherbandbreite (26 Prozent Differenz), dafür aber den größeren Speicher (768 zu 512 MB) sowie mehr Shader- und Texturier-Power (8 Prozent) als eine reguläre GeForce 8800 GT 512MB. In der Summe dürfte dieser Vergleich zwar immer noch für die GeForce 8800 GT 512MB ausgehen, nichtsdestrotrotz sollte diese Palit-Karte bei einem ansprechenden Preis ein interessantes Stück Hardware werden. Zudem bleibt abzuwarten, was andere Grafikkarten-Hersteller aus den Möglichkeiten der GeForce 8800 GS machen, offensichtlich scheint nVidia diese Karte ein wenig zum experimentieren und übertakten freigegeben zu haben. Unabhängig von der eigentlichen Zielsetzung im OEM-Markt planen diverse Grafikkarten-Hersteller die GeForce 8800 GS für Preise um die 150 Euro Anfang des neuen Jahres auch in den Retail-Markt zu bringen.
Beim Hardwarekenner gibt es einen Artikel zur Radeon HD 2900 Pro 256-Bit, einer am Speicherinterface abgespeckten Ausführung der eigentlich schon ausgelaufenen Radeon HD 2900 Pro, welche derzeit anscheinend in einer Sonderaktion von Sapphire vertickt wird. Angesichts der neuen Radeon HD 3800 Grafikkarten erscheint eine "alte" Radeon HD 2900 Grafikkarte natürlich erst einmal als nicht besonders attraktiv, die Radeon HD 2900 Pro 256-Bit wird allerdings im Preisbereich von 130 Euro angeboten, wo selbst die Radeon HD 3850 256MB nicht hinreicht. Zudem hat die Radeon HD 2900 Pro 256-Bit gegenüber der Radeon HD 3850 256MB immer noch den Vorteil des größeren Grafikkartenspeichers, die 512-MB-Edition der Radeon HD 3850 kostet dann (verständlicherweise) gleich noch einmal um die 20 Euro mehr und ist somit kein preislicher Gegner für die Radeon HD 2900 Pro 256-Bit.
Die Abspeckung bezieht sich in der Tat wirklich nur auf das Speicherinterface, welches von 512 Bit DDR auf 256 Bit DDR limitiert wurde - was inzwischen allgemein nicht als weltbewegend gilt, denn ATI hat beim RV670-Chip die gleiche Limitierung gegenüber dem originalen R600-Chip eingeführt, wirklich viel Leistung hat das den RV670-Chip allerdings nicht gekostet. Somit liegt die Performance-Differenz zwischen Radeon HD 2900 Pro 256-Bit und Radeon HD 3850 nur noch bei den Taktraten: Hier stehen 600/800 MHz gegen 670/830 MHz, was im Fall der 256-MB-Ausführung der Radeon HD 3850 in etwa zu einem Performance-Gleichstand führen sollte (vergleichende Benchmarks gibt es derzeit leider keine).
Natürlich sprechen diverse Nebenpunkte weiterhin für die Radeon HD 3850: Kleinere Fertigung, damit geringerer Stromverbrauch und leisere Kühlung sowie die Unterstützung von Direct3D 10.1 und PCI Express 2.0. Wenn der Preis allerdings der Knackpunkt ist und eine Karte direkt im Preisbereich von 130 Euro gesucht wird, dann ist die Radeon HD 2900 Pro 256-Bit für den kurzen Augenblick, wo diese noch verfügbar ist, die derzeit wohl beste Lösung. Insbesondere die bisher in diesem Preisbereich zu findende Radeon HD 2900 GT (nur 240 anstatt 320 Shader-Einheiten, 256 Bit DDR Speicherinterface) wird von der Radeon HD 2900 Pro 256-Bit klar ausgestochen, von den eigentlichen Mainstream-Grafikkarten Radeon HD 2600 XT und GeForce 8600 GTS ganz zu schweigen.
neuer Artikel |
Mit großem Hype kam im Herbst des Jahres der NextGen-Shooter BioShock heraus, welcher mit überzeugender Grafik und einem interessanten Setup lockte. Wieder einmal muß sich das genannte Spiel in unseren Tests den Fragen stellen, mit welcher Hardware das Spiel gut funktioniert, welche Settings und Auflösungen mit heutiger Mainstream-Hardware spielbar sind und wo performancemäßig am meisten zu holen ist - CPU oder Grafikkarte? ... zum Artikel
News des 27./28. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie die PC Games Hardware berichtet, hat PowerColor nun endlich Ernst gemacht und eine leistungsfähige Direct3D10-Grafikkarte für AGP vorgestellt, die "HD 3850 PCS 512MB AGP" auf Basis des Radeon HD 3850 Grafikchips mit 512 MB Grafikkarten-Speicher. Bei den Taktraten will man sich an den Standard der PCIe-Version halten, so daß es sich hierbei mit Sicherheit um die schnellste je gebaute AGP-Grafikkarte handeln sollte. Gerade gegenüber der unter AGP-Usern sehr beliebten Radeon X1950 Pro sollte sich ein ordentlicher Performance-Sprung im Rahmen von um die 60 Prozent ergeben, mittels Direct3D10 und den 512 MB Grafikkartenspeicher sollte die Karte zudem auch noch ziemlich gut für zukünftige Aufgaben gerüstet sein. Leider ist derzeit noch kein Preispunkt bekannt, aber anhand der Preise der PCIe-Version der Radeon HD 3850 512MB dürfte sich der AGP-Preis selbst bei einem gewissen Aufschlag wohl immer noch unter der Marke von 200 Euro bewegen.
Nach den Daten zur Radeon HD 3870 X2 sind in einem türkischsprachigen Forum erneut ATI-Präsentationsfolien zu einem der kommenden ATI-Grafikchips aufgetaucht, diesesmal zur Radeon HD 3400 Serie auf Basis des RV620-Chips. Generell wird damit das schon bekannte Wissen bestätigt, daß der RV620-Chip Direct3D 10.1 und PCI Express 2.0 unterstützen wird, in 55nm gefertigt ist und (wie sein Vorgänger RV615) nur über ein 64 Bit DDR Speicherinterface verfügt. Reichlich überraschend ist jedoch die Nennung von 120 Shader-Einheiten für den RV620 - dies wäre dreimal so viel wie beim RV615 und gehört eher ins Mainstream-Segment, wo der RV630-Chip über genau diese Anzahl an Shader-Einheiten verfügt.
Unserer Meinung nach ist hier eher ein Copy- und Paste-Fehler in dieser Präsentation wahrscheinlicher als denn ATI im LowCost-Bereich mit wirklich so viel Hardware-Power anrückt. Denn dies wäre aus mehreren Gründen unwahrscheinlich: Erstens einmal braucht niemand im LowCost-Segment diese Leistung - die Grafikkarten verkaufen sich dort über den Namen, den Preis und die Featurepalette, kaum über die Performance. Zweitens ist das Speicherinterface des RV620-Chips viel zu klein, um eine solche Shader-Power noch sinnvoll ausnutzen zu können - und besonders hochgetakteter GDDR4-Speicher, nur um dieses Mißverhältnis etwas lindern zu können, passt wieder wenig zum LowCost-Gedanken des RV620-Chips bzw. der Radeon HD 3400 Serie. Und drittens würde dies den Chip dann auch noch zu teuer für einen LowCost-Einsatz machen.
Abgerundet wird das ganze dann noch durch die frühere Information über die Die-Größe des RV620-Chips - in die genannten 67mm² passen unter 55nm nun beim besten Willen keine 120 Shader-Einheiten. Insofern dürfte diese Angabe wohl aus der Präsentation zur Radeon HD 3600 Serie stammen - womit wir im Umkehrschluß wohl in Erfahrung gebracht haben, daß ATI bei Radeon HD 3400 (RV620) und Radeon HD 3600 (RV635) die Anzahl der Shader-Einheiten im Vergleich zu den direkten Vorgängern Radeon HD 2400 (RV615, 40 Shader-Einheiten) und Radeon HD 2600 (RV630, 120 Shader-Einheiten) wohl komplett unverändert gelassen hat. Dies dürfte allerdings gerade bei der Radeon HD 3600 Serie für den Mainstream-Markt noch interessant werden, denn nVidias kommende neue Mainstream-Lösungen auf Basis des G94-Chips gehen wohl mit verdoppelten Hardware-Einheiten ins Rennen.
Laut Hard Tecs 4U will AMD seine TripleCore-Prozessoren in der Tat noch in dem fehlerhaften B2-Stepping in den Markt bringen - was wir für keine gute Idee halten, sowohl Intel als auch die Marktbeobachter dürften dies genüßlich ausschlachten. Zudem wäre es zu bezweifeln, daß diese Prozessoren reichlich Abnehmer finden - entweder hängt diesen Modellen der Ruf eines fehlerhaften Chips an oder aber der BIOS-Fix für den TLB-Bug nimmt dem Prozessor 10 bis 30 Prozent Performance. Zudem dürfte beim geplanten Marktstart der TripleCore-Prozessoren im März das gefixte B3-Stepping schon am Horizont erkennbar ist, besteht dann also kaum noch eine Notwendigkeit, sich noch B2-Prozessoren anzulachen.
Shortcuts: Bei Tom's Hardware hat man zehn aktuelle AM2-Platinen auf die von AMD propagandierte Fähigkeit untersucht, den Phenom-Prozessor tragen zu können. Das Ergebnis ist allerdings eher desaströs, nur auf zwei der getesteten zehn Mainboard lief der neue Prozessor. Eine umfangreiche und ständig erweitere Kompatibilitäts-Aufistung gibt es im übrigen beim Planet 3DNow!, dort steht die Quote derzeit bei 69:12 zugunsten des Phenom-Prozessors. Hard Tecs 4U berichten über die im neuen Jahr anstehenden neuen Athlon-Prozessoren, welche dann nicht mehr den Namen "Athlon 64 X2", sondern nur noch "Athlon" tragen sollen. Höhere Taktraten sind gemäß früheren Informationen allerdings kaum zu erwarten, AMD stellt schlicht nur das bestehende Produktprogramm auf die kleinere 65nm-Fertigung um.
News des 25./26. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die DigiTimes berichtet über den kommenden nVidia G94-Chip, welcher auch den Codenamen "D9P" trägt und am 14. Februar 2008 in den Markt gehen soll. Das "P" in "D9P" deutet eigentlich wie schon beim D8P aka G92 auf den Performance-Markt hin, jedoch soll es sich beim G94 eher um den Nachfolger des G84-Chips (GeForce 8600 Serie) für das Mainstream-Segment handeln, darauf deutet auch der Verkaufsname "GeForce 9600 GT" hin. Allerdings soll diese GeForce 9600 GT deutlich mehr Performance als die bisherige GeForce 8600 GT und GTS bieten, im Gespräch sind derzeit 64 Shader-Einheiten und ein 256 Bit DDR breites Speicherinterface - was eine glatte Verdopplung der G84-Hardware (32 Shader-Einheiten und 128 Bit DDR Speicherinterface) darstellen würde.
Dafür wird man allerdings bei den Taktraten eher gemächlich vorgehen, laut Expreview sollen es nur 500 MHz Chiptakt werden, das wäre gerade gegenüber der GeForce 8600 GTS mit deren 675 MHz wieder ein ganzes Stück weniger. Der Speichertakt soll gegenüber dieser Karte mit 1000 MHz identisch sein - wobei es durchaus verwunderlich wäre, wenn nVidia eine Mainstream-Karte mit 256 Bit DDR Speicherinterface mit so hohem Speichertakt ausstatten würde, wenn die Performance-Lösung GeForce 8800 GT nur mit 900 MHz Speichertakt (und dem gleichen Speicherinterface) antritt. Sinnvoller (vor allem auch aus wirtschaftlicher Sicht bei einer Mainstream-Grafikkarte) erscheint da eher ein Speichertakt im Bereich von 600 bis 700 MHz.
Der Shader-Takt dieser GeForce 9600 GT ist allerdings derzeit noch nicht bekannt, so daß man die Leistungsfähigkeit dieser Karte derzeit nur grob einschätzen kann. Dennoch ist vor allem aufgrund des breiten Speicherinterfaces zu vermuten, daß die GeForce 9600 GT - prinzipiell zwischen GeForce 8600 GTS und GeForce 8800 GT liegend - eher denn in Richtung GeForce 8800 GT tendieren wird. Preislich peilt nVidia im übrigen ziemlich exakt die Mitte zwischen beiden genannten GeForce8-Grafikkarten an, so sollen es 169 Dollar Listenpreis für die GeForce 9600 GT werden (ohne MwSt., wohl für die 256-MB-Ausführung), dies dürfte in Europa ungefähr einen Straßenpreis von 150 Euro (mit MwSt.) ergeben.
Damit soll die GeForce 9600 GT wohl in direkte Konkurrenz zur Radeon HD 3850 256MB gehen, zu welcher nVidia bislang kein preislich passenden Konkurrenzangebot hat. Eine kleinere, wohl mit niedrigeren Taktraten operierende Ausführung der GeForce 9600 GT könnte dann im Preisbereich von 120-130 Euro zu finden sein und dort für allem für gutklassige OEM-PCs und den hochvolumigen Mainstream-Markt interessant werden. Spannend wird noch die Frage, ob im G94-Chips dann schon bereits Direct3D 10.1 zu finden sein wird - allerdings deutet der Namenswechsel hin zur "GeForce9-Serie" eigentlich schon eine gewisse architektonische Veränderung an. Und letztlich wäre zur GeForce 9600 GT noch anzumerken, daß entsprechende Boards nur einen SLI-Konnektor tragen werden, diese Karten von nVidia also nicht für Triple-SLI vorgesehen sind.
Daneben gibt es in unserem Forum weiterführende Informationen über einen nVidia D9E-Chip, welcher gemäß des "E" im Namen (für "Enthusiast") wohl für den HighEnd-Bereich gedacht ist. Dieser Grafikchip soll ungefähr im März erscheinen und die bisherigen GeForce 8800 GTX und Ultra Karten beerben. Ähnlich wie beim D9P aka G94 kann man vermuten, daß es sich hierbei schon um eine Direct3D-10.1-Lösung handelt, so groß soll der Hardware-technische Unterschied zu Direct3D10 ja auch nicht sein. Unklar ist allerdings noch, ob nVidia die HighEnd-Leistung in Form eines einzelnen großen Grafikchips oder in Form von zwei mittelstarken Grafikchips im SLI-Verbund auf einem Board zur Verfügung stellt.
Sollte letztere Variante zutreffen, würde es nämlich wohl ausreichend sein, einfach zwei D9P-Grafikchips zu verwenden - dann hätte man flugs 128 Shader-Einheiten und ein 512 Bit DDR Speicherinterface, womit samt guter Taktraten auch eine GeForce 8800 Ultra spielend zu überflügeln sein wird. Denkbar ist natürlich auch, daß der D9E in der Tat als großer, dem G80 ähnlicher HighEnd-Chip kommt und das es zusätzlich DualChip-Grafikkarten geben wird - diesbezüglich sind nach wie vor noch alle Auflösungen möglich. Triple-SLI wird natürlich mit solcherart DualChip-Grafikkarte niemals möglich sein, weil dieses auf drei Grafikchips und nicht drei Grafikkarten basiert. Sollte also ein D9E-Board nur auf zwei D9P-Grafikchips basieren, würde dies selbst unter SLI (dann also mit vier Grafikchips) wohl einem Triple-SLI-Verbund aus drei GeForce 8800 Ultra Grafikkarten weiterhin unterlegen sein ;).
In der Summe beider Informationen ergibt sich dann das Bild, daß ab dem Frühjahr 2008 nVidia mit der GeForce9-Serie im Mainstream- (G94 aka D9P) und im HighEnd-Segment (D9E) operieren wird, während im Performance- (G92 aka D8P) und LowCost-Bereich (G98 aka D8M) noch die GeForce8-Lösungen vorhanden sind. Rein von der Performance her würde man damit sicherlich gut aufgestellt sein, ein gewisser Nachteil dürfte sich jedoch dadurch ergeben, daß die GeForce8-Beschleuniger noch kein Direct3D 10.1 unterstützen, während ATI dieses in Kürze durchgehend für alle Marktsegmente anbieten wird. Natürlich erbringt Direct3D 10.1 derzeit noch keinerlei praktische Vorteile, der Marketing-Effekt ist aber nicht zu unterschätzen. Insofern wäre es durchaus möglich, daß nVidia im weiteren Jahresverlauf die GeForce9-Serie dann auch noch auf die LowCost- und Performance-Segmente ausdehnt.
News des 24. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei Hard Tecs 4U sowie Hartware hat man sich mit der Schlagkräftigkeit von SLI bzw. CrossFire anhand der aktuellen Grafikkarten GeForce 8800 GTS 512MB bzw. Radeon HD 3870 512MB beschäftigt. Dabei ergaben sich generell deutlich weniger Probleme als beim gestern genannten CrossFire-Test, die aktuelle Grafikkarten-Generationen beider Grafikchip-Entwickler scheint wohl deutlich besser mit SLI bzw. CrossFire zusammenzufunktionieren. Auffallend war zudem beim Artikel seitens Hartware, daß dort die aktuellen nVidia-Karten GeForce 8600 GTS und GeForce 8800 GTS 640MB (G80) bei der SLI-Effizienz doch klar besser (+77% bzw. +92%) abschnitten als eine Radeon HD 3870 mit ihrerseits im Schnitt "nur" 66 Prozent Performance-Gewinn durch CrossFire (unter 1600x1200 mit Anti-Aliasing).
Der Heise Newsticker hat nähere Informationen zum Bug in Intels 45nm-Prozessoren, welcher inzwischen auch von Intel offiziell bestätigt wurde. Danach sind ausschließlich hohe FrontSideBus-Taktungen ab FSB1333 (FSB1600 wurde nicht explizit genannt, sollte aber aufgrund der Natur des Fehlers genauso betroffen sein) bei den QuadCore 45nm-Modellen kritisch, hier kann es zu Signalfehlern gerade bei relativ billigen Mainboards (4-Layer) kommen. Dies dürfte auch erklären wieso, die Xeon-Modelle offiziell nicht betroffen sind, hier werden üblicherweise deutlich höherwertige Mainboards eingesetzt. Ebenfalls nicht betroffen sind die DualCore-Modelle unabhängig des FSB-Taktes, da dort auf dem Bus nicht so Verkehr herrschen soll.
Damit ist momentan nur der Core 2 Extreme QX9650 betroffen - wie Intel hier Abhilfe schaffen will, ist bislang allerdings nicht bekannt. Für die weiteren im ersten Quartal in den Markt kommenden 45nm QuadCore-Modelle bedeutet dies lediglich eine Verschiebung des Markstarts von ursprünglich Ende Januar auf nun den März - deswegen auch die Intel-Spruchregelung, daß der Bug doch überhaupt nichts am geplanten Marktstart im ersten Quartal ändern würde ;). Am 20. Januar als ursprünglich geplantem Launch-Termin gehen dann aber nur die 45nm DualCore-Prozessoren mit Taktraten von 2.66 bis 3.16 GHz an den Start, hinzu kommt ein Celeron E1200 mit 1.6 GHz als erster Core-2-basierter DualCore-Prozessor für den LowCost-Bereich.
Aber auch bei AMD kämpft man weiter mit dem TLB-Bug der K10-basierenden Prozessoren (Opteron-K10 & Phenom), welcher den Marktstart des Phenom und AMD das Geschäftsjahr so ziemlich endgültig verhagelt haben. Bisher ging man aber davon aus, daß AMD innerhalb des ersten Quartals mit einem neuen Stepping den TLB-Bug fixen und dann den Phenom mehr oder weniger erneut launchen würde. Laut der DigiTimes gibt es nun aber deutliche Anzeichen dafür, daß auch dies sich noch etwas verzögern und das neue, gefixte B3-Stepping der K10-Prozessoren erst im zweiten Quartal 2008 in den Markt kommen wird. Normalerweise müsste dies dann auch die ebenfalls für das erste Quartal geplanten TripleCore-Prozessoren betreffen, denn diese sollen gleich vom Start weg ausschließlich im B3-Stepping antreten.