News-Archiv 14. - 20. Januar 2008 (3. Kalenderwoche)
19./20. Januar 18. Januar 17. Januar 16. Januar 15. Januar 14. Januar
neuer Artikel |
Die Idee, für Windows-Aufgaben doch besser die in vielen Mainboards sowieso integrierte Grafiklösung zu verwenden und nur für Spiele die extra Grafikkarte zuzuschalten, existiert in der Theorie schon einige Zeit - und ist auf einige speziellen Notebooks (mittels Umschaltern) sogar schon teilweise in die Praxis umgesetzt worden. Der Antrieb für diese Idee ist gewöhnlich, daß die meisten heutzutage verbauten integrierten Grafikchips mehr als ausreichend schnell genug für Windows-Darstellungen sind, wie auch daß die Stromspar-Modi von extra Grafikkarten oftmals nicht wirklich befriedigend sind.
Allerdings sind die bisher hierfür vorgebrachten Lösungen nur halbherzig und daher nicht befriedigend. nVidia will dies nun mittels seiner Hybrid-SLI Mainboard-Chipsätze ändern, welche über eine Technologie namens "HybridPower" verfügt, die sich genau dieser Problematik widmen soll ... zum Artikel
News des 19./20. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Laut Fudzilla wird seitens nVidia nach der kommenden GeForce9-Generation mit der DualChip-Grafikkarte GeForce 9800 GX2 an der Spitze wieder eine echte HighEnd-Lösung in Form eines SingleChip-Designs kommen, derzeit GT200 genannt. Dieser GT200-Chip hat allerdings nichts mit dem G100 zu tun (wie von The Inquirer suggeriert), der G100-Chip scheint weiterhin nVidias geplante Direct3D11-Lösung mit auch einer grundlegend neuen Architektur zu sein. Allerdings ist dieser Chip noch lange nicht spruchreif - primär wohl, weil Direct3D11 noch einige Zeit brauchen wird: Denn Direct3D11 erscheint womöglich erst zusammen mit Windows 7, selbst wenn es wahrscheinlich auch für Windows Vista angeboten werden wird.
Der GT200-Chip ist dagegen eine offenbar dazwischengeschobene Lösung, mit welcher nVidia den Zeitraum bis zum Erscheinen des G100 überbrücken wird. Dazu basiert der GT200-Chip laut diesen Informationen auf dem GeForce8-Design, stellt aber im Gegensatz zu den GeForce9-Chips nicht einfach nur eine Refresh-Lösung dar. Geboten werden soll mit dem GT200 zum einen Direct3D 10.1 (ein weiterer Hinweis, daß die GeForce9-Generation dieses noch nicht unterstützt) sowie deutlich mehr Leistung - angeblich um den Faktor 3 gegenüber dem G80-Chip. Herauskommen soll dieser Chip dann im dritten Quartal diesen Jahres, inwiefern es noch GT200-Abwandlungen für das Performance-, Mainstream- und LowCost-Segment geben wird, ist derzeit noch nicht bekannt.
Ein Thread unseres Forums hat die Preisgestaltung der aktuellen Performance-Grafikkarten Radeon HD 3850/3870 und GeForce 8800 GT/GTS zum Thema - bzw. vor allem die zwischenzeitlich sogar wieder gestiegenen Preise gerade bei der GeForce 8800 GT. Die Karte kam im November zu einem sehr aggressiven Preis von zwischen 210 und 230 Euro in den Markt (einzelne Angebote gingen sogar unter die 200-Euro-Grenze, könnten aber natürlich auch nur Lockangebote gewesen sein), war aber zu diesem Preis sofort ausverkauft und auch in den letzten Wochen des alten Jahres nur schwer für diesen Preis zu bekommen.
Im neuen Jahr ergab sich in den ersten Wochen dann sogar ein gegenteiliger Preistrend - die Karte wurde kaum noch unterhalb von 220 Euro angeboten und war lieferbar kaum unter 250 Euro zu bekommen. Dies hängt natürlich in erster Linie an der großen Nachfrage, welche nVidia bzw. Chiphersteller TSMC bislang nie haben vollständig befriedigen können. Wobei durchaus die Theorie im Raum steht, daß nVidia den G92-Chip gar nicht all zu lange laufen lassen will und daß mit den GeForce9-Karten auch für das Performance-Segment eine neue Lösung kommen könnte. Davon abgesehen hat aber auch der Dollar-Preis bei der ganzen Preis-Achterbahnfahrt seine Rolle mitgespielt: Denn gerade zum Start der GeForce 8800 GT schwang sich der Euro zu neuen Höhen gegenüber den Dollar auf, womit diese Karte zu einem überraschend niedrigen Euro-Preis in den Handel ging.
Auch als zum Jahresstart die Preise für diese Karten wieder leicht anzogen, ergaben sich hierfür (teilweise) Begründungen im Wechselkurs: Denn dieser ging in den ersten Tagen des Jahres etwas von den einstigen Höchstständen zurück - zwar nicht viel, aber bei der vermutlich bezüglich des Wechselkurses sehr scharf kalkulierten GeForce 8800 GT schon ausreichend, um den Preis wieder etwas hochzutreiben. Womit der vorgenannte Forums-Thread letztlich absolut recht hat: Wer zum Start der GeForce 8800 GT eine dieser Karten für 220 Euro oder niedriger hat erwischen können, hat ein absolutes Schnäppchen gemacht - denn im Gegensatz zu vieler anderer Hardware, welche gerade kurz nach Marktstart schnell einen gewissen Teil des Wertes verliert, sind die Preise für diese Karten konstant geblieben bzw. wie gesagt eher etwas nach oben gegangen.
News des 18. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie Golem ausführen, wird Intels vermeintliches oder echtes Grafikchip-Projekt "Larrabee" vermutlich erst 2010 und jedenfalls nicht vor Ende 2009 in den Markt kommen. Larrabee wurde ursprünglich als Zusatz-Beschleuniger für wissenschaftliche Aufgaben angesehen (ähnlich den GPGPU-Projekten von ATI und nVidia), die für Larrabee gedachten Treiber für DirectX und OpenGL würden allerdings natürlich auch eine Verwendung als Spiele-Grafikkarte zulassen. Auf der anderen Seite sprechen der später Erscheinungstermin und Intels Affinität zu Raytracing-Spieleengines durchaus dafür, daß es sich bei Larrabee wenn dann nicht um eine gewöhnliche Spiele-Grafikkarten handeln dürfte - sondern eben um eine Raytracing-Spielegrafikkarte, welche dann natürliche auch Raytracing-Engines seitens der Spiele voraussetzt.
Sofern ATI und nVidia aber nicht 2010 genau dasselbe mit ihren dann aktuellen Grafikbeschleunigern machen, würde man mit einem solchen Ansatz nicht einfach einen normalen Markteintritt ins Grafikkartengeschäft vollziehen. Vielmehr wäre die Voraussetzung für einen solchen Raytracing-Spielebeschleuniger (wenn wie gesagt ATI und nVidia nicht das völlig selbe machen), daß die Spieleentwickler ihre Spiele-Engines entsprechend anpassen - was ein eher langfristiger Prozeß sein und daher den Markterfolg solcher Intel-"Grafikkarten" zumindest anfänglich arg begrenzen dürfte. Wobei nach wie vor die wahrscheinlichste aller Auflösungen ist, daß Intel Larrabee primär als GPGPU-Beschleuniger plant und auf der Spiele-Seite einfach nur einmal austestet, was denn da zusätzlich so machbar ist.
Der Heise Newsticker berichtet über die Quartalszahlen von AMD, welche auf den ersten Blick sehr düster aussehen, aber bei genauerer Betrachtung dann sogar als Lichtblick gewertet werden können. Zwar stieg der Quartalsverlust abermals auf das Rekord-"Ergebnis" von 1,772 Milliarden US-Dollar Minus, im Gegensatz zu den vorangegangenen Quartalen waren hier aber nun 1,675 Milliarden Abschreibungen auf den Wert von ATI enthalten, betrug der reale Nettoverlust also "nur" noch 97 Millionen Dollar. Da im rein operativen Geschäft mit 9 Millionen Dollar Verlust die schwarzen Zahlen sogar schon in Sichtweite sind, dürfte AMD nach dem Finanzjahr 2007 mit heftigen Sonderbelastungen durch die ATI-Übernahme im Finanzjahr 2008 wahrscheinlich die Trendwende schaffen und wieder (kleine) Gewinne einfahren können. Das Risiko einer Übernahme durch andere Firmen oder Finanzinvestoren ist damit aber bei weitem noch nicht vom Tisch, da AMD durch die Kursverluste der letzten Monate nach wie vor recht billig zu bekommen ist. Nur konstant gute Gewinne könnten den Börsenkurs von AMD wieder auf alte Höhen bringen, worauf das Unternehmen dann wenigstens für Finanzinvestoren zu teuer werden würde.
Bei Digit-Life ist man wieder einmal der Frage DDR2 vs. DDR3 nachgegangen - ermittelt hierbei anhand von üblichen Standardspeichern, sprich DDR2/800 mit Latenzen von 4-4-4-12 gegen DDR3/1333 mit Latenzen von 9-9-9-24. Dabei ergaben sich trotz der relativ schlechten Timings des DDR3-Speichers überall minimale Vorteile für diesen, wenngleich diese Vorteile im Bereich von einem bis drei Prozent natürlich keinerlei Praxiseinfluß haben. Interessant aber auch, daß die größeren Vorteile regelmäßig mit einem FSB1600-Prozessor erzielt wurden, während die Gewinne auf dem FSB1333-Prozessor regelmäßig an der Grenze der Meßgenauigkeit lagen.
Hiermit dürfte sich wieder einmal bestätigen, daß die ideale Speicherbestückung bei Intel-Prozessoren immer etwas mehr Bandbreite zur Verfügung haben sollte als der Prozessor selber an FSB-Bandbreite mitbringt. Zu dem FSB1600-Prozessor würden rein von der FSB-Bandbreite her DDR2/800-Speicherriegel passend sein (FSB und Speicher haben dieselbe Bandbreite von 12 GB/sec), ein etwas höher getakteter Speicher bringt aber auch noch regelmäßig ein paar Prozentpunkte an Performance. Deswegen zeigt der DDR3/1333-Speicher in diesem Fall auch etwas mehr Leistung gegenüber dem DDR2/800-Speicher - wobei man durchaus die Frage in den Raum werfen kann, ob nicht auch ein DDR2/1066- oder DDR3/1066-Speicher genauso schnell gewesen wäre.
Gleichzeitig erklärt sich damit auch der sehr niedrige Performancegewinn unter dem FSB1333-Prozessor: Dessen theoretisches Speicherpendant wäre DDR2/667, der FSB1333-Prozessor ist also mit DDR2/800 schon gut "überfüttert", womit eine extreme "Überfütterung" mittels DDR3/1333 dann auch nichts mehr wesentliches an Performance bringen kann. Der Artikel zeigt zwar, daß auch wenn ein völlig überdimensionierter Speicher zu einer bestimmten CPU gewählt wurde, noch etwas mehr Performance herauszuholen ist - aber vor allem, daß der Leistungsgewinn durch eine solche Aktion nicht der Rede wert ist, ganz besonders bei den immer noch gesalzenen Preisen von DDR3-Speichern.
News des 17. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
In unserem aktuellen Artikel zum Grafikkarten-Marktüberblick ist noch eine kleine Ungenauigkeit enthalten: Die Radeon HD 3870 X2 ist abweichend zu den anderen demnächst kommenden neuen Grafikkarten bereits am 23. Januar, also Mitte nächster Woche, zu erwarten. Inwiefern diese Karte dann schon lieferbar sein wird, ist noch nicht klar - bei den kommenden GeForce9-Karten von nVidia deutet sich ja bereits an, daß diese zwar am 14. Februar vorgestellt, dann aber erst Ende Februar bis Mitte März in den Handel gelangen werden. Die Radeon HD 3870 X2 als DualChip-Lösung auf Basis des RV670-Chips stellt ATIs neue HighEnd-Lösung dar und soll mit einem Preis von knapp 400 Euro daherkommen.
Wie WinFuture berichten, wird MSI ab dem Februar anfangen, erste Mainboards mit EFI (Extensible Firmware Interface) - dem Nachfolger des bisherigen BIOS - herauszubringen, den Anfang soll eine Platine mit Intels P35-Chipsatz machen. EFI setzt allerdings Windows Vista im Service Pack 1 voraus, daß originale Windows Vista wie auch Windows XP unterstützen EFI nicht. Die EFI-Platinen werden mit diesen Betriebssystemen aber trotzdem nutzbar sein, dafür kann EFI in einem Kompatibilitätsmodus ein "altes" BIOS emulieren. EFI soll generell einige Unzulänglichkeiten des mittlerweile über 25 Jahren alten BIOS beseitigen, dazu gehören beispielsweise unter anderem die Unterstützung von höheren Bildschirmauflösungen schon vor dem Hochfahren des Betriebssystems, den Start von Betriebssystem-unabhängigen Treibern sowie die Funktionalität eines Bootloaders für mehrere installierte Betriebssysteme.
Davon ist einiges interessant, vieles aber eher nur optische Verschönerung - wie auch die seitens MSI in das erste EFI-Mainboard integrierten drei Mini-Spiele, mit welchen man sich die Zeit bis zum Starten des Betriebssystem vertreiben soll (was ein wenig die Aussage konterkariert, EFI würde die Startzeiten verkürzen). Ehrlicherweise überwiegen bei EFI - neue Technik hin und her - eher die Bedenken, denn EFI ermöglicht eben auch ein eingebettetes Netzwerkmodul. Dieses ist zwar prinzipiell zum Vorteil des Kunden gedacht (Fernwartung durch den PC-Hersteller), kann und wird aber natürlich auch - gerade im Zusammenhang mit der Möglichkeit des Starts von Betriebssystem-unabhängigen Treibern - mißbraucht werden. Faktisch eröffnet EFI eine ganz neue und besonders fiese Schädlingskategorie - EFI-Viren, welche gerade da sie im EFI stecken, um so schwerer unter Windows zu erkennen und zu beseitigen sind.
Natürlich wird es auch hierfür Virenscanner geben, aber sicherlich ist es besser, diese Angriffsmöglichkeit gar nicht erst auf seinem Rechner zu haben. Es darf hier also durchaus die Frage gestellt werden, ob die wenigen wirklich gewinnbringenden Vorteile von EFI dieses zusätzliche Risiko wert sind. Nach der zu erwartenden Durchsetzung am Markt dürfte dann zumindest gelten, daß man sich beim Mainboard-Kauf eine Platine mit einem EFI ohne Fernwartfunktion heraussucht. Gerade die PCs von großen Markenherstellern dürften dann automatisch aus dem Angebot herausfallen, denn diese werden wohl regen Gebrauch von dieser Funktionalität machen. Besser wäre es allerdings, wenn man es gar nicht erst so weit kommen läßt und das Gefahrenpotential der EFI-Fernwartfunktion rechtzeitig erkennt, auf das für übliche Home-PCs (für Büro-PCs mag das anders aussehen) ausschließlich EFI-Mainboards ohne eingebettetes Netzwerkmodul angeboten werden.
Seitens Heise Security berichtet man über das Programm RUBotted von Trend Micro, welches eine Art Hintergrundwächter gegen Bots darstellt. Im Gegensatz zu den zu diesem Zweck üblicherweise eingesetzten Virenscanner arbeitet das Programm nicht Signatur-basiert, sondern überwacht das Netzwerk des eigenen PCs, da ein sich einmal eingefangener Bot üblicherweise diverse auffällige Netzwerkaktivitäten entwickelt. Die Wirkungsweise ließ sich leider auf die schnelle noch nicht überprüfen, da sich das Programm scheinbar an der unsererseits benutzten Firewall aufhing ;). Doch prinzipiell erscheint die Idee als zusätzlicher Schutz neben dem üblichen Paket aus Firewall und Virenscanner jedoch durchaus griffig, gerade weil wie gesagt ein gänzlich anderer Erkennungsansatz gewählt wurde. Bei größerem Erfolg solcher Lösungen dürfte sich natürlich wieder der übliche Effekt ergeben, daß zumindest hochklassige Schadprogramme solcherart bekannte Sicherheitslösungen gleich erst einmal deaktivieren oder aber wenigstens deren Erkennung unterlaufen.
Und leider hat auch dieses Programm wieder mit dem grundsätzlichen Problem aller Sicherheitssoftware zu kämpfen: Diese Nutzer, welche sich ausreichend auf ihrem PC auskennen, werden sich ein Schadprogramm nur mit sehr geringer Chance einfangen und jenes im Zweifelsfall auch eher entdecken, als das dieses ungestört wirken kann - ob nun mit Firewall, Virenscanner und Botwächter oder auch ohne diese Hilfsprogramme. Dagegen wird dieser Botwächter aller Wahrscheinlichkeit jenen Nutzern, welche sich auf ihrem PC nicht ausreichend genug auskennen, um selbständig Schadprogramme zu erkennen, wohl auch nicht wesentlich oder zumindest nur mit geringer Chance weiterhelfen - das alte Problem bei der Internet-Sicherheit, das Software nichts mehr richten kann, was nicht als Wissen beim Nutzer schon vorhanden ist.
News des 16. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Das chinesischsprachige PConline (maschinelle Übersetzung ins englische) hat einen ziemlich umfangreichen Test zur GeForce 9600 GT im Angebot, der am 14. Februar anstehenden neuen Mainstream-Lösung von nVidia. Getestet wurde dabei gegen die Vorgänger-Lösung GeForce 8600 GTS, welche allerdings gegenüber der GeForce 9600 GT maßlos überfordert ist - nVidia scheint hier wahrzumachen mit der Ankündigung von deutlich mehr Performance im Mainstream-Bereich. Eher passendere Gegner für die GeForce 9600 GT sind da die GeForce 8800 GS, welche derzeit preislich kurzfristig den Platz einnimmt, welchen später die GeForce 9600 GT innehaben soll - und auf ATI-Seite natürlich die Radeon HD 3850.
Letztere wurde allerdings nur in der 256-MB-Edition getestet, während die GeForce 9600 GT in ihrer Spitzenversion wohl gleich mit 512 MB antreten wird. Auch preislich erscheint die Radeon HD 3850 512MB eher als der passende Gegner zur GeForce 9600 GT: Letztgenannte ist zu Preisen von 150 bis 160 Euro (179 Dollar voraussichtlicher Listenpreis) zu erwarten, was besser zur Radeon HD 3850 512MB passt, da sich die 256-MB-Ausführung der Radeon HD 3850 inzwischen schon unter der 150-Euro-Grenze bewegt und derzeit gar schon Preise im Bereich von 130 Euro anpeilt. Doch auch mit den jetzt vorliegenden Benchmarks läßt sich schon erahnen, daß nVidia mit der GeForce 9600 GT ein wirklich heißes Eisen im Feuer haben wird.
So wird die nVidia-eigene GeForce 8800 GS, welche zum heutigen Tag erstmalig in unseren Breitengraden lieferbar wurde, in mehr oder weniger jedem Benchmark überboten - für die Ausgangslage, wonach die GeForce 8800 GS einen G92-Chip aus dem Performance-Segment hat und die GeForce 9600 GT mit dem Mainstream-Grafikchip G94 antritt, ist das schon beachtlich. Auch die Benchmark-Resultate gegenüber einer Radeon HD 3850 256MB sehen überaus ansprechend aus - wobei in diesem Fall in der Tat noch abgewartet werden muß, wie sich hier die 512-MB-Edition der Radeon HD 3850 schlägt. Nichtsdestotrotz sehen die Vorzeichen bei der GeForce 9600 GT glänzend aus, selbst wenn die Karte im Gegensatz zur ATI-Konkurrenz offenbar definitiv kein Direct3D 10.1 beherrscht.
In Korrektur zu einer früheren News wäre noch zu erwähnen, daß die 256-MB-Edition der GeForce 8800 GT nicht mit gegenüber der 512-MB-Edition abgesenkten Speichertakt daherkommt. Bei der Arbeit an unserem aktuellen Artikel ergab sich eindeutig, daß die klare Mehrheit der am Markt angebotenen GeForce 8800 GT 256MB Karten mit dem regulären Speichertakt von 900 MHz operiert. Damit ist der Performanceabstand der GeForce 8800 GT 256MB gegenüber der 512-MB-Edition dieser Karte geringer als seinerzeit angenommen und tritt vor allem auch nur in diesen Spielen und Auflösungen auf, wo 256 MB Grafikkartenspeicher zu wenig sind. Auf der anderen Seite ist es generell etwas bedenklich, heutzutage im 200-Euro-Preisbereich (oder höher) mit einer 256-MB-Karte zu operieren.
Denn in aller Regel soll eine solche Anschaffung dann doch eine gewisse Zeit ihre Dienste tun und sollen eigentliche keine Abstriche bei der Bildqualität der Spiele in Kauf genommen werden. Gerade neuere Spiele zeigen jedoch schnell einmal teils erhebliche Vorteile für 512-MB-Karten, bei der erwartungsgemäßen Fortsetzung dieses Trends altert eine 256-MB-Karte des Performance-Segments deutlich schneller als es eine 512-MB-Karte tun würde. Zumindest in diesem Preisbereich ist es inzwischen doch empfehlenswert, generell auf 512-MB-Lösungen zu setzen. Für Mainstream-Karten trifft dies dann natürlich nur noch bedingt zu, bei diesen Karten ist zu erwarten, daß zukünftig eher die generelle Leistungsfähigkeit als ein zu kleiner Grafikkartenspeicher limitiert.
Bei Legion Hardware gibt es nun auch noch einen Test einer 1-GB-Ausführung der GeForce 8800 GT, dankenswerterweise wurde hier auch gegen die reguläre Version dieser Karte mit 512 MB Grafikkartenspeicher verglichen. Nennenswerte Vorteile zugunsten der 1-GB-Ausführung ergaben sich dabei nicht, vielmehr lag diese unter der Auflösung von 1920x1200 sogar teilweise ein paar Prozente hinter der 512-MB-Edition zurück - sicherlich ein unerwartetes Meßergebnis, aber bei einigen Spielen anzutreffend und anscheinend auch nicht durch einen Taktunterschied zu erklären. Zumindest läßt sich wohl mit Fug und Recht sagen, daß die 1-GB-Edition der GeForce 8800 GT dem Käufer nichts bringt, der Mehrspeicher in diesem Fall keine sinnvolle Investition darstellt.
neuer Artikel |
Grafikkarten-Marktüberblick Januar 2008
Seit unserem letzten Marktüberblick im November 2007 sind zwei Monate vergangen und ist inzwischen auch wieder einiges passiert. Zum einen sind die Radeon HD 3850/3870 sowie GeForce 8800 GT Grafikkarten nun wirklich verfügbar geworden, desweiteren hat nVidia den G92-Chip nun auch noch zu zwei weiteren Varianten benutzt (GeForce 8800 GTS 512MB und GeForce 8800 GS), und letztlich gibt es mit der Radeon HD 2900 Pro 256-Bit auch noch eine neue interessante Geheimtip-Karte. Daneben haben sich natürlich auch schon wieder einige Preise verschoben (besonders stark bei der GeForce 8800 GTX), so daß sich ein neuer Marktüberblick durchaus lohnt ... zum Artikel
News des 15. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
In einem Artikel der X-bit Labs gibt es mal wieder neue Stromverbrauchsmessung zu aktuellen Grafikkarten, welchen zu entnehmen ist, daß die GeForce 8800 GT 512MB in der Praxis unter Last ihre 78 Watt zieht - was ziemlich gut unsere bisherige Schätzung von 80 Watt trifft. Auch nicht schlecht getroffen war unsere Schätzung der Radeon HD 3870 512MB von 85 Watt - in der Realität sind es nunmehr 81 Watt. Der Idle-Verbrauch der GeForce 8800 GT von 36 Watt ist natürlich immer noch zu hoch - wie es besser geht, zeigt die Radeon HD 3870, welche unter Idle nur noch 19 Watt zieht und damit in den Bereich von Mainstream-Grafikkarten geht, welche im Idle-Verbrauch ebenfalls bei runden 20 Watt liegen.
Seitens Tom's Hardware berichtet man über einen weiteren Ableger aus nVidias kommender GeForce9-Serie, die GeForce 9500 GT auf Basis des G96-Chips. Mit diesem soll offenbar die bisherige GeForce 8500 GT im LowCost-Bereich ersetzt werden, zugleich könnte der G96-Chip dann aber auch für noch tiefer angesiedelte LowCost-Projekte benutzt werden. Die Technik der GeForce 9500 GT scheint dabei durchaus im oberen LowCost-Bereich angesiedelt zu sein, dies ergibt sich aus den wenigen bekannten Daten: 128 Bit DDR Speicherinterface und Taktraten von immerhin 650/1650/900 MHz sollten selbst bei der zu erwartenden eher geringen Anzahl von Shader- und Textureneinheiten für eine LowCost-Lösung doch sehr anständig sein.
Dabei wird aber auch die GeForce 9500 GT bzw. der G96-Chip als "Direct3D10" beschrieben, wie sich inzwischen auch allgemein die Hinweise mehren, daß nVidia bei der GeForce9-Klasse vorerst bei Direct3D10 bleiben und nicht auf Direct3D 10.1 umsteigen wird (dies eventuell erst mit der nächsten Grafikchip-Generation). Offen bleibt hier aber nach wie vor, wie nVidia dann den Namenswechsel von "GeForce8" zu "GeForce9" begründen wird - was zusätzlich dadurch interessant sein dürfte, als daß die kommenden Grafikchips G94 und G96 als "GeForce9" in den Markt kommen werden, der schon bestehende Grafikchip G92 allerdings als "GeForce8" (in Form der GeForce 8800 GT und GTS) im Markt existiert. Nach wie vor ist es schließlich möglich, daß bislang unaktiviert in den G9x-Chips eine neue Technik schlummert, die dann erst mit dem offiziellen Erscheinen der GeForce9-Serie freigeschaltet wird.
Shortcuts: Die Overclockers Workbench haben die erste passiv gekühlte GeForce 8800 GT seitens ECS Elitegroup im Test. Damit ergibt sich nun auch auf der nVidia-Seite die Möglichkeit, Karten des Performance-Segments in rein passiver Ausführung zu erwerben, nachdem entsprechende Angebote auf Radeon HD 3850/3870 Basis bereits im Markt sind. MKVTech bieten hingegen den Test einer 1-GB-Ausführung der GeForce 8800 GT seitens Gainward an. Leider fehlen direkt vergleichende Benchmarks gegenüber der regulären 512-MB-Ausführung dieser Karte, generell dürfte aber der Effekt des 1-GB-Speichers sehr überschaubar selbst in hohen Auflösungen samt Anti-Aliasing sein, sind 512 MB Grafikkartenspeicher für heutige Spiele doch wirklich ausreichend.
News des 14. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Beim Guru3D gibt es einen ersten Benchmark zur Radeon HD 3870 X2, der DualChip-Lösung von ATI auf Basis zweier RV670-Grafikchips. Dabei wurden im 3DMark06 unter der Auflösung von 2560x1600 immerhin 9573 Punkte erreicht, was doch ganz ansprechend ist, da selbst eine GeForce 8800 Ultra in diesem Test nur runde 8000 Punkte erzielt. Auf der anderen Seite ist dieses Ergebnis auch nicht so verwunderlich: Denn wenn man davon ausgeht, daß die Radeon HD 3870 X2 mit den Taktraten der gewöhnlichen Radeon HD 3870 (775/1125 MHz) antritt, so sollte die Radeon HD 3870 X2 exakt die Performance eines CrossFire-Gespanns aus zwei Radeon HD 3870 Grafikkarten hinlegen - und ein solches CrossFire-Gespann ist nun einmal auch schon jetzt etwas schneller als eine (einzelne) GeForce 8800 Ultra.
Unter anderem HKEPC berichten über die Core 2 Duo E7000 Prozessoren-Serie, mittels welcher Intel die bisherige LowCost-Serie Core 2 Duo E4000 ab dem zweiten Quartal mit 45nm-Modellen ablösen will. Die neuen Prozessoren sollen dabei einen höheren FrontSideBus (FSB1066) und einen größeren Level2-Cache (3 MB insgesamt) mitbringen, zudem steigt die Core 2 Duo E7000 Serie gleich mit Taktfrequenzen von 2.53 GHz aufwärts ein. Besonders für günstige DualCore-Systeme dürften diese Prozessoren interessant sein, zudem dürfte der (relativ) niedrige FrontSideBus auch gute Overclocking-Ergebnisse auf solchen Plattformen mit sich bringen, welche keine besonders hohen FSB-Taktungen erreichen können.
Wie Fudzilla berichten, will Intel innerhalb der Core-2-Serie dieses Jahr angeblich keine schneller getakteten Prozessoren als den Core 2 Extreme QX9770 mit 3.2 GHz herausbringen. Dies wäre deutlich abweichend von den bisherigen Plänen, welche in diesem Jahr eigentlich eine gewisse Taktoffensive bis in Richtung 4 GHz vorgesehen haben. Auch würde Intel somit die Möglichkeiten der 45nm-Fertigung nicht wirklich ausnutzen, schließlich erreichte schon der schnellstgetaktete 65nm-Prozessor von Intel seine 3.0 GHz Takt. Auf der anderen Seite ist Intel derzeit bei weitem nicht unter Zugzwang, irgendwie mehr Performance bieten zu müssen - selbst das angekündigte und bislang noch nicht lieferbare Phenom-Spitzenmodell (Phenom 9900 mit 2.6 GHz) kann es nicht mit Intels Top-Modellen aufnehmen.
Zudem macht sich eine gewisse Zurückhaltung bei der Core-2-Serie natürlich dann bezahlt, wenn Intel im vierten Quartal die Nehalem-Prozessorenarchitektur auf den Markt wirft - diese würde dann noch besser aussehen, als sie wahrscheinlich schon automatisch sein wird. All dies dürfte Intel aber nur nebensächlich zu einem solchen Schritt veranlassen, viel eher wäre der Grund hierfür in wettbewerbsrechtlichen Problemen zu sehen: Intel ist mehr oder weniger zwingend auf den Fortbestand von AMD angewiesen, weil man ansonsten auf dem US-Markt als Monopolist gelten würde und damit unter die sehr strenge US-Gesetzgebung gegen Monopolisten fallen würde - welche bis hin zu einer Zwangszerschlagung des Unternehmens gehen kann. Und da es AMD momentan wirklich nicht rosig geht und im Prozessoren-Geschäft für die nächste Zeit auch keine echte Besserung in Sicht ist, kann Intel gar nicht viel anders, als es für die nächsten Monate eher etwas ruhiger angehen lassen.
Dies bedeutet natürlich nicht, daß es keinen Wettbewerb mehr geben würde oder aber daß die Verkaufs- und Marketing-Abteilungen sich in irgendeiner Form zurückhalten werden. Der ganz normale, tägliche Konkurrenzkampf dürfte unvermindert weitergehen - nur hat halt jemand im oberen Intel-Managment wohl die Entscheidung gefällt, den Performance-Abstand zu AMD nicht durch den Release weiterer Taktstufen der Core 2 Duo Prozessoren weiter zu vergrößern und AMD damit in noch größere Schwierigkeiten zu stürzen. Und so ungelegen dürfte Intel eine solche relative Ruhepause des Konkurrenzkampfes mit AMD auch nicht kommen: Denn anstatt die Leistungsfähigkeit der 45nm-Fertigung mittels höherer Taktraten zum gleichen Preis den Kunden in den Rachen zu werfen, nutzt man den 45nm-Prozeß nunmehr vornehmlich dazu aus, günstiger zu fertigen und damit höhere Gewinne anzuhäufen ;).