News-Archiv 21. - 27. Mai 2007 (21. Kalenderwoche)
26./27. Mai 25. Mai 24. Mai 23. Mai 22. Mai 21. Mai
News des 26./27. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Aufs nVidias nZone kann man sich zwei seitens Crytek zur Verfügung gestellte Vergleichsvideos zum Thema "DirectX9 vs. Direct3D10" downloaden. Beide Videos zeigen natürlich nur den Unterschied, welchen Crytek im kommenden Spiel Crysis ansetzt - bei anderen Spielen kann das schon wieder ganz anders ausschauen. Speziell in den beiden Videos sind die Optikunterschiede zwichen DirectX9 und Direct3D10 allerdings eher gering, man könnte es vielleicht sogar als vernachlässigbar beschreiben. Unsicher bleibt zudem natürlich, ob die minimal bessere Bildqualität der Direct3D10-Version nicht letztendlich bei einigem Willen auch für die DirectX9-Version des Spiels realisierbar wäre - gerade bei den geringen festzustellenden Unterschieden.
Zur Mitte der Woche erwähnten Leadtek GeForce 7950 GX2, welche seitens Alternate für wirklich günstige 179 Euro angeboten wurde, läßt sich noch dazusagen, daß diese Karte inzwischen nicht mehr verfügbar ist, es sich somit also nunmehr sicher um eine Abverkaufsaktion mit begrenzter Stückzahl handelte. Zwar gab es noch ein weiteres Angebot seitens Alternate für diese Karte zu einem Preis von 199 Euro, allerdings ist auch dieses inzwischen schon nicht mehr lieferbar. Aller Vermutung nach dürfte diese Karte auch überhaupt nicht mehr lieferbar werden, da sie von den Grafikkartenherstellern zugunsten der GeForce8-Serie aus dem Programm genommen wird. Interessanterweise gab es unter der Woche ein ähnlich günstiges Angebot für diese Karte bei K&M Elektronik, welches aber wohl noch schneller ausverkauft war als die Alternate-Angebote.
Es sei (hoffentlich) an dieser Stelle auch einmal gestattet, auf eine kleine subjektive Beobachtung des Newsschreibers einzugehen: Erstaunlich viele aktuelle Spiele schaffen es, trotz guter Spielidee und -umsetzung bei einigen absoluten Basics zu schlampen, in erster Linie bezogen auf die Steuerung und die Konfigurierbarkeit der Steuerung. Die Beispiele der jüngeren Vergangenheit: Reservoir Dogs bietet wirklich viele Steuerungsoptionen an, mit einem unbedachten Druck auf die ESC-Taste (welche in 99,9% aller Spiele & Anwendungen einfach nur "zurück" oder "abbrechen" bedeutet) fängt man sich ohne weitere Rückfrage jedoch gleich wieder die Defaultsteuerung ein. Ein so geniales Spiel wie Scarface bietet gleich überhaupt keine Möglichkeit an, mit einer eigenen Steuerung zu spielen, aufgrund der ungünstig gewählten Defaultsteuerung rufen leider auch Experimente mit Programmen, welche Tastatur- und Mauseingaben auf andere Tasten legen können, nur unbefriedigende Ergebnisse hervor ...
... Bei Test Drive Unlimited kann man die Maus nur in der vom Spiel vorgesehenen Weise (zum Umherblicken) benutzen, die Maustasten werden jedoch nicht als Tastaturersatz akzeptiert (was unverständlicherweise auch auf viele andere Spiele zutrifft). Elementarer bei diesem Spiel dürfte aber sein, daß sich die Autos eher wie ein dickes Wohnmobil steuern lassen: Ein leichter Druck auf die Taste für Links/Rechts bewirkt gar nichts, ein etwas stärkerer bringt das Fahrzeug gleich ins Schleudern. Wie man ausgerechnet bei einem Rennspiel eine derart verbockte Steuerung einbauen kann, darf der Spieleentwickler gern einmal erklären. Und selbst wenn sich die Steuerung mittels Feintuning noch irgendwie annehmbar gestalten lassen sollte (was nicht sagt, daß der Effekt der superschwerfälligen Steuerung damit verschwindet), so sollte man doch annehmen, daß es schon im Defaultzustand eine annehmbare Steuerung gibt ...
... Völlig normal scheint es zudem inzwischen zu sein, dem Spieler eine unabänderbare Bobbing-Bewegung des Protagonisten zuzumuten, jüngstes Beispiel wäre hier Stalker: Shadow of Chernobyl. Sicherlich existiert diese Auf- und Abwärtsbewegung durch den natürlichen Gang des Menschen in der Realität - allerdings ist es auch Realität, daß das menschliche Gehirn das gegenrechnet und wir diese Bobbing-Bewegung üblicherweise nicht wahrnehmen. Sicherlich gibt es hierzu wirklich völlig unterschiedliche Ansichten und Geschmäcker - aber warum diesen nicht einfach Rechnung tragen mit einem entsprechenden regelbaren Setting in den Spiel-Optionen? Selbst Uralt-Software konnte das teilweise schon ...
... Das letzte Beispiel ist dann The Godfather (Der Pate), welches einen die Steuerung zwar nach Belieben konfigurieren läßt und sogar die Maus als Tastaturersatz akzeptiert, bei dieser aber im Gegensatz zur Tastatur keine Funktionswiederholung zuläßt. Um nach vorn zu laufen, muß man üblicherweise die W-Taste einfach nur gedrückt halten - macht man dasselbe mit einer Maustaste, bewegt sich der Protagonist nur ein Schrittchen nach vorn, man müsste also faktisch dauern klicken ;). Sicherlich ist dieses Beispiel wieder eines der kleinsten Übel, aber ingesamt kann man schon sagen, daß hier massiv bei eigentlich absolut einfachen Dingen geschlampt wird. Völlig ohne Not werden hier Dinge nicht richtig gemacht, die 10 Jahre zurückliegende Software schon konnte und welche allesamt keinerlei besonderes Programmierergeschick erfordern ...
... Und wenn die Spieleprogrammierer meinen, die Konfigurierbarkeit der Steuerung wäre überflüssiger Luxus, sollen sie bitte rein für Konsolen entwickeln - denn auf dem PC ist das seit langem absoluter Standard. Einen ausdrücklichen Tadel holen sich hiermit aber auch die meisten der Spieletest-Redaktionen ab, welche auf den Punkt der Konfigurierbarkeit der Steuerung kaum einen Wert legen bzw. diesen Punkt zumeist gleich gar nicht erwähnen. Faktisch gibt es für den interessierten Käufer damit kaum Vorabinformationen, ob ein neu erscheinendes Spiels nur eine konfigurierbare Steuerung besitzt oder nicht. Gerade im Sinne dessen, daß Software bei Mißgefallen üblicherweise nicht zurückgegeben werden kann, ist dies eine eigentlich unhaltbare Situation.
News des 25. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Beyond3D berichten über die jüngste Analysten-Telefonkonferenz seitens nVidia, welche einige Hinweise auf die zukünftigen Pläne des Grafikchip-Entwicklers im HighEnd-Markt bereithält. So scheint der nächste HighEnd-Chip seitens nVidia wiederum zum Ende des Jahres zu erscheinen und dürfte somit in Konkurrenz zu ATIs R650 gehen, welcher als Refreshchip zum R600 im dritten Quartal zu erwarten ist. Als Codenamen für den neuen nVidia-Chip bieten Beyond3D im übrigen G92 an, bisher wurde dieser Chip zumeist als G90 betitelt. Unklar bleibt dabei allerdings, ob es sich bei diesem nächsten HighEnd-Chip von nVidia um einen Refresh des G80-Chips handelt oder schon wieder um eine regelrecht neue Architektur ...
... Die von nVidia angestellte Leistungsprognose von 1 TeraFlop/sec (rund das Doppelte der aktuellen HighEnd-Generation) wäre wohl auch mit einem Refreshchip erreichbar, sofern dieser höhere Taktraten und mehr Ausführungseinheiten mit sich bringt. Auf der anderen Seite dürfte ATIs nächste Generation in Form des R700-Chip wohl ebenfalls schon über eine neue Architektur verfügen, wahrscheinlich dann nach Direct3D 10.1 Standard. Da der R700 im Frühjahr 2008 zu erwarten ist, bietet sich der Gedanke natürlich an, daß der vorgenannte Jahresend-Chip von nVidia dieselbe Technologie-Basis haben könnte und dann kein bloßer Refresh des G80-Chips mehr wäre. Sollte die letzte Annahme zutreffen, würde der G80 dann ganz ohne Refreshchip bleiben, was für die jüngere Vergangenheit durchaus ungewöhnlich wäre.
Für ein wenig Aufregung sorgt derzeit ein Interview mit den Machern von Quake Wars im nVidia Developer Blog: Die Aussage, daß man mittels OpenGL Direct3D10-Features auch unter Windows XP ermöglichen kann, ist allerdings in dem Sinne nichts neues, da man mit OpenGL schon immer Betriebssystem-unabhängig die volle Featurepalette von Grafikchips ausnutzen konnte. Der Nutzungsgrad der freien 3D-API für Spiele ist allerdings in den letzten Jahren immer stärker zurückgegangen - und ob sich dies mit der reinen Möglichkeit ändert, Direct3D10-Beschleuniger auch unter Windows XP voll ausnutzen zu können, bleibt demzufolge stark abzuwarten. Der Vorteil von Direct3D10 liegt zudem sowieso weniger darin, neue Effekte zu ermöglichen - denn rein vom Prinzip her ist alles, was mit Direct3D10 darstellbar ist, mit DirectX9 genauso möglich ...
... Direct3D10 macht es dem Programmierer aber in vielen Punkten einfacher, zum Ziel zu kommen, zudem ist die benötigte Rechenleistung einiger Effekte deutlich niedriger. Damit werden also unter Direct3D10 Effekte, welche unter DirectX9 technisch trotzdem möglich sind, rein praktisch häufiger eingesetzt werden - es geht zwischen DirectX9 und Direct3D10 primär um Effizienz, nicht um eine Checkliste an verfügbaren Effektefeatures. Genau aber unter dem Punkt des effizienten Programmierens wird OpenGL (aus diversen Gründen) von vielen Programmiern als nicht wirklich gut beurteilt. Die Microsoft-APIs bieten hier trotz ihrer Plattformabhängigkeit das wohl rundere Paket an, selbst wenn dies Microsoft nun in eine faktische Monopolsituation gebracht hat - mit welcher man wie bekannt auch die Marktmacht hat, Direct3D10 bewußt nur unter Windows Vista anzubieten.
Laut der PC Games Hardware wird es eine passiv gekühlte Ausführung der Radeon HD 2600 XT GDDR3 nun ebenfalls seitens Sapphire geben, ähnliches wurde gestern auch schon von PowerColor berichtet. Anzumerken sei allerdings, daß Sapphire hierbei nur auf die GDDR3-Version der Radeon HD 2600 XT setzt, welche gegenüber der GDDR4-Version einen deutlich niedrigeren Speichertakt hat (700 zu 1100 MHz). Von dieser speziellen Karte abgesehen sollten sich passive Ausführungen aber auch generell mit allen neuen Mainstream-Karten realisieren lassen, da die derzeitige Grenze für passive Kühlung bei ca. 65 Watt Verlustleistung liegt (Radeon X1950 Pro) und alle neuen Direct3D10 Mainstream-Beschleuniger Verlustleistungen weit darunter aufweisen. Insofern ist durchaus zu erwarten, daß in den nächsten Wochen noch weitere passiv gekühlte Ausführungen von Radeon HD 2400/2600 und GeForce 8500/8600 in den Markt kommen werden.
Die EETimes berichtet von den Fortschritten rund um PCI Express 2.0, welches schon im dritten Quartal mittels Intels Mainboard-Chipsatz X38 in den Markt kommen wird. Dabei wurden auf einer Veranstaltung des Standardisierungsgremiums PCI-SIG lauffähige PCI Express 2.0 Systeme mit Intel-Chipsatz sowie Grafikkarten von ATI und nVidia gezeigt. Aller Voraussicht nach wird die Evolution dieser Anschlußtechnik seitens der Grafikchip-Entwickler und Grafikkartenhersteller allerdings kaum mit einem größerem Aufwand verbunden sein, im Endeffekt stellt für diese PCI Express 2.0 dasselbe Protokoll wie die Version 1.x nur eben mit dem doppelten Takt dar. Aufgrund der damit also nur geringfügigen Anpassungsarbeiten im Grafikchip und auf den Grafikboards dürfte Grafikkarten-seitig der Übergang zu PCI Express 2.0 wohl recht schnell zu bewältigen sein. Wie bekannt, ist PCI Express 2.0 zudem abwärtskompatibel, d.h. 2.0-fähige Grafikboards lassen sich natürlich auch weiterhin in aktuellen PC-Systemen des 1.x-Standards betreiben.
Shortcuts: Seitens ExtremeTech kommt das wilde Gerücht, wonach in Intels 45nm Prozessor "Penryn" eventuell bereits eine Grafikeinheit versteckt sein könnte. Für den Augenblick ist dies über alle Maßen unwahrscheinlich - schon allein, weil Intel bei den angedachten CPU/GPU-Kombiprojekte den Grafikchip immer extra fertigen und nicht direkt in die CPU integrierten will. Die X-bit Labs berichten von kommenden Mainboard-Chipsätzen seitens nVidia mit FSB1333-Support. Stark irritierend an der nForce 610i/630i Serie ist allerdings das verbaute SingleChannel-Speicherinterfaces, was nun überhaupt nicht zu den in diese Chipsätze jeweils integrierten GeForce 7025/7050 Grafiklösungen passt, welche üblicherweise von der zur Verfügung stehenden Speicherbandbreite enorm abhängen. Und letztlich gibt es seitens TweakPC noch die Bestätigung, daß Intels P35-Chipsatz entgegen zwischenzeitlicher Befürchtungen doch CrossFire unterstützt - wenngleich wieder nur mit dem Modell eines x16-Grafikkartenslots und eines (über die Southbridge angebundenen) x4-Grafikkartenslots.
News des 24. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die PC Games Hardware hat eine Aufstellung zu den verschiedenen seitens der Grafikkartenhersteller geplanten Radeon HD 2400/2600 Karten erarbeitet, welche sich perfekt zur Korrektur und Ergänzung unseres aktuellen Artikels eignet. So läßt sich als erstes erfahren, daß die seitens Sapphire geplanten AGP-Ausführungen nicht allein sein werden: Gleiches ist genauso seitens der Hersteller Club3D, Diamond, GeCube, PowerColor und VisionTek geplant. Auffallenderweise wird es allerdings keine Radeon HD 2400 XT auf AGP geben, obwohl dieses technisch sicherlich genauso möglich ist wie die geplanten AGP-Varianten der Radeon HD 2400 Pro, Radeon HD 2600 Pro und Radeon HD 2600 XT ...
... Wirklich sinnvoll ist davon natürlich nur letztgenannte, die beiden erstgenannten dürften spielend durch bereits jetzt im Markt befindliche AGP-Lösungen in Form von Radeon X1950 Pro, Radeon X1950 XT und GeForce 7950 GT überholt werden. Und selbst bei der Radeon HD 2600 XT auf AGP bleibt abzuwarten, ob diese neue Karte sich wirklich gegen die Radeon X1950 XT durchsetzen wird können. Desweiteren verfestigt sich unsere Vermutung, daß es Takt-unterschiedliche Varianten der Radeon HD 2600 XT geben wird: Versionen mit GDDR3-Speicher und vermutlich 700 MHz Speichertakt und Versionen mit GDDR4-Speicher und 1100 MHz Speichertakt (bei ansonstem gleichen Chiptakt) ...
... Von Sapphire war dies schon bekannt, gleiches kommt nun aber auch noch seitens der Herstellers GeCube, MSI und PowerColor, welche sowohl eine GDDR3- als auch eine GDDR4-Version dieser Karte herausbringen werden. Zudem werden die meisten Grafikkartenhersteller auch 512-MB-Editionen der neuen Mainstream-Lösungen von ATI in den Markt schicken. Auch die AGP-Ausführungen werden teilweise als 512-MB-Editonen angeboten werden, womit eine breitestmögliche Auswahl für den Käufer gesichert ist. Lustigerweise wird es sogar 128-MB-Editionen der Radeon HD 2400 Pro geben, wobei diese Karte mit nur 64 Bit DDR Speicherinterface und bei 400 MHz Speichertakt (nur 6 GB/sec Speicherbandbreite, kaum besser als integrierte Lösungen) für den Retailmarkt eigentlich wirklich uninteressant sein sollte ...
... Dafür wird die Radeon HD 2400 XT erstaunlicherweise ausschließlich auf 256 MB angeboten werden. Diese Karte scheint zudem bei den Grafikkartenherstellern sowieso etwas unbeliebt zu sein, viele Hersteller führen diese Karte gar nicht oder wenn dann nur in einer einzigen Ausführung. Und letztlich wären noch zwei einzelne Modelle zu erwähnen: Zum einen bastelt man bei Sapphire mal wieder an eine DualChip-Lösung, diesesmal soll es eine Radeon HD 2600 XT Dual mit zwei RV630-Chips und 2x 256 MB Speicher werden. Und zum anderen wird PowerColor eine Radeon HD 2600 XT mit GDDR3-Speicher gleich ab Werk passiv gekühlt anbieten, während ansonsten üblicherweise nur Radeon HD 2400 Pro Karten als passiv gekühlt gefertigt werden.
Eine sehr aufopferungsvolle Arbeit zu den aktuellen AMD-Prozessoren haben Hard Tecs 4U mit ihrem AM2-Prozessorroundup auf satten 48 Seiten abgeliefert. Dabei wurden natürlich nicht nur die AMD-Prozessoren entsprechend tiefgehend beleuchtet, sondern auch umfangreiche Performancevergleiche gegenüber der Intel-Konkurrenz angestellt. Besonders erwähnenswert ist hierbei das absolut vollständige Benchmarkfeld, welches alle derzeit in den AMD- und Intel-Preislisten stehenden Prozessoren (aktueller Bauart) für den Retailmarkt enthält, darunter auch solche selten getesteten Exemplare wie den Athlon 64 X2 3600+ und die Core 2 Duo E4300/E4400 Modelle. Insbesondere mit den nach Themengebieten (Komprimierung, Rendering, Multimedia, Spiele) kreiierten Benchmark-Übersichtstabellen dürfte sich hier schnell eine Aussage finden lassen, welcher Prozessor in welcher Preislage das jeweils beste Angebot darstellt ...
... Daneben gibt es noch interessante Ausführungen zum Einfluß verschiedener Speichertaktungen und Speichertimings auf den Athlon 64 X2 Prozessor. Diese bestätigten erneut, daß diese Prozessoren sehr klar von hohen Speichertaktungen profitieren können, während der Einfluß der Speichertimings zwar vorhanden, aber bei weitem nicht so erheblich war. Und letztlich wurden auch wieder einmal Messungen der Stromaufnahme nur des Prozessors durchgeführt, was aufgrund des dafür notwendigen Mainboard-Umbaus nicht wirklich einfach zu realisieren ist. Allerdings scheint das verbaute Mainboard immer noch erheblich in die Meßwerte mit hineinzuspielen, denn auf zwei verschiedenen AM2-Plattformen wurden für dieselben AMD-Prozessoren teilweise erheblich voneinander abweichende Stromverbrauchs-Resultate vermessen ...
... Wenn man sich aufgrund der Plausibilität der Ergebnisse allerdings den niedrigeren der beiden Meßreihen zuwendet, so verbrauchen die Spitzenprozessoren von AMD (Athlon 64 X2 6000+ bzw. Athlon 64 FX-62) unter Last derzeit um die 70 Watt, während Intels DualCore-Modelle hierbei nicht überhalb von 60 Watt kommen und nur der QuadCore-Prozessor QX6700 seine 76 Watt erreicht. Während sich zudem im Prozessoren-Mittelfeld die Leistungsaufnahmen gleichen (alles so um die 40 bis 50 Watt), schießen nach unten hin einige Intel-Modelle den Vogel ab: So erreichen die Core 2 Duo E4300 und E4400 Prozessoren eine Leistungsaufnahme von nur noch 21 bzw. 26 Watt, während die neuen Core 2 Duo E6320 und E6420 offensichtlich Vorteile aus ihrem neuen Stepping ziehen und mit 26 bzw. 30 Watt auch noch deutlich weniger ziehen als die "alten" Modelle E6300 und E6400. In dieser Verlustleistungsklasse kann AMD dann nicht kontern, selbst ein Athlon 64 X2 4200+ in der EE-Ausführung bringt es noch auf 37 Watt unter Last.
Durchaus für Wirbel sorgt derzeit eine Microsoft-Aussage, wonach Windows Vista angeblich maximal vier Prozessorenkerne unterstützen soll. Die Originalaussage, nachzuschlagen beispielsweise bei Golem, ist hier allerdings doch weniger eindeutig: Danach wurde Windows Vista laut einem Microsoft-Mitarbeiter gestaltet, "um auf 1, 2 und vielleicht 4 Prozessoren" zu laufen. Eine klare Aussage, daß Windows Vista nicht mehr als vier Prozessorenkerne nutzen kann, ist dies also mitnichten. Im Prinzip wurde hiermit nur ausgedrückt, daß man zur Entwicklungszeit von Windows Vista eben üblicherweise mit Single- und DualCore-Systemen gerechnet hat, weniger mit QuadCore- und überhaupt nicht mehr mit ManyCore-Systemen ...
... Dies kann natürlich darin resultieren, daß das neue Betriebssystem zwar mehr als vier Prozessorenkerne unterstützt, jedoch überhalb von vier Kernen nicht mehr in der Leistung skaliert - hierbei wäre der Effekt natürlich der gleiche, wie wenn nur maximal vier Kerne unterstützt würden. Allerdings ist bei der Frage der Skalierung auch noch nach der Leistung des Betriebssystems und nach der von Anwendungsprogrammen zu trennen: Gut möglich, daß das Betriebssystem selber sich nicht auf mehr als vier Kerne verteilen läßt. Dies muß aber nicht bedeuten, daß dies bei Anwendungssoftware genauso ist. Ob also fähige Programmierer nicht doch auch Achtkern-Systeme zu Leistungsvorteilen bringen können, ist mit dieser Microsoft-Aussage nicht gesagt. Im übrigen dürfte sich dieses aber mittelfristig sowieso herausfindenlassen, denn Intel plant bekanntermaßen mit der V8-Plattform ein PC-System mit acht Prozessorkernen (zwei QuadCore-Prozessoren auf einem Board).
neuer Artikel |
Die neuen Desktop-Lineups von ATI und nVidia
Nachdem auch ATI seine neuen Direct3D-Grafikkarten für LowCost-, Mainstream- und HighEnd-Segment vorgestellt hat, ist der Weg frei für einen Überblick der am Markt befindlichen bzw. angekündigten Direct3D10-Lösungen. Nachfolgend sind die jeweiligen Direct3D10-Angebote der beiden Grafikchip-Entwickler entsprechend aufgelistet, beschlossen wird dieser Artikel dann mit einer sich am Straßenpreis orientierende Übersicht über den Gesamtmarkt ... zum Artikel
News des 23. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Ein hochinteressantes Preisbrecherangebot hat der Online-Versender Alternate dieser Tage zu bieten: Eine (lieferbare) GeForce 7950 GX2 von Leadtek für nur 179 Euro (Update: inzwischen 189 Euro). Schaut man sich diverse Preisvergleiche an, ist diese Karte (auch von anderen Herstellern) ansonsten nicht unter 350 Euro zu bekommen - was eigentlich ungefähr der Performance-Klasse der GeForce 7950 GX2 entspricht, welche zumeist mindestens das Niveau einer GeForce 8800 GTS 640MB innehat. Wie dieser extrem gute Preis bei Alternate zustandekommt, ist nicht bekannt - womöglich handelt es sich um eine gezielte Abverkaufsaktion, um nach dem Markteintritt der GeForce 8500 und 8600 Karten das Produktprogramm vollkommen auf GeForce8-Beschleuniger umzustellen. Für diesen Preis kann man natürlich mehr oder weniger bedenkenlos zugreifen - sofern man nicht schon lieber eine Direct3D10-Karte ins Auge gefasst hat.
Kaum ist DDR3-Speicher offiziell im Markt, kommen bereits erste Angebote an entsprechenden Overclocker-Speichern: So will laut Fudzilla der Speichermodulhersteller Kingston auf der Computex Anfang Juni einen DDR3/1500-Speicher vorstellen. Damit würde sich DDR3 ziemlich schnell in Taktregionen aufschwingen, welche mit DDR2 nicht mehr bzw. nicht mehr mit vertretbarem Aufwand erreichbar sind. Der Nutzen eines solchen Speichers darf aber trotzdem hinterfragt werden: Erstens einmal wird sicherlich noch ein offizieller DDR3/1600-Standard kommen, die Zwischenstufe DDR3/1500 wird dann in der Versenkung verschwinden. Und zweitens kann man DDR3/1500 auch erst dann wirklich ausnutzen, wenn man seine Intel-CPU mit 750 MHz FrontSideBus (FSB3000) ansteuert - ein Ergebnis, von welchem selbst die besten aktuellen Übertaktungsergebnisse noch weit entfernt sind.
Auf der anderen Seite sind hohe Speichertaktraten bei Grafikkartenspeicher immer sehr willkommen. Aktuell geht es ja in Richtung GDDR4 (technische Basis: DDR3), wobei Speicherchiphersteller Samsung hierbei inzwischen schon Taktungen von bis zu 1400 MHz listet. Ob diese derzeit auch liefer- und bezahlbar sind, ist damit natürlich nicht gesagt - wahrscheinlich ist momentan überhalb von 1100 MHz Schluß und sind höhere Taktfrequenzen erst später im Jahr real erhältlich. Auf der anderen Seite scheint die Entwicklung bei GDDR3 (technische Basis: DDR2) immer noch nicht ausgereizt, der deutsche Speicherchiphersteller Qimonda (ehemals Infineon) will im zweiten Quartal diesen Speicher auf immerhin 1000 MHz ausliefern, später im Jahr soll dann sogar noch 1200 MHz auf GDDR3 kommen. Qimonda hat sich wie bekannt (wegen des angeblich zu geringen Fortschritts) gegen GDDR4 entschieden und will zukünftig gleich auf den Nachfolger GDDR5 (technische Basis: DDR3) setzen, welcher allerdings kaum vor Jahresende spruchreif sein dürfte.
Seitens Hard Tecs 4U hat man noch ein paar kleine, aber feine Details zu den am Montag genannten neuen Intel-Chipsätzen anzubieten: Danach verfügen die Chipsätze P35 und G33 über dieselben in 90nm hergestellten 45 Millionen Transistoren, somit dürfte es sich beim P35 schlicht um G33-Chips mit deaktivierter integrierter Grafiklösung handeln. Da die später folgenden Chipsätze G31, Q33 und Q35 zudem dieselbe Basis wie der G33 haben, dürften diese auch gleich mit dieser Produktion entnommen werden, womit Intel effizienterweise für fünf Chipsatzvarianten nur eine Fertigung anzuschieben braucht. Ob es für den P35-Chipsatz allerdings wirklich so effizient ist, bleibt derzeit aber noch offen, denn dieser Chipsatz könnte ohne die integrierte Grafiklösung vermutlich deutlich kleiner und damit günstiger herzustellen sein ...
... Davon abgesehen gibt es noch ein paar selten zu lesende Stromverbrauchsangaben zu den Intel-Chipsätzen, wenngleich die Werte erst einmal etwas verwirrend sind: So gibt Intel den P35 mit 16 Watt TDP (Thermal Design Power) an, den G33 dagegen mit 14,5 Watt TDP. Normalerweise sollte der G33 aufgrund der integrierten Grafiklösung deutlich mehr verbrauchen, allerdings dürfte Intel wie üblich die TDP-Werte mit Spielraum gewählt haben und könnte womöglich dem P35 aufgrund dessen Ausrichtung auch mit aufs Overclocker-Segment mehr Spielraum mitgegeben haben. Zumindestens gegenüber den Vorgängerversion hat Intel die TDP damit klar gesenkt, der P965 liegt hier bei 19 Watt und dessen Grafik-Variante G965 bei gar 28 Watt. Wie gesagt sind das alles allerdings nur TDP-Angaben mit einer unbekannten Höhe an Spielraum, der reale Verbrauch läßt sich an diesen Angaben leider kaum festmachen.
News des 22. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
In der gestern bereits erwähnten Produkt-Matrix seitens des Grafikkartenherstellers Sapphire soll laut den X-bit Labs angeblich auch eine Radeon HD 2900 XTX notiert gewesen sein - wir können dies leider nicht mehr nachvollziehen, womöglich wurde die entsprechende Datei inzwischen seitens Sapphire verändert. Gemäß der X-bit Labs soll diese XTX-Ausführung Taktraten von 740/1025 MHz haben und 1024 MB GDDR4-Speicher tragen. Die letzten Meldungen zur 1-GB-Version des R600-Chips verliefen eher in diese Richtung, daß ATI hierzu eine "Radeon HD 2900 XT 1024" herausbringen wolle, die aber dann wohl nur für OEMs zur Verfügung stehen würde. Möglich ist diesbezüglich eigentlich noch alles, allerdings kann man es als nunmehr wahrscheinlich ansehen, daß ATI doch noch irgendwie eine 1-GB-Ausführung des R600-Chips in den Markt entlassen wird.
Bezüglich der kommenden Mainstream-Lösung von ATI namens Radeon HD 2600 XT dürfte es wahrscheinlich darauf hinauslaufen, daß es zwei Takt-unterschiedliche Versionen dieser Karte geben wird. Dabei bekommt nur diese Version der Karte mit GDDR4-Speicher den hohen Referenztakt von 800/1100 MHz ab, währenddessen die wohl ebenfalls auf den Markt kommende GDDR3-Version der Radeon HD 2600 XT mit einem niedrigeren Speichertakt antreten wird (auch weil GDDR3 auf 1100 MHz nur schlecht verfügbar ist). Voraussichtlich werden die Taktfrequenzen der GDDR3-Version dann 800/700 MHz lauten - wobei dies derzeit noch einigermaßen unsicher ist, da ATI den Grafikkarten-Herstellern gerade beim Speichertakt der kommenden Radeon HD 2400/2600 Serien ziemlich freie Hand läßt. Preismäßig dürfte die Radeon HD 2600 XT mit GDDR3-Speicher dann etwas unterhalb der GDDR4-Version (199 Dollar Listenpreis) liegen - allerdings ist bis zur nächstniedrigen Variante in Form der Radeon HD 2600 Pro (99 Dollar Listenpreis) auch wirklich ausreichend Spielraum.
Eine wichtige Korrektur wäre noch zur gestrigen Berichterstattung über Intels 3er Chipsatz-Serie anzubringen: Entgegen den meisten Quellen (und auch unser gestrigen Meldung) handelt es sich bei der integrierten Grafiklösung in den kommenden Intel-Chipsätzen G31, G33, Q33 und Q35 nicht um eine GMA X3100, sondern "nur" um eine GMA 3100 Grafiklösung. Die Basis hierfür stellt also nicht der G965-Chipsatz mit seiner GMA X3000 Grafiklösung dar, welche DirectX9 Shader 3.0 mit einer Unified Shader Architektur unterstützt, sondern der Q965-Chipsatz mit seiner GMA 3000 Grafiklösung, welche DirectX9 Shader 2.0 unterstützt und ihrerseits direkt auf den Vorgänger-Grafiklösungen GMA 950 (945G-Chipsatz) und GMA 900 (915G-Chipsatz) basiert. In gewissem Sinne ist dies aber sogar ein Vorteil für Intel, denn somit greift man auf eine bewährte und funktionierende Grafiklösung für die neuen Chipsätze zurück ...
... Denn die GMA X3000 Grafiklösung im G965-Chipsatz ist derzeit immer noch nicht vollständig operabel, nach wie vor fehlen für diese finale Treiber. Laut dem ZDNet soll es nun gar erst im August so weit sein - dies wäre dann ein Jahr nach der Erstvorstellung des G965-Chipsatzes. Inzwischen gibt Intel auch mehr oder weniger offiziell zu, daß es wohl ein Hardware-Problem in der GMA X3000 Grafiklösung gibt - insofern bleibt abzuwarten, ob diese Grafiklösung überhaupt jemals voll funktionabel sein wird oder ob Intel das Problem nicht erst im Nachfolger GMA X3500 (G35-Chipsatz) richtig lösen wird. Davon abgesehen gibt dieser Fall aber auch einen guten Einblick in die wirkliche Wertigkeit der "Marktführerschaft" von Intel bei Grafikchips - welche natürlich ausschließlich auf dem Verkauf von Mainoard-Chipsätzen mit integrierten Grafiklösungen basiert ...
... Denn würden ATI und nVidia ein Jahr lang für schon verkaufte Hardware versprochene Funktionen nur nach langen Verzögerungen bzw. teilweise gar nicht liefern können, würde sich dies einmal abgesehen von möglichen Sammelklagen auf jeden Fall schlecht aufs Renomée und das Geschäft auswirken. Nicht aber im Fall von Intels GMA X3000 Grafiklösung: Ganz offensichtlich wird diese - auch wenn millionenfach verbaut - faktisch nicht zum Spielen benutzt, ansonsten gäbe es Kundenproteste in beachtbarem Ausmaß. Dies ändert zwar nichts daran, daß auch der GMA X3000 als 2D-Grafikchip für den normalen Windows-Alltag benutzt wird und Intel somit zweifelsfrei ein Grafikchip-Hersteller ist, jedoch bedeutet dies auch, daß es eine heftige Trennung zwischen Gamer- und Nichtgamer-Markt gibt - und Intel im Gamermarkt absolut keine Rolle spielt, ganz egal wie stark man die Leistungsfähigkeit und insbesondere die Featurepalette integrierter Grafiklösungen in den letzten Jahren steigern konnte (und weiter steigern wird).
Shortcuts: Laut Fudzilla verzögert sich Asus' XG Station etwas: Ursprünglich für das laufende zweite Quartal angekündigt, soll dieses Produkt nun nicht vor Juli ausgeliefert werden können. Gemäß den X-bit Labs arbeitet die PCI-SIG an einer Anpassung des PCI Express 1.1 Standards, welcher dann auch Leistungsaufnahmen von bis zu 300 Watt pro Grafikkarte erlauben soll. Laut der PC Games Hardware wurde der einst noch geplante Direct3D10-Patch für Supreme Commander nunmehr gestrichen, was auch nicht gerade für die schnelle Durchsetzung von Direct3D10 bei den Spieleentwicklern spricht, selbst wenn sich entsprechende Hardware inzwischen gut verkauft. Positivere Signale gibt es dagegen bei der MultiCore-Unterstützung von Spielen: Laut dem GameCaptain unterstützt die Unreal Engine 3 bis zu acht Prozessorkerne, der Flight Simulator X mit dem Service Pack 1 laut Fudzilla mindestens vier Kerne ...
... Weiterhin Fudzilla berichten von einer angeblichen Dual-R600-Karte seitens Sapphire mit Wasserkühlung, welche schon auf der Computex gezeigt werden soll. Da es hierzu momentan keine weitere Informationen gibt, gehen wir eher denn von zwei einzelnen Karten aus, die dann im Bundle mit der passenden Wasserkühlung verkauft werden, da zwei R600-Chips auf einer Grafikkarte derzeit von der Stromaufnahme her als undenkbar erscheinen. Und letztlich noch ein kleiner Nachtrag zu den gestern schon erwähnten neuen AGP-Grafikkarten seitens Sapphire: Auch wenn es der Produkt-Matrix so zu entnehmen ist, werden Radeon HD 2600 Pro/XT auf AGP wahrscheinlich nicht passiv gekühlt sein. Die entsprechenden (gleich getakteten) PCIe-Versionen sind schließlich auch nicht passiv gekühlt und wir vermuten hier eher einen Copy&Paste-Fehler beim Erstellen dieser Übersicht.
News des 21. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Der Grafikkartenhersteller Sapphire scheint nun ernst zu machen mit Direct3D10-Grafikkarten auf AGP und führt in seiner Produktmatrix (XLS) neuerdings drei solcher Grafikkarten auf. Allerdings bezieht sich das neue AGP-Angebot nur auf die LowCost- und Mainstream-Lösungen von ATI, nicht aber auf die Radeon HD 2900 XT. Die Top-Karte auf AGP wird somit die Radeon HD 2600 XT sein, welche jedoch im Gegensatz zu ihrer PCIe-Variante (800/1100 MHz) auf AGP mit geringeren Taktraten von 800/700 MHz antreten wird. Inwiefern das dann noch zu einem Vorteil gegenüber den schnellsten bisherigen AGP-Grafikkarten (Radeon X1950 XT auf AGP) reicht, ist derzeit noch vollkommen unklar, da ja auch die Schlagkraft der Radeon HD 2600 XT auf PCI Express noch nicht erwiesen ist.
Mit dem Montag hat Intel seine inzwischen teilweise schon am Markt befindliche 3er Chipsatzserie nun offiziell gemacht, einen schönen und vor allem auch sehr tiefgehenden Bericht zum P35-Chipsatz kann man bei Hard Tecs 4U visitieren. Derzeit ist allerdings auch nur dieser Mainstream-Chipsatz offiziell verfügbar, welcher den Support von FSB1333, der zum Jahreswechsel anstehenden 45nm Prozessoren von Intel und von DDR3-Speicher mit sich bringt. Support für DDR2-Speicher wird allerdings nach wie vor geboten, sogar Kombiboards mit der Unterstützung beider Speichersorten sind bereits angekündigt (allerdings kann dort natürlich nur entweder DDR2 oder DDR3 genutzt werden). Diese drei Merkmale gelten im übrigen fast durchgehend bei der 3er Chipsatz-Familien - nur die für Business-PCs gedachten Chipsätze Q33 und Q35 werden keinen DDR3-Speicher unterstützen ...
... Neben dem wie gesagt schon im Markt befindlichen P35 wird zum 4. Juni dann der G33-Chipsatz folgen, welcher über eine integrierte GMA 3100 DirectX9-Grafiklösung verfügt. Hierbei handelt es sich um eine ziemlich direkte Weiterführung der GMA X3000 DirectX9-Grafiklösung des G965-Chipsatzes (sogar der Chiptakt ist mit 667 MHz identisch), welche ihrerseits bereits das Shader Model 3.0 unterstützt wie auch bereits eine Unified Shader Architektur darstellt. Beim G33-Chipsatz könnte sich DDR3-Speicher nun erstmals profilieren, denn für die hohe speicherseitige Bandbreite bei beispielsweise DDR3/1333 (20 GB/sec) steht nun als Abnehmer nicht mehr nur allein die CPU da (welche bei FSB1066 gerade einmal 8 GB/sec maximalen Bandbreitenbedarf entwickelt), sondern kann die überschüssige Bandbreite dann der Grafikleistung zum Vorteil gereichen ...
... Ironischerweise bietet Intel rein offiziell solcherart Speichertaktungen aber gar nicht an: Bei einem FSB1066 ist die höchste offizielle Speichertaktung beim Q33-Chipsatz DDR2/800 oder DDR3/1066. Allerdings ist zu erwarten, daß die Mainboard-Hersteller hier in ihren BIOS-Versionen entsprechende Optionen freilegen, mit welchen man die höheren Speichertaktungen zum Vorteil der integrierten Grafiklösung realisieren kann. Die Crux an der Geschichte bleibt natürlich, daß die integrierte Grafiklösung wohl weiterhin generell zu schwach für moderne Spiele sein dürfte, auch hohe Leistungssteigerungen durch eine deutlich höhere Speicherbandbreite daran nichts ändern werden. Im dritten Quartal soll dann der G35-Chipsatz folgen, die einzige Änderung zum G33 betrifft die integrierte Grafik: Hierbei soll dann die bereits schon Direct3D10-fähige Grafiklösung GMA X3500 zum Einsatz kommen ...
... Im übrigen arbeiten aber auch andere Chipsatzhersteller an Direct3D10-kompatibler integrierter Grafik: Bekannt sind bereits entsprechende Projekte von SiS und ATI/AMD, welche ebenfalls noch dieses Jahr spruchreif sein sollen. Allerdings soll hier auch auf einen gewissen Stolperstein dieser integrierten Direct3D10-Grafik hingewiesen werden: Denn aus den Erfahrungen der kleineren Direct3D10-Grafikchips von ATI und nVidia ergibt sich, daß gerade für Direct3D10 offenbar sehr viele Transistoren benötigt werden, nur um die Direct3D10-Grundfunktionalität zu sichern. Gerade deswegen fällt der Zuwachs an Rechenleistung bei den ersten LowCost- und Mainstream-Beschleunigern der Direct3D10-Generation wie bekannt doch eher bescheiden aus: Beide Grafikchip-Entwickler konnten nicht nach Belieben den Grafikchips noch mehr Recheneinheiten verpassen, weil dies sehr schnell das Transistorenbudget gesprengt hätte ...
... Gleiches ist nun ganz besonders auch bei integrierten Grafiklösungen zu befürchten, welche ja noch viel stärker unter dem Gesichtspunkt der Wirtschaftlichkeit konzipiert werden: Es kann hier also durchaus passieren, daß die Performance der ersten integrierten Direct3D10-Grafiklösungen sich nicht wesentlich von der Performance der besten integrierten DirectX9-Grafiklösungen absetzen kann. Für den Augenblick ist dies natürlich nur eine Überlegung - man wird sehen müssen, wie die Chipsatz-Hersteller dieses Problem angehen werden. Ebenfalls im dritten Quartal erscheinen dann noch eine ganze Reihe weiterer Chipsätze der 3er Serie: Der G31 ist eine um den extra PCI Express x16 Grafikkarten-Steckplatz abgespeckte Variante des G33. Etwas unklar ist beim G31 aber noch (da dieser derzeit nicht in den offiziellen Spezifikationslisten geführt wird), wie es mit dem Support von DDR3 und FSB1333 aussieht - Intel streicht schließlich bei solchen totalen LowCost-Angeboten ganz gern einmal die Topfeatures ...
... Daneben gibt es die wie gesagt für Business-PCs gedachten Chipsätze Q33 und Q35, wobei beide ebenfalls mit der vorgenanten GMA 3100 Grafiklösung antreten, offenbar aber nur der Q35 Teil der VPro-Plattform sein wird. Und letztlich soll es ebenfalls noch im dritten Quartal dann die HighEnd-Variante X38 geben, welcher als einziger der neuen Chipsätze über den offiziellen Support von DDR3/1333 verfügen wird, daneben gibt es noch PCI Express 2.0 mit gleich zwei x16 Grafikkarten-Steckplätzen. Informationen darüber, ob diese dann für CrossFire oder/und SLI freigegeben sind, gibt es derzeit leider noch überhaupt nicht. Eine CrossFire-Unterstützung wäre wohl denkbar, da Intel die entsprechende Lizenz seitens ATI besitzt - bei nVidias SLI wird man abwarten müssen, ob dies Teil des kürzlichen Technologie-Übereinkommens zwischen Intel und nVidia war ...
... Und um damit wieder zurück zum P35-Artikel seitens Hard Tecs 4U zu kommen: Dieser beurteilt den P35 aufgrund dreier getesteter Mainboards erst einmal sehr zurückhaltend, da gegenüber dem vorherigen Mainstream-Chipsatz P965 keinerlei Mehrperformance ausgemacht werden konnte - noch nicht einmal in einem extra Test auf FSB1333. Ob man allerdings ähnlich wie seinerzeit beim Wechsel von DDR1 auf DDR2 schlicht auf eine womöglich bessere Zukunft für DDR3 setzen sollte, darüber gehen die Meinungen auseinander. Denn letztlich ergab sich vor dem FSB1066 nie wirklich eine Notwendigkeit für DDR2-Speicher, denn Intel-Prozessoren mit einem FSB800 können von gewöhnlichem DDR400-Speicher (an einem DualChannel-Speicherinterface) ausreichend mit Bandbreite beliefert werden. Durchgesetzt hat sich DDR2-Speicher primär deswegen, weil Intel dafür maßgeblich Marketing und Support geleistet hat - und natürlich auch, weil sich dieser Speicher ab einer gewissen Produktionsmenge günstiger als DDR1 herstellen läßt ...
... Wenn es bei DDR3 genauso laufen sollte, dann nur unter den gleichen Vorzeichen: Die Marktmacht von Intel und die langfristigen Produktionsvorteile setzen das Produkt im Markt durch, nicht aber eine höhere Performance - die gab es bei DDR2-Speicher auf Intel-Prozessoren auch nie. Auch von DDR3 sind in der Zukunft keinerlei Performancezuwächse zu erwarten, da Intel den FrontSideBus gar nicht so weit steigern kann, um DDR3 eine Existenzberechtigung aus Performancesicht zu geben. Aber wie gesagt bestimmen über die Marktdurchsetzung in solchen Fällen eher andere Faktoren und ist die reine Performance hierbei nur ein arg untergeordneter Punkt. Spätestens mit den über das integrierte Speicherinterface direkt DDR3 unterstützenden Prozessoren von AMD (K10/DDR3) und Intel (Nehalem) erledigt sich diese Frage dann aber sowieso: Zum einen werden diese Prozessoren dann eben nur explizit eine Speichersorte unterstützen und zum anderen durch das integrierte Speicherinterface bezüglich der Performance auch jederzeit voll ausnutzen können.
Eine Korrektur noch zu den gestrigen News: Wenn dort (ursprünglich) in Klammern angedeutet wurde, daß es auch bei nVidia das Problem geben würde, daß DualChip-Grafikkarten wie die GeForce 7950 GX2 auch entsprechende SLI-fähige Mainboards als Unterbau benötigen würden, dann ist dies falsch. Die GeForce 7950 GX2 war schon von ihrem Start weg in der Lage, auf non-SLI-Mainboards zu laufen, auch egal wie der Hersteller des Mainboard-Chipsatzes lautete (andere geplante DualChip-Lösungen seitens Asus und Galaxy auf Basis von GeForce 7600 GT und GeForce 7900 GT haben es dann nie in den Markt geschafft). Dies bedeutet aber auch, daß definitiv kein unlösbares technisches Problem vorliegen kann, wenn auf ATI-Seite eine DualChip Radeon X1950 Pro eben ein CrossFire-fähiges Mainboard zum Betrieb benötigt. Insofern kann man von ATI durchaus einfordern, diese Problematik ähnlich wie nVidia bei der GeForce 7950 GX2 zu lösen.