News-Archiv 8. - 14. August 2005 (32. Kalenderwoche)
13./14. August 12. August 11. August 10. August 9. August 8. August
neuer Artikel |
HighEnd-Chip G70: Nur noch mit flimmernder Grafik?
Eigentlich stellt der neue G70-Chip "nur" eine Fortsetzung der NV4x-Chipserie dar, ist jedoch technologisch mitnichten eine neue Generation oder auch intern großartig verändert. Als Refresh-Chip geht es beim G70 jedoch auch nicht in erster Linie um mehr Features, sondern um eine Neuauflage der bekannten Technologien mit einer höheren Performance.
Nun, das mit der höheren Performance mag nVidia eindrucksvoll gelungen sein - doch warum wurde dabei wiederum an der Bildqualität gespart bzw. warum ist dies ausgerechnet bei den beiden absoluten HighEnd-Grafikkarten GeForce 7800 GT und GTX nötig? Mit dem G70-Chip verschlechterte nVidia jedenfalls die Filterqualität noch einmal gegenüber der vorhergehenden GeForce 6800 Serie, was nun letztlich dazu führt, daß die beiden G70-Karten selbst unter dem "High Quality" Modus der ForceWare-Treiber keine wirlich flimmerfreien Texturen mehr hinbekommen ... zum Artikel
News des 13./14. August 2005 |
Mit dem Launch der GeForce 7800 GT wurde das Web wie üblich mit einer Masse an Testberichten überschwemmt (Liste der Artikel). Mit diesen Artikeln lassen sich nun einige Fragen bewantworten, auf welcher unser eigener Testbericht nicht eingehen konnte. Die wichtigste Aussage war sicherlich die, ob die bei der GT deaktivierten Pipelines freischaltbar sind - was jedoch leider nicht der Fall ist. Zwar konnten die ab Werk deaktivierten Pipelines mittels des RivaTuners Software-technisch freigeschaltet werden, dies brachte jedoch keinerlei Performance-Gewinn. Wie der Artikel von Digit-Life hierzu erklärt, hat nVidia die Pipeline-Anzahl offenbar in Hardware gelockt ...
... Dies soll im übrigen auch schon bei den Chips NV41 und NV42 der Fall sein, welche für die GeForce 6800 (12 Pipelines) und die GeForce 6800 LE (8 Pipelines) gedacht sind und mit physikalisch 12 Pixel-Pipelines daherkommen: GeForce 6800 LE Karten mit NV41/NV42-Unterbau sollen sich ebenfalls nicht mehr "unlocken" lassen. Auf ältere GeForce 6800 /LE Karten mit NV40-Unterbau trifft dies allerdings nicht zu. Es ist aber durchaus anzunehmen, daß zukünftige nVidia-Karten, wo es sicherlich weiterhin vielfach Modelle mit deaktivierten Pipelines geben wird, ebenfalls über diesen - derzeit undurchdringbaren - Hardware-Schutz verfügen werden, womit der "Sport" des Pipeline-Freischaltens offenbar schon wieder über seinen Zenit gelangt ist ...
... Insofern bleibt die einzige Möglichkeit zur Leistungssteigerung der GT weiterhin reguläres Overclocking. Die meisten GT-Karten liessen sich dabei recht vernünftig übertakten, im Schnitt kam man auf 474/580 MHz (Liste der Übertaktungsergebnisse). Dies übertrifft bem Chiptakt problemlos den Standard-Chiptakt der GTX von 430 MHz und reicht sogar an deren Übertaktungserfolge heran - GTX-Karten lassen sich in der Regel zwischen 470 bis 500 MHz beim Chiptakt übertakten. Auch das Ergebnis der Speicherübertaktung ist ansprechend, wobei hier aufgrund der bei der GT verbauten 2.0ns Speicherchips der Standard-Speichertakt der GTX von 600 MHz (auf Basis von 1.6ns Speicherchips) natürlich nur in glücklichen Fällen zu erreichen ist ...
... Insgesamt präsentiert sich die GT damit jedoch als recht übertaktungsfreudige Karte, was im HighEnd-Bereich eher selten ist - ein weiterer Pluspunkt für die kleinere Ausführung des G70-Chips, auch wenn es mit der Pipeline-Aktivierung nichts mehr werden sollte. Dabei verbraucht die Karte nur nicht absolut, sondern auch relativ weniger Strom, wie die Messungen der X-bit Labs belegen: Danach verbraucht eine GT unter dem Game3 von 3DMark03 nur 57 Watt, während eine GTX in dieser Sequenz immerhin 81 Watt zieht. Interessant wird der Vergleich, wenn man eine GTX auf 20/7 Pipelines sowie die Taktraten der GT trimmt: Diese simulierte GT auf GTX-Basis verbraucht dann immerhin noch 64 Watt, was auf einen Spannungs-Unterschied zwischen GT und GTX hindeutet ...
... Dieser Spannungs-Unterschied dürfte im übrigen durchaus die Übertaktungsmöglichkeiten limitieren, mittels eines Spannungsmods sollte die GT also noch besser übertaktbar sein. Davon abgesehen liegt die GT mit ihren 51 Watt inzwischen deutlich unter ihren direkten Konkurrenten GeForce 6800 Ultra und Radeon X850 XT-PE, welche 77 bzw. 72 Watt in der vorgenannten 3DMark03-Sequenz ziehen. Der beim G70-Chip (und auch den NV41/NV42-basierenden GeForce 6800 /LE Karten, den Radeon X800 /XL Karten sowie den Karten der Radeon X300/X700 Serien) benutzte 110nm-Prozeß von TSMC scheint in der Tat auch ohne low-k (gibt es seitens TSMC nur bei 130nm sowie 90nm) deutlich stromsparender zu sein als vorhergehende Fertigungstechnologien ...
... Bliebe abschließend noch das Verhalten der GT unter SLI-Bedingungen zu betrachten: Dieser Aufgabe haben sich AnandTech angenommen, welche mit SLI-Benchmarks sowohl der GeForce 7800 GT als auch der GeForce 7800 GTX und der GeForce 6800 Ultra glänzen können. Danach liegen unter 1600x1200 mit 4xAA zwischen GeForce 7800 GTX SLI und GeForce 7800 GT SLI runde 20 Prozent Unterschied, während die GeForce 7800 GT SLI wiederum runde 12 Prozent Vorsprung gegen über einem SLI-Gespann mit zwei GeForce 6800 Ultra Karten hat. Beide Werte liegen absolut im Rahmen der Erwartungen bzw. jener Unterschiede, welche über die Tests der einzelnen Karten schon bekannt sind.
Zwei Korrekturen noch zu unserem eigenen Test der GeForce 7800 GT: Die Behauptung, das man einen 6poligen PCIe-Stromstecker an seinem Netzteil haben muß, um eine GeForce 7800 GT/GTX einsetzen zu können, ist nicht korrekt. Die Karten-Hersteller von GT/GTX-Karten legen in der Regel einen entsprechenden Adapter auf einen üblichen 4poligen 12-Volt-Stecker bei. Und desweiteren ist das Layout der GT nicht gleich zur GTX (Bilder beider Karten), hier haben wir uns von der Ähnlichkeit beider Layouts täuschen lassen (die GTX war zum Testzeitraum der GT schon wieder an nVidia zurückgegangen, wir hatten also keinen direkten Sichtvergleich). Wir bitten beide Fehler zu entschuldigen, in unserem GT-Artikel wurden die entsprechenden Passagen schon korrigiert. Zudem sei noch auf den anschließenden Artikel hingewiesen, welcher sich mit der Bildqualität des G70-Chips kritisch auseinandersetzt.
Wie Golem berichten, will Intel auf dem kommenden Intel Developer Forum (IDF) vom 23. bis 25. August in San Francisco die dem Pentium 4 bzw. der Netburst-Architektur nachfolgende neue Architektur vorstellen. Ob es dann schon einen Verkaufsnamen für die darauf basierenden Prozessoren mit den Codenamen Merom (Mobile), Conroe (Desktop) und Woodcrest sowie Whitefield (Server) geben wird, ist unklar, aber zumindestens kann man sich eine größere Offenlegung der konzeptionellen Änderungen der neuen Intel-Architektur erhoffen, welche zwar generell auf dem Pentium-M basiert, aber dennoch einige Änderungen zu diesem tragen soll.
AMD hat sich dagegen ehrgeizige Ziele bei den Marktanteilen gesetzt: Laut einer Meldung seitens Hard Tecs 4U will man bis 2009 einen Marktanteil von 30 Prozent bei Prozessoren erreichen. Was im Umkehrschluß auch bedeutet, daß Intel erstmals seit Jahrzehnten unterhalb die 80-Prozent-Marke fallen müsste - was man durchaus als Erdrutsch bezeichnen kann, auch wenn Intel in dieser Situation natürlich weiterhin klarer Marktführer bleiben würde. Doch sollte AMD eines Tages wirklich jenes Ziel erreichen können, würde man nicht mehr wie derzeit ein eher kleines Ärgernis für Intel darstellen (trotz steigender AMD-Marktanteile postet Intel regelmäßig Rekord-Ergebnisse), sondern eine Konkurrenz, die durchaus auch in der Lage wäre, die Intel-Vorherrschaft im Markt ins Wanken zu bringen.
Sehr widersprüchliche Meldungen gibt es aktuell zum Stand des Marktanteils von DDR2-Speicherchips: Während bei Samsung laut einer Meldung von Hard Tecs 4U im Monat Juli erstmals mehr DDR2- als DDR1-Chips hergestellt wurden, berichtet der Heise Newsticker hingegen von einer sogar leicht rückläufigen DDR2-Produktion im Gesamtmarkt. Unklar ist zudem, inwiefern bei dieser Berichterstattung die Zahlen von DDR2 und nur für Grafikkarten eingesetztes GDDR2 getrennt wurden. Letzteres ist zwar letztlich auch nur DDR2-Speicher, würde die Statistik allerdings klar verfälschen, wenn man ermitteln wollte, wie schnell sich DDR2 als PC-Hauptspeicher durchsetzt ...
... Daß dieser Wandel stattfinden wird, ist sicherlich keine Frage, nur passiert dies derzeit wohl deutlich langsamer als einstmals geplant, da DDR2 auf Intel-Systemen nur geringfügige Vorteile bringt (und wohl noch viel geringere Marktanteile hätte, würden die modernen Intel-Chipsätze über einen DDR1-Support verfügen) und auf AMD-Systemen derzeit noch generell nicht unterstützt wird. Da bei Intel derzeit keine deutliche Anhebung des FrontSideBus abzusehen ist, welche DDR2-Speicher durch eine dann erreichbare höhere Leistung attraktiver machen würde, und AMD nicht vor nächstem Jahr DDR2 unterstützen wird, dürfte sich der relativ langsam laufende Wechsel von DDR1 zu DDR2 demnächst auch nicht merklich beschleunigen bzw. durch die vielen noch vorhandenen Systeme mit DDR1-Ausrüstung immer noch ein gewisser Bedarf an DDR1-Speicher für die Speicherhersteller ergeben.
Shortcuts: Der Heise Newsticker berichtet über Möglichkeiten, das x86 MacOS X auch auf gewöhnlichen Intel-PCs zum Laufen zu bringen. Nachteiligerweise gibt es für die x86-Version von MacOS X derzeit natürlich kaum Software - und die "alte" Mac-Software läuft nur über einen Emulator. Hard Tecs 4U berichten hingegen über Spekulationen über Intel-Mainboards auf Basis von SiS-Chipsätzen, da bei Intel die Fertigungskapazitäten an ihre Grenzen gestoßen sind. Bei ExtremeTech hat man sich hingegen mit dem aktuellen Stand auf dem Markt für Mainboard-Chipsätze beschäftigt und dabei die derzeit dort vertretenen 6 Herstellerfirmen und deren aktuelle sowie geplante Produkte vorgestellt.
neuer Artikel |
Mit der GeForce 7800 GT stellt nVidia heute die zweite Grafikkarte auf Basis des G70-Chips vor. Mit etwas weniger Pipelines und etwas weniger Takt peilt man mit dieser Karte ein Marktsegment um die 400 bis 450 Euro - und begibt sich damit in jene Region, wo bisher noch GeForce 6800 Ultra und Radeon X850 XT-PE operieren. Ob die neue nVidia-Karte gegen die beiden "alten" HighEnd-Chips bestehen bzw. diese überflügeln kann, haben wir in unseren Benchmarks ermittelt ... zum Artikel
News des 10. August 2005 |
Noch einen Artikel zur Radeon X800 GT gibt es bei Bjorn3D. In selbigem geht es um die 256-MB-Karte von PowerColor, welche mit 470/490 MHz identisch zu den bisher getesteten HIS-Karten taktet. Von HIS ist jedoch inzwischen bekannt, daß es auch noch eine Turbo-Edition geben wird, welche mit 500/500 MHz etwas höher taktet. Von GeCube und Club-3D gibt es dagegen jeweils Meldungen zu 256-MB-Karten mit 470/490 MHz, von GeCube soll zudem eine Variante mit nur 128 MB DDR2-Speicher (samt vermutlich niedrigeren Taktraten) und nur 128bittigem DDR-Speicherinterface kommen. Letztere Version dürfte natürlich kaum noch die Vorteile haben, welche den üblichen 256-MB-Versionen der Radeon X800 GT derzeit gegenüber der GeForce 6600 GT zugerechnet werden.
Mittels des Tests der Radeon X800 XL in der 512-MB-Version seitens GeCube bei TweakTown ergibt sich mal wieder die Möglichkeit, 256 MB und 512 MB Grafikkartenspeicher zu vergleichen. Getestet gegen eine 256-MB-Version derselben Grafikkarte des gleichen Herstellers ergaben sich unter dem Setting von 6x Anti-Aliasing samt 8x anisotropen Filter unter der Auflösung von 1024x768 nur äußerst geringfügige Unterschiede, unter 1600x1200 waren es wenigstens runde 11 Prozent. Derzeit sind 512-MB-Grafikkarten wirklich nur unter diesem speziellen Setting (1600x1200 oder höher, 6x Anti-Aliasing oder höher) überlegen - und selbst dann rechtfertigt dies zumeist nicht den derzeit noch erheblichen Preisunterschied von rund 100 Dollar/Euro zu gleichwertigen 256-MB-Grafikkarten ...
... Dabei lohnt der derzeitige Kauf einer 512-MB-Grafikkarte unserer Meinung nach noch nicht einmal aus Zukunftserwägungen heraus: Denn dann, wenn diese Spiele kommen, welche mit 512 MB Grafikkartenspeicher klare Vorteile zeigen (oder diese Menge gar voraussetzen), wird eine heute gekaufte 512-MB-Grafikkarte zweifellos längst zur unteren Mainstream-Ware "degradiert" worden sein. Die dann aktuellen Spiele werden auf einer solchen Karte damit sowieso nur noch mit einigen Einschränkungen bei der Filterqualität spielbar sein - also sicherlich nicht mit mehr 6x Anti-Aliasing. Niedrigere Anti-Aliasing-Settings jedoch benötigen weniger Speicher und räumen somit selbigen für Texturen etc. frei - womit sich wiederum der Vorteil von 512-MB-Karten nicht mehr ausspielen lassen wird ...
... 512 MB Grafikkartenspeicher für die Zukunft zu kaufen würde also nur etwas bringen bei einer Grafikkarte, welche auch in den Zeiten von 512-MB-Spielen noch "top" ist, was allerdings für die einzelne Karte kaum sicher vorauszusagen ist und im allgemeinen durch die schnelle Entwicklung von Grafikchips und Spielen dann doch eher als sehr unwahrscheinlich erscheint. Derzeit ist es wohl noch zu früh, mit dem Kauf einer 512-MB-Grafikkarte darauf zu spekulieren, daß diese Menge an Grafikkartenspeicher später einmal real benötigt wird. Diese Zeit wird zwar mit Sicherheit kommen, doch noch lohnt sich der frühe Einstieg nicht.
Gemäß einer Meldung seitens Hard Tecs 4U sollen die Hardware-Anforderungen von Windows Vista zu hoch für integrierte Grafikchips sein - was in gewissem Sinne schon ironisch ist, sind doch viele aktuelle integrierte Grafikchips nur deswegen auf der technologisch hohen Basis von DirectX9 entstanden, weil eben dies die Mindestanforderung von Windows Vista darstellt. Im genauen soll Microsoft mit einer inzwischen jedoch wieder vom Netz genommenen Notiz ausgesagt haben, daß Windows Vista auf mindestens 64 MB Grafikkarten-Speicher setzen würde und daß jene Grafikchips am unteren Ende der Leistungsskale eher vermieden werden sollten ...
... Insbesondere letzterer Punkt dürfte dabei integrierten Grafikchips das Leben schwer machen, wenn denn die Microsoft-Angaben wirklich so hart gemeint sind, wie sie ursprünglich getroffen wurden. Allerdings gelten die Microsoft-Aussagen im genauen nur für den höchsten in Windows Vista verfügbaren Darstellungsmodus, Aero Glass genannt. Da Microsoft bei diesem gemäß Informationen aus anderen Quellen zufolge sogar eine Grafikkarte mit 128 MB empfiehlt (für die Auflösung von 1600x1200 und höher sogar eine 256-MB-Grafikkarte), scheint dieser Modus in der Tat eine gewisse Grafikkartenleistung vorauszusetzen. Wahrscheinlich wird für "Aero Glass" sogar eine Grafikkarte der heutigen Mainstream-Generation empfehlenswert sein. Andererseits gibt es auch noch den abgespeckten Modus der neuen Oberfläche in Windows Vista, Aero Express genannt ...
... Zwar fehlen bei diesem die meisten Effekte von "Aero Glass", aber da das dahinterliegende Schema für die Oberfläche dasselbe ist, wird auch hierfür anscheinend eine DirectX9-Lösung benötigt. Aufgrund der fehlenden Effekte ist es jedoch recht wahrscheinlich, daß für "Aero Express" auch eine vergleichsweise leistungsschwache integrierte DirectX9-Grafiklösung ausreichend ist. Daneben gibt es noch die Modi To Go und Classic, welche beide ohne direkt spezifizierte Hardware-Anforderung daherkommen und wohl mit jeder Grafikkarte funktionieren dürften, welche einen Vista- ("To Go") bzw. XP-Treiber ("Classic") mitbringt. Bei "To Go" wird dabei die Aero-Oberfläche optisch nachgebildet, allerdings fehlen natürlich die entsprechenden Effekte, im "Classic"-Modus bekommt man hingehen die von Windows 2000 bekannte grundsolide Oberfläche.
News des 8. August 2005 |
Zur gestern schon genannten ATI Radeon X800 GT gibt es nun beim Guru3D ein weiteres Review. Hierbei wurde ebenfalls die HIS-Karte unter die Lupe genommen, die gestern genannten Taktfrequenzen von 470/490 MHz für die 256-MB-Version konnten dabei bestätigt werden. Aufgrund der sinnvolleren Benchmark-Auswahl seitens des Guru3D läßt sich der Unterschied zu einer GeForce 6600 GT nun besser klassifizieren: Unter 4x Anti-Aliasing samt 8x anisotropen Filter waren es im Durchschnitt - sogar inklusive einiger CPU-limitierter Spiele - runde 18 Prozent, was die Radeon X800 GT (in der höher getakteten 256-MB-Version) klar auf den Mainstream-Thron hebt.
Gemäß einer Meldung seitens Hard Tecs 4U hat ATI einige demnächst anstehende Grafikchips beim PCI-Standardisierungsgremium zertifizieren lassen und damit indirekt sowohl deren Codenamen als auch den baldigen Markteintritt bestätigt. So wurden der PCI Express Integrators List die Chips RV515 XT, RV530 XT, R520 und R520 GL sowie einige Mobile-Grafikchips hinzugefügt. Ob die Endungen "XT" eine besondere Bedeutung haben, ist noch offen - aus dem "R520 GL" läßt sich jedoch ablesen, daß ATI auch eine professionelle Variante des R520-Chips in Vorbereitung hat. Über den R520 im allgemeinen ist in letzter Zeit genügend berichtet (und spekuliert) worden, zur Auffrischung des Erkenntnisstandes zu den Chips RV515 und RV530 sei auf einen älteren Artikel verwiesen.
nVidia hat hingegen am Montag eine neue Abwandlung des nForce4-Chipsatzes offiziell vorgestellt: Den nForce4 SLIx16. Wie es der Name schon vermuten läßt, handelt es sich hierbei um eine Version des nForce4-SLI-Chipsatzes mit einer ausreichenden Anzahl an integrierten PCI Express Lanes, um beide Grafikkartensteckplätze jeweils mit x16 zu betreiben. Bei den bisherigen SLI-Chipsätzen standen nur insgesamt 16 PCI Express Lanes für beide Grafkikkartensteckplätze zur Verfügung, welcher im Single-Betrieb mit x16 betrieben wurde, im SLI-Betrieb aber "nur" mit jeweils x8. Um die doppelte x16-Anbindung zur erreichen, besitzt der nForce4 SLIx16 in der Intel-Edition nun über 40 PCI Express Lanes, in der AMD-Edition über 38 PCI Express Lanes ...
... Realisiert wird dies im übrigen anscheinend über einen zusätzlichen PCIe-Chip in der Southbridge, eine Grafikkarte ist dann an die Northbridge und die andere an die Southbridge angebunden. Natürlich dürfte es derzeit unter Spielen noch keinerlei Unterschied machen, ob ein SLI-Tandem nun mit 2x8 oder 2x16 angebunden ist, denn die allermeisten der heutigen Spiele sind auf AGP-Grafikkarten ausgerichtet - woran sich aufgrund der sich nur mit der Zeit verschiebenden installierten Basis von AGP- und PCIe-Lösungen so schnell nichts ändern dürfte. Für Nutzer professioneller Render-Programme dürfte die höhere Anbindung hingegen schon jetzt interessant sein, zeigen doch Benchmarks von SPEC ViewPerf schon jetzt einen Performance-Vorteil für schnellere Grafikkarten-Anbindungen.
Bei Golem berichtet man darüber, daß Microsoft angeblich OpenGL unter dem Windows XP Nachfolger Windows Vista nur per Direct3D emuliert und zudem auf Version 1.4 ohne der Möglichkeit von Hersteller-spezifischen Erweiterungen limitiert anbieten will. Allein der zu befürchtende Leistungseinbruch von derzeit geschätzten 50 Prozent dürfte eine weitere Entwicklung von auf OpenGL basierender Software für Windows Vista uninteressant machen, was allerdings seitens Microsoft sicherlich auch genau so gewollt sein dürfte, kann man doch die (halbwegs) freie OpenGL-Schnittstelle im Gegensatz zum eigenen Direct3D bzw. WGF nicht kontrollieren ...
... Für Spiele dürfte dies allerdings voraussichtlich keine Auswirkungen haben, denn es sollte weiterhin möglich sein, bei Verzicht auf die neue Windows-Oberfläche OpenGL direkt auszuführen. Da Spiele die Windows-Oberfläche nicht wirklich benötigen, könnten diese auch weiterhin auf OpenGL (inklusive höherer Versionen und Erweiterungen) setzen, ohne Performance-Einbußen hinnehmen zu müssen. Für die Hersteller von auf OpenGL basierender Anwendungssoftware könnte diese Situation dagegen haarig werden: Entweder wird ein Umstieg auf WGF notwendig oder aber die Programme funktionieren nicht mit der neuen Windows-Oberfläche zusammen.
Wie die Virtual Zone berichtet, verspricht Creative bei ihrem neuem Soundprozessor Xtreme Fidelity (X-Fi) einen Performance-Gewinn unter 3D-Spielen. In Creative-eigenen Tests soll demnach eine um 17 Prozent höhere Performance unte Unreal Tournament 2004 gegenüber einen Mainboard mit Intels High Definition Audio (HDA) ermittelt worden sein - und zwar trotz daß man die Creative-Lösung künstlich auf 30 Stimmen limitiert hatte, was das Maximum dessen darstellt, was HDA erzeugen kann. Dies passt prinzipiell mit den Aussagen unseres jüngsten Artikels zusammen, wobei die Angelegenheit natürlich noch durch unabhängige Tests zu überprüfen wäre - welche unter anderem auch ermitteln sollten, ob es ebenfalls einen Performance-Unterschied zwischen X-Fi und den aktuellen Audigy-Soundkarten von Creative gibt.