nVidia stellt die GeForce 6200 vor
12. Oktober 2004 / von aths / Seite 1 von 1
Einleitung
Mit der gestern Nachmittag vorgestellten GeForce 6200 komplettiert nVidia sein Produktprogramm an SM3-Beschleunigern nun auch in den LowCost- und OEM-Markt hinein. Die GeForce 6200 basiert auf dem gleichen Core wie die GeForce 6600 /GT, also auf dem NV43, wobei für die GeForce 6200 eine komplette Quad-Pipeline deaktiviert wurde, so dass von 8 Pixelpipes noch 4 übrig bleiben. Das heißt, der Chip bringt nach wie vor 146 Millionen Transistoren auf die Waage, und wird in 0,11 µm Strukturbreite von TSMC gefertigt.
Die Taktraten sind offiziell 300 MHz für den Chip und 275 MHz für den DDR-SDRAM angegeben, wobei der RAM mit 128 Bit Breite angebunden ist. Damit schließen wir anhand der vorliegenden technischen Daten auf durchaus brauchbare Performance. Zumindest gibt es ausreichend Rohperformance - jedoch nicht für Antialiasing, da die GeForce 6200 (im Gegensatz zu GeForce 6600/6800) nicht über Z- und Color-Compression verfügt, was für Antialiasing aber wichtig ist.
Gerade in Bezug auf diese Abspeckung der GeForce 6200 halten wir nVidias selbstbewusstes Auftreten "Ensures top-notch compatibility and performance for all DirectX 9 applications, including Shader Model 3.0 titles." für überzogen. Es geht bei der GeForce 6200 um eine Karte, die das Segment von SM3-Hardware nach unten hin erweitern soll, wobei Leute angesprochen werden, die für wenig Geld eine featuremäßig aktuelle Grafikkarte haben wollen, natürlich ohne dass sie gleichzeitig besonders gute Performance erwarten können.
Doch auch an Features fiel der Schere einiges zum Opfer: Die Fähigkeit zur Floatingpoint-Texturfilterung und zum Floatingpoint-Alphablending bietet die GeForce 6200 ebenfalls nicht. In erster Linie bleibt also die SM3-Fähigkeit erhalten, während spezielle HDR-Beschleunigung leider nicht geboten wird – was der Zukunftstauglichkeit natürlich nicht gerade zuträglich ist.
GeForce 6200 | GeForce 6600 | GeForce 6600GT | GeForce 6800 /LE | GeForce 6800 GT/Ultra | |
DirectX 9.0 Shader Model 3.0 | Ja | Ja | Ja | Ja | Ja |
CineFX 3.0 | Ja | Ja | Ja | Ja | Ja |
UltraShadow II | Ja | Ja | Ja | Ja | Ja |
Z- und Color-Compression | Nein | Ja | Ja | Ja | Ja |
Floatingpoint-Texturfilterung | Nein | Ja | Ja | Ja | Ja |
Floatingpoint-Alphablending | Nein | Ja | Ja | Ja | Ja |
SLI-Fähigkeit | Nein | Nein | Ja | Nein | Ja |
nView | Ja | Ja | Ja | Ja | Ja |
Die Zweihundert
Die "200" im Namen wird von nVidia unterschiedlich genutzt. Den ersten Auftritt hatte die "200" bei der GeForce2 MX200. Im Vergleich zur GeForce2 MX400 wurde im 32-Bit-Modus nur halbe Performance angeboten. Die GeForce2 MX100 verschwand sehr schnell wieder von der Bildfläche, aber die GeForce2 MX200 verkaufte sich dank des Zugpferdes "GeForce2" ganz gut. Leider auch an Spieler, welche mit dem 64-Bit-SDR-Interface natürlich nur selten glücklich wurden.
Ein großer Erfolg war dann der GeForce3 Ti200 beschieden. Diese bot bereits werkseitig hohe Leistung, glänzte durch sehr gutes Übertaktungs-Potenzial und wurde später auch oft schon in 128-MB-Versionen angeboten, was sie insbesondere im Vergleich zur nachfolgenden GeForce4 Ti Serie konkurrenzfähig machte. Viele erfüllten sich den (seinerzeit normalerweise recht teuren) Traum einer 128-MB-Karte mit der vergleichsweise günstigen GeForce3 Ti200.
Sinnvoll wurden diese 128 MB Grafikkarten-Speicher natürlich eher erst mit der nachfolgenden GeForce4 Ti bzw. den Spielen der seinerzeitigen Generation. Die GeForce4 Ti4200 gab es mit schnellen 64 MB oder nicht ganz so schnellen 128 MB RAM. Beide Versionen waren ein Erfolg, vor allem die 128er Boards setzten sich dann durch.
Mit der GeForceFX-Reihe wurde auch die GeForceFX 5200 vorgestellt. Diese Karte bietet dem Gelegenheitsspieler durchaus passable Leistung, die gängige Onboardgrafik-Lösungen immer noch spielend übertrifft. Leider geht bis heute vor allem die (nur geringfügig kostengünstigere) Version mit 64-Bit-Speicherinterface über die Ladentheke. Derartig beschnitten ist von der GeForceFX 5200 auf jeden Fall abzuraten.
Leider, leider kamen inzwischen sogar schon GeForce 6600er Versionen mit 64-Bit-Speicherinterface in den Handel, obwohl dies bei dieser Mainstream-Grafikkarte wirklich völlig sinnbefreit ist. Wir erwarten 64-Bit-Versionen generell auch bei der GeForce 6200, womöglich auch wieder in so hohem Umfang wie bei der GeForceFX 5200. Und um die Gelegenheit zu nutzen, möchten wir das ein für alle mal klar und deutlich sagen: Grafikkarten mit 64 Bit DDR-Anbindung sind einem Spieler prinzipiell nicht zu empfehlen.
Mit der GeForce 6200 richtet sich nVidia – wie zuvor mit der GeForceFX 5200 – vor allem an jene, die nur über einen Onboard-Grafikchipsatz verfügen. Onboardgrafik reicht ja für Office aus und senkt die Herstellungskosten für den PC. Nun möchte der eine oder andere dennoch einmal einige 3D-Spiele laufen lassen. Diese Käuferschicht ist fast nie bereit, viel Geld für eine Karte der gehobenen Mittelklasse auszugeben. Um jene Kunden zu erreichen, wird an der Karte gespart, wo möglich.
Es ist keine Schande, wenn man neben dem Computer noch andere Hobbys hat und für die Grafikkarte nicht mehrere hundert Euro ausgeben möchte. Doch jeder sollte sich informieren, ob das Modell, welches er ins Auge gefasst hat, auch ein 128-Bit-Interface hat. Eine GeForce 6200 mit 128-Bit-Speicherinterface bietet durchaus vernünftige Leistung für wenig Geld, eine 64-Bit-Version ist dagegen trotz des preislichen Vorteils gegenüber der 128-Bit-Version nicht wirklich schneller als eine Onboard-Grafik.
GeForce PCX 5300 |
GeForce PCX 5750 |
GeForce 6200 |
GeForce 6600 |
Radeon X300 /SE |
Radeon X600 Pro/XT |
Radeon X700 |
|
Codename | nVidia NV37 | nVidia NV39 | nVidia NV43 | nVidia NV43 | ATi RV370 | ATi RV380 | ATi RV410 |
Herstellung | 45 Mill. Trans. in 150nm bei TSMC | 80 Mill. Trans. in 130nm bei TSMC | 146 Mill. Trans. in 110nm bei TSMC | 146 Mill. Trans. in 110nm bei TSMC | 75 Mill. Trans. in 110nm bei TSMC | 75 Mill. Trans. in 130nm low-k bei TSMC | 120 Mill. Trans. in 110nm bei TSMC |
Technologie-Klasse | DirectX9 Shader 2.x | DirectX9 Shader 2.x | DirectX9 Shader 3.0 | DirectX9 Shader 3.0 | DirectX9 Shader 2.0 | DirectX9 Shader 2.0 | DirectX9 Shader 2.0 |
Geometrie-Pipelines | 1 Array | 1 Array | 3 | 3 | 2 | 2 | 6 |
Pixel-Pipelines | 2x2/4x1 | 2x2/4x1 | 4x1 | 8x1 | 4x1 | 4x1 | 8x1 |
Raster Operation Units (ROPs) | ? | ? | 4 | 4 | 4 | ? | 8 |
Shading-Einheiten pro Pixel-Pipeline | pro zwei Pipelines: eine Allzweck-Unit + zwei TEX-Units, deren Nutzung sich im gleichen Takt gegenseitig ausschließt zusätzlich pro Pipeline: ein DirectX8-fähiger Register Combiner |
eine SFU/MUL/TEX-Unit + eine MAD/DOT-Unit | eine TEX-Unit + eine arithmetische Allzweck-Unit | ||||
Chiptakt | 250 MHz | 425 MHz | 300 MHz | 300 MHz | 325 MHz | X600 Pro: 400 MHz X600XT: 500 MHz |
400 MHz |
Speichertakt | 200 MHz | 250 MHz | 275 MHz | 250-300 MHz | 200 MHz | X600 Pro: 300 MHz X600XT: 370 MHz |
350 MHz |
Speicheranbindung | 64/128 Bit | 128 Bit | 64/128 Bit | 64/128 Bit | X300SE: 64 Bit X300: 128 Bit |
128 Bit | 128 Bit |
übliche Speicherausstattung | 128/256 MB DDR | 128/256 MB DDR | 128/256 MB DDR | 128/256 MB DDR | 64/128/256 MB DDR | 128/256 MB DDR | 128 MB DDR |
üblicher Speicher | 5.0ns | 4.0ns | 3.6ns | 3.3-4.0ns | 5.0ns | X600 Pro: 3.3ns X600XT: 2.5-2.8ns |
2.8ns |
Slot-Design | SingleSlot | SingleSlot | SingleSlot | SingleSlot | SingleSlot | SingleSlot | SingleSlot |
Slot-Interfaces | PCIe x16 | PCIe x16 | PCIe x16 | AGPx8, PCIe x16 | PCIe x16 | PCIe x16 | AGPx8, PCIe x16 |
Stromverbrauch (Vollast) | gesch. 15 Watt | ca. 25 Watt | gesch. 20 Watt | gesch. 30 Watt | gesch. 15 Watt | X600 Pro: ca. 20 Watt X600XT: ca. 25 Watt |
gesch. 30 Watt |
zusätzliche Stromanschlüsse | PCIe: keine | PCIe: keine | PCIe: keine | AGP: ? PCIe: keine |
PCIe: keine | PCIe: keine | AGP: ? PCIe: keine |
Launch | 17. Februar | 17. Februar | 11. Oktober | 12. August | 1. Juni | 1. Juni | 21. September |
Markteintritt (Europa) | Juli | Juli | November | Oktober | Juli | Juli | November |
US-Listenpreis (vor MwSt) | ? | ? | 128MB: 119 $ 256MB: 149 $ |
128 MB: 149 $ | ? | ? | 128 MB: 149 $ |
derzeitiger Straßenpreis | 80 € | 135 € | ? | 145 € | X300SE: 65 € X300: 90 € |
X600 Pro: 120 € X600XT: 150 € |
? |
Preis und Leistung
Die GeForce 6200 128-MB-Version soll für 129, die 256-MB-Version für 149 Dollar auf den Markt kommen. Die Option auf SLI wird nicht angeboten, GT oder Ultra-Versionen gibt es auch nicht. Wir erwarten, dass für ca. 99 Dollar eine 64-Bit-Version mit 128 MB in den Handel kommen wird - und dass sich so mancher von diesem "Schnäppchen" täuschen lässt. Das wird von nVidia natürlich sehenden Auges in Kauf genommen. nVidias Kunden sind ja nicht wir, sondern die Grafikboard-Hersteller - und die kaufen keine preiswerten Chips, wenn es technisch unmöglich wäre, sie auch mit nur 64 Bit Breite an den Speicher anzubinden.
Allerdings halten wir einen dreistelligen Preis für zu hoch, um die erwähnte Käuferschicht anzusprechen, die beim PC so auf den Preis achten, dass sie einen Computer mit onboard-Grafik gekauft haben und nun nach einer ebenso günstigen Spieler-Grafikkarte suchen. Einen zweistelligen Preis mit einem 64-Bit-Interface zu realisieren, ist aber auch keine Lösung, die dem Gelegenheitsspieler nützen würde, da hiermit einfach zu viel Leistung geopfert wird, zumal die für hohe Auflösungen und Antialiasing wichtige Komprimierung von Tiefen- und Farbinformationen nicht geboten wird.
Preislich muss sich auf alle Fälle noch etwas tun, sonst sollte der Käufer sinnvollerweise ein bisschen drauflegen und sich eine GeForce 6600 zulegen (natürlich keine 64-Bit-Version dieser!), welche in der Standardversion mit 149 Dollar für die 128-MB-Ausführung nur geringfügig teurer ist als die GeForce 6200. Oder, sobald lieferbar, eine Radeon X700 (die Radeon X700 bietet gerade im Zusammenhang mit Antialiasing oft etwas mehr Performance, und hat außerdem gleich sechs Vertexshader) zu einem ähnlichen Preis wie die GeForce 6600.
Interessant bleibt die Tatsache, dass die GeForce 6200 nicht auf dem NV44 basiert. Offensichtlich handelt es sich um eine Verlegenheitslösung. Um langfristig in diesem sehr preissensitiven Segment Gewinne zu erwirtschaften, dürfte man es sich kaum leisten können, dauerhaft auf den doch recht groß geratenen NV43-Chip zu setzen. Wir vermuten demnach, dass für die GeForce 6200 ein NV44 nachgeschoben wird.
Auf der anderen Seite, wenn sich GeForce 6200 und 6600 nur durch 4 Pixelpipelines unterscheiden, und die GeForce 6200 ansonsten die volle Featurepalette bietet, dürfte man mit dem Wegnehmen von 4 Pipelines auch nicht so viel sparen: Der 2D-Teil inklusive dem Videoprozessor, die Vertexshader-Technik mit 3 Vertexshadern nimmt mehr Chip-Fläche ein, als man zunächst denken mag.
8 Pixel- und 3 Vertexpipes wegzulassen (wie vom NV40 auf den NV43), spart nur etwa 76 Millionen Transistoren (wobei "nur" im Kontext zu sehen ist: Die GeForce4 Ti kommt mit insgesamt 63 Millionen Transistoren aus). Vier NV40-Pixelpipes, also eine einzelne Quadpipe, sind wohl mit rund 30 Millionen Transistoren anzusetzen. Und ob der für die GeForce 6200 verwendete Chip nun ca. 115 (NV44) oder 146 (NV43) Millionen Transistoren schwer ist, könnte eventuell doch weit weniger relevant für den Fertigungspreis sein als ursprünglich angenommen.
Vor allem spart nVidia mit der derzeitigen Benutzung des NV43 für die GeForce 6200 am anderen Ende auch: "Kaputte" NV43-GPUs müssen jetzt nicht mehr weggeworfen werden, solange die Fehler nur eine einzelne Quadpipeline betreffen. Das lässt der Spekulation Spielraum, dass es einen NV44 nicht geben wird - oder dass hierfür noch einmal deutlich an Features abgespeckt wird und der NV44 dann Basis eine extra Grafikkarten noch unterhalb der GeForce 6200 werden könnte.
Die andere Möglichkeit ist natürlich, dass es später für die hochvolumige Produktion doch eine NV44-basierende GeForce 6200 geben könnte. Diese Auslegung wird dadurch gestützt, dass die GeForce 6200 ohne Z- und Color-Compression beworben wird, hier lassen sich nochmals viele Transistoren einsparen. Gleiches gilt für die FP16-Einheiten in der TMU und im Alphablender, die die 6200 laut der nVidia-Unterlagen nicht hat. Auch hier lassen sich etliche Transistoren sparen. Damit könnte ein eigener Chip für die GeForce 6200 natürlich deutlich "leichter" als der NV43 sein. Dass eines Tages der NV44 für die GeForce 6200 genommen wird, ist nicht offiziell, liegt somit aber nahe.
Im Moment wurde auch die GeForce 6200 nur für PCI Express angekündigt. Wie üblich steht es den Grafikkarten-Herstellern jedoch frei, eine AGP-Bridge auf die Karte zu setzen und somit auch GeForce 6200 Karten auf AGP anzubieten - trotzdem dürfte es in diesem Fall (im Gegensatz zur GeForce 6600 /GT) eher wenige bis keine Angebote auf AGP geben, da der hauptsächliche Markt dieser Karte wohl bei den KomplettPC-Bauern liegt und diese derzeit deutlich schneller als der Retail-Markt auf PCI Express umschwenken.
Ein paar erste Performance-Aussagen zur GeForce 6200 in der 128-Bit-Version gibt es schon beim Tech Report sowie bei AnandTech: Beide Artikel unterscheiden sich allerdings teilweise in ihren Aussagen, denn beim Tech Report liegt zumeist die GeForce 6200 um 10 bis 20 Prozent vorn, während AnandTech auch eine Reihe von Benchmarks mit Gleichständen zwischen beiden Karten hat.
Beachtenswert ist zudem, daß die GeForce 6200 erwartungsgemäß bei höheren Anti-Aliasing Modi unter dem Fehlen der Hardware-Kompression leidet und dann unterhalb die Radeon X300 rutscht - wobei höhere Anti-Aliasing Modi auch sicherlich nicht das bevorzugte Anwendungsgebiet dieser beiden Karten sein dürften. In diesem Zusammenhang können wir im übrigen nicht so recht nachvollziehen, warum nVidia empfielt, die GeForce 6200 mit 4x AA und 8x AF zu benchen - und das auch noch in 1600x1200.
nVidia erwartet erste GeForce 6200 Grafikkarten für Anfang November 2004 im Handel. Die ersten Chargen werden allerdings wohl mehr oder weniger ausschließlich an OEM-Kunden gehen, so daß für den Retail-Markt eher Ende November ein realistischerer Termin für die GeForce 6200 darstellt.
Nachtrag vom 18. Oktober 2004:
Die derzeitige GeForce 6200 basiert bekanntermaßen auf dem NV43-Chip, auch wenn dieser aller Vermutung nach nur eine Übergangslösung für die GeForce 6200 darstellen wird. Doch der NV43-Chip, welcher hauptsächlich bei GeForce 6600 und 6600GT eingesetzt wird, weist natürlich eigentlich 8 Pixel-Pipelines auf, während bei der GeForce 6200 nur 4 davon freigeschaltet sind. Insofern war es eigentlich nur eine Frage der Zeit, bis jemand probieren würde, die 4 bei der GeForce 6200 deaktivierten Pipelines wieder zu aktivieren. Hardwareluxx haben dies mittels des RivaTuners versucht - und hatten sofort Erfolg.
In der Tat ließen sich die vier deaktivierten Pixel-Pipelines des GeForce 6200 Testsamples problemlos freischalten, worauf die Karte technisch nahe an eine GeForce 6600 herankommt. Sie kommt allerdings niemals ganz an eine GeForce 6600 heran, denn nVidia hat die GeForce 6200 technisch noch um einige weitere Punkte beschnitten (Z- und Color-Compression, Floatingpoint-Texturfilterung und Floatingpoint-Alphablending). Zusammen mit der ausgesprochenen Overclocking-Freudigkeit der GeForce 6200 läßt sich aber trotzdem jede Menge aus einer solchen freigeschalteten GeForce 6200 herausholen, auch wenn als erstes natürlich der niedrige Speichertakt bzw. die langsamen verbauten Speicherchips limitieren dürften.
Hardwareluxx erreichten jedenfalls mit einer freigeschalteten GeForce 6200 auf 550/375 MHz gute 17.258 3DMarks im 3DMark2001, während eine reguläre GeForce 6200 auf regulären 300/275 MHz nur 13.116 3DMarks erreicht. Dies dürfte vergleichsweise etwas überhalb des Niveaus einer regulären GeForce 6600 liegen. Ob sich jedoch die Modifizierung der GeForce 6200 wirklich breitflächig durchsetzen wird, bleibt abzuwarten: Erst einmal wird es diese Karten nur auf PCI Express geben, was derzeit noch die Masse der Interessenten ausschließt, zweitens ist die GeForce 6200 - gerade gegenüber einer GeForce 6600 - noch schlicht zu teuer, um sich wirklich zu lohnen, und drittens droht am Horizont der NV44-Chip, welcher dann auch physikalisch nur noch 4 Pixel-Pipelines haben wird, womit ein Modding der GeForce 6200 nicht mehr möglich wäre.