News-Archiv 16. - 22. Mai 2005 (20. Kalenderwoche)
21./22. Mai 20. Mai 19. Mai 18. Mai 17. Mai 16. Mai
News des 21./22. Mai 2005 |
Eine weitere Information zum AGP/PCIe-Grafikkartenadapter von Albatron kommt von techPowerUp!: Danach soll der Adapter nicht nur wie bisher berichtet für reine LowProfil-Grafikkarten nutzbar sein, sondern mit folgenden AGP-Grafikchips seitens nVidia zusammenfunktionieren: GeForce4 MX4000, GeForceFX 5200 & 5700 /LE und GeForce 6200 & 6800. Diese Auswahl läßt allerdings eher vermuten, daß es sich bei den genannten Chips allein um solche handelt, welche Albatron bisher erfolgreich getestet hat, daß ähnliche Grafikchips aber genauso auch unterstützt werden. Beispielsweise ist es eher unwahrscheinlich, das allein GeForce 6200 und 6800 unterstützt werden, die GeForce 6600 jedoch nicht ...
... Unserer Vermutung nach läuft dies also darauf hinauf, daß der Adapter für alle AGPx8-Grafikkarten mit nVidia-Chips verwendbar sein dürfte. Inwiefern auch Grafikkarten mit ATI-Chips mit dem Adapter zurechtkommen, wäre allerdings noch zu klären, wobei es für diese Verwendungsform womöglich keinen offiziellen Support seitens Albatron geben wird. Das Problem der Bauhöhe durch den zusätzlichen Adapter-Unterbau bleibt allerdings weiter bestehen, auch wenn wir uns nicht vorstellen können, daß Albatron den Adapter offiziell für die GeForce 6800 zuläßt, wenn dieses Konstrukt dann in kein einziges Gehäuse passt: Ergo dürfte es zumindestens einige Gehäuse geben, welche von der Bauhöhe her sowohl Adapter als auch aufgesteckte GeForce 6800 aufnehmen können. Das Problem der ruckelfreien Befestigung scheint Albatron hingegen gelöst zu haben, auch wenn der Käufer hierbei ein wenig selbst Hand anlegen muß ...
... Und zwar muß das Slotblech von der Grafikkarte entfernt werden, welches im gewöhnlichen nur angeschraubt ist. Dann wird an dieser Stelle das mitgelieferte neue Slotblech montiert - allerdings etwas versetzt nach unten, so daß der Adapter noch darunterpasst. Jene Ausgänge, welche oben an der Grafikkarte angebracht sind, liegen damit natürlich außerhalb des neuen Slotbleches - deswegen hat der Adapter auch einen eigenen VGA-Ausgang, damit immer mindestens dieser Ausgang zur Verfügung steht. Doch mit dem neuen (versetzten) Slotblech dürfte sich die Grafikkarte dann stabil mit dem Gehäuse verbinden lassen und nicht wie befürchtet als alleinige Befestigung die Steckverbindung zum Adapter haben. Einen Preis hat Albatron im übrigen noch nicht genannt, aber wenigstens einen Liefertermin - im Juli soll der Adapter in den Handel gehen.
Bei der chinesischen Seite HardSpell gibt es ein erstes Bild eines ATI-Mainboards mit dem Support zweier Grafikkarten. Dabei handelt es sich um ein Mainboard mit RD400-Chipsatz für Intel-Prozessoren, ATI wird aber genauso auch einen RD480-Chipsatz mit dem Support für AMD-Prozessoren herausbringen. Wichtigstes Merkmal von RD400 und RD480 ist der Support der ATI Multigrafikkarten-Technologie, welche laut jenem Foto nun offenbar endgültig MVPU heißt - Multi VPU oder Multi Visual Processoring Unit. Im übrigen fällt bei dem gezeigten RD400-Mainboard auf, das beide Grafikkarten-Slots direkt nebeneinander liegen, was durchaus ungünstig für die Kühlung jener Grafikkarten ist und nur die Benutzung von Grafikkarten mit sehr flach ausgeführten Kühlkörpern ermöglicht. Andere RD400-Mainboards sind diesbezüglich hoffentlich cleverer designt und benutzen einen weiteren Abstand zwischen den beiden Slots.
Fehlerkorrektur zu einer früheren News: Wir hatten am letzten Montag über die (von Intel) beschriebenen Schwierigkeiten bei der effektiven Parallelisierung von Spiele-Engines gesprochen. Darunter befand sich auch die Aussage "... daß sich in erster Linie nur das Grafik-Frontend und die Physik gut parallelisieren lassen würden, dies jedoch bei künstlicher Intelligenz, Grafik-Backend und Spielemechanik kaum möglich sei". Allerdings ist uns hier ein Fehler unterlaufen, da die künstliche Intelligenz mit zu diesen Dingen gehört, welche sich gut parallelisieren lassen. Die korrekte Aussage lautet also ".. daß sich in erster Linie das Grafik-Frontend, die künstliche Intelligenz und die Physik gut parallelisieren lassen würden, dies jedoch bei Grafik-Backend und Spielemechanik kaum möglich sei".
Shortcuts: Laut Hartware wird der offizielle Launch der Athlon 64 X2 Prozessoren wohl auf der Computex stattfinden, welche am 31. Mai startet. Seitens Intel dürfte im übrigen noch vorher der offizielle Launch des Pentium D in den nächsten Tagen zu erwarten sein, wenn Intel seine ursprüngliche Planung wahrmacht und den DualCore-Prozessor noch in diesem Monat in den Markt bringt. Bei HardOCP gibt es ein Bild der Physikbeschleuniger-Karte von Ageia, nach welcher jene Karte mit PCI-Anschluß ausgerüstet ist (nicht PCI Express) und damit erfreulicherweise keine Mainboard-Kompatibilitätsprobleme mit sich bringen wird. Laut den X-bit Labs will Speicherhersteller GeIL demnächst DDR400-Speichermodule mit der sensationell niedrigen Latenz von CAS 1.5 anbieten. Und letztlich wäre noch - für die letzten verbliebenen Anhänger des einstigen 3D-Pioniers 3dfx - auf einen Treibervergleich zur 3dfx Voodoo3 bei VoodooAlert hinzuweisen :).
News des 20. Mai 2005 |
Wie vor einigen Tagen beim nVidia G70 berichten heuer viele Webseiten von angeblichen Einzelheiten zum ATI R520 HighEnd-Grafikchip. Im Gegensatz zu den G70-Nachrichten ist allerdings nicht mehr ermittelbar, wo diese Meldungen ihren Ursprung hatten und auch die reine Anzahl an aktuellen R520-Meldungen ist leider kein Indiz auf die Glaubwürdigkeit der Meldung, da davon auszugehen ist, daß es letztlich nur eine einzige Quelle gab, von welcher alles ausging. Denn bei dieser Meldung bzw. diesem Gerücht gibt es durchaus einige Zweifel an der Glaubwürdigkeit, wenngleich man ehrlicherweise sagen muß, daß mit dieser auch nichts unmögliches verkündet wird ...
... Glaubt man also diesen aktuellen Gerüchten, so soll sich ATI für einen neuen Namen für die R520-Chipserie entschieden haben: Anstatt Radeon nun Xaveon. Was wie schon angedeutet eher unwahrscheinlich ist, denn zum einen ist man mittels des Namens "Radeon" bestens im Markt repräsentiert und zum anderen sucht man sich für neue Markennamen im gewöhnlichen nichts aus, was irgendwo schon in Verwendung ist - unter Xaveon gibt es allerdings schon eine Sicherheitsfirma, der Name ist unseres Wissens nach damit (wenn auf anderem Gebiet) schon markenrechtlich geschützt ...
... Aufgrund dieses Einwandes sind die anderen Punkte jenes Gerüchts ebenfalls kritisch zu betrachten: Danach solle es mit Standard, Pro, XT und HD vier verschiedene R520-Versionen geben. Zudem soll der R520-Chip die Multigrafikkarten-Technologie AMR/MVP unterstützen, was aber vorher schon sicher bekannt war. Und die letztliche Aussage, daß zwei R520-Chip etwa 2,5mal so schnell wie eine GeForce 6800 Ultra sein sollen, dürfte übliches Marketing sein, ganz egal ob jenes Gerücht nun Fälschung oder Wahrheit darstellt. Mit der Rohpower dürfte es ungefähr hinkommen, daß zwei R520-Chips etwas 2,5mal so schnell sind, in der Praxis wird der Unterschied natürlich kleiner sein und u.a. auch teilweise von der CPU-Limitierung diverser Spiele eingebremst werden.
Bei Hard Tecs 4U hat man einige Informationen zur Dualchip-Grafikkarte Asus EN6800Ultra-Dual, Bilder von dieser gibt es im übrigen hier. Im Gegensatz zu früheren Meldungen wird diese Karte also doch mit zwei GeForce 6800 Ultra Grafikchips arbeiten, Asus wird schlicht zusätzlich eine Grafikkarte mit zwei GeForce 6800 GT Chips anbieten, dann EN6800GT-Dual genannt. Interessanterweise wird Asus die Ultra-Ausführung sogar ein wenig übertaktet auf die Menschheit loslassen: 430/550 MHz taktet die EN6800Ultra-Dual, der Standard-Takt für eine GeForce 6800 Ultra beträgt bekanntermaßen 400/500 MHz ...
... Die GT-Ausführung taktet Asus dann allerdings spezfikationsgerecht mit 350/500 MHz, wie diese Aufstellung samt Bilder einer laufenden GT-Karte zeigt. Allerdings scheint es einen gewissen Haken bei der Sache zu geben: Die beiden Dual-Karten sind nur in ausgewählten Asus-Mainboards einsatzfähig. Momentan sind das - wie schon bei Gigabyte - ausschließlich SLI-Mainboards, obwohl der Sinn solcher Dual-Karten eher darin besteht, auch auf non-SLI-Mainboards eingesetzt werden zu können. Zwar sagte Asus ebenfalls aus, daß ein Betrieb der Dual-Karten mit Mainboards anderer Hersteller prinzipiell möglich sein, nichts desto trotz gilt es den Punkt der Mainboard-Kompatibilität stark zu beobachten, ehe man die Asus Dualchip-Grafikkarten vorzeitig in den Himmel lobt.
Hiermit sei noch auf ein Update unseres Catalyst-Treibervergleichs hingewiesen, welches diesen um die Werte & Bugberichte zweier neuerer Treiber (5.2 und 5.3), einen Overclocking-Abschnitt und weitere Ergänzungen & Korrekturen erweitert (daß die noch neueren Treiber 5.4 und 5.5 noch fehlen, hängt an einer defekten Grafikkarte, sobald diese ersetzt ist, wird es dort weitergehen). Nebenbei spricht eine dieser Ergänzungen unseres Artikels auch wieder den Punkt des fehlenden Supports von Supersampling Anti-Aliasings bei den Windows-Treibern von ATI an (bei den Mac-Treibern ist dieser Support vorhanden): Abhilfe kann hier das Tool DirectX Tweaker schaffen, mit welchem man 4x ordered grid Supersampling Anti-Aliasing bis zu Auflösungen von 1024x768 erzwingen kann.
Wie Golem berichten, hat die Wettbewerbszentrale T-Online wegen der per eMail angekündigten Verlängerung der Kündigungsfristen bei Nutzern von DSL Zeit- und Volumentarifen abgemahnt. Dabei bezieht sich die Wettbewerbszentrale explizit auf den Punkt, daß T-Online die Verträge automatisch ändern wollte, wenn die Kunden nicht dagegen schriftlich Einspruch erheben (nebenbei dürfte es rechtlich unhaltbar sein, seinen Kunden die Schriftform abzuverlangen, wenn man selber nur eMails einsetzt), die Wettbewerbszentrale nannte dies dagegen eine "Fiktion der schweigenden Zustimmung", was durchaus gut getroffen ist ...
... Allerdings denken wir, daß man im Fall von per eMail verschickter vertragsrelevanter Dinge durchaus noch weitergehen könnte: Letztlich kann der Versender niemals garantieren, daß er an ein Postfach schreibt, welches noch genutzt wird bzw. überhaupt noch existiert. Dies trifft gerade auf T-Online zu, wo die eMails an die Kunden natürlich an die von T-Online angelegten T-Online-Mailadressen versandt werden, obwohl viele Kunden die T-Online-Software und damit auch die T-Online-Mailadressen gar nicht nutzen. Die aus dem Offline-Leben bekannte Regel, daß eine erhaltene Briefsendung rechtlich gesehen als empfangen und damit als gültig gilt, läßt sich jedenfalls nicht so einfach ins Online-Leben übertragen, da es Online nicht so etwas wie eine eindeutige postalische Anschrift gibt.
News des 19. Mai 2005 |
Laut TweakPC wird Mainboard- und Grafikkartenhersteller Asus der erste sein, welcher eine Physikbeschleuniger-Karte mit PhysX-Chip von Ageia auf den Markt bringen wird, wie bekannt soll dies noch vor Ende des Jahres geschehen. Doch nachdem nun anscheinend erst einmal die reine Produktion der Karte gesichert ist, bringen die X-bit Labs die eher schlechte Nachricht, daß solcherart Karten laut Ageia zwischen 249 und 299 Dollar kosten werden - im Vorfeld hatten die meisten eher mit einer Preislage von unterhalb 150 Dollar/Euro gerechnet. Bei diesem jedoch recht hohen Preis dürfte der Andrang wohl äußerst bescheiden sein und Ageia noch einen sehr langen Weg bis zur Durchsetzung von extra Physikbeschleunigern bevorstehen.
Zum gestern besprochenen nVidia G70 Grafikchip sei noch folgendes nachzutragen: Es gibt einige Irritationen über den Fertigungsprozeß dieses NV40-Refreshchips, da zum einen nVidia in der Vergangenheit einige Aussagen getroffen hat, die auf nVidia-Chips in 90nm noch dieses Jahr schließen lassen und zum anderen die 110nm Fertigungstechnologie von TSMC nicht für HighEnd-Chips wie den G70 geeignet erscheint - ATI läßt beispielsweise den HighEnd-Chip R480 weiterhin in 130nm fertigen, während die Mainstream-und LowCost-Chips R430, RV410 und RV370 in 110nm gefertigt werden. Wobei ein "geeignet erscheinen" nicht mit möglich/unmöglich gleichzusetzen ist, erinnert sei hier an das Beispiel des R300-Chips mit 107 Millionen auf 350 MHz taktenden Transistoren in 150nm, welches vor seinem Erscheinen auch als eher unmöglich für den 150nm Prozeß angesehen wurde ...
... Denkbar wäre im Fall des G70-Chips allerdings die Konstellation, daß dieser anfänglich erst einmal in 110nm herausgebracht wird, nVidia aber noch vor dem Jahresende auf die 90nm-Fertigung umsteigt, um somit Kosten zu sparen und eventuell sogar noch eine Ultra-Variante der GeForce 7800 zu ermöglichen. Diese These - auch wenn sie derzeit nicht mehr als eben eine These ist - würde zumindestens die derzeit sich teils stark widersprechende Informationen miteinander verbinden können. Nebenbei gesagt könnte nVidia mit einer Ultra-Variante dann eventuell auch auf schneller getakteten GDDR3-Speicher zurückgreifen, als derzeit bei der GeForce 7800 GTX (600 MHz Speichertakt) geplant - der geringe Speichertakt-Zuwachs bei der GeForce 7800 GTX gegenüber den bisherigen Karten wird jedenfalls derzeit als deren anscheinend größte Schwäche angesehen.
Von der Virtual Zone kommt die interessante Nachricht, daß Intel plane, zukünftig seine Prozessoren mit integriertem Speichercontroller auszustatten - ganz wie es AMD bei der K8-Prozessorenserie schon erfolgreich vorgemacht hat. Allerdings will Intel hier anscheinend noch weitergehen und plant auch die Integration eines Netzwerkcontrollers und sogar einer Grafikausgabe in den Prozessor selber. Dies dürften dann eher Sachen sein, die für mit jedem Pfennig rechnende OEMs interessant sind, die Integration des Speichercontrollers in die CPU geht jedoch hauptsächlich in die Richtung von mehr Performance ...
... Allerdings werden die für nächstes Jahr anstehenden Prozessoren noch keine solche Technologie enthalten, dies trifft auch auf die neue Intel-Architektur um Merom, Conroe und Woodcrest zu. Laut der Virtual Zone steht der integrierte Speichercontroller bei Intel erst mit der 45nm Fertigungstechnologie an, dies wird dann im Jahr 2007 sein. Womöglich bekommen somit die ersten "Refreshes" von Merom, Conroe und Woodcrest bereits einen integrierten Speichercontroller, für den Anfang werden sich diese Prozessoren jedoch nach bisherigem Wissen mit dem bekannten FrontSideBus (und dessen Limitierungen) herumschlagen müssen.
Shortcuts: Hard Tecs 4U berichten von Plänen seitens AMD, Mitte nächsten Jahres auch den Mobile-Prozessor Turion 64 auf DualCore umzustellen. Interessanterweise will AMD dabei weiterhin die derzeitigen Verlustleistungen von 25 Watt (MT-Serie) bzw. 35 Watt (ML-Serie) halten. Die gleiche Seite hat zudem weitere Informationen zum ATOP-Grafikkartenadapter seitens Albatron. Danach soll der Adapter seitens Albatron allerdings nur für den Einsatz bei LowProfile-Grafikkarten gedacht sein, was zwar eher enttäuschend ist, jedoch zumindestens nicht die Frage aufwirft, ob der Adapter mit schweren HighEnd-Grafikkarte zurechtkommt bzw. ob diese trotz Adapter immer noch stabil zu befestigen sind.
News des 18. Mai 2005 |
Derzeit verbreitet sich eine Meldung mit ziemlich detaillierte Spezifikationen zum kommenden HighEnd-Grafikchip nVidia G70 wie ein Lauffeuer. Diese Meldung entstammt original dem Forum der chinesischen Seite HKEPC, ist dort aber inzwischen nicht mehr zu finden. Jedoch finden sich erfreulicherweise in unserem Forum anscheinend die originalen nVidia-Unterlagen, auf welche diese Meldung und damit die verbreiteten Daten zum G70-Chip zurückgehen. Demzufolge läßt sich wohl sagen, daß die derzeit verbreiteten Daten zum G70-Chip authentisch sind. Der G70-Chip wird also grob die schon vorab vermutete Verbreiterung der NV40-Architektur beinhalten: Anstatt 16 Pixel- gibt es 24 und anstatt 6 Vertex- nun 8 Vertex-Pipelines ...
... Dafür wird der Chiptakt allerdings nicht wesentlich steigen, von bisher maximal 400 MHz bei der GeForce 6800 Ultra auf nunmehr 430 MHz bei der größten Ausführung des G70-Chips. Sofern die Pro-MHz-Leistung zwischen G70 und NV40 identisch ist (nVidia dürfte allerdings sicherlich einige kleine Veränderungen eingebaut haben), hat der G70-Chip demzufolge eine um 61 Prozent höhere Pixel-Leistung als der NV40-Chip. Realisiert wird dies im übrigen wie schon erwartet über den 110nm Fertigungsprozeß von TSMC, nVidia ist hier nach dem seinerzeitigen NV30-Debakel mit der damals neuen 130nm Fertigung vorsichtig und überläßt ATI den Vortritt bei der 90nm Fertigung (mittels des R520-Chips) ...
... Um die höhere Pixel-Leistung gebührend zu unterstützen, würde es natürlich auch schnelleren Speicher benötigen, erstaunlicherweise zeigt sich nVidia hier jedoch äußerst konservativ: Die dargelegte Speicherbandbreite von 38,4 GB/sec beim Spitzenmodell ergibt einen Speichertakt von 600 MHz (am unveränderten 256bittigen DDR-Interface). Andere Berichte sprechen zwar hier von 700 MHz Speichertakt, die originalen nVidia-Unterlagen sind diesbezüglich jedoch eindeutig und so wollen wir diesen auch erst einmal Glauben schenken. Demzufolge steht einer Steigerung von 61% der Renderingleistung aber nur eine um 9% höhere Speicherbandbreite (zur GeForce 6800 Ultra) gegenüber, was uns doch sehr erstaunen läßt ...
... Es bleibt noch abzuwarten, was nVidia an kleinen und eventuell auch einige größeren Änderungen in den G70-Chip gepackt hat, um dieses eher ungünstige Verhältnis wieder auszugleichen. Auch bleibt abzuwarten, was sich genau hinter "CineFX 4.0" und "Intellisample 4.0" verbirgt bzw. wie groß die Unterschiede zur 3er Version beim NV40 wirklich sind. Ebenfalls noch unklar sind die Unterschiede zwischen den drei Versionen, wobei diese nicht in den vorliegenden nVidia-Unterlagen genannt werden: Neben der sicheren GeForce 7800 GTX soll es noch eine GeForce 7800 und eine GeForce 7800 GT geben. Sicherlich wird nVidia hier hauptsächlich beim Takt die Akzente setzen, ebenso gut möglich wäre aber auch, das die kleinste Version mit einer geringeren Anzahl an aktiven Pipelines antritt, wie dies schon bei der GeForce 6800 der Fall ist ...
... Desweiteren wird davon berichtet, daß nur die größte Version GeForce 7800 GTX SLI-fähig sei. Nach genauer Sichtung der nVidia-Unterlagen könnte dies aber möglicherweise ein Interpretations-Fehler sein, denn dort steht zu eben jener GeForce 7800 GTX wörtlich: "SLI Ready (SLI-certified versions of GeForce 7800 GTX only)". Dies muß jedoch nicht unbedingt einen SLI-Ausschluß von GeForce 7800 und 7800 GT bedeuten, sondern könnte schlicht darauf hinweisen, daß die Grafikkarten-Herstelle alle ihre Karten erst einmal zur SLI-Zertifizierung einreichen müssen, ehe sie mit jener SLI-Fähigkeit werben können. Ob also GeForce 7800 und 7800 GT von SLI ausgeschlossen sind, bleibt stark abzuwarten - wir würden derzeit eher auf das Gegenteil setzen ...
... Abschließend sei noch auf die bemerkenswerte Angabe zur Netzteil-Anforderung des G70-Chips hingewiesen. Hierbei hat nVidia erstmals auch eine klare Aussage zur Leistungsfähigkeit der für HighEnd-Grafikkarten wichtigen 12-Volt-Leitung gegeben: Einer GeForce 7800 GTX sollte ein Netzteil mit 26A auf dieser Leitung spendiert werden, bei einem SLI-Verbund von GeForce-7800-GTX-Karten sollen es gar 34A sein. Die angegebenen Mindest-Wattagen der Netzteile von 400 bzw. 500 Watt sind dagegen eher nicht so bedeutend, da es auch gute 350W-Netzteile gibt, welche die nVidia-Vorgaben erreichen. Es geht hier also weniger um die Frage der möglichst hohen Wattstärke, sondern nVidia fordert für die GeForce 7800 GTX ein hochklassiges Netzteil mittlerer Leistungsstufe ...
... Diesbezüglich sollte man dann also den Hersteller seines Netzteils ausfragen, ob das eigene Modell den genannten Anforderungen genügt - wobei wie gesagt die Gesamt-Wattage nicht so wichtig ist, die Leistung auf der 12-Volt-Leitung aber auf jeden Fall erfüllt werden sollte. Bei den kleineren G70-Ausführungen dürften die Anforderungen entsprechend etwas geringer sein, dies läßt sich aber erst genau sagen, wenn deren endgültige Spezifikationen vorliegen. Geschehen wird dies voraussichtlich am 22. Juni, denn dies ist der inzwischen von einigen Webseiten nun genannte Launch-Termin des G70-Chips. Informationen, wann entsprechende Karten dann real in den Markt kommen, gibt es jedoch derzeit leider noch keine.
News des 17. Mai 2005 |
Nach dem offiziellen Launch der Xbox 360 war Konsolen-Konkurrent Sony offenbar so unter Zugzwang, daß man nun erste Daten zur kommenden Playstation 3 enthüllt hat, auch wenn man in diesem Fall nicht von einem "Launch" sprechen kann. Die Daten, welche u.a. beim GameCaptain einsehbar sind, sprechen zum einen vom bisher schon bekannten und kräftig gehypten Cell-Prozessor, zum anderen aber auch vom RSX-Grafikchip, welcher von Sony und nVidia entwickelt wurde und damit aus technologischer Sicht interessant ist, da mittels Konsolen vorgestellte neue Technologien gewöhnlich über kurz oder lang auch im PC-Bereich Einzug halten ...
... Allerdings sind die Angaben zum RSX noch sehr dürftig, wirklich sicher ist eigentlich nur die Auflösung, denn hier geht nVidia wie ATI bei der Xbox 360 bis auf 1920x1080 hinauf. Unter "Multi-way programmable parallel floating point shader pipelines" kann man zudem eine unified Shader-Architektur wie bei der Xbox 360 vermuten, wo also die Shader-Pipelines sowohl als Pixel- als auch als Vertex-Shader eingesetzt werden können - dies entspricht schließlich auch der zukünftigen Entwicklung im PC-Bereich, wo es solcherart Grafikchips ab Mitte 2006 mittels ATI R600 und nVidia NV50 geben wird. Die Anzahl der Pipelines des RSX ist jedoch hingegen nicht bekannt, so daß kaum auf dessen Rechenpower geschätzt werden kann ...
... Beim Speichersystem des Grafikchips gibt es dann den größten Unterschied zur Xbox 360: Während jene auf eDRAM als Bildspeicher setzt und für Texturen den (gesharten) Hauptspeicher des Systems bemüht, bekommt die Playstation 3 immerhin 256 MB eigenen Grafikkartenspeicher, welcher als GDDR3 mit 700 MHz Takt angegeben wurde. Allerdings vermuten wir an dieser Stelle, daß es sich bei dieser Takt-Angabe um eine klassische DDR-Verdopplung handelt (der XDR-Hauptspeicher wurde ebenfalls Marketing-typisch mit "3.2 GHz" angegeben, obwohl dieser Rambus-Speicher physikalisch nur mit 400 MHz taktet), denn GDDR3-Speicher mit 350 MHz ergeben an einem üblichen 256bittigen DDR-Interface genau jene 22,4 GB/sec Bandbreite, welche Sony offiziell angibt. Für PC-Verhältnisse hört sich dies allerdings eher denn mittelmäßig an und es ist uns derzeit etwas unklar, wie Sony aus der zur Verfügung stehenden Speicherbandbreite Konsolen-Spiele in HD-Auflösungen herzaubern will ...
... Zumindestens bezüglich der Speicherbandbreite sehen wir hierbei das Modell der Xbox 360 mit 10 MB eDRAM klar vorn, selbst wenn nicht klar ist, ob diese 10 MB auch für HD-Spiele inklusive der Nutzung von Anti-Aliasing ausreichen. Wenn Sony mit der Playstation 3 wirklich so weit vor der Xbox 360 stehen will, dann muß der RSX-Grafikchip von nVidia letztlich alles herausreißen - zu diesem liegen allerdings derzeit zu wenig Daten vor, um diesen Punkt wirklich bewerten zu können. Denn bei aller Euphorie über das revolutionäre Cell-Konzept gilt es dennoch klarzustellen, daß wenn sich Konsolen zukünftig mittels HD-TV in PC-ähnlichen Auflösungen bewegen, die CPUs deutlich weniger bedeutend werden und die Hauptlast auf das Grafik-Subsystem geht. Die Frage der Leistungsfähigkeit der NextGen-Konsolen wird also weniger von "Cell oder nicht Cell" bestimmt werden, sondern vielmehr vom Zweikampf ATI R500 gegen nVidia RSX.
Wir hatten diesen Artikel zwar sicher schon einmal verlinkt, wollen aber nochmals extra auf ein Review des Sempron 2600+ bei den X-bit Labs hinweisen, weil jener Artikel einige sehr interessante Aussagen enthält: Und zwar hat man sich in diesem Artikel die Mühe gemacht, die verschiedenen K8-Cores nur anhand ihrer Cache-Größe zu vergleichen, und damit eine äußerst selten zu findende Meßreihe aufgestellt. Für die Level2 Cache-Größen von 512 und 1024 kByte traten dann natürlich Athlon-64-Prozessoren an, die jedoch - wenn nicht unter einem 64bittigen Betriebssystem betrieben - ansonsten identisch zum 64-Bit-losen Sempron-Prozessor sind ...
... Die wichtigste Erkenntnis dieser Benchmarks ist wohl, daß die Cache-Größe recht linear skaliert, der durchschnittliche Leistungsunterschied zwischen 128 und 256 kByte nicht wirklich größer oder kleiner ist als jener zwischen 512 und 1024 kByte. Es gibt also keine Cache-Größe, unter welche man bei einem Athlon-64-Prozessor auf keinen Fall gehen sollte. Einzig allein die Spiele-Benchmarks scheren diesbezüglich ein wenig aus - allerdings anders, als man vorab annehmen würde: Denn bei diesen erreichen 128 und 256 kByte zumeist die gleich oder eine ähnliche Leistung, erst höhere Cache-Größen skalieren dann nach oben, dort allerdings dann mit höheren Leistungsgewinnen als in den restlichen Benchmarks. Nur für die Spiele-Benchmarks kann man die Messungen im übrigen folgendermaßen zusammenfassen: Gegenüber 128 kByte Level2 Cache legen 256k um 1,1%, 512k um 5,3% und 1024k um 10,7% zu.
Ebenfalls noch betrachtet werden muß ein Artikel seitens GamePC, welcher sich mit der Performance des AMD Turion 64 Prozessors anhand des 1.8 GHz Modells (MT-34) gegenüber dem Mobile-Konkurrenten Pentium-M beschäftigt. Allerdings scheint auf diesem Feld Intel weiterhin die Führung zu behalten, denn zumindestens beim Vergleich jenes Turion 64 MT-34 mit 1.8 GHz gegen einen Pentium-M 750 mit 1.86 GHz gewinnt der Intel-Prozessor klar mit 15 bis 20 Prozent Vorsprung, welcher unter Spielen erstaunlicherweise sogar etwas höher als unter den Anwendungsprogrammen ausfällt. Zwar kann AMD in diesem Fall noch einen gewissen preislichen Vorteil (268 zu 294 Dollar Listenpreis) in die Waagschale werfen, jedoch ist der Performance-Unterschied dafür klar zu hoch ...
... Nichts desto trotz ist der Turion 64 dafür, daß AMD jetzt schon einige Zeit lang nichts mehr ernsthaftes im Mobile-Sektor getan hat, schon erst einmal ein guter Neuanfang. Zudem hat der Prozessor sicherlich noch einige Taktreserven nach oben, da es sich schließlich im eigentlichen um reguläre Athlon-64-Prozessoren handelt, welche "nur" nach der Produktion entsprechend selektiert und dann mit sehr niedrigen Spannungen als "Turion 64" ausgeliefert werden. Im übrigen führt letzteres zu selbst für K8-Prozessoren sehr niedrigen Verlustleistungen: Die ML-Serie des Turion 64 zieht laut TDP 35 Watt, die MT-Serie gar nur 25 Watt, was schon sehr nahe an die Verlustleistungen der Pentium-M Prozessoren heranreicht. Die hohen System-Verlustleistungen laut den Messungen von GamePC erklären sich im übrigen aus dem für den Turion 64 verwendeten klassischen Desktop-Mainboard - wenn die angekündigten extra Turion-64-Mainboards auftauchen, dürfte die insgesamte System-Verlustleistung dann kaum höher liegen als bei Pentium-M-Systemen.
Hardware-Umfrage 2005 |
Wir haben in Zusammenarbeit mit der Technischen Universität Dresden einen Fragebogen entwickelt, um etwas mehr über Eure Meinungen zu einigen Hardware-Fragen und Eure aktuelle Hardware-Ausstattung zu erfahren. Damit wir ein möglichst vollständiges Bild erhalten, ist es wichtig, dass möglichst viele unserer Leser teilnehmen.
Deshalb bitten wir Euch um eine möglichst rege Beteiligung in den kommenden Tagen - dies nutzt sowohl der TU Dresden bei der Erprobung ihres neuen Statistik-Tools als auch uns über die Schlußfolgerungen, die sich aus Euren Antworten dann ziehen lassen. Die Umfrage läuft fünf Tage, d.h. sie wird beendet am 22. Mai um 24 Uhr. Eine kleine Vorab-Auswertung erhält jeder Teilnehmer am Ende des Fragebogens, eine detailliertere Auswertung der Ergebnisse werden wir am darauffolgenden Wochenende zur Verfügung stellen.
->> zur Hardware-Umfrage 2005 <<-
PS: Für Probleme, Fragen und Kritiken zu dieser Umfrage gibt es einen Thread in unserem Forum. Eine ab und zu aktualisierte kurze (nicht detaillierte und nicht auf alle Fragen eingehende) Zwischen-Auswertung ist dagegen hier zu finden.
News des 16. Mai 2005 |
Einen etwas kritischeren Blick auf die Leistungsdaten der Xbox 360 hat der Heise Newsticker geworfen, auch wenn man durchaus die Gegenkritik anbringen kann, daß die von Heise auf PC-Verhältnisse heruntergerechneten Xbox-Angaben zur Füllrate und Polygonleistung für die erscheinenden Spiele eher nicht ganz so relevant sein dürften, denn bei Xbox-Spielen und auch bei kommenden PC-Spielen geht es immer mehr in Richtung möglichst viel arithmetischer Power der Shader-Einheiten. Der andere für die Performance elementare Punkt ist natürlich die Speicherbandbreite, hier hat der Heise Newsticker in der Tat einen interessanten Einwurf ...
... Denn die 10 MB verbauten eDRAM reichen zwar als Bildspeicher selbst für die höchtmögliche Auflösung von 1920x1080 (1080i), jedoch wäre dort kein Anti-Aliasing mehr möglich, dafür würden gleich 32 MB bei 4x Anti-Aliasing benötigt. Auch bei 1280x720 (720p) würde nur ein 2x Anti-Aliasing in den eDRAM passen, nur bei der Standardauflösung von 720x480 (480p) würde 4x Anti-Aliasing möglich sein. Allerdings ist diese Aussage derzeit noch unter Vorbehalt zu sehen, da das von der neuen Xbox eingesetzte AA-Verfahren nicht bekannt ist. Sollte ATI hier fortschrittliche AA-Verfahren entwickelt haben (die es dann sicherlich später auch im PC-Bereich geben wird), könnte der Speicherbedarf sinken und Anti-Aliasing eventuell auch bei den HD-Auflösungen möglich werden.
Bei Golem hat man ein recht interessantes Interview mit dem Intel-Vize Pat Gelsinger in zwei Teilen geführt: Teil 1 und Teil 2. Insbesondere im letztgenannten Teil geht es stark um die Zukunftsaussichten mit MultiCore-Prozessoren (wobei die Aussage "vom Dual- zum Multi- zum Many-Core" schon andeutet, daß mit "Multi" letztlich sehr viele Cores gemeint sind) und auch die Probleme, welche diese vor allem auf Software-Seite mit sich bringen. Interessant war beispielsweise die Aussage, daß sowohl Microsoft- als auch Linux-Entwickler noch nicht wissen, wie sie für ein MultiCore-System ihr Betriebssystem vernünftig parallelisieren können. Es ist zwar einfach, den Support für dieserart viele Cores einzubauen, jedoch auf Betriebssystem-Ebene davon in der Performance zu profitieren, soll wohl nicht so einfach zu realisieren sein ...
... Auch über die Software-Widerstände bei Spielen wurde gesprochen: So hätten Spieleentwickler ausgesagt, daß sich in erster Linie das Grafik-Frontend, die künstliche Intelligenz und die Physik gut parallelisieren lassen würden, dies jedoch bei künstlicher Intelligenz, Grafik-Backend und Spielemechanik kaum möglich sei. Insgesamt gesehen dürfte dieser Entwicklungsprozeß hin zur Parallelisierung der Software wohl einige Jahre in Anspruch nehmen, wobei zu vermuten steht, daß Intel deutlich früher (als die Software) QuadCore- und MultiCore-Prozessoren bringen wird, welche erst durch ihre Verfügbarkeit die Software-Entwicklung in diese Richtung richtig anheizen. Daraus läßt sich aber auch ableiten, daß jeweils beim Sprung auf eine höhere Core-Zahl die ersten Käufer von den höheren Core-Zahl noch nicht wirklich profitieren werden - eben weil die Software dafür erst nach der Hardware in den Markt kommt.
Shortcuts: Laut Hard Tecs 4U hat der Hersteller von lüfterlosen Komplettsystemen Hush jetzt ein entsprechendes PC-System vorgestellt, welches sogar mit Athlon 64 4000+ und Radeon X800 Pro sehr gut für diese Klasse von PCs ausgerüstet ist. Die gleiche Seite will nun die sichere Information haben, daß ATIs kommende Multigrafikkarten-Technologie wirklich mittels externem Konnektor arbeitet, dennoch soll es die Unterteilung in Master- und Slave-Karte geben. Bei Orthy gibt es hingegen einen Abriß zur Geschichte der 3D-Grafikkarten. Und letztlich gibt es bei Motherboards einen weiteren Artikel zur S3 GammaChrome S18 Pro, welche mit einem ziemlich breiten Testfeld von Radeon X300 bis X850 XT verglichen wurde.