News-Archiv 23. - 29. Oktober 2006 (43. Kalenderwoche)
28./29. Oktober 27. Oktober 26. Oktober 25. Oktober 24. Oktober 23. Oktober
News des 28./29. Oktober 2006 |
Die X-bit Labs haben mit dem Asus P5W64 WS Professional ein Mainboard mit gleich vier Grafikkarten-Steckplätzen im Test. Da das gute Teil aber auf Intels 975X-Chipsatz basiert, ist eine physikalische x16-Anbindung aller Grafikkarten-Steckplätze unmöglich, dem Chipsatz fehlen hierfür die nötigen 64 PCI Express Lanes. Wie üblich beim 975X-Chipsatz ist im Dual-Betrieb die eine Grafikkarte mit x16 angebunden, die andere mit x4. Unter dem Quad-Betrieb lautet die Anbindung dann x8, x8, x4 und x8 - nicht schlecht, aber natürlich noch nicht optimal, ganz besonders wenn man den HighEnd-Charakter dieser Platine bedenkt ...
... Dabei ist das Asus-Mainboard sicherlich (noch?) nicht für den SLI- oder CrossFire-Einsatz mit vier Grafikkarten gedacht, da sowohl ATI als auch nVidia dieses bislang noch nicht ermöglichen (Quad-SLI gibt es bei nVidia schließlich auch nur mittels zwei, nicht aber vier Grafikkarten). Das Asus-Mainboard richtet sich derzeit viel eher an den professionellen Anwender, welcher möglichst viele Monitore ansteuern will - und dabei fällt es dann auch nicht besonders in Gewicht, daß "nur" SingleSlot-Modelle verbaut werden können, weil die Grafikkarten-Steckplätze auf dem Asus-Mainboards alle direkt nebeneinander liegen.
Gegenüber Bit-Tech hat Microsoft eine gewisse Klarstellung bezüglich den reichlich mißverständlichen Lizenzbestimmungen für Windows Vista in Bezug auf den Hardware-Tausch und die Anzahl der möglichen Aktivierungen abgegeben. So bindet sich die Aktivierung unter Windows Vista vorrangig, aber nicht ausschließlich an die Festplatte. So lange diese aber nicht zusammen mit einer anderen System-Komponente ausgetauscht wird, ist keine Neu-Aktivierung erforderlich. Dem weitestgehend reibungslosen Hardware-Austausch dürfte somit auch unter Windows Vista nicht viel im Wege stehen - immer eingedenk der Tatsache, daß bei einem Mainboard-Wechsel sowieso eine Neuinstallation samt einer neuen Aktivierung erforderlich wird ...
... Eine solche Re-Aktivierung gestattet Microsoft bis zu 10mal - und betont, daß es nicht möglich sein soll, gleichzeitig zwei Systeme unter derselben Lizenz zu betreiben. Daß mag rechtlich in Ordnung gehen, rein praktisch würde uns hier aber interessieren, wie Microsoft daß durchsetzen will: Ohne eine zumindestens sporadisch genutzte Internet-Verbindung ist es nicht nachprüfbar, ob ein und dieselbe Lizenz auf mehreren Rechner Verwendung findet. Diese Methode ist aber unmöglich implementierbar, weil es genügend Rechner gibt, die bewußt nicht am Internet hängen. Möglicherweise ist letztere Microsoft-Aussage aber auch einfach bloß ein "Scharfmacher-Spruch", welcher die Nutzer von dieser im Heim-Bereich recht beliebten Unsitte wegführen soll.
News des 27. Oktober 2006 |
Mal wieder etwas neues zum Thema passiv gekühlter Grafikkarten kann der Grafikkarten-Hersteller XFX mit seiner "Extreme Edition Passive" der GeForce 7950 GT beitragen, welche im Test bei Hexus steht. Dabei taktet die XFX-Karte mit 570/730 MHz sogar noch etwas höher als der GeForce 7950 GT Standard von 550/700 MHz. Daß man diese Karte trotzdem noch passiv kühlen kann, erstaunt etwas, dürfte doch der Leistungshunger der GeForce 7950 GT irgendwo in der Mitte zwischen GeForce 7900 GT (49 Watt) und GeForce 7900 GTX (85 Watt) liegen und damit außerhalb des 50-Watt-Bereichs, in welchem sich bisher passiv gekühlte Grafikkarten ausschließlich aufgehalten haben ...
... Daß XFX hier trotzdem einen Weg gefunden hat, diese Karte vollständig lüfterlos zu halten, ist aller Ehren wert - daß es sogar noch zu einer (wenn auch geringfügigen) Übertaktung gelangt hat, um so besser. Ebenfalls positiv zu bewerten ist, daß die Karte laut dem Geizhals-Preisvergleich letztlich kaum teurer ist als reguläre GeForce 7950 GT Karten: Während die XFX 570M mit den wie gesagt etwas höheren Taktraten für zwischen 290 und 300 Euro zu bekommen ist, geht die 520M-Version mit standardmäßigen Taktraten, aber trotzdem der passiven Kühlung für zwischen 270 und 290 Euro weg. Zum Vergleich: Die besten Angebote an GeForce 7950 GT Karten ohne Übertaktung und mit Lüfterkühlung kommen auch kaum unter 250 Euro.
Der Planet 3DNow! berichtet über den Start von AMDs derzeit "4x4" genanntem Projekt mit zwei DualCore-Prozessoren auf einem Mainboard für den 14. November. Mit dem 4x4-Projekt stellt AMD aber nicht nur einen Gegenpol für Intels ersten QuadCore-Prozessor Kentsfield vor, welcher im übrigen für den gleichen Tag erwartet wird, sondern trennt auch die Athlon 64 und Athlon 64 FX Prozessorenlinien deutlich: Während der Athlon 64 bei seinen bisherigen Sockeln bleibt, wechselt der Athlon 64 FX auf den im Server-Bereich üblichen Sockel F - die Athlon 64 FX der nun anstehenden 70er Bauserie (FX-70, FX-72 und FX-74) werden also nicht mehr auf gewöhnlichen Desktop-Mainboards laufen ...
... Allerdings wird man den Athlon 64 FX auch kaum auf typischen Server-Mainboard vermarkten können, welchen zumeist viele für den Desktop-Einsatz relevante Funktionen fehlen und zum anderen auch fast ausschließlich (teureren) ECC-Speicher voraussetzen. Die Mainboard-Hersteller werden also gezwungen sein, spezielle Sockel-F-Mainboards nur für den Athlon 64 FX aufzulegen - ob das angesichts der wirklich geringen Anzahl, in welcher diese typische Prestige-CPU verkauft werden wird, sinnvoll ist, sei dahingestellt. Allerdings geht es bei 4x4 für AMD auch wirklich nicht ums Geldverdienen, sondern soll schlicht Intels ersten QuadCore-Prozessoren etwas vergleichbares entgegengestellt werden - egal wieviel kurzfristigen Verlust (bis zum Erscheinen der ersten QuadCore-Modelle von AMD) dies bedeuten mag.
Wie der Tech Report vermeldet, werden Core 2 Duo Prozesspren mit physikalisch wirklich nur 2 MB Level2-Cache im Februar des kommenden Jahres zu erwarten sein. Diese Information ergibt aber auch zugleich den Schluß, daß alle bisher ausgelieferten Core 2 Duo Modelle mit physikalisch 4 MB Level2-Cache auf dem Die ausgeliefert wurden, selbst wenn hiervon die Hälfte bei den Typen mit offiziell nur 2 MB Level2-Cache deaktiviert wurde. Davon einmal abgesehen dürfte der Tech Report mit der Einschätzung, daß die "nativen" 2-MB-Modelle Intel eine wirtschaftlichere Herstellung und damit mehr Spielraum beim Preis ermöglichen sollte, sicherlich richtig liegen.
News des 26. Oktober 2006 |
Bei GamePC hat man sich die mobilen Versionen des Intel Core 2 Duo speziell unter dem Gesichtspunkt angesehen, was diese im Desktop-Einsatz leisten können. Prinzipiell sind Mobile- und Desktop-Versionen des Core 2 Duo identisch, nur gibt es auf dem Desktop etwas höhere Taktfrequenzen und einen höheren FSB. Dafür bieten die Mobile-Typen einige Stromsparfunktionen mehr und vor allem eine generell niedrigere Leistungsaufnahme durch eine niedrigere CPU-Spannung. Da der mobile Core 2 Duo auf demselben Sockel 479 ausgeliefert wird wie die vorherigen Pentium M und Core Duo Prozessoren, sind entsprechende Mainboards auch für den Desktop-Einsatz des mobilen Core 2 Duo schon im Markt erhältlich, zum Betreiben des neueren Prozessors dürfte meist ein BIOS-Update ausreichend sein. Demzufolge haben GamePC den mobilen Core 2 Duo auch streng unter Desktop-Bedingungen getestet, wobei sich die Mobile-CPU auch dort mehr als wacker schlug ...
... Bei der Leistungsaufnahme liegt ein Core 2 Duo T7600 auf 2.33 GHz Takt mit 141 Watt unter Vollast immer noch weit unterhalb der sowieso schon recht niedrigen 190 Watt eines Core 2 Duo E6600 auf 2.4 GHz Takt (beides Modelle mit 4 MB Level2-Cache) - ein in etwa gleich schneller Athlon 64 FX-62 mit 2.8 GHz liegt dagegen schon bei 253 Watt. Dafür daß hier nur die CPU geändert wurde, sind das (zwischen den Intel-Prozessoren) schon sehr hohe Differenzen. Dabei ist die mobile Ausführung in den Performance-Messungen nicht beachtenswert langsamer: Zwischen den beiden vorgenannten Prozessoren liegen gerade einmal 9 Prozent zugunsten der Desktop-Ausführung - was ja auch noch durch die drei Prozent Taktunterschied zwischen beiden Prozessoren abgemildert wird. Spürbare Unterschiede konnten dabei nur in Tests erzielt werden, welche viel Speicherbandbreite benötigen, wie die Messungen mit den Kompressionsprogrammen 7-Zip und WinRAR - was an dem stark unterschiedlichen FrontSideBus von FSB667 (Mobile) gegen FSB1066 (Desktop) liegt ...
... Läßt man diese Tests jedoch außen vor, wo der Unterschied zwischen beiden Prozessoren gleich bei 28 Prozent liegt, sind es gar nur noch 5 Prozent zugunsten des Desktop-Prozessors - bei weiterhin dreiprozentigem Taktunterschied. Insofern kann man fast von einer Leistungsgleichheit zwischen Mobile- und Desktop-Ausführung des Core 2 Duo sprechen. Allerdings verlangt Intel für die Mobile-Version leider mindestens 50 Prozent (bis zum Doppelten) mehr, lohnen sich also insbesondere die höher getakteten Modelle kaum. Bei den niedrig getakteten Modellen fällt der Preisunterschied dann nicht mehr so ins Gewicht, dort kann der mobile Core 2 Duo durchaus einen Ersatz für dessen Desktop-Pendant bilden. Natürlich braucht der konkrete Einsatz eine Zweckbindung, ansonsten wären die Mobile-Versionen einfach nur Geldverschwendung: Denkbar wären hier Wohnzimmer-PCs oder auch kleine Download-Server mit möglichst leiser oder auch gar gänzlich passiver Kühlung - bei nur 36 Watt Verlustleistung für den Prozessor sollte dies eigentlich machbar sein.
Eine vorläufige Klärung, inwiefern die ab dem kommenden Jahr geltenden Rundfunkgebühr für internetfähige PCs auch für Webserver gilt, gibt die Telepolis in Berufung auf den Justiziar des SWR. Danach ist für diese Frage entscheidend, wem das Gerät gehört: Besitzt man den Server und steht dieser nur bei einem Hoster, so würde eine Rundfunkgebühr für den Nutzer anfallen. Im weit üblicheren Fall, daß der Webserver oder die Webpräsenz nur angemietet ist, gibt es zwar auch eine Gebührenpflicht, die fällt allerdings direkt zu Lasten des Hosters und fällt auch nur einmal für alle dem Hoster gehörenden Server (pro Firmenstandort) aus, dürfte also nicht zu Preiserhöhungen für die Kunden führen. Nichts desto trotz kann man natürlich trotzdem über diese Gebührenpflichtigkeit streiten, da Webserver generell keine Geräte sind, mit welchem sich per Internet-Stream öffentlich-rechtliches Radio oder Fernsehen gezogen wird - es fehlt schlicht der Zuschauer, der vor einem Webserver sitzen sollte.
Und wenn die Frage aufkommt, wofür die Rundfunkgebühren für Internet-Nutzer eigentlich da sind, kann dies das ZDF wohl vortrefflich beantworten: In erster Linie zur Verunglimpfung eines gehörigen Teils eben dieser Nutzer. In der letzten aspekte-Folge wurden jedenfalls wieder einmal schwerste Geschütze gegen diverse "Killerspiele" aufgefahren. Gleichzeitig lassen die zu Worte gekommenen Politiker auch durchblicken, daß die Formulierung des bundesdeutschen Koalitionsvertrages, wonach man ein Herstellungs- und Verkaufs-Verbot von sogenannten Killerspielen anstrebt wird, durchaus ernst gemeint ist - selbst wenn die Mühlen der Politik diesbezüglich langsam mahlen und es ein solches Verbot aktuell sicherlich noch nicht vor der Haustür steht ...
... Besonders bezeichnend für die zutiefst politische und damit eben nicht strikt fakten-basierte Motivationslage der entsprechenden Poltiker ist der Umstand, daß man sich mit dem Kriminologischen Forschungsinstitut Niedersachsen "geeignet" hat, den Nachweise zu führen, daß die USK in ihren Altersfreigaben zu lasch ist: Wie man mit dieser Ausgangslage eine ergebnisoffene Ausarbeitung erreichen will, welche jedoch die Grundlage für die Anerkennung als echte Forschungsarbeit darstellt, bleibt unklar. Aber nur eine ergebnisoffene Forschung ist dann auch die Ausgabe von Steuergeldern wert - wenn sich unsere Politiker zielgerichtet "Expertenbestätigung" für ihre vorgefassten Meinungen suchen, sollen sie dies doch bitte aus eigener Tasche bezahlen (diesen Gedanken könnte man im übrigen durchaus zu einer Klage wegen Steuerverschwendung benutzen).
News des 25. Oktober 2006 |
Etwas klarer scheint nun zu werden, was AMD bezüglich der eigenen Planungen zu einem Prozessor mit integrierter Grafiklösung vor hat: Wie Golem ausführen, wird das für 2008 geplante Projekt "Fusion" scheinbar eher eine LowPerformance-Lösung darstellen. Dafür spricht, daß man damit zum einen das Ziel eines geringere Stromverbrauchs anstrebt, was nur im Mobile-Bereich und dort auch nur bis zu einer gewissen Preisklasse interessant ist. Zum anderen deutet die Aussage, Fusion-Systeme sollen auch weiterhin mit extra Grafikkarten aufrüstbar sein, in die Richtung, daß Fusion eher als Konkurrent für integrierte Grafiklösungen in den Markt gehen wird als denn als Konkurrent für extra Grafikkarten. Möglicherweise sieht also die (von AMD geplante) Zukunft so aus, daß man beim Prozessoren-Kauf immer gleich eine Grafiklösung für Grundanforderungen mit dazu bekommt, was dann wohl schlicht Mainboard-Chipsätze mit integrierter Grafik überflüssig machen dürfte.
Die VR-Zone berichtet ein wenig zu den seitens AMD und Intel noch geplanten SingleCore-Prozessoren. Während AMD hier aber scheinbar nur LowCost-Modelle plant, sind einige der von Intel geplanten Typen mit bis zu 3.7 GHz Taktfrequenz durchaus interessant für Anwendungsbereiche, wo Dual- und QuadCore-Prozessoren nach wie vor keine großen Performance-Zuwächse verzeichnen können. Allerdings stehen jene SingleCore-Modelle von Intel mit den hohen Taktfrequenzen leider erst für das vierte Quartal 2007 an: Zwar dürfte Intel bis dahin auch bei den DualCore-Modellen keine höheren Taktraten als 3.7 GHz erreichen, aber dann könnte sich DualCore inzwischen so breit durchgesetzt haben, daß kaum jemand noch diese SingleCore-Modelle beachtet.
Bei Phoronix hat man sich mit der Performance der Intel GMA3000 integrierten Grafiklösung der Chipsätze Q963 und Q965 unter Linux beschäftigt. Der GMA3000 Grafikchip ist dabei nicht mit dem GMA X3000 zu verwechseln: Während der GMA3000 aller Wahrscheinlichkeit nach nur eine (deutlich) höher getaktete Variante der früheren Intel-Grafiklösungen GMA900 und GMA950 darstellt (und somit nur Shader 2.0 Support bietet), steckt die wirkliche neue Technik nur im GMA X3000, welcher den Support des Shader Models 3.0 sowie eine Unified Shader Architektur bietet. Zurückkommend zur Linux-Leistung des GMA3000 überrascht dieser durch reichlich Benchmark-Siege gegen eine extra Grafikkarte, welche mit einer Radeon X300 SE jedoch auch tiefmöglichst gewählt wurde ...
... Zudem muß auch gesagt werden, daß dieses überraschend positive Resultat zugunsten von Intel durchaus auch an den besseren Linux-Treibern liegen könnte - ATI liegt hier bekanntlich reichlich Nachholbedarf. Bevor nicht entsprechende Tests unter Windows erschienen sind, läßt sich somit schwerlich die Behauptung aufstellen, der GMA3000-Grafikchip würde sich auch mit LowCost-Grafikkarten anlegen können - bisher rannten nämlich selbst die langsamsten extra Grafikkarten den integrierten Grafikchips immer noch mit Abstand davon. Allerdings gilt es das Thema weiter zu beachten, schließlich hat Intel beim GMA3000 die Taktraten dermaßen hochgerissen (auf für integierte Grafikchips einmalige 667 MHz), daß dieser (trotz fehlender neuer Technik) durchaus in der Lage erscheint, sich zumindestens mit den derzeit schnellsten integrierten Chips von ATI und nVidia anlegen zu können.
Deutlich negative Meldungen gibt es dagegen für Intels neuen Vorzeige-Grafikchip GMA X3000, welcher inzwischen nun auch schon auf G965-Mainboards ausgeliefert und mittels OEM-PCs sicherlich in kürzester Zeit millionenfach verbaut werden dürfte. Dabei sind die von der ComputerBase angesprochenen Hardware-Probleme eher nicht so wild, denn es kann durchaus immer einmal passieren, daß ein Chip erst in einem weiteren Stepping das liefert, was sich die Entwickler vorher versprochen haben. Daß Intel aber den vollständigen Support für die grundlegenden 3D-Features des GMA X3000 erst einige Monate nach Erstauslieferung mittels neuer Treiber nachschieben will, wirft kein gutes Licht auf die Grafik-Bemühungen von Intel: So wurde der Support für Pixel Shader 3.0 erst mit einem vor wenigen Tagen erschienenen Treiber hergestellt, der Support für Transform & Lighting sowie Vertex Shader 1.1 & 2.0 soll im Dezember und der für Vertex Shader 3.0 gar erst Anfang des kommenden Jahres folgen. Was die Nutzer dieser Grafiklösung in der Zwischenzeit mit Spielen anfangen sollen, welche diese Features zum funktionieren zwingend veraussetzen, wird wohl Intels Geheimnis bleiben.
Shortcuts: Wie schon vorab zu erwarten war, gibt es für das kommende Weihnachtsgeschäfts seitens Microsoft nicht Windows Vista für Privatanwender zu kaufen, sondern nur entsprechende Coupons bzw. die Möglichkeit, ein jetzt im Retail-Handel gekauftes Betriebssystem später in Windows Vista umtauschen zu können. Die Microsoft-Aktion läuft dabei vom 26. Oktober 2006 bis zum 28. Februar 2007 (Retail-Versionen) bzw. 15. März 2007 (OEM-Versionen), genaueres hierzu berichtet der Heise Newsticker. Der Planet 3DNow! bringt eine Klarstellung, wie AMD zukünftig den Markennamen "ATI" verwenden wird: Dieser wird weiterhin benutzt werden bei allen Grafikkarten sowie allen Mainboard-Chipsätzen für Intel-Prozessoren. Im Umkehrschluß bedeutet dies aber auch, daß zukünftige Mainboard-Chipsätze für die eigenen Prozessoren dann wohl unter dem Markennamen "AMD" in den Markt gehen werden ...
... Seitens nVidia gibt es dagegen wieder einmal die Beteuerung, daß man weiterhin unabhängig bleiben wolle, wiederum nachzuschlagen beim Planet 3DNow!. Allerdings sind solche Beteuerungen, selbst wenn derzeit eine Übernahme von nVidia durch Intel wieder etwas unwahrscheinlicher geworden ist, immer äußerst vorsichtig zu betrachten - denn mittels einer früheren Aussage einer nVidia-Führungskraft wird klar, was letztlich der springende Punkt in dieser Angelegenheit ist: "Es sei alles nur eine Sache des richtigen Preises." Über weitere Akku-Rückrufe der Notebook-Hersteller Gateway, Sony und Toshiba berichten TweakPC, währenddessen Hartware die (löbliche) öffentliche Entschuldigung für das aktuelle Akku-Deasaster seitens Sony vermeldet ...
... Hier gibt es das Bild eines nackten G80-Grafikboards zu visitieren, welches erstaunlicherweise den Blick auf gleich zwei nVidia-Chips auf dem Board offenbart. Wofür der kleinere der beiden Chips ist, kann derzeit allerdings nur spekuliert werden. Aus der gleichen Quelle stammen auch ein paar erste Benchmarks des G80-Chips unter dem 3DMark06, welche aufgrund der mangelnden Aussagekraft dieses Benchmarks in seiner Standardeinstellung allerdings nicht viel wert sind. Die Auslieferung der Radeon X1950 Pro auf AGP soll dagegen laut Hard Tecs 4U am 31. Oktober starten, daneben soll wohl neben GeCube und PowerColor auch Sapphire eine solche Karte in Vorbereitung haben. Und letztlich wäre noch anzumerken, daß der früher an dieser Stelle gemeldete Launch-Termin der Radeon X1950 XT vom vergangenen Freitag nun offensichtlich nicht zugetroffen hat - und deshalb vorerst weiter auf diese potentiell recht interessante Karte gewartet werden muß.
News des 24. Oktober 2006 |
Die VR-Zone nennen in einer Grafikchip-Roadmap die Codenamen der kommenden Direct3D10-Grafikchips des Mainstream- und LowCost-Segments: So will ATI dem in 80nm erwarteten R600 HighEnd-Grafikchip für das Mainstream-Segment den RV630 und für das LowCost-Segment den RV610 zur Seite stellen. Da beide Chips schon in 65nm antreten sollen, kann man davon ausgehen, daß RV630 und RV610 erst in Richtung Sommer 2007 erscheinen werden. Seitens nVidia soll es Mainstream- und LowCost-Varianten des G80-Chips wie bekannt wohl schon im Frühjahr geben, die VR-Zone nannte hierzu die Codenamen G86 (Mainstream-Segment) und G84 (LowCost-Segment) - wobei nicht ganz klar ist, ob dies nicht eventuell nur spekulative Angaben sind ...
... Zudem ist seitens beider Hersteller für den Herbst/Winter 2007 noch eine entsprechende Refresh-Generation zu erwarten, welche üblicherweise mit wenigen technischen Veränderungen daherkommt, dafür aber zumeist mit deutlich gesteigerten Taktraten. Begünstigt werden dürfte insbesondere letzteres Vorhaben durch die dann wohl breitflächig zur Verfügung stehenden 65nm Fertigungstechnologie, auch wenn die VR-Zone hierzu keine vollständigen Angaben machte. So sollen für diesen Zeitraum seitens ATI die Mainstream-Grafikchips RV660 und RV670 herausgebracht werden, im HighEnd-Bereich zudem eine noch nicht genauer benannte Refresh-Variante des R600-Chips. Gleiches steht auch für nVidia an, wobei auch hier der Codename der Refresh-Version des G80-Chips noch nicht benannt werden konnte.
Ein Thread unseres Forums beinhaltet dagegen eine S3-Roadmap mit den Planungen des zu VIA gehörenden Grafikchip-Entwicklers bis ins Jahr 2009 hinein. Danach stehen für das nächste Jahr bei S3 die ersten Grafikchips der Direct3D10-Generation an, welche bisher unter dem Projektnamen "Destination Films" liefen und nunmehr in den beiden Cores D2 und D3 resultieren sollen. Der D2-Core soll dabei als in 90nm gefertigter Chip mit einem projektiertem maximalem Chiptakt von 1000 MHz im dritten Quartal 2007 in die Chipproduktion gehen, der D3-Core als in 65nm gefertigter Chip mit einem projektiertem maximalem Chiptakt von 1200 MHz im vierten Quartal 2007. Da die restlichen Daten (fast) vollständig gleich sind, scheint zwischen D2- und D3-Core der Unterschied nur in der Fertigungstechnologie und damit dem maximal erreichbaren Chiptakt zu liegen ...
... Etwas unklar ist allerdings noch, was S3 mit "3 Execution Units" bei den Cores D2 und D3 meint: Prinzipiell hört sich das nach arg wenig an, aber womöglich baut S3 ja auch sehr leistungsfähige Recheneinheiten. Ein wenig eine Spaßbremse dürfte dabei das nur maximal 128 Bit breite Speicherinterface darstellen, selbst wenn S3 hier erstmals eine Unterteilung desselben plant (seltsamerweise beim zuerst erscheinenden D2 vierfach, beim später erscheinenden D3 nur zweifach - möglicherweise auch ein Schreibfehler). Dies deutet auch generell in die Richtung, daß es sich bei den D2/D3-Cores trotz des genannten hohen Chiptaktes wieder nur um Projekte für den maximal unteren Mainstream-Markt handeln dürfte. Nun gut, wenn sich S3 wenigstens dort einmal dauerhaft festsetzen könnte, wäre dies schon ein Erfolg zugunsten mehr Wahlfreiheit für den Endkunden ...
... Dagegen spricht allerdings schon wieder der angepeilte Erscheinungstermin von D2 und D3 nicht vor Ende des nächsten Jahres - zu diesem Zeitpunkt dürften ATI und nVidia schon langsam ihre erste Refresh-Generation an Direct3D10-Chips in den Markt bringen. Was S3 mit der langen Entwicklungszeit seit dem letzten wirklich neuen Chip in Form des DeltaChrome anno 2004 gemacht hat, würde uns wirklich einmal interessieren ;). Davon abgesehen bietet die S3-Roadmap noch den Ausblick auf die nach "Destination Films" folgende Architektur: In dieser will S3 offenbar auf MultiCores sowie (endlich) größere Speicherinterfaces setzen. Angesichts der S3-Historie an zu spät in den Markt geschickten Grafikchips wollen wir dies allerdings noch lange nicht zu ernst nehmen, sondern erst einmal abwarten, wie schnell S3 die vorgenannten Cores D2 und D3 des aktuellen Grafikchip-Projekts wirklich in den Markt bringt.
Der Planet 3DNow! berichtet von einigen Preissenkungen seitens AMD. Diese betreffen allerdings nur einige Modelle des Sortiments, bei den DualCore Desktop-Modellen beispielsweise nur den Athlon 64 FX-62, welcher aber auch zum (um 14 Prozent abgesenkten) neuen Preis nichts gegenüber der Intel-Konkurrenz wird richten können: An der grundsätzlichen Marktsituation bei DualCore-Prozessoren ändert sich somit vorerst nichts. Interessanter ist da schon, das die "Energy Efficient" Ausführungen des Athlon 64 X2 nunmehr genauso viel kosten wie die "normalen" Modelle - und aufgrund ihrer abgesenkten Kernspannung, geringerer Verlustleistung und damit dem geringerem Kühlaufwand sicherlich vorzuziehen wären.
neuer Artikel |
Intel Core 2 Duo vs. AMD Athlon 64 X2 (AM2)
Mit den Core 2 Duo/Extreme Prozessoren hat Intel zur Mitte des Jahres eine neue und vielversprechende Prozessoren-Generation vorgestellt, welche vor allem auch auf einen Schlag die bis dahin geltenden Dominanz der AMD-Prozessoren in Punkto Performance eliminierte. Wir wollen uns mit unserem heutigen Test ausschließlich auf die Spiele-Performance der aktuellen DualCore-Prozessoren von AMD und Intel konzentrieren, wobei der Schwerpunkt dieses (wiederum nicht mittels Timedemos, sondern Savegames ausgeführten) Tests weniger bei der Aufstellung von konkreten Performance-Zahlen für einzelne Spiele, sondern vielmehr auf der Ermittlung der prinzipiellen Leistungsunterschiede zwischen beiden Prozessoren-Architekturen lag ... zum Artikel
News des 23. Oktober 2006 |
Die X-bit Labs haben einige Details zum G80-Chip anzubieten, welche im Gegensatz zu den früheren Gerüchten mit unsicherer Quellenlage nunmehr als gesicherte Erkenntnis angesehen werden können, entstammen diese doch aus einer Pressemitteilung oder Produkt-Webseite von Asus, welche "etwas vorfristig" online war und deshalb im Forum von MyChat kopiert werden konnte. Interessanterweise bestätigen die nun bekanntgewordenen Angaben jedoch die früheren Gerüchte, welche vor einigen Wochen von DailyTech und der VR-Zone ausgehend das Web überrollten. Zwar können die Asus-Angaben nicht alles, was da seinerzeit berichtet worden war, bestätigen, jedoch zumindestens einige Teile davon ziemlich eindeutig ...
... So lautet der Name der Top-Version des G80-Chips in der Tat GeForce 8800 GTX und kommt mit den Taktraten von 575/900 MHz an einem 384bittigen Speicherinterface mit 768 MB GDDR3-Speicher daher - was nahelegt, daß die Gerüchte zu einer kleineren G80-Variante namens GeForce 8800 GTS mit Taktraten von 500/900 MHz an einem 320bittigem Speicherinterface mit 640 MB GDDR3-Speicher ebenso stimmen. Leider keine Aufklärung können die Asus-Angaben jedoch zur Frage geben, mit wieviel (und welchen) Recheneinheiten der G80-Chip antritt. Da jedoch die früheren Gerüchte bisher so zielsicher zugetroffen sind, kann man durchaus darüber reden, daß diese auch in der Frage der Recheneinheiten Recht behalten könnten ...
... Und danach soll der G80-Chip über 128 Recheneinheiten verfügen - wobei wir stark davon ausgehen, daß diese nicht mehr all zu viel mit den Recheneinheiten früherer nVidia-Grafikchips zu tun haben. Die teilweise gefallene Bezeichnung von "Stream-Prozessoren" deutet in eher gänzlich andere Richtungen - wenn wir mal spekulativ denken wollen, könnte man sich da durchaus ein Konzept ähnlich des früheren 3DLabs-Chips P10 vorstellen, wo die Aufgaben von wenigen, komplexeren Recheneinheiten auf viele, einfacher strukturiere Recheneinheiten aufgeteilt wurden. Gut möglich, daß nVidia den gleichen Weg gegangen ist - und somit in der Tat 128 Recheneinheiten bietet, welche jedoch einzeln nicht so leistungsfähig sind wie bisherige Recheneinheiten ...
... Um aber den Vergleich zu bisherigen Grafikchips wahren zu können: Die hier und da genannten "8 TCPs" deuten auf 8 Quad-Textureneinheiten hin, welche also pro Takt 32 Pixel texturieren können und damit als Äquivalent zu 32 Rendering-Pipelines angesehen werden können. Aber wie gesagt kann man derzeit über die Rechenkraft des G80-Chips eher nur spekulieren (was beispielsweise auch über die teilweise genannten deutlich vom Referenztakt abweichenden Taktraten der Recheneinheiten gilt, die derzeit einfach noch zu utopisch klingen), exakte Informationen werden wohl noch ein paar Tage brauchen, ehe jene ins Netz fließen - und spätestens Anfang November wird nVidia zum G80-Launch sowieso den Schleier über dem ersten Direct3D10-Chip lüften müssen.
Eine weitere Radeon X1950 Pro für AGP kommt von GeCube, die Karte wird schon von einigen Online-Shops gelistet, ist allerdings noch nicht lieferbar. Der Preispunkt der Karte ist mit rund 220 bis 240 Euro zwar klar höher als jener der PCIe-Varianten (derzeit rund 170 bis 200 Euro), dürfte aber gerade noch so in Ordnung gehen - sofern die Leistung der Karte passt, was natürlich entsprechende Tests zeigen müssen. Die Taktraten der GeCube-Karte entsprechen im übrigen mit 575/690 MHz mehr oder weniger dem Standard der Radeon X1950 Pro, so daß von dieser Warte aus alle Bedingungen für einen Erfolg vorhanden sind. Im übrigen befindet sich auf der chinesischsprachigen Webseite Coolaler noch ein Bild der AGP-Version der Radeon X1950 Pro von PowerColor.
Shortcuts: Zum Austausch von Sony-Akkus für Sonys eigene, hierzulande verkaufte Notebooks berichten TweakPC. Ebenfalls TweakPC berichten darüber, daß nVidia die Grafikkarten-Hersteller angewiesen hat, G80-Grafikboards nur unübertaktet auszuliefern. Nachdem man die Grafikkarten-Hersteller noch bei der GeForce 7900 GT regelrecht zu eigenen Versionen mit hoch gesetzten Taktraten ermuntert hat, will man es beim G80-Chip aus derzeit kaum sicher ermittelbaren Gründen wohl konservativer angehen. The Inquirer berichten hingegen von angeblichen Problemen des G80-Chips in Punkto SLI und HDCP. Allerdings ist die Informationslage derzeit zu dünn, um beurteilen zu können, ob es sich hier um echte Probleme oder nur temporäre Schwächen der aktuellen Samples bzw. der derzeitigen Treiber handelt.