News-Archiv 3. - 9. Dezember 2007 (49. Kalenderwoche)
8./9. Dezember 7. Dezember 6. Dezember 5. Dezember 4. Dezember 3. Dezember
News des 8./9. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
techPowerUp! haben den scheinbar ersten Artikel zur 512-MB-Edition der Radeon HD 3850 online. Die Karte ist beim Radeon HD 3850/3870 Launch mangels seinerzeit verfügbarer Testsamples ein wenig untergegangen, soll aber die Lücke zwischen Radeon HD 3850 256MB und Radeon HD 3870 512MB füllen. Dabei hat die Radeon HD 3850 512MB prinzipiell dieselben technischen Daten wie die 256-MB-Ausführung dieser Karte - nur eben den Grafikkarten-Mehrspeicher, welcher sich allerdings bei hohen Auflösungen und dem Einsatz von Anti-Aliasing durchaus bezahlt machen sollte. Die von techPowerUp! gesteteste PowerColor-Karte taktet allerdings abweichend mit 700/850 MHz, das sind ein paar Prozentpunkte mehr als der ATI-default von 670/828 MHz.
Diese 4 bzw. 3 Prozent Taktdifferenz dürfte jedoch das Kraut auch nicht mehr Fett machen, der größere Unterschied sollte sicherlich über den Mehrspeicher zu erzielen sein. Und hier punktet die Radeon HD 3850 512MB doch ganz vernünftig: Unter 1280x1024 mit 2x Anti-Aliasing (wo verfügbar) beträgt der Vorsprung gegenüber der 256-MB-Ausführung schon 11,4 Prozent, unter 1600x1200 mit 4x Anti-Aliasing (wo verfügbar) sind es dann immerhin 16,8 Prozent. Das sind natürlich keine Welten, allerdings dürfte sich der Vorsprung der 512-MB-Edition mit der Zeit und neuen Spielen vergrößern - und ist der Mehrpreis für die 512-MB-Ausführung mit um die 20 Euro auch nicht wirklich großartig. Insofern ist - wenn denn die Verfügbarkeit gegeben wäre - die Radeon HD 3850 512MB der Radeon HD 3850 256MB durchaus vorzuziehen, man dürfte an der 512-MB-Version schlicht länger seine Freude haben.
Bei Expreview hat man das erste Review zur G98-basierten GeForce 8400 GS anzubieten. Der G98-Chip für das LowCost-Segment soll in diesem den G86-Chip (GeForce 8300/8400/8500) ablösen, nach den Vorab-Informationen soll es mit dem G98 allerdings nicht mehr Leistung geben, sondern nur die neue VP2-Videoeinheit sowie eine weiterhin sehr aggressive Preisgestaltung, ermöglicht durch die kleinere 65nm-Fertigung des G98-Chips (der G86 wird noch in 80nm hergestellt). Interessanterweise hat der G98-Chip den zusätzlichen Codenamen "D8M", was doch reichlich irritierend ist, steht das "M" doch eigentlich für das Mainstream-Segment und gehört dieser Chip dort ganz und gar nicht hin.
Dies noch dazu, wo nVidia laut den Ausführungen von Expreview die Hardware des G98-Chips gegenüber dem G86-Chip sogar noch zusammengekürzt haben soll: Anstatt 8 Shader-Einheiten, 8 TMUs und 4 ROPs des G86-Chips sprechen Expreview von 4 Shader-Einheiten, 4 TMUs und 4 ROPs. Exakte Spezifikationen seitens nVidia hat man zwar nicht vorliegen, allerdings deuten die (wenigen) angestellten Benchmarks durchaus in diese Richtung, welche eine G86-basierte GeForce 8400 GS um gute 50 Prozent vor einer G98-basierten GeForce 8400 GS zeigen. Interessanterweise spricht aber auch die Die-Größe des G98-Chips von nur 85,5mm² für diese Idee von der Hardware-Abspeckung, denn bei einem Hardware-technisch unveränderten Wechsel von der 80nm- auf die 65nm-Fertigung sollte der G86-Chip (126mm²) kaum kleiner als 100mm² ausfallen.
Allerdings lassen sich dann die nVidia-Stichwörter der bei Expreview in Auszügen zu sehenden G98-Präsentation überhaupt nicht mehr halten, welche von "new 65nm version of 8400 GS" und "Performance is same" sprechen. Vielmehr würde es sich dann bei dieser G98-basierten GeForce 8400 GS um eine völlig andere Grafikkarte mit einer ganz anderen Performance-Charakteristik als bei der bisherigen G86-basierten GeForce 8400 GS handeln. Und natürlich wäre diese G98-basierte GeForce 8400 GS dann nochmals deutlich langsamer als die bisherige G86-basierte GeForce 8400 GS, da helfen der neueren Karte auch ihren höheren Taktraten (567/1400/500 MHz anstatt 450/900/400 MHz) nicht mehr weiter. Auf der anderen Seite war die GeForce 8400 GS auch bisher schon eine klare OEM-Karte ohne jeglichen Spiele-Anspruch - daran ändert sich mit dem schwächeren G98-Chip nun auch nichts mehr.
Wie DailyTech berichten, will AMD im nächsten Jahr noch reichlich neue K8-basierte Prozessoren herausbringen, bislang sind 11 neue Modelle geplant. Dabei wird man vornehmlich die bisherigen 90nm-Modelle durch 65nm-Modelle ablösen, wobei letztgenannte mit nur der Hälfte des bisherigen Level2-Caches, dafür aber jeweils 100 MHz mehr Takt an den Start gehen werden. Konkret bedeutet dies beispielsweise, daß ein Athlon 64 X2 5600+ auf 90nm mit 2.8 GHz und 2 MB Level2-Cache daherkommt, auf 65nm sind es dann 2.9 GHz und 1 MB Level2-Cache. Da AMD allerdings die bisherigen HighEnd-Modelle Athlon 64 X2 6000+ und 6400+ gar aus dem Programm nehmen will, sind auch von den kommenden 65nm-Prozessoren wiederum keine Taktratensteigerungen zu erwarten.
News des 7. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Der Tech Report hat mittels eines Beta-BIOS' eines MSI-Mainboards nachmessen können, wieviel Performance der TLB-Bug die K10-Prozessoren von AMD kostet. Im Gegensatz zu den bisherigen Angaben von AMD, welche von 10 Prozent Performance-Verlust durch das Bugfixing ausgingen, ermittelte man hierbei einen durchaus erheblichen Performanceabschlag von im Schnitt 20 Prozent - in einem Fall gab es gar eine Differenz von 57 Prozent. Damit läßt sich der TLB-Bug sicherlich nicht mehr als unwesentlich abtun - auch wenn klar ist, daß die bisherigen Testberichte zu Operon- und Phenom-Prozessoren trotz ungefixter Prozessoren & Mainboards überhaupt nicht von unerklärlichen Abstürzen berichten, der Fehler in der Praxis also offensichtlich höchstselten auftritt.
Gleichzeitig wird aber immer klarer, daß AMD dieser Bug schon des längerem in seinem wahrscheinlich vollen Ausmaß bekannt war. Schließlich sollen den Mainboard-Herstellern schon am Phenom-Launchtag (19. November) Informationen über den TLB-Bug und dessen Fix mittels eines BIOS-Updates zugegangen sein. An dieser Stelle ist es schwer unwahrscheinlich, daß AMD diesen Bug erst am Vortag des Launches entdeckt hat und den Mainboard-Herstellern dann gleich einen Tag später einen funktionierenden Fix präsentieren konnte. Eher wahrscheinlich ist es an dieser Stelle, daß AMD bewußt erst am Launchtag die Mainboard-Herstellern informiert hat, um erstens den lange geplanten Launch nicht mehr zu gefährden und zweitens nicht kurz vor dem Launch Gerüchte über einen Bug aufkommen zu lassen.
Natürlich darf an dieser Stelle durchaus die Frage gestellt werden, wieso AMD überhaupt den Phenom-Launch noch durchgezogen hat, wenn der TLB-Bug schon bekannt war. Selbst wenn AMD den TLB-Bug wirklich erst kurz vor dem Launch entdeckt hätte, wäre eine Absage des Launches wohl besser für das Ansehen des Unternehmens gewesen, als wie jetzt geschehen mit nur mittelprächtig schnellen neuen Prozessoren in den Markt zu gehen, welche dann noch dazu einen Bug enthalten, welcher nochmals ein gutes Stück Performance kostet. AMD hat in diesem Fall wirklich einmal Glück, daß man nicht Intel ist - denn Intels seinerzeitiger Pentium-Bug erzeugt aufgrund der überragenden seinerzeitigen Marktstellung von Intel noch wesentlich mehr Wirbel.
Bei Hard Tecs 4U gibt es eine Auflistung der am 20. Januar seitens Intel neu in den Markt kommenden 45nm-Prozessoren (bis auf den Celeron E1200, welcher weiterhin in 65nm gefertigt wird), womit die 45nm-Generation dann auch abseits von Extreme-Gefilden für alle Preisbereiche ab 163 Dollar Listenpreis verfügbar sein wird. An der generellen Preiseinstufung ändert sich wenig: Wie schon bisher befindet sich die Schnittstelle zwischen Dual- und QuadCore-Prozessoren bei 266 Dollar Listenpreis - darüber gibt es nur noch QuadCore-Modelle, darunter nur DualCore-Modelle. Allerdings ist der für 266 Dollar Listenpreis ab dem 20. Januar zu habende 45nm-Prozessor im Gegensatz zum Rest der neuen Modelle etwas beschnitten: Er verfügt nur über 6 anstatt 12 MB Level2-Cache.
Hier will Intel wohl dem Preisverfall im QuadCore-Bereich einen gewissen Riegel vorschieben - wer das technisch vollständige Produkt will, bekommt dann erst bei der nächsten Taktstufe die vollen 12 MB Level2-Cache, verbunden allerdings mit einem gewissen Mehrpreis. Nichts desto trotz dürften sich QuadCore-Prozessoren auch mit dieser neuen Preissituation weiter im Markt durchsetzen - und zwar nicht weil die für QuadCore-Prozessoren notwendigen Software-Anpassungen über Nacht so viel besser geworden sind, sondern einfach weil die QuadCore-Modelle teilweise so günstig angeboten werden, daß sich die DualCore-Boliden kaum noch lohnen.
Gut kann man dies bei den gleichpreisigen Prozessoren Core 2 Duo E8500 und Core 2 Quad Q9300 vergleichen: Das DualCore-Modell wird immerhin mit 3.16 GHz antreten, daß QuadCore-Modell mit 2.5 GHz (und wie gesagt der Limitation beim Level2-Cache). Trotzdem sind das nur 27 Prozent, welche das QuadCore-Modell pro Takt schneller sein muß als das DualCore-Modell, um jenes einzuholen. Echte QuadCore-Optimierungen werden allerdings dahingehend anlegt, so um die 80 Prozent Performance herauszuholen, selbst bei eher ungünstigen Voraussetzungen sollten immer noch wenigstens 50 Prozent Performanceplus herausspringen. In dieser Rechnung wäre der QuadCore-Prozessor auf 2.5 GHz schon schneller als der DualCore-Prozessor auf 3.16 GHz.
Und selbst wenn es heute noch zu wenige QuadCore-Optimierungen gibt, arbeitet die Zeit deutlich für diese Prozessoren - sprich, daß QuadCore-Modell wird mit der Zeit immer schneller werden. Der Punkt, wo der QuadCore-Prozessor mittels dieser QuadCore-Optimierungen den schneller getakteten DualCore-Prozessor überholt, ist somit nur eine Frage der Zeit. Einen gewaltigen Haken hat die Sache dann aber doch noch: Ausgerechnet auf diesem Anwendungsfeld für Home-User, wo derzeit die meiste Leistung benötigt wird - nämlich den Spielen - hängen die QuadCore-Optimierungen noch großflächig zurück. Das bedeutet nicht, daß diese nicht kommen werden, aber aufgrund der Schwierigkeit, schlagkräftige QuadCore-Optimierungen für Spiele zu erstellen, wird dies halt im Schnitt länger dauern als bei anderer Software.
Wer natürlich häufig mit anderen Anwendungsfeldern zu tun hat, wo kräftig Performance benötigt wird, fährt mit QuadCore-Modellen wohl schon jetzt aufgrund des doch verhältnismäßig geringen Preisaufschlags besser - gerade im Multimedia-Bereich sind die Performance-Gewinne der QuadCore-Boliden ja schon jetzt zumeist überzeugend. Wenn es dagegen rein nur ums Spielen geht - und fürs Internet-Surfen oder Office-Programm wird gerantiert kein QuadCore-Modell benötigt - steht das ganze sozusagen auf der Kante: Derzeit ist ein QuadCore-Performancegewinn unter Spielen noch eher selten anzutreffen - allerdings sind diese 27 Prozent Differenz, um auf die Leistung des gleichpreisigen DualCore-Modells aufzuschließen, nicht so groß, als daß diese nicht mit der Zeit selbst mit nur mittelmäßigen QuadCore-Optimierungen erbringbar wäre.
Dabei bleibt weiterhin die ganz theoretische Weisheit bestehen, daß es QuadCore-Prozessoren schwer haben im Spiele-Umfeld, weil entsprechende Optimierungen gerade bei Spielen eher schwer zu erstellen sind und dann auch nicht in jedem Fall wirklich viel an Performance bringen. Wenn aber Intel (und in dem Sinne ja auch AMD mit den niedrigen Phenom-Preisen) uns die QuadCore-Prozessoren allerdings derart hinterherwerfen, dann erübrigen sich solche Überlegungen auch (fast) wieder. Davon ganz abgesehen nimmt wenigstens Intel den immer noch unentschlossenen Naturen die Entscheidung sowieso weitestgehend ab: Da es keine DualCore-Modelle oberhalb von 266 Dollar Listenpreis gibt und keine QuadCore-Modelle unterhalb dieser Marke, erübrigt sich in vielen Fällen das Nachdenken, ob es nun ein DualCore- oder ein QuadCore-Modell sein soll ;).
News des 6. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie Hard Tecs 4U berichten, hatte nVidia höchstselbst die technischen Daten zur G92-basierten GeForce 8800 GTS durch ein Versehen kurzfristig auf der eigenen Webseite gelistet. Danach bestätigen sich erst einmal die vollen 128 Shader-Einheiten des G92-Chips, bei den Taktfrequenzen hat man dieser Karte mit 650/1625/1000 MHz allerdings 30 MHz mehr Speichertakt spendiert als bislang vermutet. An dem schon zu beobachtendem Effekt, daß diese Karte von ihrem Speicherinterface ausgebremst wird und so die deutlich höhere Shader-Power gegenüber der GeForce 8800 GT kaum wirklich ausspielen kann, dürfte das allerdings kaum etwas ändern. Davon abgesehen wäre nVidia noch einmal deutlich anzuraten, diese Karte nicht unter diesem Namen in den Markt zu entlassen, die Verwirrung gerade von Otto Normalkäufer dürfte angesichts von drei verschiedenen Karten mit demselben Namen garantiert sein.
Wie unter anderem Golem ausführen, hat das in dieser Hinsicht schon berühmt-berüchtigte Landgericht Hamburg wieder einmal ein durchaus zweifelhaftes Urteil zum Internetrecht gefällt. Danach war es den Richtern anscheinend nicht ausreichend, daß ein an einem Sonntag um 3:37 morgens gemachter "unzulässiger" Kommentar zu einem Blog-Eintrag erst am selben Tag um 11:06 vom Blog-Betreiber gelöscht wurden war. Vielmehr urteilte man, daß aufgrund der hohen Brisanz des Blog-Eintrag die Kommentare hierzu hätten komplett vorab kontrolliert werden müssen, da mit "unzulässigen" Kommentaren zu rechnen gewesen sei. Was schon reichlich irritierend ist, denn die Gesetzeslage sieht keinerlei Vorkontrolle vor und auch Ausnahmen bei besonders brisanten Themen sind bislang im Gesetzestext nicht zu finden.
Davon abgesehen läßt sich das Urteil sogar gegen die klagende Partei umdrehen: Wenn das Geschäftsmodell der Firma Callactive, welche die eher zweifelhaften Anrufshows auf verschiedenen TV-Sendern produziert, den Bürger derart in Wallung bringt, daß "unzulässige" Äußerungen zustande kommen, dann wäre demzufolge doch auch das Geschäftsmodell zu untersagen - weil offenbar, wenn man dem Gericht folgen darf, absolut nichts entscheidender ist, als eben "unzulässige" Äußerungen im Internet zu verhindern ;). Auch dieser Fall zeigt wieder einmal, daß es zum Schutz vor weltfremden Gerichtsentscheidungen zwingend notwendig ist, daß Online-Phänome wie Blogs, Chats und Foren ihre vollständig eigene Rechtsgrundlage bekommen - welche allerdings natürlich nicht wie bisher von praktisch oft gar nicht passenden Offline-Äquivalenten abgeleitet sein soll, sondern direkt mit Blick auf das Internet entwickelt werden muß.
Vorgestern schon verlinkt, aber noch nicht erwähnt wurde eine Meldung des Heise Newstickers, wonach laut der Bundesregierung nur auch wirklich versandte Daten den Schutz des Grundgesetzes in Bezug auf das Post- und Fernmeldegeheimnis genießen. Wenn aber Vater Staat bei verschlüsselten eMails oder verschlüsselten VoIP-Telefonaten bereits vor der Verschlüsselung die originalen Daten mittels eines Trojaners abgreift, würden diese Daten nicht vom Post- und Fernmeldegeheimnis betroffen sein. Ironischerweise sah man aber gleichzeitig die Installation des dafür benötigten Trojaners nicht das Grundrecht auf die Unverletztlichkeit der Wohnung tangieren, schließlich würde man nur Telekommunikationsdaten an der Quelle abfangen. Insgesamt führt dies zur Situation, daß man auf Basis der Telekommunkations-Überwachungsverordnung in fremde Computer einsteigt, um dort Daten herauszuholen, welche man selber aber gar nicht als Telekommunikationsdaten bezeichnet - man hat sich sozusagen das "beste" aus zwei Grundrechten zusammengeklaubt ;)).
Shortcuts: Wie Golem berichten, liefert AMD aufgrund des TLB-Bugs derzeit kaum noch Opteron-Prozessoren aus - was auch folgerichtig ist, denn den Abnehmern im Serverbereich kann man sicherlich keine fehlerhaften Prozessoren andrehen. Damit fehlt AMD aber auch ein lukratives Geschäft - und faktisch betrachtet kommt dem gefixten B3-Stepping zur Mitte/Ende des ersten Quartals somit die Rolle eines regelrechten K10-Neustarts zu. Laut Hard Tecs 4U will nVidia nunmehr im Januar sein Triple-SLI in den Markt entlassen. Gleichzeitig sollen Anfang des Jahres aber auch die GeForce 8800 GTS 640MB und auch die GeForce 8800 GTX "End of Life" erreichen und damit (zugunsten der G92-Karten GeForce 8800 GT 256/512MB und GeForce 8800 GTS 512MB) aus dem Angebot verschwinden.
News des 4. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei TweakTown ist man der Frage nachgegangen, wie sich GeForce 8800 GT und G92-basierte GeForce 8800 GTS im Overclocking-Betrieb gegeneinander positionieren. Die grundsätzliche Idee, daß die DualSlot-Karte GeForce 8800 GTS auf G92-Basis sich etwas besser übertakkten lassen sollte als die SingleSlot-Karte GeForce 8800 GT, trifft dabei durchaus zu, bei ersterer waren 720/1052 MHz möglich, bei letztgenannter "nur" 704/1006 MHz. Großartig andere Performance-Unterschiede ergeben sich aber auch durch die Übertaktung nicht, weiterhin kommt die G92-basierte GeForce 8800 GTS nur auf einen eher bescheidenden Performance-Zuwachs gegenüber der GeForce 8800 GT.
Damit deuten gerade auch diese Benchmarks im übertakteten Zustand an, daß aus dem G92-Chip eigentlich nicht mehr viel herauszuholen ist, weil je höher man die Grundperformance durch Taktraten und mehr freigeschaltete Hardware-Einheiten ansetzt, um so stärker limitiert das nur 256 Bit DDR breite Speicherinterface. Der G92-Chip ist somit exzellent für das Performance-Segment geeigent, aber nur mittelmäßig für den HighEnd-Einsatz. Gleichzeitig bestätigt sich damit aber auch, daß die breiten Speicherinterfaces bei den Grafikchips G80 (384 Bit) und R600 (512 Bit) durchaus ihren Sinn im HighEnd-Segment haben. Die nächsten "echten" HighEnd-Lösungen von ATI und nVidia werden demzufolge in diesem Punkt sicherlich kaum abspecken.
Der Tech Report hat einige weitere Ausführungen zum TLB-Bug des aktuellen B2-Steppings in den Phenom-Prozessoren, welcher AMD beim Phenom-Launch (angeblich) zur kurzfristigen Absage des Phenom 9700 mit 2.4 GHz nötigte. Genau diese Gebundenheit an eine bestimmte Taktfrequenz bestreitet man beim Tech Report allerdings, so soll der kommende BIOS-Fix gegen diesen TLB-Bug auch bei den schon im Markt befindlichen Phenom 9500/9600 Prozessoren angesetzt werden (und diese ca. 10 Prozent an Performance kosten). Das würde letztlich auf zwei Dinge hinauslaufen: Erstens einmal verlieren die aktuell verkauften Phenom-Prozessoren mit dem nächsten BIOS-Update wie gesagt um die 10 Prozent an Performance - was nicht unbedingt die Nachricht ist, die AMD momentan braucht.
Und zweitens hing der Rückzug des Phenom 9700 nicht am TLB-Bug - und demzufolge an einem anderen, derzeit nicht bekannten Grund. Insgesamt gesehen würde sowie interessieren, wieso AMD nicht wenigstens zum Schein mit einigen höher getakteten Phenom-Exemplaren in den Markt gegangen ist, aufgrund der Overclocking-Ergebnisse erscheint es nicht das Problem gewesen zu sein, auch höhere Taktfrequenzen wenigstens offiziell vorzustellen, selbst wenn man diese dann nicht ausreichend liefern kann. Nun aber scheint bei AMD sowieso alles auf das B3-Stepping zu warten, welches einen Fix für den TLB-Bug enhält. Dieses B3-Stepping steht allerdings erst im Februar/März 2008 an, die Dursttrecke von AMD verlängert sich also trotz offiziellem Phenom-Start erneut.
News des 3. Dezember 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die PC Games Hardware hat ein paar erste Benchmarks zu AMDs TripleCore Prozessoren anzubieten - welche einfach dadurch erreicht wurden, daß man bei einem QuadCore-Modell einen Prozessorkern mittels boot.ini deaktiviert hat. Die damit angestellten Benchmarks sind zwar kurz, zeigen aber einiges Potential für die TripleCore-Idee, da der Leistungsgewinn zwischen Dual- zu TripleCore etwas größer ausfällt als zwischen Triple- und QuadCore. Sofern AMD seine TripleCore-Modelle gegen Intels DualCore-Modelle steht, braucht AMD überall klar weniger Takt, um mit Intel mithalten zu können - und kann bei cleverem Marketing, welches die Dreikern-Prozessoren besonders betont, im Mainstream-Segment eventuell einen Punktsieg landen.
Weitere Benchmark-Resultate zu den kommenden 45nm DualCore-Modellen von Intel gibt es erneut bei der PC Games Hardware. Dort hat man einen 45nm Core 2 Duo E8400 mit original 3.0 GHz auf 2.4 GHz heruntergetaktet, um einen taktgleichen Vergleich zu einem Core 2 Duo E6600 und einem auf zwei Kerne limitierten Phenom 9700 zu ermöglichen. Dabei ergab sich im Gegensatz zu den bisherigen Tests doch wieder ein ordentlicher Abstand zwischen den 65nm- und 45nm DualCore-Modellen von Intel von 9,4 Prozent - allerdings auch ermittelt nur in einem einzigen Benchmark (Crysis). Zwischen dem 45nm DualCore-Modell von Intel und dem auf zwei Kerne limitierten Phenom-Prozessor lagen im übrigen auf gleichem Takt satte 26,4 Prozent Differenz - allerdings wie gesagt bei nur einem einzigen Benchmark.
Gemäß Hard Tecs 4U plant Speichermodul-Hersteller A-Data einen DDR3/2000-Speicherriegel mit 1000 MHz physikalischem Takt. Dessen Latenzen mögen sich mit 9-9-9-24 zwar erst einmal nach viel anhören, die reine Latenzzeit ist durch den hohen Takt aber doch erstaunlich niedrig: Nur 9ns - selbst Spitzenmodelle wie CL3 bei DDR3/800 kommen nur auf 7,5ns. Wenn dieser Speicherriegel herauskommt, würde der Takt-Abstand zwischen Grafikkartenspeicher (derzeit maximal 1200 MHz) und PC-Hauptspeicher (dann 1000 MHz) weiter zusammenrücken. In der Vergangenheit hat man hier in aller Regel doch deutliche Abstände von 50 bis 100 Prozent mehr Takt bei Grafikkartenspeicher gesehen - was zum einen damit zusammenhängt, daß die hohen Taktraten bei Grafikkartenspeicher auch nachgefragt wurden.
Zum anderen kann man auf einer Grafikkarte bei hohen Speichertaktraten auch immer eine extra Speicherkühlung konzipieren - und sei es nur durch die Vergrößerung des Grafikchip-Kühlblocks auch über die Speicherbausteine hinweg - was eigentlich regelmäßig deutlich höhere Taktraten bei Grafikkartenspeicher ermöglichte. Daß der Abstand derzeit so eher geringfügig ist, ändert wohl nichts an diesen Regeln, sondern hat wohl nur damit zu tun, daß besonders schnell taktender Grafikkartenspeicher derzeit kaum nachgefragt wird: Im HighEnd-Bereich haben die Grafikkarten entsprechend breite Speicherinterface und benötigen keine extremen Speichertaktraten, während selbige im Mainstream- und Performance-Bereich wohl schlicht zu teuer wären. Ein bißchen spielt hier sicher auch der eher mäßig laufende GDDR4-Standard mit hinein, welcher nun in Kürze durch den GDDR5-Standard abgelöst werden sollte. Dieser verspricht wieder einen deutlichen Taktratensprung, womit es mehr Abnehmer, damit auch mehr Produktion und damit auch sinkende Preise geben sollte.
Shortcuts: Wie Hardware-Aktuell berichten, plant Sapphire eine vollständig passiv gekühlte Version der Radeon HD 3850. Auch von der GeForce 8800 GT sind solcherart Projekte bekannt, obwohl beide Grafikchips deutlich über 50 Watt verbrauchen und überhalb dieser Grenze eine passive Kühlung nicht mehr so einfach zu realisieren sein dürfte. Auf eine lustige Ironie weist das Bundestrojaner Blog in Zusammenhang mit der Meldung hin, daß die Arbeiten an eben jenem Bundestrojaner inzwischen wieder aufgenommen wurden: Da es derzeit keine rechtliche Grundlage für den Einsatz des Bundestrojaners gibt, könnte man die reine Arbeit an diesem Programmwerk als Verstoß gegen den neuen Hacker-Paragraphen werten. Fehlt eigentlich nur noch eine entsprechende Strafanzeige ;).