News-Archiv 25. September - 1. Oktober 2006 (39. Kalenderwoche)
30. Sept./1. Okt. 29. September 28. September 27. September 26. September 25. September
News des 30. Sep./1. Okt. 2006 |
Die FiringSquad hat sich in mehreren Artikeln mit dem kürzlich als "Gold" gemeldeten Battlefield 2142 und dessen Performance unter aktueller Hardware beschäftigt. Den Anfang macht dabei ein Vergleich unter den derzeitigen HighEnd-Grafikkarten: Hierbei ergab sich ein überraschend stimmiges Bild, wonach die GeForce 7950 GX2 teils mit Abstand vor allen anderen Grafikkarten liegt und dahinter die Radeon X1950 XTX, Radeon X1900 XTX, GeForce 7900 GTX und Radeon X1900 XT 512MB - in dieser Reihenfolge - die erste Verfolgergruppe bilden. Die inzwischen ältere Lösung Radeon X1800 XT 512MB kann dann noch ganz gut mithalten, während GeForce 7900 GT 256MB und GeForce 7800 GTX 256MB dann doch schon etwas zurückliegen ...
... Wie gesagt ein recht stimmiges Bild, denn derzeit läßt sich die allgemeine Performance der genannten Grafikkarten über alle Spiele in etwas so einschätzen, wie es Battlefield 2142 hier exemplarisch zeigt. Der SLI-Test (ohne allerdings Quad-SLI mittels einer doppelten GeForce 7950 GX2) wie auch der Test unter SLI/Super Anti-Aliasing brachten keinerlei große Überraschungen, dagegen ist das Ergebnis des Tests von 256 vs. 512 MB Grafikkartenspeicher ganz interessant ausgefallen: Bis zu einer Auflösung von 1600x1200 erreichen sowohl GeForce 7900 GT 512MB als auch Radeon X1900 XT 512MB gegenüber ihren 256-MB-Editionen nur Performancegewinne im einstelligen Prozentbereich, darüber hinaus kann die Mehrperformance einer 512-MB-Karte aber erheblich sein ...
... So wurden unter 2048x1536 bei der GeForce 7900 GT satte 40 Prozent und bei der Radeon X1900 XT ebenfalls stattliche 41 Prozent zugunsten der jeweiligen 512-MB-Editionen gemessen. Eine klare Empfehlung zugunsten der 512-MB-Editionen kann es aber trotzdem nicht geben: Gerade im heutigen TFT-Zeitalter sind die allermeisten Nutzer an die nativen Auflösungen ihrer Geräte (oder geringer) gebunden: Und unter 1280x1024 liegen die Performancegewinne durch den größeren Grafikkartenspeicher mit 2 bzw. 7 Prozent eben doch noch viel zu niedrig, um wirklich wertbar zu sein. Wenn, dann lohnt sich der Mehrspeicher in erster Linie dadurch, daß jener auf den neueren Modellen inzwischen recht günstig geworden ist: Bei Preisdifferenzen von teilweise nur noch 30 Euro ist der derzeit noch überschaubare Performancegewinn nicht mehr so tragisch, kann man durchaus auf Sicherheit gehen und sich somit eine 512-MB-Edition gönnen ...
... Der nächste Artikel beschäftigt sich speziell mit der Performance der nVidia Mainstream-Grafikkarten unter Battlefield 2142. Dieser zeigt generell das zu erwartenden Bild, interessant sind hier allerdings die SLI-Benchmarks der GeForce 7900 GS, da man diese lobenswerterweise in direkten Vergleich zu den Messungen einer einzelnen GeForce 7900 GTX stellte: Und hier gewinnt die doppelte GeForce 7900 GS, was einer der seltenen Fälle darstellt, wo eine gleich teure (bzw. in diesem Fall sogar günstigere) DualGrafikkarten-Lösung genauso schnell oder schneller ist als eine SingleGrafikkarten-Lösung. Und letztlich beschäftigt sich ein weiterer Artikel noch mit der Prozessoren-Performance unter Battlefield 2142 ...
... Hierbei zeigen sich die Prozessoren aus Intels neuer Core-Prozessorenarchitektur den aktuellen AMD-Boliden als mit Abstand überlegen - zumindestens wenn man bewußt auf CPU-limitierende Settings heruntergeht. Dann erreicht der Athlon 64 FX-62 gerade einmal dieselbe Performance wie der Core 2 Duo E6400, sprinten aber vor allem die Intel-Modelle mit 4 MB Level2 Cache den AMD-Prozessoren maßgeblich davon (wobei dies nicht allein nur am größeren Level2 Cache liegt - wie ein extra Test ergab - sondern wohl auch an den höheren Taktraten der 4-MB-Modelle). Benutzt man allerdings übliche Bildqualitäts-Settings bzw. übliche Auflösungen, so zeigt sich Battlefield 2142 im Gegensatz zu seinem Vorgänger als extrem Grafikkarten-limitierend ...
... Denn schon unter 1600x1200 ohne Anti-Aliasing und ohne anisotropen Filter bringen dann in diesem Test alle Prozessoren von AMD Athlon 64 X2 4200+ bis Intel Core 2 Extreme X6800 exakt dieselbe Leistung. Ironischerweise ergab derselbe Test samt 4xAA und 16xAF dagegen einen konstanten Vorsprung der Intel-Prozessoren von 3 fps gegenüber den AMD-Prozessoren, allerdings keine Unterschiede zwischen den verschiedenen Modellen der beiden Prozessoren-Hersteller selber. Trotz dieser 3 fps Differenz kann man aber generell sagen, daß Battlefield 2142 keinen Unterschied zwischen aktuellen CPUs macht und somit eine schnelle Grafikkarte in diesem Spiel der einzig sinnvolle Weg zu höheren fps-Gefilden darstellt.
News des 29. September 2006 |
The Inquirer berichten ein wenig zum Grafikkartenspeicher-Standard GDDR4, welcher wie schon früher ausgeführt auf der Technologie von DDR3 basiert. Danach soll die Produktionsausbeute von Samsung als bislang einzigem GDDR4-Hersteller auf 1000 MHz (physikalischem) Takt schon sehr gut sein, selbst bei höheren Taktraten soll man jetzt schon eine ansprechende Ausbeute erzielen können. Dies wird dann wohl darin resultieren, daß mittelfristig die Speichertaktraten einen erheblichen Schub erleben werden: Denn während mit GDDR3-Speicher betriebene Grafikkarten bislang in Gefilden von rund 500 bis maximal 850 MHz Speichertakt rangieren, stellen die 1000 MHz von GDDR4 die unterste Grenze des derzeitigen GDDR4-Angebots dar ...
... Oder anders formuliert: ATI und nVidia bekommen hier gerade für die Modelle mit eher niedrigeren Taktraten einen heftigen und ziemlich kostenlosen Performancesprung seitens der Speicherindustrie spendiert, was gerade die kommenden Mainstream-Modelle zu neuen Höchstleistungen treiben dürfte. Wie es bei den eigentlichen HighEnd-Boliden ATI R600 und nVidia G80 diesbezüglich aussieht, ist noch nicht ganz klar - allerdings kann man durchaus davon ausgehen, daß ATI und nVidia hier schon wieder die deutlich bessere Taktbarkeit von GDDR4 ausnutzen werden wollen, womit man mit Speichertaktraten von 1200 bis 1400 MHz rechnen kann. Für die (angeblich) im Herbst 2007 anstehenden Refreshchips R680 und G85 versprechen The Inquirer gar 2000 bis 2500 MHz GDDR4-Speicher - wobei allerdings nicht klar ist, ob die ganze Meldung zu den Refreshchips inklusive Datum und Chipnamen nicht eventuell einfach nur eine Spekulation seitens des britischen Gerüchteblatts darstellt.
Hard Tecs 4U berichten über eine kleine Planänderung seitens AMD bezüglich deren 65nm Modelle: So werden die neu aufgelegten Prozessoren Athlon 64 X2 4000+, 4400+ und 4800+ nun doch nicht mit 2 MB Level2 Cache antreten - jene Cache-Größe hatte AMD eigentlich kürzlich aus dem Programm genommen. Die genannten Prozessoren werden also weiterhin mit 1 MB Level2 Cache antreten, als Ausgleich und zur Rechtfertigung des Model Ratings bekommen sie schlicht 100 MegaHertz mehr Takt. Damit ergibt sich natürlich die kuriose Situation, daß die genannten Prozessoren in zwei Ausfertigungen existieren werden, obwohl diese wenigstens nicht zeitgleich am Markt sind. Am Beispiel des Athlon 64 X2 4000+ verdeutlicht: Dessen 90nm-Variante hat 2.0 GHz Takt und 2 MB Level2 Cache, die kommende 65nm-Variante dann aber 2.1 GHz Takt und 1 MB Level2 Cache.
Nachdem Dell, Apple, Panasonic und Lenovo ihre Notebooks mit Sony-Akkus zurückgerufen haben (bei der Rückrufaktion von Panasonic handelt es sich nicht um Modelle mit Sony-Akkus) hat Sony nun ein Einsehen und ruft die komplette Charge der betroffenen Akkus zurück, wie Hard Tecs 4U berichten. Allerdings dürfte diese Rückrufaktion wohl nicht direkt über Sony abgewickelt werden, da man als Hersteller der Akkus schließlich keinen direkten Kundenkontakt hat. Sony dürfte wohl zuerst mit den Notebook-Herstellern, welche entsprechende Akkus bei Sony gekauft haben, über die Konditionen einer generellen Rückrufaktion verhandeln, worauf dann die eigentliche Rückrufaktion wie schon bei den bisherigen Fällen über die Notebook-Hersteller selber abgewickelt werden dürfte. Weitere aktuelle Akku-Rückrufe betreffen im übrigen erneut Dell sowie erneut bzw. erstmalig Toshiba und Fujitsu.
News des 28. September 2006 |
Einige neue Informationen zur GeForce 7900 GTO seitens MSI haben Hard Tecs 4U anzubieten. So handelt sich bei dieser exklusiv durch MSI vertriebenen Karte nicht um eine "Limited Edition" oder ähnlich, selbst wenn die Karte derzeit - scheinbar aufgrund der großen Nachfrage - kaum noch verfügbar ist. Die GeForce 7900 GTO wird von MSI allerdings in einer fünfstelligen Stückzahl aufgelegt, was für eine HighEnd-Lösung, die nur auf dem Retail-Markt und nur von einem Hersteller verfügbar ist, doch schon eine ganz ansprechende Stückzahl ist. Klar ist aber auch, daß diese Stückzahl in einer mittelfristigen Zeitspanne abgesetzt sein wird - nicht umsonst spricht MSI davon, daß diese Karte auf das kommende Weihnachtsgeschäft abzielt (welches schließlich in zweieinhalb Monaten beendet sein wird). Danach dürfte die GeForce 7900 GTO wohl umgehend vom Markt verschwinden - allerdings stehen zum Jahreswechsel sowieso schon die ersten Direct3D10-Beschleuniger an, welche dann das Interesse auf sich ziehen dürften.
Hard Tecs 4U berichten zum Intel "Yorkfield" QuadCore-Prozessor, welcher als Nachfolger des für schon dieses Jahr geplanten Kentsfield-Core im dritten Quartal 2007 antreten soll. Dabei handelt es sich dann um einen "echten" QuadCore-Prozessor, wo also die vier Cores gemeinsam gefertigt werden und auch auf einen gemeinsamen Level2-Cache zugreifen (beim Kentsfield handelt es sich faktisch um zwei zusammengeschaltete DualCore-Prozessoren mit dann auch zwei separaten Level2-Cache-Bausteinen). Dabei soll der Yorkfield-Core bereits in 45nm antreten, was Intel wieder erhebliche Spielräume bei der Taktfrequenz eröffnen dürfte. Als Chipsatz-Basis für den Yorkfield soll dabei die Bearlake-Plattform dienen - ob man den Yorkfield-Core auch auf früheren Mainboards wird verwenden können, ist damit unsicher und angesichts der Intel-Historie in solchen Dingen auch (leider) eher unwahrscheinlich.
Weshalb Intel im übrigen bei der ersten QuadCore-Generation noch auf zwei zusammengeschaltete DualCore-Prozessoren setzt, läßt sich einer interessante Meldung seitens des Heise Newstickers entnehmen: Danach haben Intels Hochrechnungen ergeben, daß durch die höhere Ausbeute bei der Herstellung zweier DualCore-Prozessoren (Yield Rate: 75 Prozent) gegenüber der Herstellung eines einzelnen QuadCore-Prozessoren (mit entsprechend doppelt so großem Die, prognostizierte Yield Rate: 60 Prozent) die Fertigungskosten bei ersterer Variante letztlich um 12 Prozent niedriger liegen. Dazu dürfte sicherlich kommen, daß diese derzeit von Intel favoritierte Methode natürlich auch keinen zusätzlichen Entwicklungs- und Zeitaufwand erfordert ;) ...
... Wie bekannt, wird Intel aber trotzdem mittelfristig zu dem Modell übergehen, den QuadCore-Prozessor als "einen" Prozessor bzw. sogenannt "monolithisch" herzustellen. Dies hängt wohl primär damit zusammen, daß die Produktionsausbeute mit der Zeit automatisch steigt und sich somit später auch sehr große Cores problemlos mit guter "Yield Rate" fertigen lassen dürften - von der Performance her dürften dagegen die unterschiedlichen Lösungen zur Anbindung des Level2-Caches kaum einen Unterschied machen. Daneben läßt sich noch erfahren, daß Intel für das vierte Quartal 2007 mit Herstellungskosten für einen QuadCore-Prozessor nach Kentsfield-Modell von 71 Dollar rechnet - Entwicklungs- und Vertriebskosten noch nicht mit eingerechnet ...
... Bei HighEnd-Prozessoren mit entsprechenden Preisen bleibt da natürlich eine Menge hängen. Natürlich wird die Masse der Prozessoren auch bei Intel im LowCost- und Mainstream-Bereich verkauft und mit den dort erzielbaren Preisen wird es dann schon etwas knapper, hier noch Profit machen zu können. Allerdings dürfte Intel die QuadCore-Prozessoren sicherlich nicht so schnell in diese Märkte entlassen dürfen - und wenn dann eines Tages auch die QuadCore-Modelle diesen Gang antreten werden, dürfte Intel die Herstellungskosten sicherlich inzwischen schon wieder gesenkt haben. Generell kann man als Faustregel ansetzen, daß der durchschnittliche Herstellungspreis einer Intel- oder AMD-CPU bei 50 Dollar (wie gesagt vor Entwicklungs- und Vertriebskosten) liegt.
Shortcuts: Wie Golem berichten, soll die SSE4-Befehlssatzerweiterung nicht erst 2010 mit dem Gesher-Core, sondern schon 2007 mit dem Penryn-Core an den Start gehen. Nummer Fünf im aktuellen Akku-Desaster nach Dell, Apple, Panasonic und Toshiba ist nun Lenovo: Der chinesische Hersteller, welcher bekanntermaßen die PC-Sparte von IBM übernommen hatte, ruft laut Hard Tecs 4U nun ebenfalls eine große Menge an Notebooks mit Sony-Akkus zurück. Ob das eigene Gerät hiervon betroffen ist, kann man einer entsprechenden Lenovo-Webseite entnehmen. Der Heise Newsticker berichtet dagegen von einer weiteren Umbenennung bei Intel: Die 64-Bit-Befehlserweiterung EM64T läuft ab sofort unter "Intel 64" - nicht zu verwechseln mit "IA64", welches einen Überbegriff für die 64bittige Architektur der Itanium-Prozessoren darstellt.
News des 27. September 2006 |
Wie die ComputerBase berichtet, setzt ATI scheinbar schon ab dem Catalyst 6.6 einen leicht modifizierten Texturenfilter ein, welcher - man höre und staune - allerdings die Bildqualität in positiver Richtung beeinflußt. Die Veränderung selber ist allerdings recht geringfügig - ATI spricht von einer Verbesserung der "Subpixel Precission" und beschränkt sich auch nur auf den standardgemäßen anisotropen Filter - der winkelunabhängige anisotrope Filter (Area-AF) ist hiervon nicht betroffen. Nichts desto trotz eine Entwicklung in die richtige Richtung hin, welche an dieser Stelle hiermit lobend erwähnt wird und natürlich gerne fortgesetzt werden darf.
Ein paar Benchmarks zu Intels neuer GMA X3000 Grafiklösung aus dem G965-Chipsatz gib es in unserem Forum zu visitieren: Dafür, daß diese nur mit der immer noch nicht die Möglichkeiten des Chips vollständig unterstützenden Treiberversion 14.24 aufgenommen wurden, sehen speziell die älteren 3DMark-Werte gar nicht einmal so schlecht aus: Mit 1788 3DMarks im 3DMark03 schlägt man problemlos schon einmal die aktuellen integrierten Grafiklösungen in den Chipsätzen ATI Radeon Xpress 200G (1493 3DMarks) und nVidia GeForce 6150 (1039 3DMarks laut Au-Ja!). Bei den neueren 3DMarks sehen die Werte natürlich derzeit noch desaströs aus - was aber wie gesagt maßgeblich dadurch bedingt ist, daß die Shader-Funktionalität des regulär gar Shader 3.0 unterstützenden Intel-Grafikchips durch die aktuellen Treiber noch weitgehend nicht gegeben ist ...
... Dies äußert sich dann auch in einer Nicht-Spielbarkeit von aktuellen Spieletiteln, wovon einige im vorgelinkten Forums-Thread kurz angetestet wurden. Hier wird Intel schnellstmöglich die angekündigten Treiber nachschieben müssen, um den GMA X3000 zu einer praktikablen Lösung machen zu können - mit wie erwähnt der Chance, die bisherigen Spitzenreiter bezüglich integrierter Grafik nicht nur beim reinen Featureset, sondern auch der Performance deutlich entthronen zu können. Was natürlich auch durch die im GMA X3000 verbaute Technik bedingt erscheint, die weit über das hinausgeht, was ATI und nVidia derzeit auf diesem Feld bieten: Anscheinend vier Rendering-Pipelines samt acht unified Shader-Einheiten beim GMA X3000 würden im Desktop-Markt gar für das obere LowCost-Segment ausreichend sein. Das Potential ist also vorhanden - es fehlen halt derzeit die Treiber, um dieses auch ausspielen zu können.
Shortcuts: Die X-bit Labs haben umfangreiches Material zu den zukünftigen Prozessoren-Entwicklungen bei AMD mittels eines Meetings mit AMD sammeln können. Dabei schien es fast so, als wollen AMD den verbesserten K8L-Core bereits im zweiten Quartal 2007 in Form der ersten QuadCore-Prozessoren seitens AMD an den Start bringen. Was sich Intel hingegen für die langfristige Zukunft so vorstellt, ist bei Hard Tecs 4U nachzuschlagen: Dabei scheint auch Intel den Weg gehen zu wollen, bei künftigen Prozessoren mit vielen Cores diesen auch Spezial-Cores für Grafik, Physik, Kryptographie und ähnliche Aufgaben beizugeben - wobei bezüglich der Grafikfähigkeiten sicherlich noch lange nicht die Performance von dedizierten HighEnd-Grafikchips erreicht werden wird. Und letztlich haben die X-bit Labs noch Hand an die Chip- und Speicherspannung einer GeForce 7600 GT von eVGA gelegt, um diese daraufhin von 580/790 MHz auf (wassergekühlte) 780/940 MHz zu übertakten - der default beim GeForce 7600 GT liegt gar nur bei 560/700 MHz.
neuer Artikel |
Wir hatten bereits zum seinerzeitigen Launch einen entsprechenden Artikel zur PhysX-Karte von BFG abgeliefert, welcher die neuen Möglichkeiten zur Physikbeschleunigung in Form von Ageias PhysX-Konzept untersuchte. Aber natürlich stellt diese Angelegenheit - gerade jetzt, zum Beginn einer (möglichen) Ära von dediziert Hardware-beschleunigter Physikberechnungen auf dem PC - einen eher fortlaufenden Prozeß dar, ist also mit dem Launch-Artikel nur der Grundstein gelegt. Denn inzwischen hat sowohl die Liste an PhysX unterstützenden Spieletiteln Zuwachs erfahren als auch gibt es einige Ageia betreffenden Spiele-Patches sowie natürlich neuere Treiber seitens Ageia, welche wir nachfolgend betrachten wollen ... zum Artikel
News des 26. September 2006 |
In einem älteren SLI-Bericht seitens HardOCP findet sich ein Grund, weshalb Quad-SLI derzeit teilweise so schlecht bzw. zumindestens nicht überzeugende Performance-Werte abliefert: Durch eine Limitierung des WHQL-Prozesses kann nVidia den schnelleren AFR-Modus unter Direct3D nicht für Quad-SLI nutzen (normales SLI mit zwei Grafikchips ist hier nicht betroffen). Dies hängt mit dem Prerender-Limit zusammen, welches unter Direct3D9 seitens Microsoft auf maximal drei Frames festgelegt wurde - Quad-SLI benötigt aber vier Frames. Quad-SLI weicht deshalb häufig auf den "AFR of SFR" Modus aus, welcher den schnelleren AFR-Modus mit dem langsameren SFR-Modus verbindet, aber natürlich nicht so effektiv ist wie reines AFR ...
... Eine Lösung wäre es natürlich, schlicht auf den WHQL-Status der Treiber zu verzichten oder aber dem Anwender im Treiberpanel die Option zu geben, das Prerenderlimit unter Mißachtung der WHQL-Kompatibilität zu erhöhen. Andererseits - und das ist die entscheidende Nachricht - soll Direct3D10 wohl ein höheres Prerender-Limit bringen, dürfte nVidia also mit Direct3D10 die Performance unter Quad-SLI maßgeblich steigern können. Womöglich könnte dann auch ATI in den Markt der Vier-Grafikchip-Lösungen einsteigen - die bisherige Zurückkhaltung der kandischen Grafikchip-Entwickler auf diesem Gebiet erscheint angesichts der geschilderten Faktenlage nunmehr als sehr verständlich.
Bei den Tech-Hounds hat man sich in zwei Artikeln mit dem Benchmarking an sich beschäftigt: Part 1 und Part 2. Insbesondere ersterer Artikel ist dabei interessant, geht er doch in die gleiche Richtung wie ähnliche Arbeiten unsererseits und untermauert damit auch die von uns schon aufgestellten Erkenntnisse. So ermittelten auch Tech-Hounds einen teilweise erheblichen Unterschied bei den Messungen mit Timedemos gegenüber den Messungen im laufenden Spielgeschehen, wobei Tech-Hounds allerdings komplette Timedemos nachspielten, während die von uns neuerdings zur Performance-Ermittlung herangezogenen Savegames zumeist nur kurze 5-Sekunden-Abschnitte darstellen ...
... Damit haben sich Tech-Hounds mehr auf pure Durchschnitts-Frameraten konzentriert, während unsere Messungen eher in die Richtungen gehen, Szenen mit starker sowie mit extremer Belastung zur Performance-Ermittlung heranzuziehen und damit den "Leerlauf", in welchem nichts Performance-relevantes passiert, besser auszusparen. Nichts desto trotz haben Tech-Hounds trotzdem sehr interessante Ausführungen anzubieten, welche nebenbei auch noch bestätigen, daß die aktuellen Versionen von Fraps ziemlich exakt dasselbe ausmessen wie die Spiel-eigenen Framecounter (bei sehr alten Fraps-Versionen gab es teilweise noch erhebliche Performance-Unterschiede). Unsere eigenen Ausführungen zum Thema sind im übrigen in diesen Artikel zu finden: "Average fps - wirklich das Maß aller Dinge?", "Timedemos - Das Maß aller Dinge?" und "Timedemos - Das Maß aller Dinge? Part 2".
Hard Tecs 4U berichten von einem Internetzugang seitens Interoute, welcher durch Sperrung der öffentlich-rechtlichen Seiten um die ab 2007 anstehende GEZ-Pflicht für Internet-fähige PCs herumkommen soll. Das Dementi der Gebühreneinzugszentrale lies allerdings nicht lange auf sich warten: Natürlich wird man auch bei solcherart Zugängen abkassieren - schließlich geht es nicht darum, ob man wirklich die öffentlich-rechtlichen Angebote beansprucht, sondern rein um die theoretische Möglichkeit, diese zu empfangen. Die der GEZ abzuführenden Gebühren sind nun einmal (clevererweise) an den vorhandenen Geräten ausgerichtet - nicht daran, ob diese auch tatsächlich für den bezüglich der Gebühr gedachten Zweck genutzt werden können.
Shortcuts: Der Heise Newsticker berichtet zu der aktuellen Diskussionen zur kommenden PCI Express 2.0 Spezifikation: Mit dieser soll unter anderem die Datentransferrate verdoppelt werden, zugleich sollen aber auch Grafikkarten mit bis zu 300 Watt Leistungsaufnahme (über PCIe) ermöglicht werden - was die Grafikchip-Entwickler allerdings mit ATI R600 und nVidia G80 womöglich schon vorwegnehmen werden. Hard Tecs 4U berichten von der Ankündigung der CPU-Befehlserweiterung SSE4 durch Intel für den im Jahr 2010 geplanten Gesher-Core, welcher nebenbei auch eine neue Architektur an Board haben soll. Die CPU-Befehlserweiterungen der Core 2 Duo/Extreme Prozessoren laufen demnach nicht unter dem Stichwort "SSE4", sondern unter "SSSE3" (Supplemental Streaming SIMD Extensions 3, ergänzende Streaming SIMD Extensions 3) ...
... Golem vermelden die Umbenennung der LaGrande-Technologie in "Trusted Execution Technology" (TET). Zugleich bestätigte man, daß TET erst mit der im nächsten Jahr anstehenden neuen Mainboard-Generation frei verfügbar werden wird, bisher schlummert TET noch bei allen damit ausgelieferten Prozessoren deaktiviert vor sich hin. Und letztlich berichten nochmals Golem von einem Richterspruch, welcher es untersagt, Abmahnschreiben ins Internet zu stellen - mit der hochinteressanten Begründung, daß es dafür "keine redaktionelle Notwendigkeit im Rahmen der Berichterstattung" gebe. Darüber kann man sicherlich auf privater Ebene trefflich diskutieren, allerdings schützen Presserecht und Meinungsfreiheit die Publizisten auch dann in ihrem Publizierungsrecht, wenn eine Berichterstattung mal "nicht notwendig" sein sollte - ansonsten würde schließlich die BILD nur mit leeren weissen Seiten erscheinen ;).
News des 25. September 2006 |
Seitens MSI gibt es eine Klarstellung zum Thema HDCP auf Grafikkarten, welche im Original in unserem Forum nachschlagbar ist. Danach bestätigt MSI, daß die technische Voraussetzung für HDCP von den Grafikchip-Entwicklern ATI und nVidia bereits seit einiger Zeit gelegt wurde - generell sind alle Grafikchips der Radeon X und GeForce 6/7 Serien geeignet, um damit HDCP-kompatible Grafikkarten zu bauen. Allerdings integierten ATI und nVidia in die genannten Grafikchips nur den für HDCP notwendigen Krypto-Chip, nicht aber eine entsprechende Firmware, welcher die HDCP-Schlüssel enthält und daher lizenzpflichtig ist. Wahrscheinlich geschah dies aus reinen Kostenerwägungen heraus: Beispielsweise konnte zum Start von Radeon X800 und GeForce 6800 noch niemand absehen, wann genau das Thema HDCP wirklich akut werden würde ...
... Zwar kostet die HDCP-Lizenz unseres Wissens nach "nur" 15.000 Dollar jährlich sowie 0,005 Dollar aka 0,5 Cent pro verkaufter Einheit, bei im Jahr seitens ATI und nVidia verkaufter rund 150 Millionen Grafikchips kommt da aber trotzdem eine gewisse Summe zusammen - welche sich man natürlich spart, sofern noch keine Nachfrage vorhanden ist. Deshalb wurden in der Vergangenheit die Grafikchips seitens ATI und nVidia zwar mit dem HDCP-Kryptochip, aber eben nicht mit HDCP-Schlüsseln ausgeliefert. Die Grafikkarten-Hersteller hatten und haben aber trotzdem die Möglichkeit, damit HDCP-kompatible Grafikkarten zu bauen: Man muß letztlich nur die HDCP-Lizenz erwerben, die HDCP-Schlüssel integrierten und letztlich dem Grafikboard einen HDMI-Ausgang spendieren - auf dieser Basis wurden zuletzt einige HDCP-kompatible Grafikkarten erstellt, welche dann auch zumeist extra mit diesem Zusatz beworben wurden ...
... Die Zukunft wird aber vermehrt Grafikkarten bringen, welche gleich per Standard HDCP-kompatibel sind. So integrierten ATI und nVidia aufgrund der gestiegenen Nachfrage bei den neuen Grafikchips GeForce 7950 GT, GeForce 7950 GX2 und Radeon X1950 XTX sowie laut den Angaben von MSI auch bei den neuesten Revisionen der GeForce 7900 GTX gleich die HDCP-Schlüssel in die Grafikchips. Möglicherweise wird dies sogar bei allen ab jetzt releasten Neuerscheinungen so gehalten - damit müssen die Grafikkartenhersteller nur noch einen HDMI-Port auf die Grafikboards bauen und haben automatisch eine HDCP-kompatible Grafikkarte. Für die Endkunden wird es allerdings in einer gewissen Übergangszeit etwas unübersichtlicher sein, weil bei den genannten Grafikchips zum größten Teil kein Vermerk der HDCP-Kompatibilität mehr im Grafikkartennamen vorgenommen wird ...
... Auch kann natürlich nicht garantiert werden, daß wirklich jede Grafikkarte auf Basis der vorgenannten automatisch HDCP-kompatiblen Grafikchips wirklich über einen HDMI-Port verfügt, der Grafikkartenhersteller also diese vom Grafikchip-Entwickler zur Verfügung gestellte Möglichkeit der einfachen HDCP-Kompatibilität auch wirklich ausnutzt. Gerade bei kommenden LowCost-Grafikkarten könnte es Fälle geben, wo sich die Grafikkartenhersteller den (angeblich teureren) HDMI-Port dann doch noch sparen. Im Zweifelsfall sollte man also doch lieber immer die Hersteller-Webseiten konsultieren, um festzustellen, ob die gewünschte Grafikkarte wirklich für die Wiedergabe von kopiergeschützten HD-Content geeigent ist.
Shortcuts: Gemäß Golem setzt ATI scheinbar erstmals bei Grafikchips bei der Mobility Radeon X1700 gestrecktes Silizium ein, welches bisher eigentlich nur aus der Prozessoren-Fertigung bekannt war. Eine gute Erläuterung zum Thema "strained silicon" findet sich im übrigen bei Hard Tecs 4U. Laut dem Heise Newsticker untersucht nun auch Lenovo (hatte die PC-Fertigung von IBM übernommen) seine Laptop-Serien in Bezug auf eine eventuelle Gefahr durch überhitzenden Akkus. Lenovo setzt bei seinen Produkten ebenfalls auf Sony-Akkus, bisher beteutert man allerdings, daß wegen "eines anderen Ladekonzepts und unterschiedlicher Batterie-Schutzmechanismen" ähnliches wie bei Dell und Apple bei Lenovo eigentlich nicht passieren kann. Und letztlich weisen Gulli auf eine neue Initiative gegen die geplante Vorratsdatenspeicherung in Deutschland hin, in welchem Rahmen man unter anderem offene Briefe an die Mail-Adressen aller Bundestagsabgeordneten senden kann.