News-Archiv 6. - 12. August 2007 (32. Kalenderwoche)
11./12. August 10. August 9. August 8. August 7. August 6. August
News des 11./12. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die aktuell laufende Steam-Umfrage ("Steam Survey") hat inzwischen über eine Million Teilnehmer erreicht und wurde in der Presse teilweise auch schon eifrig kommentiert. Wir von unserer Seite her möchten hier gern noch den Punkt in die Runde werfen, daß sich der Nutzerkreis und damit auch die Ergebnisse der Steam-Umfragen im Laufe der Jahre doch einigermaßen gewandelt haben. Denn wo man früher ziemlich sicher davon ausgehen konnte, mit den Steam-Ergebnissen Aussagen über die Hardware der Spieler von Half-Life und Counter-Strike in der Hand zu haben, ist dies bei den neueren Umfragen nun nicht mehr so einfach anzunehmen. Dies läßt sich beispielsweise daran abschätzen, daß speziell Counter-Strike in den letzten Jahren aufgrund seines Alters tendentiell eher Nutzer verloren haben dürfte, die Steam-Umfragen aber weiterhin kontinuierlich bei über einer Million Teilnehmern liegen.
Die Tendenz ging in den letzten Jahren also eher weg von den eigentlichen Gamern, welche Half-Life und Counter-Strike spielten - hin zu einer breiten Palette von Spielen und damit auch zu einem deutlich breiteren Publikum. Nur so ist es auch zu erklären, daß integrierte Grafiklösungen mit 6 Prozent und inzwischen klar zu langsame ältere Lösungen (bis maximal der Klasse einer GeForceFX 5200) mit 15 Prozent so stark vertreten sind - obwohl man mit diesen bei faktisch jedem neuen Spiel keine Chance mehr haben dürfte. Dies will damit nicht sagen, daß die Steam-Umfrage inzwischen nicht mehr die bei Gamer vorhandenen PCs wiedergibt - anders herum wird ein Schuh draus, die Gamer-Gemeine hat sich gewandelt. Während Gaming vor ein paar Jahren eben noch ein eher jugendlicher Zeitvertreib war, ist dies nun inzwischen auch in der Breite der Gesellschaft angekommen - mit unter anderem auch der Folge daraus, daß die vorhandene PC-Basis im Durchschnitt vom typischen Gamer-PC etwas weggerückt ist.
So scheint eine erhebliche Anzahl der Umfrage-Teilnehmer einen klassischen OEM-PC zu besitzen, was sich gut daran ablesen läßt, daß die Durchschnittswerte für CPU-Taktfrequenz (ca. 2.3 GHz) und RAM-Ausbau (nahe 1 GB) doch sehr ansprechend sind, der Durchschnittswert bei der Grafiklösung jedoch recht niedrig ausfällt. So liegt die Masse der eingesetzten Grafiklösungen laut der Steam-Umfrage auf dem Niveau der letzten (GeForce 7300/7600 und Radeon X1300/X1600/X1650) und vorletzten (GeForce 6200/6600 und Radeon X300/X600/X700) LowCost- und Mainstream-Generation. Wenn man dies noch um jene älteren Mainstream- und HighEnd-Karten erweitert, welche hier von der Leistung her genauso hinpassen (GeForce4 Ti, GeForceFX 5500/5600/5700, Radeon 9500/9550/9600), kommt man auf einen Verbreitungsgrad von runden 45 Prozent an solcherart Lösungen, welche sich auf dem Niveau heutiger LowEnd-Lösungen bewegen und somit für moderne Spielen kaum noch geeignet sind.
Dabei sind schnellere Grafiklösungen als der eben beschriebene (niedrige) Durchschnitt mit ca. 30 bis 35 Prozent vertreten, langsamere Lösungen mit ca. 20 bis 25 Prozent. Im Laufe der Jahre ist somit die Klasse der jeweils im Durchschnitt vorhandenen Grafiklösungen bei den Steam-Umfragen doch klar zurückgegangen: Während bei den früheren Steam-Umfragen noch regelmäßig die jeweils zweitälteste Grafikkarten-Generation in der Mehrheit war, ist die Mehrheit bei der aktuellen Umfrage eher zwei Generationen zurück zu finden. Wie gesagt sollte dies aber auch am Wandel der jeweiligen Teilnehmer an den Steam-Umfragen über die Jahre liegen, dürfte der Unterschied beim Kern der Gamer-Gemeinde nicht so deutlich ausfallen. Trotzdem ist generell die Schlußfolgerung zu ziehen, daß die durchschnittliche Klasse der verbauten Grafiklösungen im Laufe der Zeit zurückgegangen ist - was ja schließlich auch die Spieleentwickler hier und da in Hinblick auf ihre modernen Titel beklagen.
Die Ursache dessen muß allerdings an dieser Stelle offenbleiben, da hierzu eher nur Gedankenansätze und keinerlei belastbares Zahlenmaterial vorliegt. Naheliegend ist sicherlich der Gedanke, daß allgemein eher günstigere Grafikkarten erworben werden als noch vor einigen Jahren - dies wäre dann ein Hinweis darauf, daß die Preispolitik der Grafikchip-Entwickler nicht passt. Auf der anderen Seite könnte der Rückgang beim Durchschnitt aber auch durch die Verbreiterung der Gamer-Gemeinde erfolgt sein, welche in den letzten Jahren nachweisbar erheblichen Zuwachs durch Nutzer bekommen hat, welche noch vor einigen Jahren mit dem Thema Computerspiel nichts anfangen konnten. Aber auch die Unübersichtlichkeit des Marktes, wo faktisch alles als "spielefähig" beworben wird und wo sich gerade die großen OEM-Anbieter mit abgespeckten Sondermodellen überbieten, dürfte hierbei ihren Anteil haben.
Die vor einiger Zeit stark in den Medien beachtete "Killerspiele"-Studie des (privaten) Kriminologischen Forschungsinstituts Niedersachsen (KFN), in welcher vor allem die Alterseinstufungen der USK als zu lasch angegriffen wurde, ist nun von der Telepolis richtig großartig auseinandergenommen worden. Danach sind dem KFN mehr als reichliche methodische Fehler unterlaufen, von einer "wissenschaftlichen Studie" zu reden, wäre demnach maßlos übertrieben. Letztlich beruhen die höheren Alterseinstufungen des KFN schlicht nur auf einer anderen Ausgangslage: Beim KFN nimmt man schlicht an, daß Computerspiele "gefährlicher" sind als Filme, weil bei ersteren der Spieler aktiv im Geschenen ist und bei zweiteren der Zuseher nur passiv am Geschehen teilnimmt. Daß man unter dieser Prämisse zu anderen, höheren Alterseinstufungen kommt als die USK, ist selbsterklärend und eigentlich keine Diskussion wert.
Die eigentliche Auseinandersetzung sollte hier eher über diese Einschätzung stattfinden, wonach Spiele angeblich gefährlicher als Filme sind - hierzu liefert das KFN jedoch gar nichts, es bleibt bei der reinen Annahme dieser Einschätzung. Dabei zeigt die einzige ernstzunehmende Studie zu diesem Thema, daß es eher genau umgedreht ist: In Spielen mag der Spieler vordergründig deutlich stärker involviert sein, dafür ist jedoch für den Spielern (nicht den Zuseher! - der sieht ja faktisch einen "Film") die Trennung zwischen Spiel und Realität größer - im Gegensatz zum Film, welcher schließlich generell so angelegt wird, selbst auch bei absurden oder grenzwertigen Thematiken immer noch möglichst real ("so könnte es passieren") zu wirken. Computerspiele finden dagegen - ganz egal ob das Szenario aus der Realität kopiert wurde - immer noch in ihrer eigenen Spielwelt statt, daß ist dem Spieler (egal welchen Alters) auch jederzeit so klar.
News des 10. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Mal wieder etwas neues zum Thema "OpenGL" vermelden Golem. Danach soll Version 3 der freien 3D-Schnittstelle reichlich Veränderungen und Vereinfachungen mit sich bringen und sogar noch in diesem Jahr standardisiert werden. Ob OpenGL jedoch jemals wieder im Spielebereich eine bedeutende Rolle einnehmen wird, bliebe stark abzuwarten, zu eindeutig ist derzeit das Votum der Spieleenwickler zugunsten von DirectX. Interessanterweise werden schließlich selbst Spieleprojekte, die von der Playstation 3 kommen und damit deren originales OpenGL nutzen, auf dem PC mehr oder weniger ausschließlich in DirectX umgesetzt. Zudem spielt der primäre Vorteil von OpenGL - daß es nicht nur auf Windows vorhanden ist wie DirectX - derzeit im Spielebereich keine große Rolle, da auf Home-Computern MacOS und Linux einfach keine bedeutende Verbreitung haben.
Was genau Direct3D 10.1 an Änderungen mit sich bringen wird, listet dagegen der Heise Newsticker auf. Dabei bringt diese Zwischenversion sowohl Bugfixes als auch Veränderungen mit sich, welche bereits durch die aktuelle Direct3D10-Hardware von ATI und nVidia gedeckt werden - aber eben auch neue Features, welche dann zwingend neue Hardware nach dem Direct3D-10.1-Standard erfordern. Seitens ATI ist hier schon bekannt, daß dies mit der R700-Generation zum zweiten Quartal 2008 passieren soll. Bei nVidia ist diesbezüglich noch kein konkreter Chip-Codename bekannt, aufgrund dessen, daß die G9x-Serie wohl die Refreshgeneration zur aktuellen G8x-Serie darstellt, könnte man aber natürlich spekulativ ;) vom G100 als Direct3D-10.1-Chip sprechen.
Über den dritten neuen Standard im Bunde berichten nochmals Golem. Danach soll PCI Express 3.0 die zur Verfügung stehende Bandbreite gegenüber PCI Express 2.0 wiederum verdoppelt. Wie genau das realisiert wird, ist im Gegensatz zu PCI Express 2.0 (Taktverdopplung) derzeit aber noch nicht bekannt. Auch steigt die Bruttobandbreite regulär nur um 60 Prozent, hinzu kommt allerdings, daß es keinen Unterschied mehr zwischen Brutto- und Nettobandbreite gibt, was zusätzliche 25 Prozent Gewinn einbringt und somit die insgesamte Bandbreitenverdopplung bewirkt. Damit erreicht PCI Express 3.0 bei einer derzeit üblichen x16-Verdrahtung eine Nettobandbreite von ca. 16 GB/sec jeweils für Upload und Download (PCI Express 2.0 auf x16: ca. 8 GB/sec, PCI Express 1.x auf x16: ca. 4 GB/sec, AGPx8: ca. 2 GB/sec). Allerdings dürfte es bis zur Markteinführung von PCI Express 3.0 noch einige Zeit dauern: Derzeit rechnet man mit einer Fertigstellung der entsprechenden Spezifikation im Jahr 2009, erste Produkte sind demnach frühestens 2010 zu erwarten.
Wie beim aktuelle anstehenden Umstieg von PCI Express 1.x auf 2.0 wird auch PCI Express 3.0 mit größtmöglicher Abwärtskompatibilität aufwarten: Geräte unterschiedlicher Standards sollen sich generell miteinander verbinden lassen, da die Steckverbinder unverändert bleiben. Bei unterschiedlichen Standards im selben System entscheidet halt nur der kleinste jeweils vorhandene Standard, mit welcher Geschwinigkeit die Geräte untereinander kommunizieren: So werden beispielsweise die jetzt vorhandenen Grafikkarten nach PCI Express 1.x Standard auf den kommenden Mainboards nach PCI Express 2.0 Standard natürlich nur im PCI Express 1.x Protokoll mit den Platinen kommunizieren können, der Geschwindigkeitsvorteil von PCI Express 2.0 kann in diesem Beispiel nicht ausgenutzt werden. Dieser ergibt sich erst dann, wenn sowohl Mainboard als auch Steckkarten desselben Standard vorhanden sind.
Gemäß Fudzilla soll es noch diesen Monat ein erstes Notebook mit einer GeForce 8700M GT SLI-Lösung geben, womit dann endlich auch im Mobile-Markt eine wirklich leistungsfähige Direct3D10-Lösung zur Verfügung stehen würde. Allerdings muß auch erwähnt werden, das eine GeForce 8700M GT im SLI-Modus bei der Performance weiterhin etwas unterhalb einer (einzelnen) GeForce 8800 GTS 320MB des Desktop-Segments liegen dürfte, die wirklichen HighEnd-Boliden des Desktop-Segments auch mit dieser SLI-Lösung also noch lange nicht erreicht werden. Zudem erstaunt es etwas, daß der Notebook-Hersteller in diesem konkreten Fall für diese GeForce 8700M GT SLI-Lösung einen klaren Mehrpreis gegenüber einer SLI-Lösung aus zwei GeForce Go 7950 GTX Karten verlangt - letztere dürften nämlich trotz "nur" DirectX9 deutlich leistungsfähiger sein.
Laut Hard Tecs 4U soll es nunmehr am 10. September so weit sein, an diesem Tag soll AMD die ersten K10-basierenden Prozessoren in Form erster entsprechender Opteron-Prozessoren für den Server-Einsatz vorstellen. Dabei wird man anfänglich wohl eher mit gemächlichen Taktfrequenzen in den Markt gehen, muß hierbei also schon am Starttag zwingend die Pro/MHz-Power stimmen, damit der K10-basierende Opteron auch ein Erfolg wird. Die ersten Desktop-Modelle auf K10-Basis sind dagegen wie bekannt erst im November/Dezember zu erwarten, wobei hier eventuell auch nur ein paar (auch preislich) hochgezüchtete Phenom FX Modelle an den Start treten, da die Masse der Phenom X2 und X4 Modelle dann doch erst im ersten Quartal 2008 den Markt erreichen werden.
Eine interessante Überlegung werfen Silicon.de mittels einer Aussage seitens VMWare in die Runde: Danach würde in Zukunft die Bedeutung von Betriebssystemen wie Linux und Windows zugunsten von Virtualisierungslösungen zurückgehen, Anwendungen würden zukünftig vermehrt in virtuellen Maschine laufen und damit nicht mehr direkt auf den Betriebssystemen. Dies kann sogar soweit gehen, daß bestimmte Anwendungen ihre eigene virtuelle Maschine mitbringen, es damit für den Benutzer also gar nicht auf den ersten Blick ersichtlich ist, daß diese Anwendung in einer virtuellen Umgebung läuft. Seitens VMWare war diese Aussage zwar eigentlich eher nur auf Server-Systeme bezogen, allerdings könnte sich auch in der Desktop-Welt einiges mit Virtualisierungslösungen machen lassen.
Beispielsweise könnte man sich so seine komplette Arbeitsumgebung in eine eigene virtuelle Maschine verfrachten. Damit wäre diese zwischen verschiedenen Computern transportabel - ob man seine Arbeit dann im Büro, auf dem Laptop oder notfalls in einem Internetcafe mit einem fremden Computer macht, wäre egal, weil überall nicht nur die exakt selbe Arbeitsumgebung, sondern vor allem auch die orginalen Daten vorliegen würden (und keine Kopie, welche man umständlich synchronisieren muß). Natürlich ist dieses Beispiel auch schon jetzt mit einfachereren Mitteln erreichbar (allerdings nur bei Anwendungen, welche sich nicht wie Kletten an das Betriebssystem klammern), jedoch würde sich erst mit einer Virtualisierung die Funktionalität an jedem Ort und unter jeglichen Hardware-Bedingungen wirklich garantiert lassen.
News des 8. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Fudzilla haben nun endlich griffige Informationen zur Radeon HD 2900 Pro seitens ATI. Danach soll diese R600-Abwandlung gegenüber der Radeon HD 2900 XT einige Abspeckungen erfahren: Zum einen wird das Speicherinterface von 512 Bit DDR auf 256 Bit DDR gekürzt, zum anderen die Anzahl der Shader-Einheiten auf 160 sowie die der ROPs auf 8 halbiert. Die Anzahl der Textureneinheiten (16) bleibt allerdings gleich zur Radeon HD 2900 XT - was sicherlich gut durchdacht ist, liegt hier doch eher ein Schwachpunkt dieser Karte, welcher sich dann bei der Radeon HD 2900 Pro nicht mehr so gravierend auswirken dürfte. Durch die bislang noch fehlenden Taktraten ist die Radeon HD 2900 Pro derzeit noch nicht vollständig einzuschätzen, die Hardware-Abspeckungen deuten jedoch schon auf einen erheblichen Abschlag bei der Performance hin.
Es dürfte sich hier also weniger um eine Karte in Konkurrenz zur GeForce 8800 GTS 320 MB handeln, da ist die Radeon HD 2900 Pro für den Moment doch deutlich schwächer einzuschätzen. Sollten es die Taktraten nicht noch maßgeblich herausreissen, ist die Radeon HD 2900 Pro (160 Shader-Einheiten, 16 TMUs, 8 ROPs, 256 Bit DDR Speicherinterface) klar in der Mitte zwischen Radeon HD 2600 XT (120 Shader-Einheiten, 8 TMUs, 4 ROPs, 128 Bit DDR Speicherinterface) und Radeon HD 2900 XT (320 Shader-Einheiten, 16 TMUs, 16 ROPs, 512 Bit DDR Speicherinterface) zu sehen - und damit nicht mehr als nur geringfügig langsamere Version der Radeon HD 2900 XT.
Rein vom Marktgefüge her würde dies natürlich passen, denn gerade in diesem weiten Zwischenraum fehlt ATI bisher eine Direct3D10-Lösung. Noch bleibt allerdings abzuwarten, ob auch der preisliche Punkt zur Karte passt. Bisher werden 200 bis 250 Dollar für die Radeon HD 2900 Pro gehandelt, was aber unserer Annahme nach eher denn eine Vermutung der Presse ist als denn eine Information mit irgendeinem festen Hintergrund. Aufgrund der doch eher heftigen Abspeckungen gegenüber der Radeon HD 2900 XT sind bei der Radeon HD 2900 Pro derzeit kaum mehr als 200 Euro Straßenpreis empfehlenswert - wenn ATI dieses allerdings hinbekommen könnte, dürfte die Karte auch entsprechend interessant werden.
Zum gestern schon erwähnten Thema der neuen Urheberrechtsabgaben auf PCs noch ein Nachtrag, welcher sich in erster Linie mit einer diesbezüglichen Falschdarstellung des Spiegels beschäftigt, in derem Zuge sich die Diskussion zum Thema ziemlich verselbständigt hat: Diese Urheberrechtsabgaben sind immer nur für legale Kopiermöglichkeiten gedacht, niemals für illegale! Letzteres ist gar nicht möglich, weil wenn man für illegale Kopien eine Gebühr verlangen würde, macht man diese illegalen Kopien damit ja legal. Es geht also bei den Urheberrechtsabgaben immer nur um den Ausgleich für legal gezogenen Kopien. Viele werden natürlich nun an dieser Stelle fragen, wieso denn für legale Kopien noch Abgaben gelöhnt werden müssen.
Dies hängt mit der ursprünglichen Idee der Privatkopie zusammen. Diese wurde in den Anfangsjahren der Bundesrepublik nicht aus purem Jux in das Gesetzeswerk aufgenommen, sondern nur deswegen, weil klar war, daß die Kopie von urheberrechtlich geschützten Werken im kleinen Einzelfall unmöglich zu verfolgen war. Man erlaubte also (in Form der Privatkopie) etwas eigentlich illegales - und schuf aus diesem Grund den Ausgleich für die Rechteinhaber in Form der Urheberrechtsabgaben. Privatkopie und darauf fällige Urheberrechtsabgaben gehören also untrennbar zusammen. Leider bedachte der Gesetzgeber seinerzeit dabei nicht die inzwischen vielfältiger gewordenen Nutzungsmöglichkeiten innerhalb der eigenen vier Wände.
Während also die Urheberrechtsabgaben ursprünglich eher dazu gedacht waren, die Kopie an die Freunde und Mitschüler (laut früheren Gerichtsurteilen sind bis zu 7 erlaubt) gegenüber den Rechteinhabern auszugleichen, wird diese heutzutage auch für die Kopie fürs Auto, die Küche oder das Kinderzimmer mit erhoben, was unserer Meinung allerdings eher unter "Fair Use" fällt und nicht unter die "Privatkopie". Auch läßt sich heutzutage gegenüber der steigenden Gebührenlast einwenden, daß die Möglichkeiten zur Privatkopie tendentiell eher zurückgehen als zunehmen. Sicherlich ermöglicht die Technik immer wieder neue Felder, wo kopiert werden kann (beispielsweise mit hochwertigen Druckern für den Heimbereich oder auch TV-Karten), gleichzeitig aber verhindert die Contentindustrie durch weitreichende Verschlüsselungen und Kopierschutz auf immer mehr Feldern, daß die Privatkopie überhaupt legal eingesetzt werden kann.
Natürlich ist das nur eine eher subjektive Beobachtung, liegen hierzu keine belastbaren Zahlen vor. Daß allerdings die Urheberrechtsabgaben derzeit so dramatisch in die Höhe schiessen (weitere Erhöhungen durch die zweite Urheberrechtsreform bahnen sich schon an), ohne daß überhaupt auch nur der geringste Nachweis darüber vorliegt, wieviel im Rahmen der legalen Privatkopie nun wirklich kopiert wird, grenzt durchaus schon an Irrsinn. Hier werden ins Blaue hinein Abgaben festgelegt, welche sich primär aus dem anwaltlichen Ringen zwischen Contentindustrie und Geräteherstellern ergeben, anstatt die Höhe der Abgaben auf das solide Fundament von erhobenen Nutzungszahlen zu stellen.
Denn all der ganze Streit zwischen Contentindustrie und Geräteherstellern kostet natürlich auch Geld - und wäre besser angelegt in Studien unabhängiger Institute, welche endlich einmal belastbares Zahlenmaterial zur Nutzungshöhe der Privatkopie in Deutschland herbeischaffen. Daß daneben die Raubkopie-Quote steigt oder zumindestens auf hohem Niveau ist, hat dagegen für die Höhe der Urheberrechtsabgaben absolut keinen Belang. Wie gesagt: Wollte man über die Urheberrechtsabgaben die Verluste der Industrie durch Raubkopien ausgleichen, würde das die Raubkopien legalisieren, womit jegliche zivil- oder/und strafrechtlich angedrohten Sanktionen gegenüber Raubkopierern umgehend obsolet würden.
Shortcuts: Seitens des Alky Projects gibt es nun einen neuen Download, welcher Vista-Programme auch unter Windows XP zugänglich macht. Allerdings hat "Alky for Applications" keinerlei Spielebezug, sondern ermöglicht nur einige der kleinen Applikationen von Windows Vista (wie der Bildschirmschoner, Taschenrechner etc.) auch unter Windows XP auszuführen. Als Fortschritt in Bezug auf den eigentlichen Anspruch, Direct3D10-Games auch unter Windows XP zu bringen, ist dies natürlich nicht zu sehen, weil diese Anwendungen nichts mit Direct3D10 zu tun haben. Fudzilla sprechen ein wenig über die weiteren Grafikchips, welche zusammen mit dem R700 kommen sollen: So soll es für das LowCost-Segment den RV710-Chip geben und für das Mainstream-Segment den R730-Chip. Entgegen der jüngsten Aussagen von ATI, zukünfig generell mit vier Grafikchips für alle vier preislichen Marktsegmente antreten zu wollen, wurde allerdings kein extra Grafikchip für das Performance-Marktsegment genannt.
Entgegen früherer Ankündigungen, vorerst keine weiteren Preissenkungen aufzulegen, soll es bei AMD laut The Inquirer schon am 13. August wiederum niedrigere Prozessoren-Preise geben, wenngleich diese derzeit noch nicht genau genannt wurden. Der Tech Report weist nochmals auf das Problem einiger GeForce 8800 GTS/GTX Karten hin, wonach diese in Einzelfällen Probleme mit dem Texturenmanagment haben und demzufolge im Laufe eines Spiels immer langsamer werden. nVidia hatte hier für den Juli einen Fix mittels eines neuen Treibers versprochen, bisher ist diesbezüglich allerdings noch nichts passiert. Als neuen Termin für den Fix wird nun der späte August bis hin zum frühen September angegeben. Und letztlich berichten unter anderem Golem noch über zwei Microsoft-Patches für Windows Vista, welche verschiedentliche wesentliche Fehler des Betriebssystems aus vielerlei Bereichen beheben und demzufolge dem Windows-Vista-Nutzer nur zu empfehlen sind.
News des 7. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie Hard Tecs 4U ausführen, hat sich ATI sehr deutlich für MultiGPU-Grafikkarten als die kommende Zukunft in der Grafikkarten-Entwicklung ausgesprochen. Wie schon bekannt, soll der R700-Chip hier das erste entsprechende Modell sein. Interessant ist vor allem auch die Begründung, welche ATI für MultiGPU ausgab: So würde es mit immer kleineren Fertigungsgrößen immer schwieriger, die breitbandigen Speicherinterfaces einzubauen - beispielsweise hält ATI ein 512 Bit DDR Speicherinterface (wie beim R600-Chip) in einem 22nm Fertigungsprozeß für unrealisierbar, weil der Chip einfach zu klein werden würde, um noch die vielen benötigten Pins für ein solch breites Speicherinterface anbringen zu können. Ehrlicherweise hat diese Argumentation etwas, selbst wenn sie bisher unsererseits noch nicht bedacht wurde.
Sollte ATI hier Recht behalten, könnten die superbreiten Speicherinterfaces von 384 Bit (GeForce 8800 GTX/Ultra) und 512 Bit (Radeon HD 2900 XT) in ein paar Jahren wieder verschwinden - oder aber zumindestens würde keine weitere Entwicklung der Speicherinterfaces stattfinden, was auch so eine Fortschrittsbremse wäre (weil dann nur noch der Speichertakt als Möglichkeit bliebe, die Speicherbandbreite zu steigern). In einer solchen Situation macht es sicherlich Sinn, über die Aufteilung der bislang immer als Einzelstück zum Einsatz kommenden GPU in mehrere kleinere GPUs nachzudenken, welche dann jeweils ihre eigenen Speicherinterfaces haben - faktisch das System 3dfx ;). Aber natürlich haben MultiGPU-Grafikkarten noch erhebliche andere Vorteile: Die Produktionskosten werden durch die Vereinfachung gesenkt, gleichzeitig erlangt man eine höhere Flexibilität bei der Bedienung verschiedener Teilmärkte.
Angesichts dieser Problematik lohnt eventuell auch mal wieder der Blick auf den XDR-Speicher seitens RAMBUS. Dessen größter Vorteil liegt bekanntlich darin, mit relativ kleinen Interfaces auf sehr hohe Bandbreite kommen zu können, ergo eine hohe Leistung pro Pin zu haben - eigentlich ideal für die vorstehend dargestellte Problematik. So erreicht einfacher XDR-Speicher mit der Einstiegs-Taktrate von 400 MHz an einem 256 Bit breiten Speicherinterface satte 96 GB/sec Speicherbandbreite - dafür müsste man GDDR4-Speicher am gleichen Interface auf 1611 MHz hochjagen. Jene 400 MHz Taktraten stellen allerdings nur das dar, was RAMBUS für das Jahr 2004 angekündigt hat, inzwischen sollte man hier wesentlich weiter sein und auch die einstmals prognostizierten 800 MHz Taktrate (192 GB/sec an einem 256 Bit breiten Speicherinterface) liefern können. Ob es allerdings jemals dazu kommt, daß die Chip-Entwickler und vor allem Speicherhersteller wieder den RAMBUS-Weg gehen, ist damit nicht gesagt, schließlich gibt es bei einigen Herstellern noch äußerst unschöne Erinnerungen an die letzte "Zusammenarbeit" mit dieser Firma ;).
Wie unter anderem Golem berichtet, hat Microsoft bei Verisign dafür gesorgt, daß die Signierung für einen Windows-Vista-Treiber der Linchpin Labs widerrufen wurde. Der Hintergrund hierzu ist, daß der "Atsiv-Loadery" selber nur dazu da ist, andere unsignierte Treiber laden zu können und damit das für Windows Vista 64-Bit seitens Microsoft ausgedachte Sicherheitskonzept aushebelt, wonach unter der 64bittigen Variante des neuen Betriebssystems ausschließlich nur signierte Treiber geladen werden können. Was natürlich umgehend eine größere Diskussion ausgelöst hat, inwiefern Microsoft hiermit dem Nutzer das Recht nimmt, auf seinem Betriebssystem das zu laden, was ihm gefällt - nicht hilfreich für Microsoft ist hier durchaus auch die offizielle Aussage, daß man diese Sicherheitsmaßnahme konsequent dazu nutzen will, um das Vista-eigene DRM-System zu schützen.
Auf der anderen Seite gibt es Stimmen, die darauf verweisen, daß es durchaus Möglichkeiten gibt, auch mit Windows Vista 64-Bit problemlos unsignierte Treiber zu laden. Natürlich kann die Folge eines solchen Experiments sein, daß danach diverse Medien-Software auf Windows Vista 64-Bit ihren Dienst verweigert, weil sie sich an eine aktive Treibersignierung bindet. Bislang ist dies aber nur eine theoretische Überlegung - es steht der Beweis aus, daß dies auch wirklich so passiert und welche Software dies betrifft. Man kann zwar durchaus annehmen, daß irgendwann in der Zukunft typische Medien-Software wie Medien-Player, DVD-Recorder etc. sich fest an das Vista-DRM und damit auch eine aktive Treibersignierung binden, da derzeit aber die meiste Software auch für Windows XP mitentwickelt wird bzw. wurde, ist für den aktuellen Zeitpunkt eher weniger von einer solchen Situation auszugehen.
Natürlich zeigt der Fall, trotz daß es derzeit wohl keine wirklichen Auswirkungen zu geben scheint, dennoch die Schwächen der totalen DRM-Integration bei Windows Vista ziemlich gut auf: Mirosoft muß auf (selbst nur potentiell) DRM-brechende Software noch viel konsequenter und rabiater reagieren wie auf wirkliche Sicherheitslücken, obwohl DRM-brechende Software nun in den allermeisten Fällen zweifellos keinerlei Sicherheitsrisiko darstellt. Damit verwendet Microsoft wiederum viel Zeit für Dinge, die nicht wirklich zum Nutzen der User passieren. Und selbst wenn einem der Fall DRM vollkommen gleichgültig ist, so stellt dies immerhin Zeit dar, welche Microsoft für wichtigeres, wie beispielsweise echte Sicherheitsprobleme, besser verwenden könnte.
Die Financial Times Deutschland berichtet über weitere drohende Urheberrechtsabgaben auf PCs, welche von der Schiedsstelle des Deutschen Patent- und Markenamts festgelegt wurden. Danach sollen rückwirkend ab 2002 für jede mit einem PC verkaufte Festplatte 15 Euro Urheberrechtsabgaben fällig werden. Interessant ist die Begründung, danach ist ein "PC mit eingebauter Festplatte erkennbar dazu bestimmt, Fernsehfilme zum privaten Gebrauch zu vervielfältigen". Das ist natürlich schwerer Unsinn, ein PC ist selbst von technischen Laien wie den Richtern der Schiedsstelle erkennbar nicht in erster Linie dazu bestimmt, Fernsehfilme zum privaten Gebrauch zu vervielfältigen - sondern ebenso erkennbar für sehr viele andere Dinge, welche weit entfernt von irgendwelchen Urheberrechtsbedenken sind. Bliebe natürlich noch abzuwarten, was die PC-Hersteller hiergegen unternehmen - allein die vorgetragenen Begründung sollte eigentlich vor einem ordentlichen Gericht in Sekunden zerfetzbar sein.
Dabei streitet niemand ab, daß ein PC als Kopierinstrument dienen kann und daß demzufolge unter bundesdeutschem Recht Urheberrechtsabgaben fällig werden. Wenn jemand jedoch daraus einen primären Zweck des PCs macht, kommen natürlich vollkommen überzogenen Forderungen bei der Höhe der Abgaben auf - wie in diesem Fall zu beobachten. Davon abgesehen würde sowieso interessieren, wie überhaupt im Nachhinein Abgaben verhängt werden dürfen, weil dies doch diametral zum eheren Grundsatz der Rechtssprechung steht, wonach sich das Strafmaß immer nach der Gesetzeslage zum Zeitpunkt der Tat richtet, eine spätere Änderung der Gesetzeslage keinen Einfluß auf alte Fälle haben kann. Jetzt plötzlich nochmal 15 Euro pro Festplatte nachzahlen zu müssen, dürfte nämlich auch wirtschaftliche Probleme bei einigen PC-Bauern auslösen, da die Bruttomargen in diesem Geschäft nicht üppig genug sind, um sich diese 15 Euro pro Festplatte einfach so aus der Portokasse leisten zu können.
News des 6. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Beim chinesischsprachigen HKEPC (maschinelle Übersetzung ins englische) gibt es den ersten Test eines 45nm Penryn-Prozessors von Intel. Wie diese CPU mehr oder weniger ein halbes Jahr vor Markteinführung bei HKEPC landen konnte, bleibt derzeit erst einmal unklar. Auf der anderen Seite wäre dies auch nicht so ungewöhnlich, denn gerade neue Prozessoren-Generationen werden von den Prozessorenherstellern üblicherweise schon Monate vor Marktstart breit an wichtige Partner sozusagen zum "Beta-Test" herausgegeben - und gerade in Fernost kommt es vor, daß solche Exemplare dann auch einmal bei Hardware-Testseiten landen. Nichts desto trotz sind die bei HKEPC erzielten Resultate derzeit natürlich kaum auf die Goldwaage legbar.
In diesem ersten Test schlägt sich der 45nm-Prozessor allerdings schon erst einmal ziemlich gut, trotz daß der verwendete DualCore-Prozessor mit Codenamen "Wolfdale" als augenscheinlichen Vorteil nur seinen mit 6 MB etwas größeren Level2-Cache hat, beim FrontSideBus (FSB1333) und Prozessorentakt (2.33 GHz) aber keinen Unterschied zum mitgetesteten Core 2 Duo E6550 aufweist. So wurden bei den Applikations-Benchmarks zumeist Zugewinne von 5 bis 10 Prozent erreicht, als Ausreißer sind es unter DivX gleich satte 115 Prozent Plus - ein Zeichen für das Wirken von SSE4. Interessanterweise sind die Zugewinne unter Spielen sogar etwas höher als unter den Applikations-Benchmarks, hier reicht die Spanne von 8 bis 31 Prozent Plus. Für das Update einer bestehenden Prozessorenarchitektur ist das schon sehr anständig, wirklich an Fahrt dürfte die Penryn-Generation aber sowieso eher mit den durch die 45nm Fertigung höheren möglichen Taktfrequenzen gewinnen.
Um diesem entgegnen zu können, wird AMD natürlich ebenfalls viel Takt benötigen. Passenderweise berichten Fudzilla hierzu, daß mit dem neuesten K10-Stepping "B2" erhebliche Fortschritte erzielt werden konnten: Bei fallender Verlustleistung (auf gleicher Taktrate) lassen sich die K10-Prozessoren nun bis auf 3.0 GHz mit default-Spannung betreiben. Ob wir demzufolge allerdings zum Jahresende beim Launch der K10-Prozessoren Phenom-X2-Prozessoren mit über 3.0 GHz sehen werden, wie von Fudzilla gleich prognostiziert, ist damit absolut nicht gegeben. Schließlich sprechen die aktuellen Produktionsverbesserungen von "bis zu 3.0 GHz" und nicht von "über 3.0 GHz". Zudem könnte AMD durchaus - wie hier schon ausgeführt - die am höchsten taktbaren Modelle erst einmal nur in der hochpreisigen Phenom FX Serie anbieten und die normalpreisigen Serien Phenom X2 und X4 anfänglich nur mit niedriger getakteten Prozessoren beliefern.
Seitens HardSpell fabuliert man ein wenig über einen DirectX11-Grafikchip R800 von ATI im Jahr 2009. Die dafür benutzte Quelle enthält allerdings nicht wirklich Daten über kommende Grafikchips, sondern vielmehr über die seitens AMD geplanten Prozessoren/Mainboard-Plattformen. Diese enthalten nun in der Tat für das Jahr 2009 den Eintrag "DX10/11", welcher sich allerdings höchstwahrscheinlich auf die integrierte Grafiklösung des Mainboard-Chipsatzes beziehen und nicht auf extra Grafiklösungen. Zudem zeigt die Formulierung "DX10/11" auch schon klar an, daß jetzt noch nicht heraus ist, ob DirectX11 im Jahr 2009 schon zur Verfügung steht. Auch ein "RD8xx" benannter Mainboard-Chipsatz ist leider kein Hinweis auf einen R800-Grafikchip, da dieselbe Roadmap schließlich auch einen RD7xx-Chipsatz für dieses Jahr vorsieht, der R700-Grafikchip dagegen zweifelsfrei erst im Jahr 2008 antritt.
Shortcuts: Wie einfach das Surfen in unabgesicherten WLANs größere Sicherheitsprobleme provozieren kann, wurde gemäß Golem auf der Black Hat demonstriert. Dabei wurden mittels eines frei verfügbaren Tools einfach die Cookies eines fremden Benutzers mitgeschnitten, worauf man problemlos in dessen eMail-Postfach kam. Laut WinFuture kann man bei Microsoft ab sofort die bisher nur auf Anfrage erhältlichen Patches und Hotfixes auch über ein Supportformular anfordern und muß nicht mehr den umständlichen Weg übers Telefon gehen. HardSpell berichten mal wieder über ein DualChip-Design auf Basis des RV670-Chips, welches im ersten Quartal 2008 antreten soll. Normalerweise sollte ein solches Design aufgrund des zeitgleich erscheinenden R680-Chips nicht besonders sinnvoll sein - auf der anderen Seite ist natürlich noch nicht bekannt, wie leistungsfähig der RV670 wirklich wird.