News-Archiv 3. - 9. März 2008 (10. Kalenderwoche)
8./9. März 7. März 6. März 5. März 4. März 3. März
News des 8./9. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie Hard Tecs 4U auf Nachfrage bei Intel und nVidia in Erfahrung bringen konnten, soll es offenbar keinen Lizenzstreit zwischen den beiden Herstellern zum Thema Quickpath-Lizenz geben. Letztere ist nötig, damit nVidia Mainboard-Chipsätze für die kommenden Nehalem-Prozessoren bauen kann, welche keinen herkömmlichen FrontSideBus mehr aufweisen, sondern wie die K8/K10-Prozessoren von AMD über ein integrieres Speicherinterface und ein extra Quickpath-Interface zum Mainboard-Chipsatz verfügen. Allem Anschein nach wird nVidia diese Lizenz von Intel bekommen und so entsprechende Nehalem-Chipsätze rechtzeitig vorstellen können. Im Gegenzug wird nVidia aber Intel keine SLI-Lizenz (außer für Skulltrail) geben, hier besteht man weiterhin darauf, daß dies ein wichtiges Alleinstellungsmerkmal der nVidia-Chipsätze ist.
WinFuture berichten über Pläne von Microsoft zu einer deutlichen Ausweiterung der Web-Strategien des Unternehmens. So soll scheinbar der Online-Dienst "Windows Live" deutlich stärker in die üblichen Microsoft-Produkte eingebunden werden, der Unterschied zwischen lokaler Anwendung und Online-Dienst damit zunehmend verschwinden. Gewisse Parallelen zum Start des Internet Explorers sind hierbei nicht zu übersehen - wieder einmal wird Microsoft versuchen, über die bestehenden Marktmacht auf dem Gebiet Betriebssysteme und Office-Software in einem anderen Feld Fuß zu fassen und dann dort die Marktführerschaft zu übernehmen. Demzufolge dürfte das Thema sicherlich noch bei den Wettbewerbshütern auftauchen - mit all den bekannten Konsequenzen: Zum einen, daß Microsoft diesen die Verhinderung von technischem Fortschritt vorwerfen wird - und zum anderen, daß man sich jahrelang vor Gericht streitet und es erst dann zu einem Urteil kommt, wenn die Sache längst gegessen ist und schon die nächste Technologie ansteht ;).
Die ComputerBase beschäftigt sich in einer Kolumne mit der drohenden Verschärfung der gesetzlichen Indizierung. Hauptsächlichste Argumente sind dabei, daß der geplante Jugendschutz wieder einmal in einen Erwachsenenschutz ausartet, wie auch, daß die Rolle der Erziehungsberechtigten als eigentliche Jugendschutz-Institution vollkommen vernachlässigt wird. Davon abgesehen irrt die Kolumen jedoch in einem Punkt: Die geplante Verschärfung der gesetzlichen Indizierung bedeutet kein Totalverbot auch für Erwachsene - es handelt sich hierbei immer noch um Indizierungen im Rahmen des Jugendschutzes, wo also die (kontrollierte) Abgabe an Erwachsene gesetzlich verbrieft weiterhin möglich sein muß. Daß indizierte Titel in aller Regel kaum noch Marktchancen haben, steht auf einem anderen Blatt, aber zumindest bedeutet die Verschärfung der Jugendgesetzgebung nicht, daß volljährigen Personen irgendwas verboten.
Mit einem Verbot auch für Erwachsene würde sich die Bundesregierung sowieso in die Nesseln setzen, der dabei herauskommende Effekt könnte sogar gegenteilig ausfallen. Denn für ein Erwachsenenverbot kann man nicht die Jugendschutzgesetzgebung ändern, sondern muß an das Grundgesetz heran, was in einem entsprechenden Medienecho sowie einer (inzwischen bei vielen Gesetzesvorhaben der Bundesregierung üblichen) Verhandlung vor dem Verfassungsgericht münden dürfte. Und dort kann es ganz fix passieren, daß Computerspiele endlich genauso wie Buch, Film und Musik als "Kunst" eingeordnet werden und damit unter den weitreichenden Schutz des Grundgesetz gestellt werden würden. Daß Computerspiele nicht schon längst dieserart eingeordnet werden, hängt schlicht damit zusammen, daß es diese noch lange nicht gab, als das Grundgesetz verfasst wurde.
Ein zweiter Punkt, welcher stark gegen echte gesetzliche Verbote (auch für Erwachsene) spricht, sind die Handelsregeln der EU, welche einen freien Warenverkehr innerhalb der Europäischen Union garantieren. So lange die Indizierungspraxis nur Jugendliche trifft und echte Verbote sich auf totale Einzelfälle beschränken, geht dies durch, bei einer massiven Verbotspraxis könnte die EU aber ganz schnell ein Wettbewerbsverfahren gegen Deutschland anleiern. Wahrscheinlich droht letzteres sogar auch, wenn es zu einer massiven Ausweitung der gesetzlichen Indizierungen kommt: Diese lassen sich zwar pro Forma durch den Jugendschutz decken, da diese gesetzlichen Indizierungen aber nicht von der BPjM durch eine nachvollziehbare Prüfung noch vor dem Verkaufsstart ausgesprochen werden, sondern unvermittelt mitten im Verkauf jederzeit durch einen Amtsrichter ohne jede ordentliche Verhandlung angeordnet werden können, ergibt sich hier eine gewaltige wirtschaftliche Unsicherheit.
Schließlich gibt es dann keinerlei Gewähr mehr, daß ein Titel nicht doch noch indiziert werden kann (während derzeitig von der BPjM mit einem Rating versehen Titel nicht mehr nachträglich von der BPjM indiziert werden können). Dies wird bei den "üblichen Verdächtigen" sicherlich gleich in den ersten Tagen des Verkaufs passieren, kann aber auch ältere Titel viel später noch unvermittelt treffen. Zudem sind die Folgen einer gesetzlichen Indizierung drastisch: Der Titel wird von der Staatsanwaltschaft bundesweit beschlagnahmt, was in einem Totalausfall für die Händler (und je nach Vertragslage auch die Distributoren) mündet. Dieses geradezu extreme wirtschaftliche Risiko ist sicherlich bei genauerer Betrachtung ebenfalls nicht mit den EU-Richtlinien zum freien Warenverkehr vereinbar - wenn die Spiele-Entwickler clever sind, gehen sie die geplante neue Jugendschutz-Gesetzeslage gleich direkt über das EU-Recht an - und dürften hierbei einige Chancen haben, zu gewinnen.
News des 7. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Gemäß Hard Tecs 4U soll der nVidia GT200 Grafikchip fertig sein für einen Launch in drei Monaten, was rechtzeitig für die Computex und damit vor allem für die gewöhnlich umsatzstarke Back-to-School-Saison in den USA wäre. Der GT200-Chip gilt als HighEnd-Lösung, welche zwischen die aktuelle G8x/G9x-Generation und den NextGen-Chip G100 dazwischengeschoben wurde, da sich letzterer verzögert - oder auch bewußt verzögert wird, da Direct3D11 offenbar noch nicht so schnell zur Verfügung steht. Dementsprechend soll der GT200 auch noch keine Direct3D11-Lösung sein, es wird dagegen für diesen Grafikchip die Unterstützung von Direct3D 10.1 angenommen. Von der Architektur her wird dem GT200 gemäß früheren Infomationen eine an die aktuelle G8x/G9x-Chips angelehnte Architektur zugeschrieben, ohne allerdings ein reiner Refresh-Chip wie die derzeitigen G9x-Chips zu sein.
Dafür soll es deutlich mehr Performance geben, hierzu schwirren (natürlich unbestätigte) Angaben von dem Dreifachen der G80-Performance oder dem Doppelten der Rechenleistung einer GeForce 9800 GTX durch die Gegend. Unklar ist noch, inwiefern es GT200-Abwandlungen auch für andere Marktsegmente geben wird - wenn allerdings der G100-Chip und dessen Abwandlungen für LowCost-, Mainstream- und Performance-Segment nicht all zu bald erscheinen, wäre dies eigentlich folgerichtig anzunehmen. Interessant ist zudem noch die der vorverlinkten Meldung zu entnehmende Aussage eines nVidia-Partners, daß "dass nVidia momentan offenbar soviel in der Schublade liegen habe, dass Neuvorstellungen und Präsentationen vorgenommen werden könnten, wann sie wollten".
Damit bezieht man sich sicherlich erst einmal auf die noch kommenden GeForce9-Grafikkarten. Zudem zeigt die Aussage aber auch auf, daß nVidia durch die zwischenzeitliche Schwäche von ATI bei der R600-Generation (Radeon HD 2x00) inzwischen im Zeitplan so weit vorn steht, daß man neue Grafikchips allem Anschein nach nicht mehr herausbringt, wenn sie fertig sind - sondern erst dann, wenn es denn passend erscheint. Und wenn man es sich genau betrachtet und feststellt, daß nVidia derzeit immer noch G80-Chips an der Spitze seines Portfolios stehen hat, obwohl dieser vor anderthalb Jahren im November 2006 vorgestellt wurde, dann kann man schon sagen, daß ATI es in dieser Zeit nicht verstanden hat, nVidia bezüglich der Performance wirklich unter Druck zu setzen.
Denn daß ein HighEnd-Grafikchip nach anderthalb Jahren immer noch an der Leistungsspitze steht, hat es in der jüngeren Grafikkarten-Vergangenheit eigentlich nicht gegeben. Aber natürlich dürften sich die Entwickler bei nVidia überhaupt nicht auf diesem Erfolg ausgeruht und in der Zwischenzeit fleissig an neuen Grafikchips gearbeitet haben. Insofern ist es durchaus vorstellbar, daß nVidia auf einer Reihe von mehr oder weniger spruchreifen Entwicklungen sitzt und diese erst dann raushaut, wenn die Konkurrenz zu nahe kommt. Für ATI wird damit die Situation nicht einfacher, denn es steht zu erwarten, daß nVidia für alles, was ATI so in nächster Zeit plant, schon jetzt eine Antwort in der Hinterhand bereithält.
Wie der Heise Newsticker berichtet, hat Belkin auf der CeBIT eine Lösung zur Funkübertragung von HD-Bildsignalen präsentiert. Technisch benutzt man dabei eine WLAN-Lösung mit Kanalbündelung, um die hohen für HD-Fernsehen benötigen Datenraten (bei 1080p24 runde 4 GBit/sec) realisieren zu können. Allerdings soll das ganze mit 600 Euro noch reichlich kosten, eventuell gehen die Preise hierfür aber auch im Laufe der Zeit herunter. Ironie am Rande ist, daß durch den Umstand, daß Signale mit dem HDCP-Kopierschutz nicht komprimiert werden können, die ankommenden HDCP-Signale für die Funkübertragung erst entschlüsselt und nach der Funkübertragung wieder verschlüsselt werden ;). Wahrscheinlich bedeutet das aber nicht, daß dann ein unverschlüsselten Signal übertragen wird - Belkin wird wohl schlicht eine der üblichen WLAN-Verschlüsselungen verwenden, welche dann auch das gleichzeitige (und angesichts der Datenraten auch notwendige) Komprimieren der Daten möglich macht.
Der Kurier berichtet über einen Fall, wo die Online-Durchsuchung auch schon in Österreich in einem Fall von Terrorismus-Verdacht angewandt wurde. Zwar gibt es in Österreich ebenso wie in Deutschland noch keine gesetzliche Grundlage, die Ermittler beriefen sich allerdings auf den (richterlich für diesen Fall erlaubten) großen Lauschangriff, um auf den Computer des Verdächtigen eine Software zu schleusen, welche die Tastatureingaben protokollierte und aller 60 Sekunden einen Screenshot des Bildschirms schoss. Über den ermittlungstechnische Sinn dieser Maßnahme können wir mangels weiterer Informationen zu diesem konkreten Fall kaum urteilen, mitzunehmen ist aus diesem Einzelfall aber vor allem die Kreativität der Beamten zur Verschleierung der Tatsache, daß man es mit einer der Online-Durchsuchung gleichzusetzenden Maßnahme zu tun hat.
Insbesondere hervorzuheben ist dabei die Aussage eines Ermittlers vor Gericht, wonach es sich schließlich nicht um eine Online-Durchsuchung, sondern "nur" um eine "Online-Überwachung" gehandelt hätte. Dies ist allerdings aus zweierlei Sicht Nonsens: Erstens einmal ist eine Live-Überwachung faktisch noch invasiver als nur das nachträgliche Durchfilzen einer Festplatte. Und zweitens sind die technischen Ansetzungen bei beiden Maßnahmen die absolut selben: Es wird ohne Wissen des Computer-Besitzers (was der Beamte vor Gericht im übrigen erstaunlicherweise bestritt) eine Software auf dessen Computer gebracht, welche diesen in der einen oder anderen Form ausspioniert. Ob man sich hierbei dann auf Live-Daten beschränkt oder gleich die komplette Festplatte filzt, ist nur noch eine Unterscheidung niedrigeren Ranges - noch dazu, wo es technisch keinerlei Unterschied gibt, dieselbe Spionage-Software prinzipiell für alle diese Zwecke eingesetzt werden kann.
Dieses Beispiel aus Österreich zeigt damit, daß der Fall Online-Durchsuchung leider noch lange nicht ausgestanden ist - vielmehr weichen die Überwachungs-Beführworter einfach auf andere Namensnennungen aus. In Österreich erfindet man so die "Online-Überwachung", in Deutschland die "Quellen-TKÜ". Beide Möglichkeiten sollen dann an weniger Regeln gebunden werden, womit den Ermittlern ein höherer Spielraum zum Einsatz solcherart Maßnahmen bleibt. Beide Möglichkeiten verletzen aber weiterhin strikt das zumindest in Deutschland deklarierte Grundrecht auf Gewährleistung der Vertraulichkeit und Integrität informationstechnischer Systeme - denn ob man mit diesen nur bestimmte Daten erfasst, ändert nichts daran, daß durch diese die Integrität des jeweiligen Computers zweifelsfrei komprimitiert wird. Aufgrund des vorgenannten Grundrechts müssten also auch in diesen Fällen, wo weniger Daten erhoben werden als durch einen kompletten Festplatten-Scan möglich, die gleichen hohen gesetzlichen Hürden wie bei der regulären Online-Durchsuchung gelten. Setzt sich diese Auslegung nicht durch, dann kommt die Online-Durchsuchung dann doch noch - durch die Hintertüren "Online-Überwachung" oder "Quellen-TKÜ".
News des 6. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Der Heise Newsticker berichtet über eine auf der CeBIT zu sehende Radeon HD 3870 X2 mit GDDR4-Speicher seitens des Grafikkarten-Herstellers HIS. Die Karte hat abweichend zu den üblichen GDDR3-Ausführungen mit deren 900 MHz Speichertakt einen Takt von 1125 MHz am Speicher anliegen - wobei nach wie vor nicht sicher ist, ob diesbezüglich alle Grafikkarten-Hersteller einer offiziellen oder auch inoffiziellen Empfehlung von ATI folgen, oder halt jeweils ihr eigenes Süppchen bei der GDDR4-Version der Radeon HD 3870 X2 kochen. Auf wirklich mehr Performance sollte man sowieso nicht spekulieren, da die Radeon HD 3870 X2 aufgrund ihres doppelten 256 Bit DDR Speicherinterfaces eigentlich nicht besonders bandbreitenlimitiert sein dürfte.
Die VR-Zone berichtet mit Verweis auf eine leider nicht mehr erreichbare Quelle über ATIs RV770-Chip. Dieser soll über keine neuen Architektur verfügen, sondern schlicht "weiterentwickelt" sein - was allerdings auch wieder alles mögliche bedeuten kann. Konkreter ist da die Nennung der Taktfrequenzen: Der Chiptakt soll bei über 1 GHz liegen, als Speicher soll GDDR5 zum Einsatz kommen, was auf einen entsprechend hohen Speichertakt von weit über 1 GHz hindeutet. Allein die Anzahl der Hardware-Einheiten ist noch nicht bekannt, wird aber aller Vermutung nach klar über dem Niveau des RV670-Chips liegen. Die VR-Zone spricht zudem von einem Launch des RV770-Chips im Mai, was unerwartet früh wäre, allerdings - sofern es sich wie gesagt um keine neue Architektur handelt - sogar durchaus realisierbar erscheint. Hard Tecs 4U vermelden im übrigen für den R700-Chip, welcher möglicherweise schlicht aus zwei RV770-Chips besteht, Termine zwischen Juni und September.
Auf der chinesischsprachigen Webseite UniHW sind Informationen und Benchmarks zu einer angebliche GeForce 9800 GTS auf Basis des G92-Chips mit Taktraten von 600/1500/900 MHz zu finden. Diese sind allerdings trotz einer dort vorliegenden Karte derzeit eher als unwahrscheinlich zu betrachten, da es im derzeitigen nVidia-Portfolio einfach keinen Platz für eine solche Karte mehr gibt und zudem die schon existierende GeForce 8800 GTS mit etwas höheren Taktraten (650/1625/970 MHz) schon jetzt schneller ist als diese angebliche GeForce 9800 GTS. Allerdings könnte so oder ähnlich durchaus die geplante GeForce 9800 GT aussehen - welche dann die GeForce 8800 GT mit einer besseren Leistung und die GeForce 8800 GTS mit einem besseren Preis ablösen könnte. Insofern könnten die Informationen von UniHW dann doch noch zu etwas führen - schlicht zur GeForce 9800 GT, nicht zu einer weiteren GTS.
Golem haben auf der CeBIT mit Intel über den Stand der Grafikkarten-Treiber für deren Mainboard-Chipsätze mit integrierter Grafiklösung gesprochen. So soll gegen Ende des laufenden ersten Quartals ein neuer Treiber für die Direct3D10-Grafiklösungen von Intel mit einigen Verbesserungen beim nutzbaren Featureset erscheinen. Mit diesem wird zum einen Hardware-T&L beim GMA X3100 Grafikchip voll nutzbar, zugleich soll es für GMA X3100 (Mainboard-Chipsätze GM965 und GL960) und GMA X3500 (Mainboard-Chipsatz G35) nun endlich die lange versprochene Direct3D10-Funktionalität geben. Was insgesamt schon sehr ironisch ist: Beide Grafikchips wurden schließlich Mitte letzten Jahres vorgestellt und ab diesem Zeitpunkt auch massenweise verbaut - mit samt der Werbung, es handle sich um Direct3D10-Lösungen, was allerdings mangels passender Treiber gar nicht eingehalten werden konnte.
Dabei ist es sogar noch viel beachtenswerter, daß sich Intel ein dreiviertel Jahr damit durchschummeln konnte, obwohl doch klar eine versprochene Leistung nicht geliefert wurde. Dies zeigt nur die Irrationalität des Marktes: In diesem Marktsegment reicht es offenbar aus, mit Direct3D10 werben zu können, ohne daß dies dann auch wirklich geliefert wird. Dabei ist für eine integrierte Grafiklösung die Frage des möglichst breiten und unkomplizierten Spiele-Supports viel eher interessant - denn wenn es schon langsam ist, soll doch zumindest erst einmal alles funktionieren. Gerade in diesem Punkt sind allerdings eher die integrierten Lösungen von ATI und nVidia vorn zu sehen, handelt es sich doch bei diesen um Abwandlungen der üblichen Desktop-Grafikchips, erscheint demzufolge eine breite Spiele-Kompatibilität als viel eher gegeben als bei den Intel-Produkten.
Sehr schade ist, daß hier die durch Prozessoren und Mainboard-Chipsätze aufgebaute Marktmacht von Intel verhindert, daß der Hersteller auch an seinen Verkaufserlösen sieht, daß man mit den eigenen integrierten Grafikchips einigermaßen vom Weg abgekommen ist. In diesem Fall tritt der Markt mal nicht als Regulator auf, sondern verhindert vielmehr den Fortschritt zuungunsten der Kunden - welcher nun einmal erst eintreten kann, wenn Intel für die aktuellen eigenen Grafikchips entsprechend heftig abgestraft werden würde. Bleibt nur zu hoffen, daß Intel nunmehr von alleine auf die Idee kommt, daß man solcherart Versprechen und dann Nichteinhalten von Features nicht auf Dauer bringen kann und bei zukünftigen Grafikchips zum einen die versprochene Featurepalette auch von Anfang an liefert und sich zum anderen verstärkt um eine möglichst breite Spielekompatibilität kümmert.
Eine Meldung seitens Gulli über die neuerlichen Einnahmenerfolge der Film-Industrie, welche es im Zusammenhang mit den immer an die Wand gemalten gigantischen Ausfällen durch Raubkopiererei so eigentlich nicht geben dürfte, erinnert uns ein wenig an einen älteren Artikel unsererseits, welcher jedoch kaum etwas an Aktualität und Brisanz eingebüßt hat. Auch seinerzeit hatten wir schon eine Aufstellung der Kinokassen-Einnahmen Hollywoods in den USA geliefert, wonach sich überhaupt keinerlei Raubkopierer-Delle ausgemacht werden konnte. Heuer nun laufen die Geschäfte noch etwas besser als seinerzeit - hinzu kommen neben dem US-Geschäft inzwischen immer weiter steigende Einnahmen aus dem Auslands-Geschäft, in deren Folge derzeit die allermeisten Hollywood-Filme zwei Drittel ihres Umsatzes außerhalb der USA erzielen.
Und dies ist natürlich nur der erste Teil der Verwertungskette, danach kommt noch das DVD-Leihgeschäft und das DVD-Verkaufsgeschäft, danach fängt dann die langjährige Auswertung im Fernsehen (Pay-TV und letztlich die werbefinanzierten Sender) an. Insbesondere das DVD-Verkaufsgeschäft soll so gut laufen, daß es insgesamt profitabler als die eigentliche Kinoauswertung ist - gut auch zu sehen an diesen Filmen, welche trotz einigem Aufwand ausschließlich für ein DVD-Release produziert werden. Wenn wir wieder rein zu den US-Kinodaten der letzten Jahre zurückgehen, findet sich da zwar für das Jahr 2005 auch einmal ein Minus sowie für die Jahre 2003 und 2004 schwächere Zuwächse, von einer Raubkopierer-Delle kann hier allerdings bei weitem nicht gesprochen werden.
Die hatte die Musikindustrie zu erleben, als diese das Internet verschlafen hatte und über mehrere Jahre hintereinander jeweils zweistellige Prozentzahlen verlor. Für die Film-Branche ist selbiges nicht im Ansatz zu berichten - womit wir Gulli vollkommen Recht geben wollen, die von den verschiedenen Lobbyorganisationen der Filmindustrie immer wieder erneut gemeldeten "Verlustzahlen" durch Raubkopien schwerer Nonsens sind. Damit wollen wir überhaupt nicht sagen, daß es keine Film-Raubkopien im Internet gäbe oder aber das Raubkopierei in Ordnung wäre - nur lassen sich wirtschaftliche Auswirkungen zumindest im Film-Bereich derzeit kaum nachweisen, geht es Hollywood dagegen vom finanziellen Standpunkt gesehen besser denn je zuvor.
News des 5. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie Hard Tecs 4U berichten, hat ATI auf der CeBIT eine schnellere Versionen der Radeon HD 3870 dementiert. Damit dürfte das kommende A12-Stepping des RV670-Chips wohl für mehr Taktspielraum sorgen, es aber offiziellen taktverbesserten Versionen der Radeon HD 3850/3870 Serie geben. Einzig allein bei der kommenden GDDR4-Version der Radeon HD 3870 X2 könnte es noch einen gewissen Taktsprung beim Speichertakt geben - allerdings bezieht sich diese Taktänderung natürlich nicht auf den RV670-Chip und dessen verschiedene Steppings, sondern allein auf den jeweils verbauten Speicher. Zudem gibt AMD den Grafikkarten-Hersteller sowieso relativ freie Hand bei der Festlegung des Speichertaktes, insofern könnten die GDDR4-Versionen auch schlicht als "ab Werk übertaktet" laufen - ohne daß AMD hierfür eine extra Spezifikation herausgibt bzw. eine offizielle GDDR4-Ausführung mit mehr Takt ankündigt.
Auf der CeBIT gibt es ja nun auch erste Mainboards mit den kommenden integrierten Direct3D10-Grafiklösungen von ATI und nVidia zu sehen. Beide Grafikchip-Entwickler setzen dabei auf direkte Abwandlungen ihrer Desktop-Lösungen namens Radeon HD 3200 (780G Mainboard-Chipsatz) und GeForce 8200 (gleichnamiger Mainboard-Chipsatz). In beiden Fällen handelt es sich faktisch um LowEnd-Desktoplösungen mit neuem Namen - Hardware-technisch entspricht die Radeon HD 3200 der Radeon HD 3450/3470 und die GeForce 8200 der GeForce 8400 GS, allerdings natürlich mit etwas niedrigeren Taktraten. Die Nähe zu eben jenen Desktop-Lösungen garantiert für die Hersteller eine unkomplizierte Entwicklung und Herstellung und für die Anwender, daß viele der Kompatibiliäts-Verbesserungen der Desktop-Treiber auch automatisch für die integrierten Grafikchips mit gelten. Die Vorab-Tests waren dabei durchaus hoffnungsvoll, die Performance gegenüber den früheren integrieren DirectX9-Grafiklösungen klar höher liegend.
Aber es interessiert hierbei natürlich in erster Linie das Abschneiden gegenüber den günstigsten Desktop-Grafikkarten in Form von Radeon HD 3450 und GeForce 8400 GS - wobei zumindest im Fall von ATIs neuer Lösung hierauf mittels der ersten offiziellen Tests Antwort gegeben werden kann. Hierbei liegt die Radeon HD 3200 integrierte Grafiklösung im 780G Mainboard-Chipsatz gegenüber einer Radeon HD 3450 zwar weiterhin um runde 30 Prozent zurück - dies ist aber gegenüber früheren integrierten Lösungen doch ein gewaltiger Schritt, da diese oftmals hoffnungslos hinter absoluten LowEnd-Lösungen zurücklagen. Eine vernünftige Spieleleistung sieht natürlich immer noch weit anders aus (zu mehr als 800x600mit Low- oder Medium-Details reicht es für die Radeon HD 3200 nicht aus), aber rein für die billig erworbene Möglichkeit zum Gaming mag dies wohl in Ordnung gehen.
Allerdings setzt sich ATI mit dieser Performance natürlich auch wieder selber unter Druck: Denn für 30 Prozent mehr Leistung lohnt eine extra Radeon HD 3450 dann überhaupt nicht - diese kostet auch immer noch über 40 Euro und die Grafikfähigkeiten des 780G-Chipsatzes bekommt man mehr oder weniger kostenlos obendraufgelegt. Wenn die integrierten Grafiklösungen nicht nur in diesem Einzelfall, sondern auch langfristig solch passablen Leistungen hinlegen, dann können sich ATI und nVidia die absoluten LowEnd-Grafikkarten sicherlich sparen und die Performance der günstigsten Einsteiger-Grafikkarten deutlich steigern - was sicherlich im Interesse der Käufer wäre, denn diese können von einer extra Grafikkarte auch des Einsteigerfeldes immer erwarten, daß diese doch um eine Dimension besser als integrierte Grafiklösungen sind.
Der Heise Newsticker berichtet über die neuesten Hardware-Entwicklungen bei Trusted Platform Modules (TPMs), welche für die Trusted Computing Fähigkeiten in einigen von Intels Mainboard-Chipsätzen eingesetzt werden. Prinzipiell bleibt es derzeit bei dem bekannten System, daß mehr oder weniger nur die Chipsätze der Q-Serie für den Business-Einsatz standardmäßig mit TPMs konzipiert werden und auch erst einmal nur ein Einsatz in eben diesem Business-Umfeld vorgesehen ist. Wie es bei Trusted Computing auf dem Desktop-Umfeld weitergeht, ist dagegen unklar, weil es derzeit diesbezüglich keine weiteren erkennbaren Initiativen gibt. Dabei gibt es inzwischen ja positive Anwendungsmöglichkeiten von Trusted Computing im privaten Bereich: So erscheint die aus dem Business-Bereich stammende Idee eines zweiten Admininstration-Betriebssystems auf demselben Computer nach wie vor auch auf den privaten Bereich übertragbar und könnte dort erheblich die Computer-Sicherheit verbessern helfen.
Schließlich könnte jenes zweite Betriebssystem, welches vom ersten (Haupt-)Betriebssystem aus unsichbar ist, die Netzwerk-Aktivitäten auf Angriffsversuche scannen, einen weiteren, unabhängigen Virenscanner betreiben und auch sonst zur Systemwartung auch bei Ausfall des Haupt-Betriebssystems eingesetzt werden. Ob man dies jemals so hinbekommt, daß ein solches System auch für die breite Masse benutzbar wird, ist zwar unklar, aber die erfahrenen PC-Nutzer dürften dies sicherlich einsetzen können. Insofern ist es durchaus zu rechtfertigen, wenn diese Meldung bei uns inzwischen unter der Sparte "IT-Sicherheit" verlinkt wird - vor Jahren hätte man über weitere TC-Entwicklungen sicherlich noch deutlich anders gedacht, wie auch das unserseits seit 2002 geflegte News-Archiv zum Themenkomplex Trusted Computing beweist ;).
Natürlich kann man heutzutage rätseln, ob es der Druck der seinerzeitigen Mißfallenserklärungen war oder die seinerzeitigen Vorantreiber von Trusted Computing einfach zu hoch gegriffen haben, aber inzwischen stellt sich das Thema doch (glücklicherweise) deutlich entspannter dar. Was allerdings nicht zur Leichtfertigkeit verführen soll: Trusted Computing ist per se nur eine machtvolle Technologie, es kommt immer auf den konkreten Einsatz an. Geht dieser in die Richtung, dem Besitzer des Systems mehr Möglichkeiten bzw. mehr Kontrolle zu geben, ist alles in Butter. Doch genauso ist auch der gegenteilige Weg - der Entzug der Kontrolle des Systems zugunsten der Industrie - jederzeit möglich, sind die Möglichkeiten von Trusted Computing niemals zu unterschätzen und auch weiterhin jede neue Entwicklung gegenzuprüfen, in welche Richtung sie geht bzw. wem sie die Kontrolle über das System gibt oder vorenthält.
News des 4. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Von uns Ende letzter Woche schon verlinkt, aber fälschlicherweise nicht wesentlich beachtet worden sind die Ausführungen von techPowerUp! zum Zustandekommen der Taktraten der GeForce 9600 GT. Denn wie dort behauptet und mittels auch einigen Belegen untermauert, hat nVidia die Taktraten dieser Karte nicht (wie üblich) an einen eigenen Takt-Generator, sondern an den PCI Express Takt gebunden. Dies hat allerdings zur Folge, daß die Karte bei einer Erhöhung eben jenes PCI Express Taktes automatisch mit übertaktet wird - was erstens höchst unglücklich gelöst erscheint und zweitens sogar in ungewollten Beschädigungen der Karte münden kann. Denn nVidia bietet bei den eigenen Mainboard-Chipsätzen schon seit einiger Zeit ein Feature namens "Link Boost", welches eben jenen PCI Express Takt um bis zu 25 Prozent (!) erhöht.
Verbaut man hierzu eine GeForce 9600 GT und steht das Link-Boost-Feature im Mainboard-BIOS auf "Auto" (was natürlich bei anderen Grafikkarten keinerlei Auswirkungen auf deren Takt hat), kann man sich durchaus die Grafikkarte durch einen deutlich zu hohen anliegenden Takt zerschiessen. Aber auch andere Mainboard-Chipsätze anderer Hersteller bieten die Möglichkeit, den Takt von PCI Express anzuheben - daß man damit auf einer GeForce 9600 GT automatisch auch deren Taktraten anhebt, ahnt sicherlich erst einmal keiner. Insgesamt ist die Angelegenheit höchst riskant und noch dazu vollkommen sinnlos - es sei denn, nVidia wäre bei der Kalkulation der GeForce 9600 GT wirklich darauf angewiesen gewesen, den Taktgeber auf dem Grafikboard einzusparen ;).
Jetzt bliebe natürlich noch abzuwarten, was nVidia dazu sagt - ob sich also die Information der Taktgenerierung über den Takt von PCI Express bei der GeForce 9600 GT bestätigen läßt. Im Fall des Falles würde nVidia natürlich nicht besonders günstig dastehen - trotzdem wäre es besser, hier lieber gleich mit der Wahrheit herauszurücken, was immer noch besser ist, als wenn sich die Sache hinzieht und man über einen längeren Zeitraum mit einer Negativ-Presse leben muß. Im Fall des Falles wäre es auch zu empfehlen, alle Mainboards mit Link-Boost-Option mit einem neuen BIOS zu beglücken, welches diese Funktion per default deaktiviert und bei Aktivierung durch den User mit entsprechend klaren Warnhinweisen versieht. Solche sollte man dann sicherlich auch an die Besitzer einer GeForce 9600 GT herausgeben - und in Zukunft die Finger von solch abenteuerlichen Takt-Erzeugungen zu lassen.
Wie Hard Tecs 4U berichten, plant nun sogar Dell einen eigenen LowCost-Laptop, um dem EeePC-Hype etwas entgegenstellen zu können. Inzwischen kann man auch angesichts der Verkaufserfolge von Asus mit dem EeePC von einem eigenen Marktsegment für solcherart Billig-Notebooks reden, um welches sich in Zukunft ergo viele Marktteilnehmer balgen werden. Dabei ist es durchaus erstaunlich, wie lange es gedauert hat, ehe diese Angebotslücke erkannt wurde (bislang gab es bei Mini-Notebooks zumeist nur ausgesprochen teure Modelle) - denn letztlich reagierten EeePC & Co. nur auf denn sowieso vorhandenen Bedarf nach einem möglichst mobilen PC für absolute Alltagsaufgaben, welcher eben aufgrund dieser Aufgabenstellung auch nicht zu viel kosten darf.
Natürlich kommt dieser neuen PC-Klasse auch entgegen, daß moderne Hardware inzwischen ein solches Übermaß an Performance bietet, daß selbst sehr günstige LowEnd-Komponenten immer noch ausreichend Leistung für einfache Alltagsaufgaben bieten. Was sich aber natürlich auch auf gewöhnliche Desktop-PCs übertragen läßt: Auch hier reicht als Surf- und eMail-Maschine faktisch das billigsten vom billigen vollkommen aus - und das bei cleverer Zusammenstellung (nicht zu wenig Arbeitsspeicher, nicht beim Monitor sparen) auch noch ohne beachtbare Unterschiede zu "ausgewachsenen" PCs. Selbst schon für 300 Euro (+ Monitor) lassen sich so vernünftige Home-PCs zusammenstellen - solche Angebote gibt es zwar teilweise auch bei den großen PC-Bauern, stehen dort aber eher verschämt in der letzten Ecke.
Selbstverständlich wollen die PC-Bauer in erster Linie ihre 1000-Euro-Boliden absetzen, doch für die Masse der Kundschaft ist dies inzwischen weitestgehend unnötig. Das Beispiel EeePC zeigt doch eindrucksvoll - egal ob es um mobile oder stationäre Geräte geht - das für alltägliche Aufgaben die Leistungsfähigkeit eines PCs klar in den Hintergrund gerückt ist. Wirklich Power benötigt man heutzutage im Home-Bereich eigentlich fast nur noch, wenn es um Spiele-PCs geht - dort wiederum lohnt es sich bis zu einem gewissen Maß, eher zu klotzen als zu kleckern. Doch abgesehen von diesem Feld sollte die Performance eigentlich langsam aus der Anforderungspalette für Home-PCs verschwinden - interessanter sind hierbei eher die allgemeine Benutzerfreundlichkeit, ein großer Arbeitsspeicher wie Monitor, ein vernünftiger Kundenservice sowie ein letztlich zu allem passender Preis.
Abzuwarten bliebe natürlich immer noch, ob sich diese LowCost- Idee auch am PC-Markt breit durchsetzt. Denn auch wenn der EeePC zeigt, daß dies möglich ist, gibt es keine Gewähr dafür, daß die Masse der PC-Käufer in absehbarer Zeit auch selber begreift, daß sie so viel Leistung wie heutzutage angeboten gar nicht benötigt. Und natürlich haben alle beteiligten Hersteller auch keinerlei wirkliches Interesse, dies der Kundschaft kundzutun, schließlich könnte am Ende einer solchen Entwicklung der Durchschnittspreis pro abgesetztem PC deutlich absinken. Auf der anderen Seite macht der ständige technische Fortschritt bei PC-Hardware eine solche Entwicklung langfristig eigentlich zum Selbstläufer: Denn je schneller die Hardware wird, um so einfacher wird, auch mit absoluten LowCost-Ausführungen sehr vernünftige Home-PCs zusammenstellen.
Shortcuts: Gemäß Fudzilla wird das kommende A12-Stepping des RV670-Chips natürlich auch bei der Radeon HD 3870 (und wohl auch den Radeon HD 3850 Karten) eingesetzt werden. Ob es dabei allerdings wirklich zu höheren default-Taktraten kommt, wie von Fudzilla behauptet, bliebe stark abzuwarten - vermutlich hat Fudzilla hier schlicht aus einem taktfreudigeren Stepping gleich einmal auf höhere default-Taktraten geschlossen. Dies kann sicherlich passieren, ist aber ohne weiterer Bestätigung erst einmal nur pure Spekulation. Wie Hard Tecs 4U ausführen, hat AMD erste Samples seiner 45nm K10-Prozessoren ausgeliefert. Da neue Prozessoren üblicherweise langmonatige Testphasen durchlaufen, dürfte sich damit wohl nichts an den ursprünglichen Planungen eines Marktstarts im vierten Quartal ändern, vor allem da die Massenproduktion dieser Prozessoren sowieso noch nicht gestartet ist.
News des 3. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Im eigenen Online-Shop bietet S3 Graphics mit der Chrome 430 GT 256MB nunmehr die erste Grafikkarte auf Basis der neuen, Direct3D 10.1 beherrschenden Chrome 400 Serie an. Genauere Informationen zu dieser Karte gibt es bislang allerdings noch nicht, S3 hat nur die Taktfrequenzen mit 625/500 MHz angegeben. Damit soll die Chrome 430 GT in Konkurrenz zu ATIs Radeon HD 3450 und nVidias GeForce 8400 GS gehen und diese unter dem 3DMark06 schlagen können. Wie dies dann bei der breiten Masse der Spiele aussieht, mag auf einem anderen Blatt stehen, gerade S3 hat hier eher weniger die Möglichkeiten, die eigenen Treiber auch außerhalb der üblichen Benchmark-Titel zu optimieren. Aber natürlich lohnt sich dies bei solcherart LowEnd-Angeboten sowieso nicht besonders, da diese mehrheitlich in den OEM-Markt gehen und dort dann eher der Preis, Videofeatures und die Featurepalette zählen. Viel interessanter wäre somit, ob S3 der Chrome 430 GT später noch eine höher getaktete Variante zur Seite stellen wird, mittels welcher sich das neue S3-Design dann möglicherweise auch der Radeon HD 3470 und der GeForce 8500 GT stellen kann.
Wie die VR-Zone berichtet, steht bei ATI für die nächsten Tage eine Preissenkung bei den Radeon HD 3650 und 3850 Karten um bis zu 20 Prozent an, eine weitere geringfügige Preissenkung soll es bei der Radeon HD 3870 geben. Damit reagiert ATI erwartungsgemäß auf den Marktstart der GeForce 9600 GT von nVidia, welche im Bereich von 150 Euro ATI mit einer klar besseren Performance für dasselbe Geld schwer zugesetzt hat. Da ATI derzeit natürlich noch keine neue Hardware aufbieten kann, bleibt als einzige Möglichkeit um im Geschäft zu bleiben das Mittel der Preissenkung. Konkret dürfte das für den 9600GT-Konkurrenten Radeon HD 3850 bedeuten, daß die 512-MB-Ausführung wohl auch ca. 130 Euro absinkt, die 256-MB-Ausführung auf ca. 110 Euro.
Dies dürfte beide Karten wieder gegenüber der GeForce 9600 GT attraktiv machen - nVidia wird zwar weiterhin die bessere Performance, ATI den dafür aber besseren Preis anbieten, was beiden Anbietern und Produkten ihre Chance im Markt läßt. Im Gegenzug sollte nVidia im übrigen kaum mit gleichzeitigen Preissenkungen reagieren, da die GeForce 9600 GT erstens neu und zweitens sehr gut im Markt positioniert ist. Etwas unsicher ist nach dieser Preissenkung allerdings das Schicksal der eigentlich im 100-Euro-Bereich geplanten Radeon HD 3690: Denn für diese scheint nunmehr kaum noch ein preislicher Platz vorhanden zu sein, wenn die 256-MB-Ausführung der Radeon HD 3850 schon so nahe an die 100-Euro-Grenze heranrückt. Wirklich attraktiv wäre dann nur noch eine preisliche Positionierung unterhalb der 100-Euro-Grenze - aber ob ATI den RV670-Chip dermaßen billig verramschen will, bliebe vorerst zu bezweifeln.
Der Tech Report hat sich wieder einmal dem Thema gewidmet, wieviel Grafikkartenspeicher man heutzutage so braucht. Dabei ist man diese Fragestellung von zwei Seiten aus angegangen: Von der Ausgangslage einer 512-MB-Karte hat man sowohl nach unten zu 256 MB als auch nach oben zu 1 GB Grafikkartenspeicher geblickt, jeweils realisiert mittels GeForce 8800 GT Grafikkarten. Das Ergebnis trifft dabei die Erwartungen: Die 1-GB-Grafikkarte kann derzeit noch für keine Performancegewinne sorgen, auch nicht unter HD-Auflösungen. Nur 256 MB Grafikkartenspeicher sind dagegen - zumindest bei nVidia und im Rahmen der gewählten Performance-Lösung - inzwischen zu klein. Daß die 256-MB-Grafikkarte unter sehr hohen Auflösungen zurückliegen würde, war zwar zu erwarten, allerdings ist auch unter der doch sehr gebräuchlichen Auflösung von 1280x1024 ein erheblicher Rückstand zur 512-MB-Ausführung in zwei der vier Benchmarks zur verzeichnen.
Insofern kann für die 256-MB-Ausführung der GeForce 8800 GT inzwischen kaum noch eine Empfehlung gegeben werden. Gleiches sollte auch für alle anderen nVidia-Grafikkarten desselben Preisfelds (oder höher) gelten, wahrscheinlich auch für die GeForce 9600 GT. Nur im totalen Mainstream-Bereich, also bei GeForce 8500 und 8600, kann diese Frage neu gestellt werden, da diese Karten in aller Regel eher durch ihre Grund-Performance als durch den zu kleinen Grafikkartenspeicher limitiert werden. Ironischerweise stellt sich die Frage 256 oder 512 MB bei vielen dieser Karten aber nicht wirklich, da gerade im LowCost- und Mainstream-Bereich der Mehrpreis für 512 MB zumeist reichlich gering ausfällt. Ausdrücklich nicht lassen sich diese Ergebnisse allerdings auf ATI-Grafikkarten ummünzen, hier hat die Praxis gezeigt, daß diese doch deutlich besser als die nVidia-Grafikkarten mit der kleinen Speichergröße zurechtkommen.