News-Archiv 10. - 16. März 2008 (11. Kalenderwoche)
15./16. März 14. März 13. März 12. März 11. März 10. März
News des 15./16. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Auf der ComputerBase gibt es mal wieder einen Artikel zum Thema Raytracing, welcher die aktuelle Situation dieser alternativen Rendering-Technologie wiedergibt. Allerdings wird in diesem Artikel Raytracing wohl etwas zu sehr über den grünen Klee gelobt - zumindest aus unserem Forum kommen da einige beachtbare Einwände. Dabei steht wohl überhaupt nicht in Frage, daß Raytracing eine hochinteressante Technologie ist, es gibt allerdings Zweifel ob deren Durchsetzungspotential gegenüber dem herkömmlichen Rasterizer-Verfahren. Denn dieses sitzt derzeit nun einmal fest im Sattel, sowohl Hardware als auch Spiele sind exakt dafür angepasst und es bräuchte allein für den Wechsel zu dem wirklich andersartigen Raytracing-Ansatz schon einige Jahre.
In einer solchen Situation muß Raytracing erst einmal den Beweis antreten, daß es nicht nur etwas, sondern soviel besser ist, als daß sich der hohe Aufwand für einen kompletten Wechsel der Rendering-Technologie auch wirklich lohnt. Schon einige neue Technologien konnten sich schließlich nicht durchsetzen, weil deren Verbesserung in keinem guten Verhältnis zum für einen Wechsel notwendigen Aufwand stand. Insofern ist Raytracing vielleicht doch nicht die automatisch kommende Zukunftstechnologie, weil die Hürden für einen Wechsel sehr hoch sind und der erreichbare Vorteil noch nicht bewiesen ist. Auf der anderen Seite sind allerdings Hybrid-Modelle vorstellbar, wo für gewisse Effekte Raytracing eingesetzt wird, das Rasterizer-Grundmodell allerdings erhalten bleibt. Damit könnte man die Vorteile von Raytracing am einfachsten einbringen, ohne dafür gleich einen kompletten Umsturz in der Rendering-Technologie zu verursachen.
Die DigiTimes vermeldet Intels ersten QuadCore-Prozessor für den Mobile-Einsatz für das dritte Quartal: Der Core 2 Extreme QX9300 soll mit 2.53 GHz takten, über einen FSB1066 und 12 MB Level2-Cache verfügen und mit 1038 Dollar soviel kosten, wie viele Nutzer für ein ganzes Notebook ausgeben ;). Neben dem natürlich überzogenen Preis wird das Intel-Marketing im dritten Quartal aber auch noch zu erklären haben, wofür man nun ausgerechnet einen QuadCore im Notebook benötigt - denn gerade diese Anwendungen, wo QuadCore-Prozessoren derzeit erhebliche Vorteile zeigen, sind mehr dem professionellen Umfeld zuzuordnen und damit eher selten im mobilen Einsatz. Davon abgesehen ist an dem Prozessor aber vor allem dessen TDP von nur 45 Watt interessant: Für ein Notebook ist das natürlich immer noch reichlich, aber für einen QuadCore-Prozessor auf diesen Taktraten schon aller Ehren wert.
Gestern schon verlinkt, wollen wir noch einmal eine Meldung des Heise Newstickers aufgreifen, nach welcher die deutsche Bundesregierung bekräftigt hat, daß Sperrverfügungen gegenüber Internet Service Providern weiterhin als letztes Mittel gegenüber ausländischen Webseiten zum Einsatz kommen sollen, sollte deren Angebot in Deutschland illegal sein. Womit die Begründung eigentlich schon die Absurdität des ganzen verdeutlicht: Wieso sollte eine ausländische Webseite sich auch an bundesdeutsches Recht halten - und wenn ja, dann darf das wohl jeder der 250 Staaten auf diesem Planeten genauso verlangen. Was die Bundesregierung hier propagandiert, ist nichts anderes als ein "Bundesnet" - eine an China erinnernde abgeschottete Version des Internets, wo am besten nur staatlich "geprüfte" Webseiten zu sehen sind.
Sicherlich sind die allermeisten der derzeit oder ehemals gesperrten Webseiten verzichtbar, zudem ist die bundesdeutsche Sperrliste im Gegensatz zu der von China noch reichlich überschaubar. Nichtsdestotrotz ist das Prinzip dasselbe: Auch in China & Co. wird ja nicht nach Gutdünken zensiert bzw. blockiert, sondern zumeist im Rahmen bestehender Gesetze - ganz exakt wie in Deutschland. Und würde man in Deutschland hierfür einen ähnlichen Aufwand betreiben wie in China, wäre die bundesdeutsche Sperrliste genauso ellenlang wie die chinesische, käme es zum vorgenannten "Bundesnet". Dafür ist das Internet allerdings nicht gemacht: Denn trotz aller Kommerzialisierung ist das Internet immer noch das Medium, wo sich jeder in seiner Art und Weise ausdrücken kann.
Daß es hierbei zu Schmuddel- und Gruselecken kommt, ist in dem Sinne normal, als daß das Internet schließlich nur ein Spiegel der realen Gesellschaft ist. Teile dieses Spiegels versuchen wegzublenden, ändert nichts an dem Vorhandensein von Problemen - es macht sie halt nur weniger sichtbar. Insofern ist die Idee von Sperrungen schon allein dewegen irrig, weil diese keinerlei Probleme lösen. Gleichzeitig stellen uns solcherart Zensuranstrengungen aber auf eine Stufe mit China, Saudi-Arabien & Co. - was diese Staaten auch mit Genuß betonen, wenn man Kritik an deren Internetzensur anbringt. Hierbei darf durchaus die Frage aufgestellt werden, ob die wenigen und damit fast nichts bringenden bundesdeutschen Sperrverfügungen es wert sind, den wirklichen Zensurstaaten Vorwände und Begründungen für ihr Tun zu liefern.
News des 14. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
In der zweiten Hälfte des März' wird nVidia einige weitere Grafikkarten der GeForce9-Serie vorstellen. So wird am 18. März (kommender Dienstag) die DualChip-Lösung GeForce 9800 GX2 gelauncht werden, die Karte wird auf zwei G92-Chips basieren und alle zweimal 128 Shader-Einheiten aktiviert haben. Als Taktfrequenzen sind aktuell 600/1500/1000 MHz im Gespräch, was in etwa auf dem Niveau der GeForce 8800 GTS (650/1625/970 MHz) wäre. Insofern ist eine Performance in Richtung einer SLI-Kombination aus zwei GeForce 8800 GTS Karten zu erwarten - wie genau das Verhältnis aussieht, wird man am Dienstag sehen können. Die GeForce 9800 GX2 Karten haben zudem extra SLI-Anschlüsse und sind somit auch für Quad-SLI geeignet, was nVidia mit diesen Karten wohl erstmals seit den GeForce 7900/7950 GX2 Karten wieder promoten dürfte.
Dafür scheint nVidia in der Tat einen Listenpreis von 599 Dollar anzusetzen, was beim derzeitigen Dollarkurs auf runde 500 Euro Straßenpreis hinauslaufen sollte. Dies erscheint aber immer noch ziemlich reichlich, denn eine einzelne GeForce 8800 GTS kostet zwar im Durchschnitt derzeit die Hälfte hiervon (250 Euro), bewegt sich aber schon stark in Richtung 220 oder gar 200 Euro. Hier bleibt abzuwarten, ob die Performance der GeForce 9800 GX2 dann wirklich auch zu deren Preis passt. Zumindest die Radeon HD 3870 X2 sollte aufgrund der technischen wie preislichen Ansetzung eigentlich klar ausgestochen werden - aber diese spielt ja auch in einem ganz anderen Marktsegment mit Preisen von derzeit 310 bis 340 Euro.
Weiterhin soll die GeForce 9800 GTX nunmehr am 25. März (übernächster Dienstag) erscheinen. Auch diese Karte basiert auf dem G92-Chip und bringt somit gegenüber den G92-basierenden SingleChip-Karten GeForce 8800 GT und GTS nur andere Taktfrequenzen mit sich, welche aktuell mit 675/1688/1100 MHz genannt werden. Wie schon festgestellt, fällt der Performance-Abstand zur GeForce 8800 GTS damit allerdings eher bescheiden aus. Allerdings braucht nVidia nach dem Auslaufen der GeForce 8800 Ultra ein neues Zugpferd für Triple-SLI, womit diese Karte dann wohl doch noch ihre Berechtigung finden wird. Derzeit ist noch kein Preis zur GeForce 9800 GTX bekannt, dieser ist jedoch kaum deutlich über dem vorgenannten Niveau der GeForce 8800 GTS zu erwarten.
Eine Berechtigung für die ebenfalls von einigen Quellen weiterhin gemeldete GeForce 9800 GTS ist hingegen schwer zu finden, denn mit deren Taktfrequenzen von 600/900 MHz liegt man exakt auf dem Niveau der GeForce 8800 GT - zudem gibt es im Umfeld letztgenannter Karte nun wirklich keinen Platz mehr für weitere G92-Varianten. Denkbar wäre nur die Lösung, daß nVidia die GeForce 8800 GT und GTS auslaufen läßt und dann die GeForce 9800 GTS den Platz der GeForce 8800 GT zu einem ähnlichen Preis einnimmt, während die GeForce 8800 GTS mehr oder weniger durch die (etwas schnellere) GeForce 9800 GTX ersetzt werden würde. Damit würde nVidia auch den Abstand zwischen diesen beiden Lösungen vergrößern, der bei der GeForce 8800 GT und GTS doch arg gering war und bei GeForce 9800 GTS zu GTX aufgrund der vorliegenden Taktraten dann doch wieder annehmbar wäre.
Der Heise Newsticker berichtet von massenweise gehackten Webseiten, welche Schadprogramme verbreiten. Angeblich seinen innerhalb einer Woche 200.000 Webseiten betroffen, wobei diese weniger aus den hinteren oder/und dunklen Ecken des Internets stammen sollen, sondern es sich vielmehr in der Masse um bekannte und respektierte Webseiten handelt soll. Leider haben sowohl Heise als auch andere Quellen arg an präziseren Erklärungen gespart, wie die Attacke nun genau abläuft - woraus man hätte vielleicht wertvolle Informationen ziehen können, wie man sich dagegen schützen kann. Demzufolge versuchen wir uns notgedrungen (und mit unsere deutlich beschränkteren Möglichkeiten) an einer Rekonstruktion des Falls.
Erstens einmal sind die Webseiten nicht direkt infiziert, die Sache ist deutlich komplizierter angelegt. Vielmehr machen sich die Hacker wieder einmal die Möglichkeit zunutze, daß viele Webseiten auch zusammen mit in die Webseite eingebetteten iFrames fremder URLs funktionieren - so daß man sich weiterhin auf der ursprünglich angewählten Seite befindet, in einem kleinen Bereich dieser Webseite aber Code von einer gänzlich fremden URL hat. Um so etwas zu erreichen, muß man normalerweise die entsprechende Webseite regelrecht hacken, was zumeist mühsame Handarbeit ist - nun wurde aber anscheinend eine einfachere Möglichkeit gefunden. Dabei macht man sich zunutze, daß die Suchfunktionen vieler Webseiten die getätigten Suchanfragen cachen und dieserart abspeichern, daß die Such-Robots von Google & Co. diese dann auch mit indizieren.
So weit ist das ganze erst einmal regulär und wohl auch so gedacht. Nicht gedacht hat man dabei allerdings an die Möglichkeit, daß Hacker auf bekannten Webseiten in großer Masse präparierte Suchanfragen abgeben. Diese enthalten erst einmal eine ganz reguläre Suchanfrage, zusätzlich wird direkt in der Suche aber der Link zu einem iFrame eingegeben, daß ganze sieht beispielsweise so aus: "myspace blog codes <IFRAME src=//195.225.178.21/5>". Als Suchanfrage ist das erst einmal ungefährlich, problematisch wird es ab der Suchergebnisanzeige-Seite: Denn diese enthält in ihrer URL üblicherweise die kompletten Suchbegriffe, darunter eben auch die iFrame-Anweisung - und leider führten die Browser diese dann aus, anstatt als es passive Eingabe zu werten. Das allein führt allerdings noch nicht zum Ziel, denn hiermit hat man nur einen Link, welche zu einem Suchergebnis zuzüglich einem präparierten iFrame führt.d
Interessant wird es dadurch, daß man die Suchmaschinen großer Webseiten (welche zumeist auf Google basieren) mit massenweise solcherart Suchanfragen bombardiert werden und somit deren hohe Bewertung ausgenutzt wird, um die eigenen, präparierten Suchergebnisse nach oben zu puschen. All das funktioniert natürlich nur, weil die eigentliche Suchanfrage populäre Begriffe abfragt, ansonsten wäre eine hohe Plazierung in kurzer Zeit nicht möglich. Das bedeutet also nicht, daß das Google-Ratingsystem überlistet wurde - vielmehr haben sich die Hacker an das funktionierende Ratingsystem von Google perfekt drangehängt. Wenn nun ein Internetnutzer auf einer der befallenen Webseiten die Suchfunktion zu populären Begriffen nutzt, kann man schon mit den ersten Ergebnissen auf Links treffen, die zwar das Suchergebnis bringen, zusätzlich aber den präparierten iFrame anzeigen.
Wichtig ist hierbei, daß dieser iFrame dann in eine Webseite eingebettet ist, welche man zumeist als eher vertrauenswürdig betrachtet - nur daraus zieht dieser Fall seine Sprengkraft. Konkret sollen unter anderem ZDNet Asia, Namely, TV.com, News.com und MySimon betroffen sein (inzwischen noch viel mehr Webseiten) - würde man auf diesen Webseiten deren Suchfunktion benutzen, könnte es passieren, daß man zusätzlich zum regulären Suchergebnis auch jenen präparierten iFrame mitbekommt. Allerdings ist der präparierte iFrame oftmals für sich allein noch nicht gefährlich, vielmehr wird dieser derzeit vornehmlich dazu ausgenutzt, um angeblich fehlende Media-Codecs sowie angebliche Antiviren-Programme zum Download anzubieten. Läßt man sich allerdings darauf ein, wird der PC dann Teil eines Bot-Netzes, welches sich für weitere Angriffe benutzen läßt.
Allerdings gibt es wohl auch andere Infektionswege: So kann jener iFrame auch Schadcode für bekannte oder unbekannte Sicherheitslücken enthalten, wonach der PC danach genauso von den Hackern übernommen wird. Die Möglichkeiten sind hier leider unbegrenzt und man sollte sich nicht darauf verlassen, daß man einfach beim Ablehnen jeglicher Downloads ungeschoren davonkommt. Das tückische an diesem Angriff ist eben leider, daß dieser selbst auf einer absolut vertrauenswürdigen Webseite stattfinden kann - der Angriff selber ist faktisch schon gewöhnlich, allerdings wird die Vertrauenswürdigkeit bekannter Webseiten ausgenutzt. Demzufolge ist aber auch kein besonderer Schutz notwendig, da das Einbetten von Schadcode oder verseuchten Downloads in iFrames nun ja nichts neues sind.
Vielmehr ist der Internetnutzer schlicht dazu angehalten, sich gegenüber Schadcode mittels Betriebssystem-Updates und aktuellem Virenscanner abzusichern und gegenüber unvermittelt angebotenen Downloads Brain 2.0 einzusetzen - und dies nun eben auch auf vermeintlich vertrauenswürdigen Seiten und nicht nur in den hinteren Ecken des Webs. Natürlich kann man auch weitergehen und beispielsweise auf den sowieso rundherum anfälligeren Internet Explorer zugunsten anderer Browser verzichten, sowie im benutzten Browser sich mal intensiv mit den vorhandenen Sicherheitsstufen und -einstellungen beschäftigen - was aber wie gesagt nicht nur für diesen Fall interessant ist, sondern auch allgemein nützlich ist. Denn dieser konkrete Fall wird sicherlich schnell unterbunden werden, indem die betroffenen Webseiten das Einbetten von iFrames in die eigenen Suchergebnisse verhindern - aber die nächste große Attacke kommt nun einmal so sicher wie das Weihwasser in der Kirche.
News des 13. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Hard Tecs 4U berichten über eine Radeon HD 3870 X2 mit GDDR4-Speicher seitens PowerColor. Bei dieser Karte wird der Speicher abweichend zum ATI-Standard von 900 MHz mit gleich 1126 MHz getaktet, zudem kommt die Karte mit einer kürzeren Platine und einem anderen Kühler daher als bei dieserart Karten sonst üblich. Dafür setzt PowerColor einen Mehrpreis von 40 bis 50 Euro an - was für die Käufer nur dann sinnvoll wäre, wenn ein großer Teil des 25 Prozent höheren Speichertaktes in eine höhere Performance umgesetzt wird, was noch mittels entsprechender Tests zu beweisen wäre. Unklar bleibt jedoch weiterhin, ob andere GDDR4-Varianten dieser Karte insbesondere beim höheren Speichertakt ähnlich aussehen (so daß man regelrecht von einer Takt-abweichenden GDDR4-Ausführung der Radeon HD 3870 X2 reden kann) oder ob es sich hier "nur" um eine spezielle Karte seitens PowerColor handelt.
WinFuture haben eine interessante Meldungen zu den Nutzungsmöglichkeiten von Intels kommender LowCost-Plattform Diamondville. Mittels dieser Plattform will man nicht nur im Markt der Billig-Notebooks à EeePC mitmischen, sondern dieses Konzept auch auf den Desktop-Bereich übertragen. Zwar gibt es dort auch schon jetzt günstige bis sehr günstige PC-Angebote, diese basieren technisch jedoch auf Abspeckungen der allgemeinen Desktop-Plattformen. Mittels Diamondville will Intel diesen Billig-PCs eine völlig eigene Plattform zur Verfügung stellen, welche zum einen speziell auf die Anforderungen von Billig-PCs angepasst ist und zum anderen natürlich entsprechend günstig ausfällt, auf daß das ganze noch ein Geschäft für die Hersteller wird.
Damit soll dann eben nicht einfach nur ein weiterer Billig-Rechner, sondern vielmehr eine neue Rechner-Klasse namens "NetTop" erscheinen, die - der Name sagt es schon - in erster Linie als günstige Surf- und eMail-Maschine gedacht ist. Viel mehr darf von einem solchen Rechner dann auch nicht erwartet werden, allerdings reicht es sicherlich, um die allermeisten der heutzutage von Home-PCs zu leistenden Aufgaben zufriedenstellend zu erledigen. Wie kürzlich schon ausgeführt, reicht hier schließlich schon ein großer Monitor aus - und für die meisten Nutzer ergibt sich kein echter Unterschied zu einem regulären Desktop-PC. Natürlich wird einem solchen NetTop-Gerät sowohl die Spielefähigkeit als auch die Erweiterbarkeit von regulären Desktop-PCs fehlen, anderseits ist dies bei prognostizierten Gerätepreise von 100 bis 299 Dollar auch nicht erwartbar.
Intel sieht offenbar einen großen Markt in solchen Geräten, welcher im Jahr 2011 schon bei 60 Millionen Geräten pro Jahr liegen soll. Genauso soll auch das mobile Gegenstück, von Intel "NetBook" genannt, mit 47 Millionen Geräten pro Jahr im Jahr 2011 eine hohe (prognostizierte) Verbreitung haben. Sollte dies so eintreffen, dürfte sich der PC-Markt bis zu diesem Zeitpunkt doch einigermaßen verändern, denn dann würden NetTop- und NetBook-Geräte innerhalb kurzer Zeit schon für einen erheblichen Teil am insgesamten PC-Geschäft stehen (geschätzt ein Viertel im Jahr 2011). Dies kann man dann durchaus als Einstieg in eine Zukunft hin zu mehr aufgabengerechten Geräten sehen - die also nur noch für gewisse Aufgaben konzipiert und dementsprechend viel günstiger herzustellen sind als das derzeitige PC-Modell des flexiblen Alleskönners mit (bis auf den Grafik-Bereich) zumeist völlig überdimensionierter Performance. Dieses Modell wird zwar wohl nie aussterben, aber mit einiger Sicherheit seine Bedeutung als allesbestimmende PC-Klasse verlieren.
Seitens des Herstellers von Antiviren-Software Avira gibt es eine neue downloadbare Notfall-CD, welche dann helfen soll, wenn der PC nicht mehr hochläuft. Für diesen Zweck gibt es sicherlich auch andere Angebote, interessant ist am "Avira AntiVir Rescue System" aber vor allem der integrierte Virenscanner, welcher ständig aktualisiert wird. So ist es möglich, von einem anderen Computer die Notfall-CD gleich mit tagesaktuellen Virendefinitions-Daten zu ziehen, beim Ausführen des Downloads wird dieser dann (anscheinend über die Windows-Brennfunktionalität) automatisch auf eine CD gepresst. Dies ist sowohl für den angesprochenen Fall eines vollkommen ausgefallenen Systems interessant, aber auch zur Betriebssystem-unabhängigen Viren-Überprüfungen eines ansonsten funktionierenden Systems nutzbar, da die Notfall-CD bzw. deren Virenscanner natürlich über ein eigenes Linux-Betriebssystem läuft.
News des 12. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Eine neue Markt-Analyse seitens Jon Peddie Research gibt Auskunft über die Verkaufszahlen bei den extra Grafikkarten über das Jahr 2007. Teile dieser Statistik kommen uns allerdings nach wie vor sehr suspekt vor, denn Jon Peddie Research geben den durchschnittlichen Verkaufspreis einer extra Grafikkarte mit im Schnitt 200 Dollar an, was sich - auf den Gesamtmarkt bezogen - einfach unrealistisch anhört. Schließlich werden nun einmal gerade im LowCost- und Mainstream-Segment die meisten Grafikkarten abgesetzt, die dort laufenden gewaltigen Stückzahlen zu günstigen Preisen von 30 bis 100 Dollar (die hohen Preisnachlässe für große OEMs noch gar nicht eingerechnet) sollten die Durchschnittspreise des Gesamtmarktes eigentlich zuverlässig nach unten ziehen.
Neben dieser rein auf Erfahrung und gesundem Menschenverstand basierenden Überlegung läßt sich im aktuellen Fall sogar ziemlich gut nachweisen, daß die von Jon Peddie Research angesetzten Durchschnittspreise nicht stimmen können. So gab man für das vierte Quartal 2007 einen Durchschnittspreis von 207 Dollar an, bei 31,65 Millionen abgesetzter Grafikkarten. Damit dieser Durchschnittspreis erreicht werden kann, müsste also ein erheblicher Anteil dieser 31,65 Millionen abgesetzter Grafikkarten aus dem Performance- und HighEnd-Bereich kommen, um durch die höheren Preise in diesem Marktsegment die niedrigeren Preise des LowCost- und Mainstream-Segments wieder ausgleichen zu können. Demgegenüber steht die Aussage nVidias vom Februar, man habe bis zu diesem Zeitpunkt ca. 2 Millionen G92-Chips ausgeliefert (was im übrigen eine ausdrücklich gute Zahl darstellt).
Doch selbst wenn wir alle diese 2 Millionen G92-Chips noch dem Jahr 2007 zuordnen, ist dies bei weitem zu wenig, um auf die benötigte Masse zu kommen: So brach schon im genannten vierten Quartal der Absatz der Vorgänger-Lösungen auf Basis des G80-Chips ein, im allerbesten Fall haben wir also noch einmal 2 Millionen abgesetzter G80-Chips. Hinzu kommt der ATI-Anteil, der aber im vierten Quartal bei nur 29 Prozent des gesamten Marktes an extra Grafikkarten lag. Selbst wenn es speziell im Performance- und HighEnd-Segment durch den RV670-Chip etwas besser ausgesehen haben mag, kommen wir insgesamt auf nicht mehr als 6 bis 7 Millionen Grafikchips des Performance- und HighEnd-Segments im vierten Quartal 2007, was schon überaus optimistisch gerechnet ist. Die Summe der LowCost- und Mainstream-Grafikchips liegt somit bei (mindestens) 24 Millionen - und allein diese Konstellation reicht aus, um den angegebenen Durchschnittspreis von 207 Dollar als vollkommen unrealistisch erscheinen zu lassen.
Hier bieten sich eher Durschnittspreise von 120 (stärkeres Gewicht auf LowCost-Lösungen) bis 150 Dollar (stärktes Gewicht auf Mainstream-Lösungen) an, die 207 Dollar verbieten sich allerdings von selbst. Das könnte nur dann funktionieren, wenn Performance- und HighEnd-Lösungen auf wenigstens ein Drittel an den verkauften Stückzahlen kommen, was aber ganz offensichtlich nicht so ist. Auf der anderen Seite könnten die von Jon Peddie Research angebebenen Daten doch noch einen Sinn ergeben - wenn es sich um Zahlen ohne OEM-Verkäufe handeln würde. Denn es sind die großen OEMs, welche in dicken Stückzahlen billige Grafikkarten für ebenso billige Komplett-PCs ordern - während es im Retail-Markt durchaus so ist, daß LowCost-Lösungen keine großen Marktanteile haben und das Geschäft eher mit Mainstream-, Performance- und HighEnd-Grafikkarte gemacht wird.
In einem Interview mit TGDaily wettert Tim Sweeny von Epic (Unreal-Serie) mal wieder über den PC als Spielemaschine bzw. dessen nach Mr. Sweeney nur mässig vorhandene Eignung dafür. Dabei werden zwei Hauptargumente gebracht: Erstens einmal ist der Leistungsabstand zwischen LowEnd und HighEnd auf dem PC in den letzten Jahren erheblich gewachsen, angeblich auf den Faktor 100 - was ein wenig übertrieben scheint, aber rein prinzipiell wohl stimmen dürfte. Und desweiteren ist der Kostenpunkt beim PC Herrn Sweeney wohl zu hoch, wenn man (angeblich) doppelt so viel zahlt für 30 Prozent mehr Leistung. Dieses wiederum mag in Einzelfällen zutreffen (beispielsweise bei Intels Extreme-Edition-Prozessoren), generell gibt es derzeit auf dem PC aber gut Leistung für wenig Geld wie seit langem nicht mehr und ist auch kein wirklicher Preisvorteil zu Konsolen zu sehen.
Denn einen PC besitzt der Bürger heutzutage sowieso - insofern kann man eigentlich nicht den Preis für das Gesamtsystem dem Preis einer Konsole gegenübersetzen. Einen Standard-PC von der Reihe trennt meist nur eine leistungsfähige Grafikkarte davon, auch als Spielemaschine benutzt werden zu können, ergo würde sich der Preisvergleich zu Konsolen auf die simple Formel "Konsole vs. Grafikkarte" reduzieren. Und da es inzwischen im oberen Mainstream- sowie Performance-Segment wirklich hervorragende Angebote an Grafikkarten gibt, welche auch zu Preisen bis 200 Euro problemlose Spielbarkeit in mehr oder weniger allen aktuellen Spielen erreichen, ist der monetäre Einsatz bei PC-Spielen heutzutage nicht mehr wirklich größer als bei Konsolen.
In weiteren Teilen des Interviews geht es dann um DirectX10 bzw. die Unreal Engine 4.0, an welcher man bei Epic inzwischen schon zu arbeiten begonnen hat. Bezüglich DirectX10 gab es auch einige interessante Ausführungen: So sieht Tim Sweeny den mit dieser API hingelegten Technologiesprung deutlich kleiner als denjenigen an, welchen DirectX9 einst brachte. Zudem soll in seinen Augen DirectX10 die letzte für die Spiele-Entwickler wirklich bedeutsame 3D-API sein: Er geht davon aus, daß sich die Spiele-Entwickler nach DirectX10 eher eigenen Renderern zuwenden werden, welche die Microsoft-API dann nur noch sekundär nutzen. Dies hört sich erst einmal nach einem Rückschritt in die Zeiten vor DirectX, Glide und OpenGL an, als jedes Spiel sein eigenes Süppchen kochte.
Allerdings dürfte den Spiele-Entwicklern hierbei inzwischen der Umstand entgegenkommen, daß sich die Grafikchips mit der Zeit von festverdrahteten Funktionen hin zu mächtigen, aber dafür weitgehend funktionsungebundenen Rechenwerken entwickelt haben. Mr. Sweeney scheint also davon auszugehen, daß es langfristig einfacher sein wird, diese Rechenwerke mit einer eigengeschriebenen API in Maschinencode anzusprechen, als den Umweg über DirectX zu gehen, welches sicherlich per Defintion unflexibler ist als Maschinencode. Und in gewissem Sinne gibt es solcherart Ansätze schon heute, wenn Spiele-Entwickler sich Haus-eigene APIs erstellen, welche dann in einem Befehlsmix sowohl mit DirectX9 als auch DirectX10 umgehen können. Ob sich die Sache so dramatisch weitertreiben läßt, wie Mr. Sweeney das voraussagt, wird man natürlich sehen müssen.
News des 11. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
In einem Artikel zur GeForce 9600 GT haben die X-bit Labs neue Stromverbrauchsmessungen für einige aktuelle Grafikkarten getätigt. Neu ist natürlich erst einmal der Wert der GeForce 9600 GT, diese Karte liegt bei 60 Watt unter Last und 26 Watt unter Idle. Die direkte Konkurenz in Form einer Radeon HD 3850 256MB sieht hier etwas besser aus, diese liegt zwar bei 63 Watt unter Last, aber bei nur noch 14 Watt unter Idle. Daneben gibt es noch Werte für die GeForce 8800 GTS 512MB auf G92-Basis, welche bei 99 Watt unter Last und bei 38 Watt unter Idle liegt. Generell liegt die aktuelle Generation von ATI und nVidia bei den Last-Messungen bei ungefähr vergleichbaren Grafikkarten auf einem recht ähnlichen Niveau, während ATI bei den Idle-Messungen doch erhebliche Vorteile innehat. Auch scheinen die Vorteile durch die neuen Fertigungs-Technologien schon wieder aufgefressen zu sein, wenn eine GeForce 8800 GTS auf G92-Basis auch schon wieder nahezu 100 Watt zieht.
Die DualChip-Grafikkarten Radeon HD 3870 X2 und GeForce 9800 GX2 werden diesbezüglich wohl gleich im 150-Watt-Feld zu finden sein - obwohl man von solcherart Werten eigentlich wieder herunterkommen wollte. Doch da für die kommenden Grafikchip-Generation von ATI und nVidia wohl noch keine neue Fertigungstechnologie zur Verfügung steht (mit 45nm ist bei Grafikchips nicht vor Jahresende zu rechnen), dürften die Stromverbrauchswerte dieses Jahr sogar eher wieder nach oben gehen. Mittelfristig dürfte sich an dieser Front zudem kaum etwas ändern, denn so lange die Performance der alleinige Prüfstein für Grafikchips ist, sind die Grafikchip-Entwickler faktisch gezwungen, ihre Neuentwicklungen immer mit maximal möglichen Taktraten zu betreiben - zugunsten der Performance und natürlich automatisch zuungunsten eines maßvollen Stromverbrauchs.
Der Spiegel hat sich eine kleine fiktive Geschichte ausgedacht, um aufzuzeigen, wie überwachbar wir schon heute sind. Im Sinne dieses Gedankens geht diese Geschichte auch in Ordnung, allerdings gibt es trotzdem einen erheblichen Fehler in dieser zu erwähnen: Auch die Vorratsdatenspeicherung für Internet-Daten zeichnet nicht auf, auf welchen Webseiten man sich bewegt. Aufgezeichnet wird hierbei nur, zu welchen Zeiten man sich unter welcher IP-Adresse bei seinem Internet Service Provider (ISP) eingeloggt hat, jedoch niemals einzelne Webseiten-Abrufe. Der Weg zum User bzw. zu einer Beschuldigung führt anders herum: Für den Fall, daß man eine IP-Adresse und eine Uhrzeit in der Hand hat, zu welcher sich eine unbekannte Person auf einer bestimmten Webseite herumgetrieben hat, ist mittels der Vorratsdatenspeicherung ermittelbar, welche natürliche Person zu dieser Uhrzeit diese IP-Adresse hatte.
Einfaches Beispiel: Die Polizei nimmt einen Filesharing-Server hoch und untersucht die Server-Logs, um an die Nutzer heranzukommen. In den Server-Logs findet sie dann jede Menge IP-Adresse und kann mittels der bei der Vorratsdatenspeicherung erhobenen Daten den IP-Adressen dann Personennamen zuordnen. Bei der Vorratsdatenspeicherung selber werden aber wie gesagt keine Webseiten-Zugriffe oder anderesweitige Zugriffe auf irgendwelche Internet-Protokolle gespeichert - erst wenn die staatlichen Ermittler aus einer anderen Quelle eine IP-Adresse haben, nützt ihnen die Vorratsdatenspeicherung etwas. Vorher ist das faktisch nur ein einfaches Log, welche IP-Adresse zu welcher Zeit ein Nutzer bei seinem ISP hatte, ohne weitere erhobene Daten. Allein mit der Vorratsdatenspeicherung läßt sich in Bezug auf Internet-Zugriffe also nicht viel anfangen.
Etwas anders ist der Fall bei eMails, weil hier zusätzlich zur IP-Adresse, mit welcher eine eMail abgesandt oder empfangen wurde, auch Sender und Empfänger sowie der Betreff aller eMails gespeichert werden. Zwar wird kein Inhalt gespeichert, allerdings lassen sich allein aus den drei vorliegenden Daten (gerade die Betreff-Zeile kann doch oftmals schon über den Inhalt Auskunft geben) sicherlich schon reichlich Informationen gewinnen und vor allem ein Profil des sozialen Netzwerks des jeweiligen Nutzers erstellen. Wobei sich wiederum der Teil "eMail" der Vorratsdatenspeicherung am einfachsten und ohne Komfortverlust umgehen läßt, indem man einfach selber einen eigenen eMail-Server aufsetzt. Dazu braucht man schlicht einen Root-Server eines beliebigen Server-Hosters, was heutzutage auch nicht mehr so teuer ist.
Nicht benutzbar sind natürlich alle Managed Server, da hier der Server-Hoster rechtlich die Kontrolle über den Server hat und somit für die eMail-Überwachung sorgen muß. Virtuelle Server mit vollen Admin-Rechten sind allerdings komplett ausreichend, bei diesen steht zwar keine besondere Performance zur Verfügung, für eine private Homepage samt eigenem eMail-Server reicht es aber vollkommen. Preislich fängt das ab 15 Euro an (kleine unvergütete Schleichwerbung zugunsten des Server-Hosters von 3DCenter), in diesem Angebot dürfte sogar alles vorinstalliert sein, was man so an Software benötigt. Wenn dort der eigene eMail-Server (basiertend natürlich auf einer eMail-Adresse unter einer eigenen Domain) einmal läuft, wird die Vorratsdatenspeicherung bezüglich eMails vollständig ausgehebelt, ohne daß der Nutzer irgendwelche Komfort-Einschränkungen hätte.
Wenn wir allerdings so enden wie das "Land of the free" aka die Vereingten Staaten von Amerika", dann hilft das wohl auch nicht mehr weiter: Wie die Telepolis ausführt, hat der US-Geheimdienst NSA das im Jahr 2003 vom US-Kongreß eigentlich abgesägte "Total Information Awareness Program" unter anderem Namen und mittels Finanzierung aus schwarzen Kassen mehrheitlich doch durchgezogen und sammelt nunmehr allerlei Informationen über die US-Bürger: Emails, Internetsuchen, Überweisungen, Kreditkartenbuchungen, Reisedaten und Telefonverbindungen fließen dem Programm zu und werden in diesem mittels automatischer Such- und Verknüpfungsfunktionen auf "verdächtige Muster" hin überprüft. Und da es in den USA kaum einen wirksamen Datenschutz gibt, dürfte die Informationsmenge, welche in dieses Programm fließt, auch deutlich höher sein als in Deutschland derzeit möglich.
Allerdings stehen auch wir Europäer in diesem Programm drin, da die NSA im Prinzip jede Datenquelle nutzt, der sie habhaft werden kann. Somit haben auch alle Europäer, welche eine Flugreise in die USA unternommen haben (mittels der Weitergabe der Flugpassagierdaten), ein Paket in die USA versandt haben oder eine Auslandsüberweisung (egal wohin!) getätigt haben (mittels der Weitergabe der SWIFT-Daten) eine eigene elektronische Akte bei der NSA. Die Weitergabe der SWIFT-Daten ist dabei insbesondere für Unternehmen unschön, weil sich somit Kooperations- und Geschäfts-Beziehungen mit anderen Unternehmen erkennen lassen, welche genutzt werden können, um US-amerikanischen Unternehmen einen Informations- und damit Wettbewerbsvorteil zu geben. Insofern ist es schon etwas seltsam, wenn die EU den USA zukünftig Zugang zu noch mehr Daten europäischer Unternehmen und Bürger geben wollen - dem hierzulande existierenden Datenschutz-Gedanken entspricht dies sicherlich keineswegs.
News des 10. März 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Hard Tecs 4U haben mit nVidia zum letzte Woche erwähnten Thema Taktgenerator der GeForce 9600 GT gesprochen und sich dabei bestätigen lassen, daß es in der Tat GeForce 9600 GT Grafikkarten gibt, wo die Erzeugung des Chiptakts an den Takt von PCI Express gebunden ist. Allerdings soll dies nicht auf alle GeForce 9600 GT Grafikkarten zutreffen, andere Modelle sollen über einen regulären Taktgenerator verfügen. Zudem betonte man, daß die default-Einstellung der nVidia Mainboard-Chipsätze keine Übertaktung von PCI Express mittels des Link-Boost-Features vorsieht. Womit man technisch recht haben mag, allerdings übertakten die Mainboard-Hersteller auch in Eigenregie und gibt es zudem auch Mainboard-Chipsätze anderer Hersteller, wo die Übertaktung von PCI Express möglich ist. Da gerade letzteres nie ganz auszuschließen ist, stellt die Koppelung des Grafikchip-Takts an PCI Express nach wie vor keine gute Idee dar.
Nochmals Hard Tecs 4U berichten über die kommenden neuen Solid State Disks (SSD) von Super Talent, welche aus Kostengründen mit einer günstigeren Flashspeicher-Variante bestückt werden. Damit soll eine 32-GB-Disk für unter 200 Euro realisiert werden können - was zwar immer noch nicht wirklich attraktiv ist, aber zumindest einen Schritt in die richtige Richtung darstellt. Dabei soll der Performance-Nachteil des günstigeren MLC-Flashspeichers durch breitere interne Interfaces ausgeglichen was - was derzeit so etwas wie als der Königswegs gilt, um die Performance-Schwächen von Flashspeicher in einigen Disziplinen (vor allem beim schreibenden Zugriff) auszugleichen. Und angesichts der nach wie vor hohen Kosten für den Flashspeicher selber spielen die paar Cents mehr für leistungsfähigere Controller-Chips sicherlich auch nicht die Rolle, insofern sollte dieser Gedanke von den SSD-Herstellern weiterverfolgt werden.
Ein Teil der kürzlich schon erwähnten neuen Web-Strategie von Microsoft dürfte der deutliche Ausbau von "Games for Windows Live" sein, über welchen Golem berichten. Damit will man offenbar künftig in Konkurrenz zur Valves Steam-Dienst gehen - auch weil sich dieser anscheinend prächtig entwickelt und Microsoft hier ein Geschäftsfeld der Zukunft sieht. Was sicherlich nicht falsch ist, immerhin beschützten solche Dienste wie Steam die Spiele-Entwickler davor, Opfer einer all zu hohen Raubkopier-Quote zu werden - denn selbst wenn Steam-Spiele natürlich auch knackbar sind, ist dies jedenfalls nicht mehr einfach mit einer 1:1-Kopie der DVD getan. Steigender Aufwand, um an eine Raubkopie zu kommen, beendet dieses Phänomen zwar sicherlich nicht, senkt die Raubkopier-Quote aber anscheinend doch ausreichend ab, um sinnvoll für die Spiele-Entwickler zu sein.
Insofern dürfte Diensten wie Steam wohl die Zukunft gehören - in ein paar Jahren geht es im PC-Bereich womöglich gar nicht mehr ohne solcherart Dienste. Zumindest dürfte der Einstieg von Microsoft dieses Geschäft deutlich vorantreiben, natürlich auch mit dem Risiko einer langfristigen Monopolisierung des Marktes zugunsten von Microsoft. Bleibt nur zu hoffen, daß Microsoft die Angelegenheit kundenfreundlicher als Steam hinbekommt: Digitaler Vertrieb ist die eine Geschichte, die zwangsweise dauerhafte Bindung der Kunden an den kompletten Dienst (dadurch daß das Spiel nur noch zusammen mit diesem Dienst läuft) eine andere. Auf der anderen Seite dürfte das digitale Vertriebsmodell langfristig die Zukunft des PCs als Spielemaschine sichern helfen, denn derzeit findet durchaus eine gewisse Bewegung der Spiele-Entwickler hin zu den Spielekonsolen statt.
Der Grund hierfür liegt wie gesagt darin, daß auf den Konsolen die Raubkopierer-Quote deutlich niedriger ausfällt und es somit klar wirtschaftlicher ist, für Konsolen zu entwicklen. Der PC wird sicherlich niemals völlig als Spiele-Maschine ausdienen, dafür ist dessen Hardware-Entwicklung zu dynamisch, sind gewisse Spieler-Gruppen mehrheitlich nur auf diesem System anzutreffen und kommt aktuell auch die technische Nähe zu den Spielekonsolen hinzu, was Multi-Plattform-Entwicklungen erleichert. Langfristig schadet die hohe Raubkopier-Quote dem PC als Spielesystem aber sicherlich, insofern dürften entsprechende Gegenmaßnahmen letztlich dem (ehrlichen) PC-Spieler doch wieder nützen - sogar dann, wenn sie wie bei Steam, äußerst kundenunfreundlich ausgeführt sind.
Wie in den meisten Medien vermeldet, hat das Bundesverfassungsgericht ein weiteres wegweisenden Urteil gefällt und damit innerhalb kürzester Zeit die Überwachungs-Begehren von Bundesländern und Bund stark zurechtgestutzt, indem man die verdachtslose Scannung von Autokennzeichen verbot. Am bemerkenswertesten sind dabei einige grundätzliche Ausführungen des Verfassungsgerichts: So sprach sich dieses gegen "Risiken des Missbrauchs und ein Gefühl des Überwachtwerdens" aus, in dessen Folge es zu "allgemeinen Einschüchterungseffekten" unter den Bürgern kommen könne. Derart klare Worte zu der Frage, wie weit Überwachung gehen darf, waren nicht zu erwarten - um so schöner, das sie gefallen sind. Denn bislang haben vor allem die Spitzenpolitiker noch jedesmal die Überwachung der Bevölkerung als notwendiges Übel hingestellt und sowohl Mißbrauchsrisiken als auch Einschüchterungseffekte generell als "Spinnereien" abgetan.
Das Verfassungsgericht hat aber nun nichts weniger getan, als dieser vielbenutzten Argumentation in einem Verfassungsgerichtsurteil einen Riegel vorgeschoben. Es wurde also nicht nur die verdachtslose Scannung von Autokennzeichen verboten, sondern vielmehr wurde ausgedrückt, daß jegliche Überwachungs- und Kontrollmaßnahmen nicht zu einem "Gefühl des Überwachtwerdens" führen dürfen - wohl egal, ob es sich das auch objektiv begründen läßt (Gefühlszustände sind schließlich vorwiegend subjektiv). Dieser Trumpf dürfte noch von großem Nutzen bei späteren Überwachungsvorhaben sein, welche diese höchstrichterliche Entscheidung zu beachten haben werden. Zudem gibt es auch in prägnanten Worten das Gefühl der Masse der Bevölkerung wider: Kontrollen und Maßnahmen zum Schutz vor Kriminalität und Terrorismus ja - aber es darf kein "Gefühl des Überwachtwerdens" entstehen, dann geht es zu weit.