News-Archiv 16. - 22. Juli 2007 (29. Kalenderwoche)
21./22. Juli 20. Juli 19. Juli 18. Juli 17. Juli 16. Juli
News des 21./22. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
In diesem Thread unseres Forums geht es um den hochinteressanten Punkt, daß Intels kommende 45nm-Prozessoren mit Codenamen "Penryn" offensichtlich doch auch auf älteren Mainboards laufen können. Regulär ist die 45nm Prozessoren-Serie von Intel für den Betrieb auf den eben vorgestellten Chipsätzen der 3er Familie vorgesehen - und normalerweise sollte das auch seine Richtigkeit haben, dürfte Intel mit diesen Prozessoren doch wieder eine andere Spannungsspezifikation bringen. Allerdings scheinen nun auch noch frühere Mainboard-Chipsätze prinzipiell Penryn-fähig zu sein, genannt wurden hier bisher P965 und 975X von Intel und nForce 680i SLI von nVidia - letzteres legt im übrigen den Verdacht nahe, daß alle nForce6-Chipsätze Penryn-fähig sein könnten. Es ist hierbei jedoch kaum zu erwarten, daß diese Penryn-Fähigkeit auf alle Mainboards mit diesen Chipsätzen zutrifft ...
... Eher dürfte es umgedreht sein: Die wenigsten der Mainboards mit den genannten Chipsätzen dürften Prozessoren mit Penryn-Core tragen können. Genaueres wird einem hier immer nur der jeweilige Mainboard-Hersteller sagen können, da diese auch immer ein entsprechendes BIOS-Update zu Verfügung stellen müssen. Seitens Asus gibt es hier bereits eine entsprechende Auflistung, welche Penryn-fähige Mainboards benennt - sehr vorbildlich gelöst. Es bleibt abzuwarten, was die andere Mainboard-Hersteller noch in dieser Frage sagen können. Ein breiter Support der kommenden 45nm-Prozessoren würde allerdings auch Intel helfen, da dies den potentiellen Kundenkreis der kommenden Prozessoren doch erheblich erhöht. Wenngleich Intel in aller Regel den kleineren Kundenkreis vorzieht und dafür lieber mehr neue Mainboard-Chipsätze verkauft ;).
Nachdem das Computerspiel "Manhunt 2" schon vorab (!) in einigen Ländern verboten wurde und im wichtigsten Markt, den USA, vor einigen sehr absatzschädigenden Restriktionen stand, wurde der Verkaufsstart erst einmal auf unbestimmte Zeit verschoben. Ohne jetzt mangels objektiver Informationen zu einem wie gesagt noch nicht releasten Game auf "Manhunt 2" eingehen zu können, bietet sich dieser Fall dennoch an, rückblickend die breite Verurteilung des Vorgängers "Manhunt" zu betrachten - und vor allem, wie diese zustandegekommen ist. Denn "Manhunt" wird selbst in der Gamerszene breit angezweifelt - dabei dürfte es nur ein Bruchteil der Gamer überhaupt angespielt haben ...
... Viel schwerer wiegt aber, daß dies (allerdings auch aufgrund des totalen Verbots in Deutschland) gleichfalls von den allermeisten Journalisten gesagt werden muß, welche sich mit dem Spiel beschäftigt haben. Zudem dürften viele der "Schreiberlinge", welche Manhunt nur periphär im allgemeinen Zusammenhang mit "verabscheudungswürdigen Killerspielen" erwähnen, sowieso nie eine eigene Recherche zum Thema angestellt haben und demzufolge zum Spiel selber nur das abschreiben, was andere schon formuliert haben. Problemhafterweise kommt damit jedoch eine deutlich falsche Darstellung des Spielziels in "Manhunt" heraus, welches letztlich entscheidend zur breiten Verurteilung dieses Spiels beiträgt ...
... So wird "Manhunt" fast durchgehend zugeschrieben, daß das Spielprinzip schlicht darin besteht, Menschen möglichst grausam umzubringen. Dies wäre nun in der Tat moralisch äußerst verdammungswürdig, aus dieser Sicht ist dies keine Frage. Allerdings ist die Beschreibung des Spielprinzips so einfach nicht korrekt: Vielmehr ist der Protagonist in der Gewalt eines NPCs und von diesem zu seinen Taten gezwungen. Die moralisch verdammenswerte "Lust am Töten" liegt ganz eindeutig bei diesem NPC - und nicht beim Protagonisten, welcher schließlich im Finale des Spiels sogar die Gelegenheit hat, den Spieß dann umzudrehen. Dies ändert nichts an der im Spiel gezeigten Gewalt, setzt sie aber moralisch unter gänzlich andere Vorzeichen ...
... So liegt die moralische Schuld mehrheitlich bei eben jenem NPC, nicht mehr beim Spieler. Um es mit der Realität zu vergleichen: Dort wären die Taten des Spielers zwar trotzdem Verbrechen, aber er würde "stark mildernde Umstände" bekommen, weil er eben unter Zwang stand. Auch die Aufforderung an den Spieler, möglichst perfide oder grausam zu töten, geht von eben jenem NPC aus und ist keine Idee des Protagonisten! Diese Punkte werden bei gängigen Berichten zu diesem Spiel jedoch zumeist vollkommen unterschlagen, sie sind aufgrund der geringen Verbreitung des Spiels auch nicht allgemein bekannt. Ist man über diese Ausgangslage jedoch nicht informiert, neigt man natürlich schnell zu einer klaren moralischen Verurteilung des Spiels. Dies will jetzt nicht sagen, daß das Spiel so wie es ist, völlig rein und unschuldig ist ...
... Allerdings wäre zu bezweifeln, daß es bei allgemeiner Kenntnis dieser Ausgangslage eine so eindeutige und breite Verurteilung dieses Spiels gäbe - es wären wohl mehr und differenzierte Meinungen zu hören. Denn letztlich handelt es sich nur um eine leichte Abwandlung des altbekannten Spielprinzips "Ich will hier raus", welche in den allermeisten Shooterspielen zu finden ist. In den Medien und ganz besonders den Massenmedien wird "Manhunt" jedoch deutlich anders dargestellt - was faktisch nur darauf beruhen kann, daß keiner dieser "Journalisten" eine tiefere Lektüre vom Spiel außer offiziellen Screenshots und Berichte anderer hatte. Und das ist das eigentlich beunruhigende an diesem Fall: Nicht, daß ein Teil der Presse eine extrem schlampige Recherchearbeit an den Tag gelegt hat, sondern daß dies in diesem Fall bei der großen Mehrheit der Presse so vorzufinden war ...
... Man kann es fast nur so deuten, daß sich eine eigene Betrachtung & Recherche zu einem Thema, wo das Fazit bereits feststehend ist, für viele Medienmacher offenbar nicht lohnt - was natürlich eine gewisse Offenbarung ob der eigenen jornalistischen Prioriäten darstellt. Viel gefährlicher wird diese Praxis natürlich, wenn es um mehr als einen (im großen Zusammenhang) so unbedeutenden Fall wie "Manhunt" geht - bzw. um Themen, wo der Normalbürger die Arbeit der Presse nicht mehr so einfach nachkontrollieren kann wie in diesem Fall. PS: Das Spiel selber ist (nach eigener Expertise) weitestgehend stumpfsinnig und zudem optisch vollkommen unansprechend. Es geht in obigen Text allerdings auch weniger nicht wirklich das Spiel selber, sondern primär um die fehlende Sorgfalt bei der elementaren Faktenrecherche seitens vieler Presseerzeugnisse.
News des 20. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei Phoronix hat man sich die aktuellen Mainstream-Beschleuniger von nVidia im Vergleich Linux vs. Windows angesehen. Dabei zeigten sich teilweise noch heftige Vorteile für Windows unter den getesteten GeForce8-Karten GeForce 8500 GT und GeForce 8600 GT, welche insbesondere deswegen ins Auge stechen, weil die mitgetestete GeForce 6600 GT hier überall die nahezu selbe Performance auf beiden Betriebssystemen abliefert. Insofern hat nVidia mit den Linux-Treibern für die GeForce8-Serie wohl noch einiges an Arbeit vor sich. Davon abgesehen ist es durchaus bemerkenswert, daß die zwei Generationen zurückliegende GeForce 6600 GT immer noch klar schneller als die "moderne" GeForce 8500 GT ist ;).
Elite Bastards haben sich mit der Performance der offenen Beta von World in Conflict auseinandergesetzt. Das Spiel bringt neben dem DirectX9-Renderfad auch einen extra Direct3D10-Renderpfad mit sich, welcher exklusiv die Effekte Cloud Shadows, Soft Particles und Volumetric Light zeigen soll. So zumindestens die Theorie, in der Praxis versuchten Elite Bastards die Unterschiede in der Bildqualität mit der Lupe zu finden - und wurden nicht fündig. Dafür zeigte sich die Direct3D10-Variante auch noch deutlich langsamer als die DirectX9-Variante: Insbesondere die schwächeren Direct3D10-Karten fielen hier schnell mal auf die Hälfte der Framerate der DirectX9-Variante zurück, was natürlich inakzepabel angesichts des Null-Unterschieds in der Optik ist ...
... Speziell die relativ schlechten Ergebnisse der Radeon HD 2900 XT unter der Direct3D10-Variante sollen zwar daran liegen, daß das Spiel noch nicht auf die Direct3D10-Karten von ATI optimiert ist (was der Spieleentwickler schnellstmöglich nachholen will), aber dies ändert genauso auch wie eine neue Treiber-Version von nVidia mit etwas besseren Direct3D10-Ergebnissen nichts am allgemeinen Bild: Für einen nicht bemerkbaren Optikunterschied gibt es klar weniger Performance mit Direct3D10. Derzeit ist es sicherlich sinnvoller, das Spiel unter dem DirectX9-Renderpfad zu betreiben - für Mainstream-Grafikkarten ist das sogar Pflicht, weil die Performance mit dem Direct3D10-Renderpfad sofort in unspielbare Bereiche absinkt.
Laut The Inquirer soll einer der Hauptgründe dafür, daß Direct3D10 nicht unter Windows XP möglich sei (bzw. nur mit größerem Aufwand realisierbar), die geplante Virtualisierung des Grafikkartenspeichers bei Direct3D10 sein. Allerdings fand dieses Feature trotz prominenter Fürsprecher letztlich nicht in die finale Version von Direct3D10 Einzug - was im seitens The Inquirer so getroffenen Umkehrschluß aber bedeuten dürfte, daß Direct3D10 nun doch unter Windows XP möglich sein muß (ohne dafür maßgeblich das Betriebssystem umschreiben zu müssen). So zumindestens die Argumentation seitens The Inquirer, welche wir für den Augenblick erst einmal so entgegennehmen müssen, da die dort getroffenen Aussagen derzeit nicht überprüfbar sind ...
... Im Fall des Falles steht einem Direct3D10 unter Windows XP technisch immer noch das andere Treibermodell von Windows Vista entgegen, welches dann ebenfalls auf Windows XP portiert werden müsste. Dies hört sich zwar auch erst einmal nach einem großen Stück Arbeit an, allerdings handelt es sich hierbei nicht um ein generelles Treibermodell für alle Arten von Hardware, sondern "nur" um ein neues Treibermodell für Grafik-Hardware unter Windows Vista. Zudem müsste man unter Windows XP einige Teile dieses Treibermodells (WDDM - Windows Display Driver Model) nur dummy-mäßig implementieren, denn das neue Treibermodell beinhaltete auch den ganzen Kopierschutz- und DRM-Gerassel von Microsoft, welcher unter Windows XP eher zwecklos ist (da sich das alles auf Funktionen von Windows Vista bezieht) ...
... Nichts desto trotz würde die Portierung von Direct3D10 nach Windows XP immer eine gewisse Arbeit sein, auch wenn dies vermutlich bei weitem nicht so viel ist wie von Microsoft möglichst schwarz an die Wand gemalt wird. Viel einfacher wäre es natürlich gewesen, wenn sich Microsoft von Anfang an für eine Portierung auf Windows XP entschieden hätte, dann wäre der Arbeitsaufwand wohl in der allgemeinen Arbeit an Direct3D10 untergegangen. In der heutigen Situation wird Microsoft allerdings natürlich den Teufel tun und sich extra Arbeit für eine "alte" Software wie Windows XP aufhalsen - ganz egal, daß es eigentlich die allerprimärste Aufgaben eines Betriebssystems darstellt, eine möglichst breite Unterstützung für verschiedenste Hardware zu bieten ...
... Gerade letztgenannter Punkt ist als kritisch zu sehen: Microsoft verweigert hier schlicht das, was die Käufer von einem Betriebssystem grundlegend erwarten - die Unterstützung für alle aktuellen Hardware-Technologien. Zwar liegt es sicherlich auch weiterhin im Ermessen des Herstellers, neue Technologien per Patch kostenlos nachzureichen - oder dies eben nicht zu tun. Doch die Microsoftsche Weigerung, Direct3D10 auch für Windows XP (als ein Betriebssystem mit derzeit immerhin 90 Prozent Marktanteil bei der installierten Basis!) anzubieten, wertet die Betriebssysteme von Microsoft allgemein heftig ab und verdeutlicht dem zahlenden Kunden, daß Microsoft nicht willens ist, die absolute Grundfunktionalität des Betriebssystems auch nach dem Release aufrecht zu erhalten ...
... Man kauft also letztlich Software, welche vom Tag des Erstreleases an bereits veraltet ist und noch im Laufe ihrer Lebenszeit weiterhin heftig altert - nicht wegen fehlender Features, sondern wie gesagt bei der absoluten Grundfunktionalität. Bildlich gesprochen kann man das mit einem Autoverkäufer vergleichen, welcher einem wissentlich alte Modelle andreht und hierbei nur auf das schnelle Geschäft und nicht auf den Aufbau eines zufriedenen Kundenstamms setzt. In einem echten Markt mit mehreren ernstzunehmenden Angeboten wäre Microsoft wohl nach wenigen Jahren komplett weg vom Fenster - oder würde diese Strategie schnellstmöglich ändern. Normalerweise wäre dies wieder mal ein Fall für die Wettbewerbshüter - aber die streiten sich mit Microsoft ja noch über Windows XP oder noch ollere Kamellen ;).
News des 19. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die X-bit Labs haben ein Roundup der GeForce8-Familie erstellt, welches von der GeForce 8500 GT im LowCost-Segment bis zur GeForce 8800 Ultra im absoluten HighEnd-Segment reicht. Auffallend in den angestellten Benchmarks ist vor allem die enorme Performancelücke, welche zwischen dem "Mainstream"-Beschleuniger GeForce 8600 GTS und dem ersten Abkömmling der HighEnd-Sparte in Form der GeForce 8800 GTS 320MB herrscht. Hierbei kam die GeForce 8600 GTS gerade einmal auf im Schnitt 54 Prozent der Performance der GeForce 8800 GTS unter der Auflösung von 1280x1024 bei 4x Anti-Aliasing (sofern möglich) samt 16x anisotropen Filter und üblicherweise maximalen Details ...
... Damit erreicht diese Karte grob nur die Hälfte der Performance der nächstfolgenden Karte. Unter höheren Auflösungen geht der Performanceunterschied dann noch weiter auseinander - aber dafür ist die GeForce 8600 GTS dann auch sicherlich nicht mehr gebaut, sinken die Frameraten zu oft in den unspielbaren Bereich hinab. Zudem kann man der GeForce 8600 GTS immer auch zu gute halten, daß sie in den allermeisten Fällen unter 1280x1024 und den vorbeschriebenen Settings zumindestens Durchschnitts-Frameraten von 30 fps und mehr erreicht (was natürlich nichts darüber aussagt, was passiert, wenn es wirklich eng wird). Zudem kann man bei zu geringer Performance ja auch immer noch auf 2x Anti-Aliasing zurückschalten - für eine Mainstream-Lösung zum entsprechenden Preis muß es ja nicht überall 4x Anti-Aliasing sein, dafür gibt es schließlich die HighEnd-Modelle ...
... Die eigentliche Problematik liegt also weniger darin, daß die GeForce 8600 GTS nicht das für eine Mainstream-Lösung zu steckende Ziel erfüllt - sondern schlicht darin, daß die HighEnd-Karten dieser nVidia-Generation einfach so rasend schnell sind, daß selbst die abgespeckten Versionen in Form der GeForce 8800 GTS 320MB dieser Mainstream-Karte noch um eine ganze Dimension davonrennen. Kritisch ist hier vor allem der preisliche Punkt: Wenn eine GeForce 8800 GTS 320MB derzeit für runde 250 Euro zu bekommen ist, dürfte die GeForce 8600 GTS gemäß des gezeigten Leistungsunterschiedes nicht mehr als 125 Euro kosten. Dies rechnet noch nicht einmal ein, daß man für 20 Prozent mehr Performance im Grafikkartenmarkt üblicherweise 30 Prozent mehr bezahlen muß - so gesehen sind die genannten 125 Euro also die alleroberste Grenze ...
... Problemhafterweise kostet die GeForce 8600 GTS derzeit aber immer noch um die 165 Euro, ist also gemessen am Preis/Leistungsverhältnis im Vergleich zur GeForce 8800 GTS 320MB viel zu teuer. Es bleibt natürlich abzuwarten, was nVidia zukünftig hier noch am Preis ändern wird, aber da man gerade im Mainstream-Markt schon allein mit gutem Marketing viel absetzen kann und zudem ATIs eigene Mainstream-Lösungen in Form der Radeon HD 2600 XT GDDR3/GDDR4 der nVidia-Karte performancemäßig wohl nicht wirklich gefährlich werden, sind schnelle und deutliche Preissenkungen eher nicht zu erwarten. In der Summe bleibt somit bestehen, daß es für die Käufer des Mainstream-Marktes derzeit keine eindeutig gute Wahl gibt: Entweder man gibt etwas mehr als eigentlich geplant aus und greift zur GeForce 8800 GTS 320MB - oder läßt die ersten Direct3D10-Mainstreambeschleuniger links liegen und greift dann zu einer der von der Performance her nach wie vor sehr potenten Mainstreamlösungen der DirectX9-Generation.
Der Tech Report hat sich aus der Sicht des Stromparens ein System mit AMDs Athlon 64 X2 3800+ EESFF gegenüber einem System mit Intels Core 2 Duo E4300 angesehen, um zu ergründen, in wie weit das LowCost-Modell von Intel dem besonders als Stromspar-CPU angepriesenem EESFF-Modell das Wasser reichen kann. Hierbei hat man sich korrekterweise die Werte für das Gesamtsystem angesehen, denn natürlich spielen hier auch die jeweiligen Mainboard-Chipsätze (AMD 690G und Intel G965) mit hinein. Dabei zeigte sich der kürzlich allerdings aus dem offiziellen AMD-Angebot gestrichene EESFF-Prozessor bei der Stromaufnahme weiterhin etwas besser als das Intel-Modell - wobei der Abstand doch gering ist, auch mit dem genannten Intel-Prozessor problemlos ein PC-System mit niedriger Stromaufnahme erstellbar ist.
Ein kleiner Nachtrag noch zum vorgestern angeschnittenen Thema von Raubkopien in Schwellenländern: Neben dem Problem für die Software- und Medien-Hersteller, die Bürger dieser Länder möglichst schnell zu zahlenden Kunden zu machen (was wie ausgeführt angesichts der vorhandenen Kaufkraft rein technisch derzeit gar nicht möglich ist), ergibt die steigende Anzahl an Menschen mit eigenem Computer in eben diesen Schwellenländern auch immer mehr Nahrung für Botnetze. Denn natürlich haben die in den Schwellenländern maßgeblich verkauften gecrackten Betriebssystem-Versionen immer den Nachteil, daß bei diesen in den allermeisten Fällen die Funktion zum automatischen Update entfernt wurde ...
... Rechnet man dann noch dazu, daß Computer-Wissen in den Schwellenländern deutlich weniger verbreitet ist als in europäischen Breitengraden, kann man sich ungefähr ausdenken, wie "sicher" solcherart Rechner mit "unbefangenem" Benutzer und jahrelang im Auslieferungszustand ohne Updates laufendes Betriebssystem dann sind. Sicher ist hier wohl nur, daß solcherart Rechner über kurz oder lang in die Fänge eines Botnetzes gelangen. Und während in Europa und Nordamerika diesbezüglich gerade ein gewisses Sicherheitsbewußtsein auch bei Otto Aldikäufer im Entstehen ist (selbst wenn es sich dann nur darin äußert, daß man sich an den nächsten echten oder vermeintlichen Computerexperten im Bekanntenkreis wendet), dürfen die Betreiber von Botnetzen frohgemut darauf hoffen, daß ihnen aus den Schwellenländern noch jahrelang die völlig unabgesicherten PCs "nachwachsen" werden ...
... In diesem Zusammenhang wäre es dann doch wieder ganz schön, wenn Microsoft es zumindestens für die eigenen Betriebssysteme schaffen könnte, die Raubkopien gerade in den Schwellenländern einzudämmen. Denn letztlich nehmen die dort verkauften und neu ans Netz gehenden PCs mit üblicherweise illegaler Betriebssystem-Version einen nicht unerheblichen Part der aktuellen Sicherheitsproblematik im Internet ein. Zwar sind selbst ständig aktualisierte Betriebssysteme nicht vor erfolgreichen Angriffen gefeit, allerdings dürfte wohl ein Großteil der erfolgreichen Angriffe auf vollkommen unabgesicherte und unaktualisierte Rechner entfallen. Wenn man also langfristig die Anzahl der am Netz befindlichen Rechner ohne Sicherheitsmaßnahmen wie einer Firewall und ohne wenigstens rudimentärer Patches (wie Service Packs) reduzieren könnte, wäre auch für die Internetnutzer in der westlichen Welt einiges gewonnen.
Shortcuts: Die WinHelpline berichtet von einem neuen Akku-Tauschprogramm seitens Toshiba, bei welchem die in den Notebook-Serien Tecra A7, Satellite A100 und Satellite Pro A100 verbauten Sony-Akkus ersetzt werden sollen. Bei Trusted Reviews hat man mit Matrox's Extio ein Gerät zum Ansteuern eines Multimonitoring-Systems im Test. Nachdem Matrox offenbar nicht mehr versucht, mit "echten" Grafikchips zu punkten, ist man über diese Gerätschaften für den professionellen Einsatz aber nach wie vor noch ein Teil des Grafik-Marktes. Und letztlich weisen ChannelPartner noch darauf hin, daß regelmäßiger Verkauf selbst von privater Ware auf eBay in Deutschland generell als "gewerblich" angesehen wird, womit diese Verkäufe steuerpflichtig sind und zudem auch alle anderen Rechtsgrundlagen für Gewerbetreibende zum Tragen kommen. Dabei spielt es auch keine Rolle, ob man sich bloß von privaten Sammlerstücken trennt und also keine Handelstätigkeit im umgangssprachlichen Sinne (Ankauf und Verkauf) existiert, maßgeblich ist allein der "regelmäßige Verkauf von Waren".
News des 18. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie Fudzilla berichten, soll AMDs Geschäftsergebnis für das abgelaufene zweite Quartal wieder einmal einen heftigen Verlust im Bereich von 540 bis 570 Millionen Dollar ausweisen. Damit kann man inzwischen wirklich davon reden, daß es eng wird für AMD, denn während die beiden davorliegenden Quartalsverluste von jeweils über 500 Millionen Dollar noch durch die Sonderkosten der ATI-Übernahme erklärbar waren, trifft dies auf das zweite Quartal 2007 sicherlich nicht mehr zu. Auch in der Größenordnung sind diese Verlustzahlen desaströs, da AMD zu Zeiten, wo es mal gut lief, nie mehr als 200 Millionen Dollar Gewinn pro Quartal gemacht hat. Ganz offensichtlich drückt derzeit weniger die ATI-Übernahme, sondern vor allem auch das operative Geschäft ...
... Durch die am Boden liegenden Prozessorpreise (selbst bei Intel sank im letzten Quartal die Bruttomarge) kann AMD - egal ob man den Marktanteil noch halbwegs halten kann - einfach nicht genug Geld einnehmen, um die hohen Fixkosten durch die neuen Werke zu refinanzieren. In diesem Zusammenhang hat AMD laut CRN schon angekündigt, die Prozessorenpreise nicht weiter senken zu wollen. In der jetzigen verfahrenen Situation wird AMD dies natürlich nicht wirklich weiterhelfen, man kann nur darauf hoffen, daß die LowCost- und Mainstream-Grafikchips der Grafikkartensparte ATI für genügend Umsatz und Gewinn sorgen sowie daß die demnächst antretende K10-Architektur wieder den Absatz höherpreisiger Prozessoren zuläßt.
Allerdings droht gerade bezüglich der K10-basierenden Prozessoren neues Ungemach: So gab AMD-Manager Giuseppe Amato im Interview mit Hardware Upgrade zwar an, daß die K10-Serverprozessoren wie geplant im August vorgestellt und im September verkauft werden, bei den K10-basierten Desktop-Modellen gab es allerdings eher bescheidene Nachrichten. So soll der Desktop-Prozessor Phenom FX Serie zwar zum Jahresende in den Verkauf gehen (gemäß früheren Meldungen wahrscheinlich November), allerdings sollen zu diesem Zeitpunkt nur Teile der Phenom-FX-Familie in den Markt gelangen und der Rest dann erst März 2008 nachfolgen ...
... Leider wurde dies nicht genauer ausgeführt, aber es ist hier durchaus denkbar, daß AMD dieses Jahr nur ein bis drei Spitzenmodelle des Phenom FX mit dementsprechend satten Preislagen in den Markt schickt und daß dann jene Phenom-FX-Prozessoren mit den bezahlbaren Preisen wirklich erst im nächsten Jahr auftauchen. Dies würde AMD insbesondere dadurch hart treffen, daß von Intels 45nm-Prozessoren mit Codenamen "Penryn" anzunehmen ist, daß Intel mit diesen ab Anfang 2008 sofort alle Marktsegmente wird bedienen können. Erschwerend für AMD kommt hier noch hinzu, daß laut einem von Fudzilla verbreiteten Gerücht Intel ersten Modelle der 45nm-Generation für den Desktop-Einsatz womöglich schon zum Ende diesen Jahres in den Markt schicken kann - natürlich nur, um dort den Launch der Phenom-FX-Prozessoren zu stören.
Davon abgesehen geht es in dem vorgenannten Interview auch noch um das Thema GPGPU, welches AMD wohl einige Bedeutung für die Zukunft beimisst. Dabei geht AMD davon aus, daß GPGPU maßgeblich mit der Verfügbarkeit entsprechender Software vorangetrieben wird, speziell nannte man dabei DirectX11, welches demzufolge wohl eine direkte Unterstützung für GPGPU enthalten dürfte. Jenes DirectX11 soll im übrigen erst 2009 erscheinen - was aber angesichts der früheren Aussagen von Microsoft, künftig diesbezüglich mit etwas größeren Zeiträumen zu arbeiten, passen sollte. Gemäß anderen Quellen will Microsoft jedoch auch wieder mit Zwischenvarianten arbeiten, so soll es Direct3D 10.1 (R700-Chip?) und womöglich auch noch Direct3D 10.2 geben.
News des 17. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Der Tech Report berichtet über einen selten auftretenden Bug bei GeForce 8800 Karten (besonders, aber nicht ausschließlich der GeForce 8800 GTS 320MB), bei welchem es zu plötzlichen und anscheinend zufälligen Framerateneinbrüchen bis hin zu Hälfte der ursprünglichen Framerate kommt. Bisher hilft hiergegen als Hotfix, mittels Alt+Tabulator auf den Windows-Desktop zu springen und von dort mittels derselben Tastenkombination wieder ins Game zurückzuspringen - was wohl darauf hindeutet, daß hierbei ein Problem mit der Speicherverwaltung vorliegt. Seitens nVidia kam allerdings schon die Aussage, daß man den Bug kennt und mit einem der nächsten Treiber noch innerhalb dieses Monats fixen wird.
Ein weiteren Bug vermelden Tom's Hardware: Danach soll die Hardware-Kombination von GeForce 7/8 Grafikkarte und einer schnellen Raptor-Festplatte von Western Digital unter Windows Vista zu dem Problem führen, daß das Betriebssystem mehr oder weniger lahm gelegt wird: Es startet zwar, viele Betriebssystem-Optionen funktionieren aber nicht. Das Problem dahinter scheint dabei allerdings weniger an der Hardware, sondern an einem der (möglicherweise gar unnötigerweise) mitlaufenden Dienste von Windows Vista zu liegen. Tom's Hardware bieten für den Fall des Falles hierzu ein Hotfix-Tool an, während sich nVidia und Western Digital noch weiter mit diesem kniffligen Problem beschäftigen wollen.
Bei Beyond3D hat man eine Grafikkartenspeicher-Roadmap erstellt, welche die zukünftige Entwicklung der Speichersorten GDDR3, GDDR4 und GDDR5 beim Speicherchip-Hersteller Samsung skizziert. Primär interessant ist hierbei natürlich, daß GDDR4 nur eine recht kurze Lebensdauer zugestanden wird: Noch in diesem Quartal will man mit GDDR5 so weit sein, GDDR4 ablösen zu können, worauf dann im Mainstream-Bereich GDDR3 (Taktraten 700 bis 1200 MHz) und im HighEnd-Bereich GDDR5 (Takraten (1600 bis 2500 MHz) angeboten würde. Bei GDDR5 handelt es sich um eine verbesserte Version von GDDR4, welche primär wohl mit weniger Strom auskommen soll (oder aber mit dem gleichen Strom höhere Taktfrequenzen erreichen soll), technologisch basieren GDDR4 und GDDR5 prinzipiell auf DDR3-Speicher (und GDDR2 und GDDR3 auf DDR2-Speicher) ...
... Allerdings ist es fraglich, ob diese höheren Taktfrequenzen bei GDDR5 (und auch bei GDDR4) derzeit wirklich notwendig sind, da gerade mit der Verbreiterung der Speicherinterfaces bei der aktuellen HighEnd-Generation (R600 auf 512 Bit DDR, G80 auf 384 Bit DDR) schon eine erhebliche Zunahme an Speicherbandbreite zu verzeichnen ist und besondere hohe Speichertaktfrequenzen zwar technisch erfreulich sind, aber gerade bei diesen sehr breiten Speicherinterfaces kaum noch für wirkliche Performancesteigerungen sorgen können. Sinn würden die besonders hohen Taktfrequenzen von GDDR5 natürlich bei den aktuellen Direct3D10 Mainstream-Beschleunigern (Radeon HD 2600 und GeForce 8600 Serien) machen, dort wird man diese aber aus Kostengründen kaum einsetzen. Insofern dürfte GDDR5 kurzfristig noch sehr uninteressant sein - ändern könnte sich dies möglicherweise aber schon mit der nächsten Technologie-Generation, welche ATI mit dem R700-Chip im Frühjahr/Sommer 2008 einläuten wird.
Wie die X-bit Labs berichten, stellt Asus wieder einmal für eine Reihe an älteren Mainboards BIOS-Updates zur Verfügung, so daß diese dann auch mit dem neuen FSB1333 seitens Intel zurechtkommen, welchen es Intel-offiziell nur auf dem neuen P35-Chipsatz gibt. Selbstverständlich erreichen die meisten halbwegs aktuellen Mainboards diese FSB-Höhe auch schon im Overclocking-Betrieb, der Vorteil der BIOS-Updates von Asus liegt aber darin, daß Asus die entsprechenden Mainboards mit den Chipsätzen P965, 975X, nForce 650i SLI und nForce 680i SLI offiziell für den FSB1333 freigibt und damit auch Support und Garantie unter diesen Bedingungen leistet - natürlich nur, wenn man auch eine FSB1333-CPU einsetzt, wenn man dagegen eine FSB1066-CPU auf FSB1333 hochtaktet, zählt das weiterhin als Overclocking und fällt nicht unter Support und Garantie.
Unter anderem die PC Games Hardware berichtet mal wieder über die Klagen von Microsoft über illegale Windows-Versionen - jährlich sollen es weltweit immerhin 60 Millionen PCs sein, welche mit einer illegalen Windows-Version verkauft werden. Und während dies im westlich geprägten Teil der Welt vor allem aufgrund der mittlerweile humanen Preise für diverse Betriebssystem-Versionen wirklich weniger verständlich ist, sieht dies bei den von Microsoft auch gesondert angesprochenen vielen illegalen Kopien in den Schwellenländern doch etwas anders aus. Denn dort gilt das in Europa und Nordamerika bekannte Prinzip von 500 bis 1000 Euro für den PC und dann 100 Euro für das Betriebssystem eigentlich überhaupt nicht, muß der Markt mit einer ganz anderen Kaufkraft operieren und bietet demzufolge auch ganz andere PC-Preise an ...
... So kostet ein vollständiger PC mit Monitor in einem typischen Schwellenland (aus eigener ausreichender Anschauung) zwischen 200 und 500 Euro - wobei wie auch in Europa die größten Stückzahlen im unteren Preissegment durchgehen. Hier ist es dann schon ein Unterschied, wenn man sich zu einem 200-Euro-PC noch ein 100 Euro teures Betriebssystem zulegen soll, selbst wenn die Preise im OEM-Geschäft deutlich niedriger sein sollten. Dem steht auch eine gewisse Kaufkraftbarriere gegenüber: Selbst der 200-Euro-PC bedeutet für die meisten Menschen in Schwellenländern die Ausgabe von ein bis zwei Monatsgehältern - wobei hier besonders ins Gewicht fällt, daß von einem Monatsgehalt in einem Schwellenland üblicherweise fast nichts zum Sparen übrigbleibt, selbst ein Billig-PC also im Gegensatz zu Europa schon eine größere, wohl zu durchdenkende Entscheidung darstellt ...
... Dabei ist das Windows-Betriebssystem noch der eher harmlosere Fall, besonders krass wird dies aber bei den Microsoftschen Office-Paketen, welche zu Ladenpreisen auch schon einmal in Richtung eines Jahresgehalts in Schwellenländern gehen können. Auf der anderen Seite des Problems steht aber natürlich auch der Punkt, daß Software- und Medienpiraterie in den Schwellenländern extrem weit verbreitet sind und sich so enorm etabliert haben, daß es schwer sein wird, dies in Bälde wieder zu beenden. Die einzelnen Staaten zeigen zwar einen gewissen Aktionismus dagegen, bekämpfen aber in aller Regel nur professionelle Fälscherbanden, welche mit großen Stückzahlen vor allem für den "Export" in die westliche Welt arbeiten. Dagegen, daß die eigenen Bürger auch diese Raubkopien kaufen, wird jedoch kaum etwas unternommen - und wenn, dann ist es der berühmte Tropfen auf den heißen Stein ...
... Man kann sich das in Europa wahrscheinlich gar nicht vorstellen, aber in den Schwellenländern sind Raubkopien von Medien und Software vollkommen allgegenwärtig und nicht nur auf den Ramschmärkten zu finden. So kommt es zur ironischen Situation, daß man selbst in einem Kaff am Ende der Welt noch original Intel-Prozessoren angeboten bekommt, während man in den IT-Kaufhäusern der großen Städte nach einer originalen Windows-Lizenz regelrecht suchen muß - selbst die Verkäufer von Marken-PCs bieten ihre Ware in den allermeisten Fällen nur mit einer gecrackten Betriebssystem-Version an. Und zur Microsoft-Idee von dem besseren "Kopierschutz" in Form der Produktaktivierung kann nur gesagt werden, daß diese gecrackten Betriebssystem-Version auch wirklich sauber gecrackt sind: Keine Aktivierung, kein WGA, nichts. Fast könnte man dafür richtig Geld bezahlen - ein besseres Windows bekommt man nirgendwo ;).
neuer Artikel |
Performancereport Stalker: Shadow of Chernobyl
Nach jahrelanger Entwicklungszeit kam Anfang des Jahres endlich Stalker: Shadow of Chernobyl heraus, um neben der gelungenen Optik auch mit guter Atmosphäre und interessantem Gameplay zu überzeugen. Wieder einmal muß sich das genannte Spiel in unseren Tests den Fragen stellen, mit welcher Hardware das Spiel gut funktioniert, welche Settings und Auflösungen mit heutiger Mainstream-Hardware spielbar sind und wo performancemäßig am meisten zu holen ist - CPU oder Grafikkarte? ... zum Artikel
News des 16. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Unter anderem Hard Tecs 4U berichten über die nun endgültige Vorstellung von Intels FSB1333-Prozessoren der Core 2 Duo E6x50 Serie. Dazu gehören nun auch noch ein 3.0 GHz (E6850) und ein 2.33 GHz (E6550) Modell (zusätzlich gibt es hier das Modell E6540 mit gleichen technischen Daten, aber ohne der TrustedComputing-Erweiterung TXT bzw. LaGrande), das Modell mit 2.66 GHz (E6750) wurde schon kürzlich einigen Tests unterzogen. Wie schon seinerzeit ergibt der höhere FrontSideBus aber nur äußerst geringe Performancegewinne, primär dürften die neuen Prozessoren vor allem wegen ihrer wirklich günstigen Preislage interessant sein, welche deutlich unter den bisherigen Preisen der FSB1066-Modelle liegt ...
... Neben diesen DualCore-Modellen mit FSB1333 hat Intel aber auch noch ein QuadCore-Modell mit FSB1333 in Form des "Core 2 Extreme QX6850" herausgebracht - und diesem mit 3.0 GHz gleich eine wirklich hohe Taktrate spendiert. Zwar hat dieses Extreme-Modell wie üblich den Nachteil des totalen Mondpreises von 999 Dollar Listenpreis (zum Vergleich: das DualCore-Modell mit 3.0 GHz (E6850) kostet 266 Dollar Listenpreis), allerdings ist es durchaus beachtenswert, daß Intel hiermit erstmals bei den QuadCore-Prozessoren dieselbe maximale Taktfrequenz erreicht wie bei den DualCore-Prozessoren. Damit wird sicherlich mittel- und langfristig der Übergang des Marktes von DualCore- auf QuadCore-Prozessoren eingeläutet - ganz egal, ob die meisten Endanwender in absehbarer Zeit irgendeinen höheren Nutzen von QuadCore-Prozessoren haben werden ;).
Die VR-Zone hat einige hochinteressante Informationen zur kommenden Nehalem-Prozessorenarchitektur von Intel, welche der aktuellen Core-Prozessorenarchitektur nachfolgen soll. In Bezugnahme auf aktuelle Intel-Roadmaps berichtet man davon, daß Nehalem auf einer "4-issue" Core-Architektur basieren soll, ohne dies allerdings genauer auszuführen. Zudem soll es shared Level2- und Level3-Caches geben, welche sich also die einzelnen Prozessorkerne untereinander teilen werden können, hinzu kommt mit "Simultaneous Multi-Threading" eine verbesserte SMT-Variante. Wirklich spannend ist jedoch, daß Intel die ersten Modelle der Nehalem-Prozessorenarchitektur bereits im zweiten Halbjahr 2008 auszuliefern gedenkt. Viele weitere Informationen zu Nehalem-Prozessorenarchitektur werden im übrigen in diesem Thread unseres Forums gesammelt.
Wie ein führender CDU-Innenpolitiker gegenüber der Tagesschau angegeben hat, soll die Software für die Online-Durchsuchung angeblich bereits fertig sein und auf ihren Einsatz warten. Leider gibt es an dieser Stelle nicht mehr Informationen, so daß nicht klar ist, wie ernst gemeint diese Aussage ist bzw. wieviel technisches Verständnis dieser Poltiker überhaupt mitbringt, um eine solche Aussage fachgerecht treffen zu können ;). Generell ist aber sowieso nicht mehr zu erwarten, daß es zu einem "Bundestrojaner" kommen wird, also einer Software für alle Anwendungsfälle. So etwas ist für Phisher etc. interessant, welche ihre Schadsoftware millionenfach verbreiten und hoffen, daß wenigstens ein paar tausend User darauf hereinfallen ...
... In diesem Fall des staatlichen Hackings geht es aber um eine ganz andere Ausgangssituation, welche dann auch eine ganz andere Art von Software benötigt: Es sollen gezielt bestimmte Computer gehackt werden, eine Weiterverbreitung der Software ist sogar hoch unerwünscht. Auf diese Weise ist auch die Chance äußerst gering, irgendwann einmal bei den Herstellern von Antivirensoftware zu landen und in deren Schadsoftware-Datenbank aufgenommen zu werden - was wohl ein ziemlicher PR-GAU für Vater Staat wäre. Für den beschriebenen Aufgabenzweck wird aber wie gesagt weniger eine Trojaner-ähnliche Software benötigt, sondern eigentlich etwas völlig anderes. Denkbar ist für die Software zur Online-Durchsuchung die Aufteilung in zwei Komponenten: Mit der ersten wird ein Zielsystem auf Schwachstellen hin abgeklopft, hierfür gibt es schon reichlich Software seitens IT-Security-Firmen oder auch aus dem Hacker-Bereich ...
... Den wirklichen Zugriff kann man dann sogar halb-manuell vornehmen: Je nach vorgefundenen Schwachstellen wird versucht, über diese in den Zielcomputer einzudringen und dort die staatliche Überwachungssoftware zu installieren. Dies kann man natürlich auch mit vorgefertigten Exploits erreichen, welche dann schlicht die eigentliche Überwachungssoftware nachladen. Nicht desto trotz erscheint dieser Part aber eher als Handarbeit, da schließlich für jedes System der anzugreifende Schwachpunkt manuell ausgewählt wird. Zudem könnte es auch sein, daß die eigentliche Überwachungssoftware als zweiter Teil des Softwarepakets zur Online-Durchsuchung für jeden einzelnen Zielcomputer manuell angepasst wird - je nachdem, um welches Betriebssystem es sich handelt und welche dort installierten Sicherheitsschranken zu überwinden sind ...
... Damit würde der direkt nachweisbare Teil der Software zur Online-Durchsuchung auch jedesmal anders aussehen, womit die Hersteller von Antiviren-Software das gleiche Problem hätten wie mit den ständig veränderten Versionen von Viren und Würmern, welche mit jeder neuen Version jedesmal neu der Schadsoftware-Datenbank zugefügt werden müssen. In der Summe wären diese beiden Software-Komponenten aber wesentlich einfacher zu erstellen als die vormals noch angenommene "Super-Software", welche jeden Computer weltweit knacken können sollte. Die staatlichen Hacker können sich hierbei auf eine Vielzahl von schon vorhandenen Security- und Hacker-Tools stützen - faktisch braucht es nur ein paar erfahrene IT-Experten, um diese für die Online-Durchsuchung etwas zu modifizieren und vor allem auch einzusetzen ...
... Insofern könnte durchaus etwas dran sein an der vorstehend genannten Aussage, die Online-Durchsuchung wäre technisch gesehen bereits einsatzfähig. Klar muß aber auch sein, daß obiges Modell nur dann sinnvoll einsetzbar ist, wenn es sich um eine arg begrenzte Anzahl an Online-Durchsuchungen handelt, sprich unter 100 im Jahr (zum Vergleich: die Telefonüberwachungen in Deutsachland gehen in die zehntausende im Jahr). Insofern würde hierbei schon der reine Software-Ansatz als ein Mittel zur Beruhigung der Netzgemeide dienen können, sie würde mit der wohl kommenden Legalisierung der Online-Durchsuchung zukünftig breitflächig ausspioniert werden. Nachteiligerweise handelt es sich natürlich nur um einen vermuteten Software-Ansatz, kann für vorstehend gesagtes natürlich unmöglich die Hand ins Feuer gelegt werden. Kleine Ironie zum Schluß: Alle für die Online-Durchsuchung angesetzten Tools und Werkzeuge dürften natürlich vollumfänglich unter das entsprechende Verbot des neuen Hackerparagraphen fallen ;).