News-Archiv 28. Januar - 3. Februar 2008 (5. Kalenderwoche)
2./3. Februar 1. Februar 31. Januar 30. Januar 29. Januar 28. Januar
News des 2./3. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Ein Thread unseres Forums beschäftigt sich - aus berufenem Munde (Demirug ist Programmierer) - mit dem leidlichen Thema Direct3D10: Segen oder Fluch? Geklärt wird dabei vor allem die Frage, wieso der mit Direct3D10 eigentlich propagandierte Performancegewinn ausgeblieben ist. Primär hängt dies wohl daran, daß wir heutzutage nirgendwo Direct3D10-Spiele haben, sondern allerhöchstens DirectX9-Spiele mit einem angeflanschten Direct3D10-Support. Dieser wird derzeit aber eher nur dazu benutzt, einige nur unter Direct3D10 mit annehmbarer Geschwindigkeit darstellbare Effekte zu integrieren, die eigentliche Codebasis des Spiels bleibt aber bei DirectX9. Sicherlich lassen sich auch jene Direct3D10-Technologien integrieren, welche für einen Performancegewinn sorgen - dagegen spricht jedoch, daß dies mehr Arbeit für die Entwickler bedeutet und der Erfolg sich nicht in einer besseren Optik ausdrücken läßt.
Insofern läßt sich ein echter Performancegewinn durch die internen Verbesserungen bei Direct3D10 wohl erst bei Spielen erzielen, welche primär für Direct3D10 programmiert werden und wo diese internen Verbesserungen gleich per default mit dabei sind. Dies dürfte aber noch seine Zeit dauern - man kann es ja an DirectX9 beobachten, wie lange es dauerte, bis erste DirectX9-only Spiele erschienen. Im Fall von Direct3D10 ist zu erwarten, daß dies wohl erst passiert, wenn Direct3D11 schon vor der Tür steht. Bis dahin werden die Spiele-Entwickler Direct3D10 sicherlich vermehrt dazu nutzen, um mit der Direct3D10-Version eines Spiels tolle zusätzliche Effekte zu integrieren, der ursprünglich einmal für Direct3D10 angekündigte Performancegewinn wird dagegen erst viel später bei Direct3D10-only Spielen zu erzielen sein.
Beim chinesischsprachigen HKEPC (maschinelle Übersetzung ins englische) gibt es Informationen und eine AMD-Präsentation zu den 45nm Phenom-Modellen. Danach wird dieser nächste Sprung bei AMD zweigeteilt werden: Im vierten Quartal 2008 kommt die AM2+ Ausführung der 45nm-Phenoms, erst im ersten Halbjahr 2009 die AM3-Ausführung, welche dann erst den Support für DDR3-Speicher mit sich bringen wird. Insofern verzögert AMD die Einführung von DDR3-unterstützenden Prozessoren hier etwas, bei Intel kommen die ersten entsprechenden Prozessoren bereits im vierten Quartal 2008 mit der Nehalem-Prozessorenarchitektur. Die anderen Vorteile der 45nm-Generation haben natürlich aber auch die AM2+ Modelle zum Jahresende schon.
Zu nennen wäre hier der auf 6 MB vergrößerte Level3-Cache (wobei es auch Ausführungen ganz ohne Level3-Cache geben soll), ein vergrößerter Spielraum bei der Taktfrequenz und gleichzeitig ein sinkender Stromverbrauch. Wobei AMD in letzterem Punkt wahrlich keine Bäume ausreißt, denn gemessen an den TDP-Angaben geht der Stromverbrauch im Vergleich zur 65nm-Generation nur zwischen 12 und 31 Prozent herunter, die absoluten TDP-Angaben bleiben mit 95W bzw. 125W (hier liegt natürlich viel Spielraum drin, aber trotzdem) immer noch klar höher als die entsprechenden Intel-Angaben bei deren 45nm-Modellen. Zum wohl interessantesten Punkt - wieviel Mehrtakt AMD bei den 45nm-Modellen ermöglichen kann, gibt es aktuell leider noch keine Informationen.
Neue Entwicklungen gibt es bei der angestrebten Übernahme von Yahoo durch Microsoft. So hat Yahoo das Kaufangebot von Microsoft erstaunlicherweise als "unerwünscht" bezeichnet - wobei in diesem Punkt natürlich die Aktionäre und nicht der Vorstand von Yahoo das letzte Wort haben. Allerdings könnten auch diese durchaus zu der Ansicht kommen, daß das Microsoft-Angebot zwar gut, aber noch nicht gut genug ist - was alle Möglichkeiten offenläßt. In jedem Fall wird sich aber etwas bewegen, weil Yahoo das Übernahmeangebot sicherlich nicht so einfach ablehnen kann - falls man nicht mit Microsoft zusammengeht, stehen entweder die Übernahme durch andere Interessenten oder aber tiefgreifende Kooperationen mit anderen Marktteilnehmern auf dem Programm, um aus dem Status eines Übernahmekandidaten herauszukommen.
Auf der anderen Seite hat Google inzwischen schon durchaus ernstzunehmende wettbewerbsrechtliche Bedenken ob der geplanten Übernahme angemeldet: Nach der Argumentation von Google könnte Microsoft sein Monopol auf dem Betriebssysteme-Markt dazu ausnutzen, auf den durch die Übernahme neu hinzukommenden Märkten durch unfaire Wettbewerbspraktiken zu profitieren - beispielsweise durch (für die Konkurrenz nicht mögliche) Produktbündelung oder auch Quersubventionierung von Produkten. Diese Argumentation wird dadurch um so gewichtiger, als daß Microsoft diesbezüglich eine nicht von der Hand zu weisende Historie hat. Geht alles mit rechten Dingen zu, dürfte Microsoft gerade in den USA diese Übernahme nur unter strengen, vorausschauend angelegten Auflagen genehmigt werden.
In der EU hält man es bekanntermaßen lieber mit der Methode, nachträglich und durch die Lauflänge der entsprechenden Gerichtsverfahren um Jahre bis Jahrzehnte verzögert, dann inzwischen mehr oder weniger unwirksame Geldstrafen auszusprechen ;). Ob es allerdings zu entsprechenden wettbewerbsrechtlichen Auflagen kommt, die dann auch wirklich ausreichend sind, ist gerade hier abzuwarten - denn in den letzten Jahren hatten die Wettbewerbshüter in den USA doch die deutliche Tendenz, im speziellen Fall des Superschwergewichts Microsoft lieber die Augen zuzudrücken. Möglich ist in dieser Angelegenheit derzeit wie gesagt noch alles - sogar, daß Yahoo mit Google zusammengeht, nur um Microsoft zu entkommen ;).
News des 1. Februar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Seitens der Analysten von Jon Peddie Research gibt es mal wieder Zahlen zu den Marktanteilen im Grafikchip-Markt für das abgelaufene vierte Quartal des Jahres 2007 (die Tabelle mit den insgesamten Marktanteilen ist beim Jon Peddie Research allerdings reichlich durcheinander geraten, diesbezüglich sei auf den Heise Newsticker verwiesen). In diesem Quartal sind als primäres Ereignis die GeForce 8800 GT/GTS und Radeon HD 3850/3870 Grafikkarten in den Markt gekommen, welche allerdings aufgrund ihres November-Starts wohl nur schwach in die nachfolgenden Zahlen eingeflossen sein dürften. Weiterhin Marktführer für den Gesamtmarkt, welcher also auch die in Mainboard-Chipsätzen integrierten Grafikchips mit einschließt (egal ob diese dann auch genutzt werden), bleibt natürlich Intel, welche mit 41,1 Prozent Marktanteil deutlich gegenüber dem Vorquartal (plus 3,1 Prozent) und zum Vorjahrszeitraum (plus 4,0 Prozent) zulegen konnten.
Bei nVidia scheint man hingegen den Schwung der Vorquartale etwas verloren zu haben, derzeit notiert man bei 31,8 Prozent Marktanteil - was ein Verlust von 2,1 Prozent gegenüber dem Vorquartal bedeutet, aber immerhin noch ein Gewinn von 3,3 Prozent gegenüber dem Vorjahrszeitraum. Deutlich stabilieren konnte sich hingegen AMD/ATI mit nunmehr 22,8 Prozent Marktanteil, ein Plus von 3,8 Prozent gegenüber dem Vorquartal und nun nur noch ein Rückstand von 0,2 Prozent gegenüber dem Vorjahrszeitraum. In allen Fällen dürften allerdings eher die Aktivitäten der genannten drei Grafikchip-Entwickler auf dem Markt der integrierten Grafikchips zu den Verschiebungen bei den Marktanteilen geführt haben - was bei einem Anteil der integrierten Grafikchips am Gesamtmarkt von grob zwei Drittel auch wirklich einfach geht.
Daneben noch interessant ist das weitere Zusammenschrumpfen der Marktanteile der weiteren Grafikchip-Entwickler: VIA/S3 konnten nunmehr nur noch 2,3 Prozent für sich verbuchen, dies sind satte 4,5 Prozent weniger als im Vorquartal und ähnliche 4,4 Prozent weniger als im Vorjahreszeitraum. SiS liegen dagegen derzeit bei 1,9 Prozent - 0,2 Prozent weniger als im Vorquartal sowie 2,6 Prozent weniger als im Vorjahreszeitraum. Die Kannibalisierung des Grafikchip-Marktes zugunsten der"großen Drei" nahm damit weiterhin zu: AMD/ATI, Intel und nVidia kamen zusammen auf inzwischen Oligopol-verdächtige 95,7 Prozent Marktanteil, hier ergab sich gegenüber dem Vorquartal ein Plus von nochmals 4,7 Prozent und gegenüber dem Vorjahreszeitraum ein Plus von 7,1 Prozent.
Nachdem VIA sich nun mehr oder weniger aus dem Chipsatz-Geschäft zurückziehen und Chipsätze nur noch für die eigenen LowPower-Plattformen entwickeln wird, dürfte sich diese Konzentration sogar noch etwas verschärfen - auch von SiS sind schließlich zuletzt kaum noch bedeutende Neuheiten zu hören gewesen. Vom Gesamtmarkt abgesehen bieten Jon Peddie Research diesesmal kaum noch weitere Informationen zu diversen Teilmärkten, allenfalls gab es ein paar Zahlen zu den Marktanteilen bei den Notebook-Grafikchips über das Jahr 2007. Hierbei sind allerdings eher stark schwankende Marktanteile zu beobachten, nur bei AMD/ATI gibt es eine klare Entwicklung hin zu höheren Marktanteilen. PS: Die Marktanteile der vorangegangene Quartale finden sich wie immer in unserem News-Archiv: Q3/2007, Q2/2007, Q1/2007 und Q4/2006.
Ansonsten Aufreger des Tages ist sicherlich die in den Massenmedien schon breitgewälzte (bislang noch versuchte) Übernahme von Yahoo durch Microsoft. Abseits von einigen Bedenken ob schiefgegangener Übernahmen gerade im IT-Sektor erscheint dieser Schritt Microsofts nur folgerichtig, schließlich ergaben doch die letzten Monate die Erkenntnis, daß man trotz großer Anstrengungen keine Marktanteile bei der Web-Suche und der (lukrativen) Werbevermarktung im Internet hinzugewinnen konnte. Offensichtlich braucht es gerade für letzteres eine gewisse Mindestgröße, welche zuletzt weder Microsoft noch Yahoo aufbieten konnten und demzufolge im Werbemarkt gegenüber Google weiter an Boden verloren. Die Zusammenführung der diesbezüglichen Aktivitäten beider Unternehmen dürfte nun aber einen ausreichend schwergewichtigen Gegenpol zu Google bilden, um zu diesen in einen Wettbewerb auf Augenhöhe treten zu können.
Interessant ist die Übernahme aber vor allem deswegen, weil sich damit ein wahrscheinlich langfristig beständiges Marktbild herausbilden dürfte, in welchem sich nur noch die zwei Schwergewichte Microsoft und Google gegenüberstehen - weil die bisher noch bestehenden kleineren Marktteilnehmer zwischen diesen "Mühlensteinen" wohl vollkommen zermahlen werden dürften. Auch andere Internet-Aktivitäten sowie Software- und Hardware-Hersteller könnten sich zukünftig mal mehr und mal weniger fest um diese Pole scharen. Gerade bei den alteingesessenen Microsoft-Gegnern ist zu erwarten, daß diese aufgrund der nur wirklich klaren Ausgangslage zukünftig Google in der einen oder anderen Weise unterstützen werden - nicht weil man irgendwelche tiefergehenden Interessen an deren Geschäft hat, sondern weil es gegen Microsoft geht ;).
Letzteres könnte auch auf einen Teil der Internetnutzer zutreffen, womit diese Übernahme also durchaus das Potential hat, letztlich Google sogar noch stärker zu machen. Dies erscheint aufgrund der Möglichkeiten von Microsoft allerdings auch gar nicht so verkehrt, Google wird diesen Kampf sowieso nur überleben können, wenn man jederzeit vor Microsoft bleibt. Denn immerhin ist der Internetmarkt für Microsoft trotz dessen Bedeutung und Größe allerhöchstens das dritte Standbein, füllt man sich die Kriegskasse ständig über das mehr oder weniger sichere Geschäft mit Betriebssystemen und Office-Paketen. Google agiert dagegen ausschließlich im Internetmarkt und ist damit auch die deutlich kleinere Firma gegenüber Microsoft. Daß man momentan weit vor Microsoft+Yahoo liegt, hat kaum etwas zu sagen, Microsoft hat nun einmal viel Geld zum Verschleudern und einen sehr langen Atem.
Insofern ist weniger zu erwarten, daß Microsoft Schwierigkeiten haben dürfte, mit der Yahoo-Übernahme glücklich zu werden. Vielmehr wird sich Google stark anstrengen müssen, seinen ersten Platz im Internetgeschäft zu verteidigen, denn von Microsoft ist nach dieser Übernahme nicht zu erwarten, daß man mit dem kumulierten Marktanteil von 30 Prozent zufrieden sein wird. Google wird so schnell wie möglich auf eine Größe wachsen müssen, auf daß der Brocken selbst für Microsoft zu dick wird. Es dürfte in dieser Richtung hin in den nächsten Jahren wohl noch sehr interessant werden: In einem günstigen Verlauf könnten sich reichlich interessante Möglichkeiten, Produkte und Preise für die Internetnutzer ergeben - auf der anderen Seite lassen sich bei nur noch zwei relevanten Marktteilnehmern Verbraucherkontroll- und Verbraucherausspäh-Technologien natürlich viel einfacher durchsetzen.
News des 31. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Aus einem Testbericht der X-bit Labs lassen sich wieder einmal Informationen über den tatsächlichen Stromverbrauch aktueller Grafikkarten gewinnen. Aus der aktuellen Performance-Generation schon bekannt sind hierbei die Werte zur Radeon HD 3870 512MB von 81 Watt unter Last und zur GeForce 8800 GT 512MB von 78 Watt unter Last. Neu ist hingegen die Information zur Radeon HD 3850 256MB, welche unter Last ihre 63 Watt zieht - nicht weit entfernt von unserer bisherigen Schätzung mit 65 Watt. Hochinteressant ist dabei der Verbrauch im Idle-Betrieb von nur noch 13,5 Watt, welcher selbst das gute Ergebnis der Radeon HD 3870 512MB von 19 Watt nochmals erheblich unterbietet und vor allem weit vor vergleichbarer nVidia-Hardware (die GeForce 8800 GT 512MB zieht im Idle-Betrieb immer noch 35 Watt) liegt.
Gemäß der Overclockers Workbench sollen die Taktraten der am 21. Februar zu erwartenden Mainstream-Lösung GeForce 9600 GT nunmehr bei 700/1750/1000 MHz liegen, was etwas mehr wäre als die bisher bekannten 650/1625/900 MHz. Die Steigerung des Chip- und Shader-Takts ist dabei nicht besonders verwunderlich, der G94-Chip scheint hier noch deutliche Reserven zu haben - so konnte die Overclockers Workbench ein Vorserienmodell auf 849 MHz Chip- und 2002 MHz Shader-Takt mehr als ordentlich übertakten. Unklar bliebe aber weiterhin, wieso sich nVidia nun zu immer höheren Speichertaktraten bei der GeForce 9600 GT entschließen würde - erstens einmal hat die Karte schon ein 256 Bit DDR breites Speicherinterface und kommt daher auch mit gemächlichen Speichertaktraten gut auf Touren und zweitens kosten die hohen Takt-Stufen doch schließlich auch mehr Geld, was nun einmal weniger zum Mainstream-Bereich passt.
Auf 1000 MHz Speichertakt würde man zudem die bisher in dem für die GeForce 9600 GT angedachten Preisbereich (169 Dollar Listenpreis für die 512-MB-Ausführung, wahrscheinlicher Straßenpreis 150 Euro) operierende GeForce 8800 GS um satte 78 Prozent bei der Speicherbandbreite überrunden und ganz nebenbei diesbezüglich auch die preislich höher angesetzten GeForce 8800 GT und GTS (geringfügig) ausstechen. Dies erscheint auf den ersten Blick vollkommen unnötig für die GeForce 9600 GT und diese Karte zudem auch unnötig teuer in der Herstellung machend. Auf der anderen Seite muß nVidia, wenn man mit der GeForce 9600 GT die Performance der GeForce 8800 GS erreichen will (kann natürlich auch sein, daß dies gar nicht das Ziel ist), deren 27prozentigen Vorteil bei der Rechen- und Texturierleistung irgendwie ausgleichen. Ob dafür ein für die Kostenseite günstiger aussehender Speichertakt von um die 800 MHz ausreicht ober ob es wirklich gleich 1000 MHz sein müssen, wird sich dann wohl erst am 21. Februar herausstellen.
Ein weiterer Artikel der X-bit Labs setzt sich mit der Performance aktueller DualCore-Prozessoren auseinander und hat dabei vor allem ganz interessante Messungen der neuen 45nm-Generation von Intel anzubieten. Denn während innerhalb der 65nm-Prozessoren der Abstand zwischen den Intel-Serie Core 2 Duo E6x00 (Mainstream/HighEnd), Core 2 Duo E4x00 (LowCost/Mainstream) und Pentium E (LowCost) jeweils nicht wirklich großartig ausfällt, gewinnen die neuen 45nm-Prozessoren der Core 2 Duo E8x00 Serie in Ablösung der Core 2 Duo E6x00 Serie inzwischen doch wieder einigen Abstand zu den LowCost-Vertretern - hervorgerufen wohl durch die geringfügige bessere Pro/MHz-Leistung der 45nm-Modelle als auch den bei den kleinen Modellen klar höher angesetzten Taktraten.
So liegen in den (auf 1024x768 ausgeführten) Spiele-Benchmarks zwischen Pentium E2200 mit 2.2 GHz Takt, FSB800 und 1 MB Level2-Cache sowie Core 2 Duo E4600 mit 2.4 GHz Takt, FSB800 und 2 MB Level2-Cache gute 20 Prozent Leistungsdifferenz, beim Vergleich auf gleichen Takt gegen den Core 2 Duo E4500 mit 2.2 GHz sind es nur noch 9 Prozent. Viel größer wird der Leistungsunterschied dagegen im Vergleich des Core 2 Duo E4600 gegen einen Core 2 Duo E8200 mit 2.66 GHz Takt, FSB1333 und 6 MB Level2-Cache: Gleich ganze 43 Prozent stehen zwischen diesen Prozessoren, selbst auf gleichem Takt müssten es wohl immer noch um die 30 Prozent sein. Insofern erscheint es derzeit nicht mehr so attraktiv, auf die günstigeren Core-2-Serien zu setzen, da sich momentan die "regulären" Core 2 Duo Prozessoren von der Performance her doch weit abgesetzt haben.
News des 30. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Im Forum der VR-Zone gibt es erste, von Chiphell stammenden und dort inzwischen aber nicht mehr vorhandene Benchmarks der GeForce 9800 GX2. Allerdings wird (richtigerweise) gleich erst einmal vor diesen Benchmarks gewarnt, weil derzeit unklar ist, ob diese nicht eventuell komplette gefälscht sind, sowie auf jeden Fall unbekannt ist, ob auch eine zur GeForce 9800 GX2 wirklich passende Treiber-Version eingesetzt wurde (oder schlicht ein modifizierter Treiber). Demzufolge sind die Ergebnisse auch keineswegs auf die Goldwaage zu legen, wonach die GeForce 9800 GX2 sogar etwas langsamer als ein SLI-Gespann aus zwei GeForce 8800 GT 512MB Grafikkarten wäre. Aller Wahrscheinlichkeit nach wird nVidia mit der GeForce 9800 GX2 mindestens die Hardware-Daten der GeForce 8800 GT 512MB SLI bieten, also 2x 112 Shader-Einheiten und Taktfrequenzen von 600/1500/900 MHz.
Allerdings dürften allein schon die (mehr oder weniger erwiesene) Anhebung der Anzahl der Shader-Anheiten von 2x 112 auf 2x 128 dafür sorgen, daß die GeForce 9800 GX2 faktisch an einer GeForce 8800 GT 512MB SLI vorbeiziehen muß, selbst wenn die Taktraten nur auf dem Niveau der GeForce 8800 GT verbleiben. Insofern dürften diese Benchmarks in jedem Fall noch nicht die wahren Möglichkeiten des kommenden neuen Top-Modells von nVidia abbilden - das zeigt sich auch daran, daß die nVidia-Prognose von 30 Prozent über dem Niveau der GeForce 8800 Ultra mit diesen Zahlen noch weit verfehlt wird. PS: Gemäß Hard Tecs 4U gibt es im übrigen eine kleine Verschiebung des Starts der GeForce 9600 GT: Die neue Mainstream-Lösung auf Basis des G94-Chips soll nunmehr am 21. Februar erscheinen, die GeForce 9800 GX2 bleibt dagegen anscheinend beim ursprünglich gemeinsamen Starttermin, dem 14. Februar.
Wie Hard Tecs 4U berichten, will Intel die Verwendung von DDR3-Speicher durch Subventionen an OEMs puschen, um den derzeit arg überschaubaren Marktanteil von DDR3-Speicher ein wenig zu steigern. Dieser resultiert natürlich primär aus den derzeit noch vollkommen überzogenen Preisen für die neue Speichersorte - welche wiederum auch erst dann sinken werden, wenn DDR3 zur Massenware wird und die Speicherchip und Speichermodul-Hersteller durch die hohen Mengen auch entsprechend günstiger produzieren können. Da Intel diese Umstände natürlich nicht grundlegend ändern kann, dürften die Subventionen eher dazu dienen, DDR3 wenigstens ein bißchen mehr Marktakzeptanz zu verleihen.
Was in gewissem Sinne wieder gut für den Massenmarkt ist: Denn wenn Intel den DDR3-Absatz ankurbelt, dürften Preissenkungen durch höhere Absatzzahlen schneller zu realisieren sein. Auch wenn es derzeit keinerlei Empfehlung für DDR3-Speicher geben kann (bis auf Spezialfälle), nützt dieses Verhalten Intels langfristig damit doch wieder allen. Denn mit AMDs 45nm-Prozessoren und Intels Nehalem-Prozessorenarchitektur im zweiten Halbjahr 2008 wird sich voraussichtlich erstmals ein wirklicher Sinn beim DDR3-Einsatz ergeben, sprich ernstzunehmende Leistungszuwächse gegenüber DDR2. Danach ist es nur noch eine Frage der Zeit, bis die DDR3-Produktionsmengen so hoch steigen, daß dieser nur noch den prognostizierten 10prozentigen Preisabstand zu DDR2 erreicht. Wenn Intel DDR3-Speicher allerdings jetzt schon mit Subventionen puscht, dürfte der Preis schlicht um so schneller in diese Regionen absinken.
Der Heise Newsticker hat einige Ausführungen den laufenden Europäischen Polizeikongreß und die Online-Durchsuchung betreffend. Am interessantesten war dabei, mit welcher Vehemenz man für die Online-Durchsuchung eintrat, diese solle nunmehr gar als "zentrale staatliche Maßnahme" dienen. Dies hört sich natürlich ganz anders an als frühere Aussagen, wonach es sich bei der Online-Durchsuchung angeblich um Einzelfälle in einem Bereich von 10 bis 20 Anordnungen pro Jahr handeln solle. Denn unter einer "zentralen staatlichen Maßnahme" kann man sich vielmehr eine übliche und damit absolut in der Breite angewandte Ermittlungsmaßnahme vorstellen, nicht aber eine Ausnahme für sehr seltene Fälle.
Davon abgesehen ziemlich lustig ist der Hinweis auf TrustedComputing als Beispiel für die Innovationskraft und Visionsfähigkeit der Industrie in der IT-Technologie, wovon sich die staatlichen Ermittler zukünftig eine Scheibe abschneiden sollen. Zwar stimmt dies prinzipiell erst einmal, gerade aber TrustedComputing könnte sich - wenn es denn richtig ausgeführt wird - als arger Bremsklotz für alle staatlichen Schnüffelbemühungen erweisen. Denn beispielsweise die heute schon angedachte und teilweise schon realisierte Überwachung eines Arbeitssystems durch ein (stark abgespecktes) Kontrollsystem auf demselben PC wird jeglichem Bundestrojaner das Leben extrem schwer bis unmöglich machen. Dies gilt natürlich nur dann, wenn TrustedComputing richtig gemacht wird - d.h. wenn der Nutzer (und nicht der Computerhersteller) die vollständige Kontrolle über das System hat und wenn es in TrustedComputing keine per Gesetz verordnete Schnittstellen für staatliche Schnüffler gibt.
Zudem bei dieser Gelegenheit ein Wort zum angeblichen Abhören von Skype-Telefonaten durch bundesdeutsche Ermittler, welche technisch ebenfalls durch eine Trojaner-Lösung realisiert wird - wobei dieser Trojaner dann halt eben nur Skype abhört und nicht gleich die ganze Festplatte durchsucht. Prinzipiell ist so etwas natürlich machbar, ob allerdings die diesbezüglichen Meldungen schon auf einen Einsatz einer solchen Software hindeuten, wäre erst einmal noch zu bezweifeln. Insbesondere die hierzu veröffentliche Leistungsbeschreibung stellt ja eher das reine Angebot einer sich offensichtlich wichtig machen wollenden Software-Firma dar - was nicht bedeutet, daß dieses Angebot bislang genutzt wurde (oder aber das unsere Polizei technisch in der Lage wäre, jenes zu nutzen).
Gerade auch zu dem angebenen Preis von 3500 Euro pro Monat und Maßnahme läßt sich wenn dann nur eine totale Sparmaßnahme realisieren, was bedeutet: Bei der Infiltration setzt man entweder auf eMails, wo die "Zielperson" ahnungslos auf einen Anhang klicken soll - oder aber auf die Mithilfe der Polizei, welche den Trojaner manuell bei einem kleinen Wohnungseinbruch installiert. Danach dürfte das Programm über keinerlei besondere Tarn- oder Sicherheitsmaßnahmen verfügen, so etwas ist bei diesem Preis unrealistisch. Insofern sollte dieser Trojaner - auch wenn die Festplatte nicht ausgespäht wird, ist es ja letztlich nichts anderes - durchaus für einen erfahrenen Benutzer erkennbar sein, ganz besonders wenn dieser Trojaner aus rechtlichen Gründen eventuelle Sicherheitsprogramme nicht ausschalten darf (umgehen ja, aber das ist wieder nicht so einfach zu realisieren).
Damit ist die ganze Angelegenheit natürlich als wenig schlagkräftig einzuschätzen - aber wie gesagt, wahrscheinlich handelt es sich hierbei sowieso erst einmal nur um ein Angebot einer Software-Firma an die Polizei, nicht aber um eine bereits im Einsatz befindliche Lösung. Die größeren Hürden dürften aber sowieso auf der rechtlichen Seite stehen: So dürfte der Wohnungseinbruch zur Installation des Trojaners höchst illegal sein, da das Recht der Polizei auf die Telefonüberwachung nicht das Recht der Verdächtigen auf die Unversehrtheit der Wohnung aushebelt. Wenn man staatlichen Ermittlern ein solches Recht geben wollte, müsste dieses wenn dann schon explizit formuliert sein - die platte Annahme, mittels einer angeordneten Telefonüberwachung würde der Verdächtige jegliche anderen seiner Grundrechte verlieren, trifft jedenfalls nicht zu.
Desweiteren liegt ein generelles weiteres Problem darin, daß das Abhören eines Telefonats nicht über die eigentliche Telefonleitung, sondern akustisch am Entstehungsort nichts mit einer "Telefonüberwachung" zu tun hat, sondern faktisch einen "großen Lauschangriff" darstellt - es wird das laut in den eigenen vier Wänden ausgesprochene Wort abgehört, nicht in dem Sinne eine Telefonübertragung. Für diesen großen Lauschangriff existieren aber auch ganz andere Regeln und Einschränkungen als für die "gewöhnliche" Telefonüberwachung - und vor allem kann eine normale Anordnung zur Telefonüberwachung nicht einfach in einen großen Lauschangriff umgedeutet werden. Was nicht bedeutet, daß dies nicht eventuell doch so gemacht wird - nur würden sich die befehlenden und durchführenden Beamten damit rechtlich total aufs Glatteis begeben.
News des 29. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Zur gestern schon besprochenen Radeon HD 3870 X2 sei noch eine kleine Besonderheit dieser DualChip-Grafikkarte erwähnt: Da die interne CrossFire-Verbindung zwischen beiden RV670-Grafikchips nur als PCI Express 1.x ausgeführt ist und diese Verbindung natürlich über das interne PCI-Express-Interface beider Grafikchips läuft, wird die gesamte Karte damit in den PCI-Express-1.x-Modus gezwungen, womit auch die Anbindung der Grafikkarte an die Northbridge des Mainboard-Chipsatzes (und damit an die CPU) nur mit PCI Express 1.x läuft - ganz egal ob das Mainboard auch PCI Express 2.0 beherrschten könnte. Natürlich sollte diese kleine Limitation derzeit noch gar nichts Performance kosten - zudem steht hier sogar die Vermutung im Raum, daß dies bei gewöhnlichen CrossFire-Lösungen gar nicht anders aussieht.
Eher den Erfolg einer DualChip-Grafikkarte wie der Radeon HD 3870 X2 behindern dürfte die generelle Problematik bei CrossFire und SLI, daß die in Testberichten hierzu oftmals gemessenen CrossFire- und SLI-Gewinne gegenüber einzelnen Grafikkarten nicht unbedingt übertragbar sind auf die Masse der Spiele. Dies will nicht sagen, daß es dort keinerlei Performanceverbesserungen durch CrossFire bzw. SLI gibt, nur dürften diese prozentual niedriger ausfallen als bei den üblichen Benchmark-Spielen. Denn diese tweaken die Grafikchip-Entwickler in ihren Treibern schlicht so lange, bis der Performancegewinn unter CrossFire bzw. SLI nahezu optimal ist - während selten oder nie gebenchten Spiele logischerweise nicht eine solche Aufmerksamkeit gewidmet wird und diese somit eher nur die allgemeinen Optimierungen und Performanceverbesserungen abfassen können.
In der Summe dessen muß der Performancegewinn durch CrossFire und SLI bei den durch Test-Artikel wenig beachteten Spielen zwangsläufig niedriger liegen als bei den üblichen verdächtigen Benchmark-Titeln - wie hoch dieser Unterschied ist, läßt sich allerdings ohne wirklich breiteste Messungen nur spekulieren. Vermutlich geht es von den Spitzenwerten bei einigen sehr gut reagierenden und sehr gut optimierten Titeln von um die 80 Prozent auf Werte in Richtung 50 bis 60 Prozent herunter, wobei durchaus hier und da ein Titel dabei sein kann, wo CrossFire bzw. SLI gleich gar nicht funktionieren und die Performance somit auf exakt den Wert einer einzelnen Grafikkarte absinkt.
Allerdings muß hier natürlich auch eingerechnet werden, daß die breite Masse der Spiele in aller Regel nicht den Leistungsbedarf der üblicherweise gebenchten Top-Anwendungen hat - sprich, mögen die Performancegewinne durch CrossFire und SLI unter den selten und nie gebenchten Spielen auch niedriger sein als unter den oft gebenchten Titeln, die im Endeffekt herauskommende Performance sollte in jedem Fall ausreichend sein. Zudem ergibt sich ja derzeit im HighEnd-Bereich kaum eine andere Wahl, als auf CrossFire- oder SLI-Lösungen zu setzen: Die Radeon HD 3870 X2 hat bei ATI gar keine leistungsmäßigen Äquivalente im Bereich der SingleChip-Grafikkarten und bei nVidia nur in Form der überteuerten und auf Auslauf stehenden GeForce 8800 Ultra.
Der einzige passende Gegner für das neue Top-Modell von ATI ist bislang ein SLI-Gespann aus zwei GeForce 8800 GT 512MB Grafikkarten - womit man wieder bei einer Lösung mit zwei Grafikchips unter SLI wäre. Auch bei der kommenden HighEnd-Lösung von nVidia in Form der GeForce 9800 GX2 kommt man wieder nicht um eine SLI-Lösung herum. Natürlich wäre generell eine Grafikkarte mit ähnlicher Performance und nur einem Grafikchip diesen CrossFire- und SLI-Angeboten vorzuziehen - allein, ATI und nVidia bieten uns solches im HighEnd-Bereich derzeit und wohl auch in näherer Zukunft nicht an. Was natürlich aus Kostensicht zu verstehen ist: ATI benutzt für die Radeon HD 3870 X2 den schon für die komplette Radeon HD 3850/3870 Serie eingesetzten RV670-Grafikchip, nVidia wird - was inzwischen erwiesen ist - für die GeForce 9800 GX2 den auch bei GeForce 8800 GS/GT/GTS eingesetzten G92-Chip verwenden.
Für diese beiden HighEnd-Karten alternativ jeweils einen extra Grafikchip aufzulegen, kostet dagegen in der Entwicklung und Produktionsvorbereitung Dutzende Millionen Dollar, zudem würde ein solch großer Grafikchip aufgrund der geringen absetzbaren Stückzahlen im HighEnd-Bereich und der die Ausbeute herunterdrückenden großen Die-Fläche auch nicht so einfach noch wirtschaftlich herstellbar sein. Die Benutzung von Performance-Grafikchips zur Bildung von HighEnd-Grafikkarten ist da nur folgerichtig, auch wenn sie den HighEnd-Nutzer damit automatisch zu CrossFire und SLI zwingt. Da der Trend bei allen Grafikchip-Entwicklern aber sowieso klar in die Richtung von MultiChip-Designs geht, wird sich daran wohl kaum etwas ändern - vielmehr werden die beiden großen Grafikchip-Entwickler ihre Ressourcen eher darin stecken, zukünftig CrossFire bzw. SLI weiter zu optimieren.
Unter anderem Golem berichten über ein Urteil des Europäischen Gerichtshofes, wonach der Datenschutz des Internetnutzers höher zu bewerten sei als die Verfolgung von Urheberrechtsverletzungen im Internet - konkret, daß im Fall von Urheberrechtssünden kein Anspruch der Rechteinhaber auf eine Herausgabe der Personendaten zu einer IP-Adresse besteht. Allerdings - und auch wenn dies vielen Schlagzeilen zum Thema so zu entnehmen ist - hat der Europäische Gerichtshof dies eigentlich nicht ausgesagt - diese Regelung gilt vielmehr nur, wenn es keine gesetzliche Vollmacht zur Herausgabe eben dieser Personendaten zu einer IP-Adresse gibt. Eine entsprechenden nationalen Gesetzgebung steht aber auch nach den Ausführungen des Gerichts kein EU-Recht entgegen - wenn also ein EU-Mitgliedsland eine solche Datenherausgabe im Rahmen eines Gesetzes erlaubt, hilft dieses sich nur auf einen konkreten Fall in Spanien beziehende Urteil auch nicht weiter.
News des 28. Januar 2008 |
(News-Meldungen dieses Tages im Forum kommentieren)
Mit den Launch-Reviews (Liste der Artikel) zur Radeon HD 3870 X2 lassen sich nun auch die bisher noch offenen Fragen zur Performance dieser neuen HighEnd-Lösung von ATI beantworten. So gilt es erst einmal als erwiesen, daß die neuen ATI-Karte die GeForce 8800 Ultra schlägt, auch wenn der Abstand oftmals nur minimal ausfällt. Nichtsdestotrotz ist das eine starke Leistung für eine Karte, welche um die 30 Prozent günstiger als das bisherige Top-Modell von nVidia ist. Damit wird es auch sehr schwer für die GeForce 8800 GTX, gegen die Radeon HD 3870 X2 zu bestehen: Zwar kostet die ATI-Karte in diesem Vergleich um die 20 Prozent mehr, leistet aber auch 25 bis 30 Prozent mehr und steht nicht wie die GeForce 8800 GTX auf Auslauf.
Interessant war zudem der Vergleich der Radeon HD 3870 X2 gegen ein CrossFire-Gespann aus zwei Radeon HD 3870 Grafikkarten - vor allem wegen der abweichenden Taktraten von ATIs Top-Karte, welche 6 Prozent mehr Rechenpower hat, dagegen aber auch 25 Prozent weniger Speicherbandbreite. Wie aber auch schon vorab vermutet, stört das die Radeon HD 3870 X2 überhaupt nicht, vielmehr wird öfters der ja nur geringfügig höhere Chiptakt in eine gute Mehrleistung gegenüber dem genannten CrossFire-Gespann umgesetzt - wobei einzelne Tests einen so hohen Vorspung der Radeon HD 3870 X2 gegenüber der Radeon HD 3870 CrossFire zeigen, daß man fast den Verdacht haben kann, der ATI-Treiber würde die DualChip-Grafikkarte bevorteilen (oder das irgendwas falsch gemacht wurde).
Davon abgesehen ist es keine besondere Überraschung, daß die von vielen Testberichten mitgetestete GeForce 8800 GT 512MB im SLI-Verbund schneller als die Radeon HD 3870 X2 gemessen wurde. Schon vor der neuen ATI-Karte war eine GeForce 8800 GT SLI nun einmal klar schneller als eine Radeon HD 3870 CrossFire, dies kann die Radeon HD 3870 X2 mit ihrem eher mäßigen Vorsprung vor der Radeon HD 3870 CrossFire auch mehr nicht ändern. Allerdings kostet der genannte SLI-Verbund auch etwas mehr, derzeit sind es in jedem Fall etwas über 400 Euro, während die besten Angebote zur Radeon HD 3870 X2 eben schon etwas unter 400 Euro liegen - preislich passt das also durchaus.
Der Planet 3DNow! zeigt in einem Artikel, wie man unter Windows und Linux den Fix des TLB-Bugs der Phenom-Prozessoren - natürlich auf eigene Gefahr - ausschalten und damit zur ursprünglichen Phenom-Performance zurückkehren kann. Möglich wird dies zum Teil durch entsprechende BIOS-Optionen der Mainboards, aber auch ohne diese ist der Fix durch die Veränderung einige Prozessorenregister mittels Crystal CPUID jederzeit möglich. Da der TLB-Bug bisher nur unter Labor-Bedingungen aufgetreten ist, erscheint dieser Fix für normale Home- und Spiele-Systeme als gangbare Lösung, auf Produktivsystemen hat dieser "Hack" aber natürlich nichts zu suchen.
Au-Ja! haben mit dem Pentium E2200 die bislang größte Ausgabe der Core-2-basierenden Pentium E Serie mit 2.2 GHz Takt im Test. Der nur 1 MB große Level2-Cache dieser Prozessoren-Serie (und die damit einhergehende geringere Cache-Anbindung) kosten zwar an Leistung, allerdings ergeben sich kaum Situationen, wo der Pentium E dadurch deutlich ausgebremst werden würden. Die Performance entspricht vielmehr einfach der eines regulären Core 2 Duo Prozessors mit geringerem Takt, was allerdings aufgrund der generellen Leistungsfähigkeit der Core-2-Architektur immer noch eine für die meisten Aufgaben vollkommen ausreichende Leistung ergibt. Leider hat bisher kein Artikel zum Pentium E oder zur Core 2 Duo E4x00 Serie einen Test darüber angestellt, in wie weit diese Prozessoren gut mit Virtualisierungs-Software umgehen können.
Das Fehlen der Hardware-Beschleunigung für Virtualisierungs-Software ist nämlich der andere wesentliche Punkt, welcher diese LowCost-Serien der Core-2-Architektur von den "echten" Core-2-Modellen in Form der Core 2 Duo E6000/E8000 Serien sowie der Core 2 Quad und Extreme Prozessoren trennt. Zu vermuten ist ja, daß auch dieser Unterschied im Heimbereich, wo die Virtualisierungs-Software in aller Regel nur zum "Spielen" mit einem anderen Betriebssystem und allerhöchstens zum Austesten von Software in einer virtualisierten Umgebung dient, nicht bedeutend ist und auch Pentium E und Core 2 Duo E4x00 diese Aufgabenstellung problemlos lösen können. Besser wäre es natürlich, diese Frage durch einen entsprechenden Test eindeutig beantwortet zu bekommen.