News-Archiv 15. - 21. Oktober 2007 (42. Kalenderwoche)
20./21. Oktober 19. Oktober 18. Oktober 17. Oktober 16. Oktober 15. Oktober
News des 20./21. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Mit den vorangegangenen News hatten wir über die wieder einmal desaströsen Quartalszahlen von AMD gesprochen, wobei wir hierzu aufgrund eines berechtigten Einwandes noch einiges ergänzen wollen. So hat AMD in den aktuellen Quartalszahlen in der Tat immer noch Sonderaufwendungen für die ATI-Übernahme stehen, diesesmal noch 120 Millionen Dollar (von 396 Millionen Dollar Verlust), demzufolge ist der Verlust ohne Sonderaufwendungen mit der Zeit doch zurückgegangen: Von 498 Millionen im ersten Quartal auf 392 Millionen im zweiten Quartal auf nunmehr "noch" 276 Millionen im dritten Quartal. Auch die Umsätze AMDs stiegen in diesem Zeitraum von 1,233 Milliarden zu 1,378 Milliarden auf 1,632 Milliarden. Insofern ist die Geschäftsentwicklung bei AMD klar positiv - kommend allerdings von einem absoluten Tiefpunkt.
Das größe Problem für AMD dürfte jedoch immer noch sein, daß man in den vier Quartalen seit der ATI-Übernahme inzwischen Verluste von satten 2,181 Milliarden Dollar angehäuft hat und dies für AMD eben mitnichten einfach mal mit ein paar guten Quartalen abtragbar ist. Vergleicht man dies mit den Gewinnen der Jahre 2004 und 2005, so bräuchte AMD satte acht Jahre, um diesen "Anfangsverlust" auszugleichen. Genau hier sehen wir das Risiko: Irgendwann könnte man auf die Idee kommen, daß dazu schon einige Wunder passieren müssten, damit AMD über acht Jahre konstant Gewinne einfährt - und damit wie gesagt nur die Anfangsverluste der ATI-Übernahme auszugleichen. AMD ist nun einmal nie so profitabel wie Intel gewesen und hat es daher wesentlich schwieriger, solche hohen Verlustsummen wie in den letzten vier Quartalen zu schultern.
Auf der andere Seite kann man aber auch den Punkt gelten lassen, daß das Licht am Ende des Tunnels sichtbar ist und AMD über kurz oder lang und besonders unterstützt von den kommenden neuen Produkten wieder zur schwarzen Null zurückfinden wird. Einen gewaltigen Pluspunkt hat AMD eben gegenüber anderen Firmen, die ähnliche Verluste verbuchen: AMD kommt aus der Übernahme einer relativ gesehen ziemlich großen Firma, insofern hat ein Großteil der derzeitige Verluste irgendwie doch eine gewisse Legitimation - und zum anderen dürften die Analysten und Investoren natürlich erst einmal sehen wollen, wie das gemeinsame Unternehmen AMD+ATI zusammenarbeitet und in dieser Zusammenarbeit neue Produktideen kreiiert. Wenn AMD allerdings ohne diese Übernahme von ATI solcherart Verluste einfahren würde, wäre eine Übernahme oder/und Neustrukturierung wohl nicht mehr aufzuhalten - momentan retten AMD also nur die besonderen Umstände vor einem solchen Schicksal.
In den News des 11. September trafen wir die Aussage, AMDs kommende K10-Prozessoren würden nun endlich auch AMDs Virtualisierungstechnologie "Pacifica" enthalten. Dies ist insofern nicht korrekt, als daß AMD diese Technologie auch bei den "alten" K8-basierenden Opterons unter dem Namen "AMD-V" schon des längeren anbietet. AMD-V wurde mit den Sockel-AM2/F-Modellen des K8-Kerns eingeführt und existiert somit auch auf den K8-basierenden Athlon 64/FX Prozessoren, sofern sie für den Sockel AM2/F ausgelegt sind. AMD hat diese Virtualisierungstechnologie dort aber anscheinend nicht freigeschaltet, zumindestens wird sie bei AMD auf den Produktseiten zu Athlon 64 und FX nirgendwo erwähnt.
Generell muß zu Virtualisierungstechnologien jedoch erwähnt werden, daß diese auf Desktop-Prozessoren nun nicht wirklich zwingend benötigt werden. Selbst auf einem SingleCore-Prozessor ohne Virtualisierungstechnologie läuft gewöhnliche Virtualisierungssoftware gemäß eigener Erfahrung anständig, so lange man diese nur für den "Hausgebrauch" einsetzt, sprich das Austesten neuer Software. In diesem Augenblick wird die virtuelle Maschine auch eher nur als Software-Sandbox eingesetzt - was ein großer Unterschied zu Server-Anwendungen darstellt, wo Virtualisierungssoftware auf einer physikalischen Maschine dutzende virtueller Maschinen zur Verfügung stellt, vorzugsweise für günstige Webhosting-Angebote.
Hierbei lassen sich dann durchaus Performance-Vorteile mit einer Hardware-Unterstützung in Form eben der Virtualisierungstechnologien AMD-V und VT (Intel) erzielen. Beim Einsatz im privaten Bereich würde man durch eine Hardware-Unterstützung nur dann Performance-Vorteile realisieren können, wenn man mehrere virtuelle Maschinen gleichzeitig betreibt und diese auch jeweils mit Arbeit auslastet. Lange Rede, kurzer Sinn: Wenn man an der Entscheidung zwischen Core 2 Duo E4x00 und Core 2 Duo E6xx0 steht, wobei nur letztgenannte Serie Intels Virtualisierungstechnologie VT unterstützt, so sollte dieser Unterschied keine Rolle spielen, da man im Hausgebrauch nie auch nur in die Nähe kommt, den Performancevorteil dieser Hardware-Unterstützung auch ausnutzen zu können.
News des 19. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie unter anderem Hard Tecs 4U berichten, gibt es die Bestätigung einiger technischer Daten zur GeForce 8800 GT, welche gleich aber auch wieder neue Fragen aufwerfen. Generell gehen die aktuell berichteten Daten erst einmal auf wohl zwei Informationsquellen zurück: Zum einen eine kurzzeitig zu sehende Produkt-Webseite von Foxconn, derzeit noch bei HardSpell gespiegelt. Diese bestätigt das 256bittige Speicherinterface, die PCI Express 2.0 Eignung, das SingleSlot-Design und die Taktraten von 600/900 MHz. Und desweiteren gibt es noch einen Screenshot seitens der Everest-Macher Lavasys, welcher angeblich die Daten einer GeForce 8800 GT zeigt - darunter auch einen Shader-Takt von 1500 MHz sowie angeblich 112 Shader-Einheiten und 16 TMUs.
Allerdings sind gerade die Angaben von Everest mit Vorsicht zu genießen, da solcherart Systemanalyse-Tools oftmals nicht alle Funktionen der Hardware auch wirklich ausmessen, sondern in den meisten Fällen nur den verwendeten Chip identifizieren und sich die restlichen Daten dann aus einer Datenbank holen - die natürlich fehlerhaft sein kann, ganz besonders vor dem offiziellen Release einer neuen Hardware. Auf der anderen Seite ist es natürlich nicht vollkommen unmöglich, daß die GeForce 8800 GT wirklich so aussieht, wie von Lavalys beschrieben. Vielmehr zeigen Lavalys sogar die einzige mögliche Variante auf, unter welcher die GeForce 8800 GT zu diesem Preis (249 Dollar Listenpreis für die 512-MB-Edition), mit satten 112 Shader-Einheiten und höherem Takt als die GeForce 8800 GTS wirklich möglich ist: Ganz einfach unter dem massiven Verzicht auf Texturierleistung.
Und hier behaupten Lavalys schließlich, die GeForce 8800 GT würde nur über 16 TMUs verfügen - während eine (neue) GeForce 8800 GTS mit 112 Shader-Einheiten gleich über deren 56 verfügen wird. Durch eine solch deutliche Abspeckung bei der Texturierleistung könnte man es sicherlich auffangen, daß die GeForce 8800 GT die (alte) GeForce 8800 GTS bei der Shader-Power in die Tasche steckt (355 zu 230 GFlops MADD) und bei der Speicherbandbreite auch nur knapp zurückhängt (54 zu 60 GB/sec): Würde die Texturierleistung zwischen diesen beiden Karten bei 4,8 zu 12,0 GB/sec (trilineare Füllrate) liegen, würde das vollens ausreichen, um den Preisunterschied zwischen beiden Karten (249 Dollar Listenpreis zu ca. 350 Dollar Straßenpreis) zu erklären bzw. dieem Preisunterschied auch einen äquivalenten Leistungsunterschied zu geben.
Einziger Haken an der ganzen Sache: nVidia müsste dafür den bisher bei der kompletten G8x-Serie einheitlich genutzten Funktionsblock von 8 Shader-Einheiten und 4 Textureneinheiten aufbrechen. Im genauen ergeben die angeblichen 112 Shader-Einheiten und 16 TMUs der GeForce 8800 GT nur sehr seltsame Rechnungen wie 14 Shader-Einheiten und 2 Textureneinheiten in einem Block und ähnliches. Das ganze wird dadurch nicht unmöglich, aber auch nicht gerade wahrscheinlicher. Viel wahrscheinlicher wäre in der Tat eher, daß nVidia den einmal erstellten Funktionsblock nur weiter optimiert, aber gerade bei einem Refreshchip nicht grundlegend neu gestaltet. Nun gut, wirklich sicherer, wie die GeForce 8800 GT nun aussehen wird, sind wir leider auch diesesmal nicht geworden - allerdings ist es bis zum 29. Oktober nun auch nicht mehr weit, insofern kann man das inzwischen auch ganz ruhig abwarten.
Erneut unter anderem ;) Hard Tecs 4U berichten über die neuen Quartalszahlen von AMD - und wie schon in den vorangegangenen Quartalen sehen diese wieder einmal katastrophal aus. Denn trotz Umsatzsteigerung legte man erneut einen Nettoverlust von fast 400 Millionen hin - nicht mehr ganz so viel wie in den Vorgängerquartalen seit der ATI-Übernahme, aber für eine mittelgroße Firma wie AMD immer noch deutlichst zu viel. Nur um die Größenverhältnisse mal geradezurücken: AMD hat in Zeiten, wo es dem Unternehmen vergleichsweise gut ging, zwischen 70 und 200 Millionen Dollar pro Quartal verdient, in den weniger guten Zeiten pendelte man zwischen geringen Verlusten und Gewinnen im niedrigen zweistelligen Millionenbereich. Im Jahr 2007 hat AMD hingegen drei Quartale mit Verlusten im Bereich von jeweils 400 bis 600 Millionen Dollar hingelegt - wenn man das mit früheren Gewinnen ausgleichen wollte, bräuchte man gleich mehrere Jahre dafür.
Und der Zukauf von ATI ist nun auch nicht so groß, als daß AMD dadurch in neue Umsatzsphären katapultiert werden würde und diese "anfängliche" Verluste zukünfig mal so nebenbei ausgleichen könnte. Falsch, AMD hat seine früheren Gewinne gerade in einer klaren Schwächephase von Intel getätigt, auf diese Gunst der Stunde sollte man heuer aber keineswegs mehr hoffen. Momentan ist man jedoch schon allein von der schwarzen Null immer noch genauso weit entfernt wie am Anfang des Jahres, als man schließlich noch Sonderaufwendungen für die ATI-Übernahme in den Bilanzen hatte (die sind angeblich auch jetzt noch drin, was aber mittlerweile langsam zu bezweifeln wäre). Inzwischen kann man kaum noch sagen "langsam aber sicher", sondern eher "schnellstmöglich" sollte AMD in eine wirtschaftliche stabile Lage zurückfinden, denn ansonsten kann das ganze schneller zu Ende sein als man schauen kann.
Für eine Firma mit einem Umsatz von 1,63 Milliarden Dollar sind 0,396 Milliarden Dollar Verlust jedenfalls über alle Maßen ungesund - ganz besonders, wenn man ähnliches gleich in drei aufeinanderfolgenden Quartalen vermelden musste. Wenn da irgendeinem wichtigen AMD-Aktionär mal die Hutschnur platzt, dann geht AMD für ein Butterbrot an Investoren, welche die Firma ausschlachten dürften (inklusive womöglich der Abspaltung von ATI), oder aber an einen anderen Halbleiter-Hersteller, welcher AMD so oder so radikal zusammenkürzen dürfte. Das sind sicherlich keine schönen Aussichten, aber es muß nun einmal erwähnt werden, daß Unternehmen, die über einen solchen Zeitraum solcherart Geschäftszahlen vorlegen (und vorher auch schon nie auf wirtschaftlich besonders sicheren Beinen standen), jederzeit ein solches Schicksal drohen kann.
News des 18. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Laut dem Heise Newsticker gab es beim Grafikkarten-Hersteller GeCube kurzfristig eine Webseite zu neuen ATI-Grafikkarten zu sehen, dabei wurde eine "Radeon HD 3000 Serie" sowie speziell eine "Radeon HD 3800" als vermutlich vorläufiges Top-Produkt erwähnt. Diese Namensnennung widerspricht natürlich deutlich dem bisher bekannten, wonach die ATI-Grafikchips der kommenden Refresh-Generation allesamt noch mit zur "Radeon HD 2000 Serie" zu rechnen wären. Welche der Angaben nun richtig ist, ist schwer zu sagen - möglich ist von gezielter Desinformation bis hin zur Entscheidung, die kommende Grafikkarten-Serie doch noch kurzfristig umzubenennen, eigentlich alles.
Bei Phoronix hat man sich angesehen, wie gut derzeit nVidias SLI unter Linux läuft. Angesichts des allgemeinen Performance-Rückstandes von Linux gegenüber Windows bei Grafikkarten läßt sich SLI unter Linux gar nicht einmal schlecht an: Zwar liegt Windows bei der absoluten Performance weiterhin klar vorn, aber relativ gesehen sind die Performancezuwächse von SLI unter Linux absolut nicht zu beanstanden und liegen teilweise nahe der 100-Prozent-Marke und damit oftmals sogar geringfügig besser als unter Windows. Nachteiligerweise verdeutlichen aber gerade die SLI-Benchmarks unter Linux den wahnwitzigen Rückstand des Linux-Treibers bei der 3D-Performance: Denn oftmals kam der SLI-Wert unter Linux nicht an das Ergebnis einer einzelnen Grafikkarte unter Windows heran. Hier gibt es also noch mehr als genügend Arbeit für das Treiber-Team von nVidia.
Gemäß Fudzilla soll es nun doch wieder Phenom FX Prozessoren mit bis zu 2.8 GHz noch dieses Jahr geben. Zwar mag diese Quelle bei weitem nicht so sicher aussehen wie noch die Meldung von letzter Woche, wonach der Phenom FX erst nächstes Jahr antreten soll, auf der anderen Seite wäre es zweifellos dumm von AMD, seine Spitzen-CPU mit einer wirklich schlagkräftigen Taktfrequenz nicht wenigstens noch dieses Jahr vorzustellen - egal, ob man diese CPU dann auch in Stückzahlen liefern kann. Sollte AMD hingegen im November mit einem gewöhnlichen Phenom 9600 mit 2.4 GHz gegen einen Core 2 Extreme QX9650 mit 3.0 GHz antreten wollen, dürfte der hierbei zu erwartende Intel-Sieg kein gutes Vorzeichen für die gesamte noch folgende K10-Serie ergeben.
Bei Tech ARP gibt es einige Details zu Intels Skulltrail-Plattform für extreme HighEnd-Ansprüche, welche zwei CPUs und bis zu vier Grafikkarten Platz bieten soll. Dafür wird der Spaß aber auch teuer - und sehr exklusiv: So soll allein das Skulltrail-Mainboard 600 Dollar kosten, von den benötigten Xeon-Prozessoren und FB-DIMM Speicher gar nicht erst zu reden. Dafür will man aber auch nur 2000 Stück dieses Mainboards auflegen, wovon dann auch noch die Exemplare für die Presse, OEMs und VIPs abgehen dürften. Die Formulierung "in den Markt bringen" klingt angesichts dessen dann schon reichlich abgehoben, bei Skulltrail handelt es sich im besten Fall noch um eine exklusive Sonderserie - und wenn man es kritisch betrachten will, um nichts anderes als eine Marketing-Aktion in Reinstform.
Shortcuts: WinFuture berichten über die Bildqualitätsunterschiede zwischen der DirectX9- und der Direct3D10-Version von Crysis, dazu gibt es auch entsprechendes Bildmaterial in Form von Screenshots und einem Video. Die Direct3D10-Version sieht in der Tat schöner aus, allerdings ist der Sprung auch nicht wirklich weltbewegend und es steht hier natürlich immer noch die Frage im Raum, wieviel mehr Rohleistung man dafür braucht. Wie die DigiTimes ausführt, will Intel mit der "GMA X4500" Grafiklösung im GM45 Mainboard-Chipsatz zukünftig auch integrierte Direct3D10-Grafik für den Mobile-Bereich anzubieten. Allerdings soll es dieses Vergnügen erst im zweiten Quartal 2008 geben - wobei zu hoffen wäre, daß Intel bis zu diesem Zeitpunkt den Direct3D10-unterstützenden Treiber für die GMA X3500 Grafiklösung des Desktop-Bereichs eventuell fertig hat ;).
News des 17. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Beim PreisRoboter-Preisvergleich finden sich erste Listungen zur Radeon HD 2900 GT, einer weiteren R600-Variante, welche allerdings mit einigen Abspeckungen (nur 240 Shader-Einheiten, nur 256 Bit DDR Speicherinterface) antreten wird. Die Preislage reicht derzeit von 170 bis 200 Euro, wobei das obere Ende dieser Skala sicherlich vollkommen uninteressant ist, sind doch die deutlich schlagkräftigeren Radeon HD 2900 Pro Karten schon für knapp über 200 Euro zu haben. Selbst für 170 Euro halten wir die Absatzchancen der Radeon HD 2900 GT für begrenzt, denn für einen Preisunterschied von 50 Euro bzw. 23 Prozent erhält man eine Karte, welcher gegenüber der Radeon HD 2900 Pro 25 Prozent an Rechenleistung und satte 50 Prozent an Speicherbandbreite fehlen, hinzu kommt der auf 256 MB halbierte Grafikkarten-Speicher. Aufgrund dieses nicht gerade geringen Hardware-Unterschieds wäre ein Preis von 150 bis 160 Euro für die Radeon HD 2900 GT eher gerechtfertigt.
Gemäß Golem versucht die Lobby-Organisation der US-Musikindustrie RIAA nunmehr auch gegen US-amerikanische Usenet-Provider vorzugehen, da diese in letzterer Zeit doch recht offensiv die Möglichkeit des Filesharings über das Usenet bewerben. Diese Möglichkeit besteht im Usenet zwar prinzipiell schon seit den 80er Jahren (!), wird aber in den letzter Zeit verstärkt genutzt - auch weil das Usenet deutlich etablierter ist als gewöhnliche Filesharing-Programme und durch seine dezentrale Struktur zudem sehr schwer zu bekämpfen. Da es keinen zentralen Server gibt, sondern alle der weltweit tausenden Usenet-Server ihre jeweiligen Newsgroups untereinander spiegeln, ist eine einmal in die Welt gesetzte Information oder Datei kaum mehr aus dieser entfernbar.
Da das Filesharing über das Usenet jedoch recht hohe Anbindungen seitens der Usenet-Provider (Betreiber eines Usenet-Servers) erfordern, sind die Binary-Groups (Gruppen des Usenets zum alleinigen Zweck des Dateitausches) eigentlich nicht über freie Usenet-Server zu bekommen, sondern in aller Regel nur über kostenpflichtige Abos. Hier liegt auch der einzige wirksame Angriffspunkt gegenüber dem Usenet: Bei den Server-Betreibern, welche Binary-Groups führen (und damit Geld verdienen, was sie in den Augen der Rechteinhalber zu Mittätern macht). Deren Verteidigungsstrategie dürfte in aller Regel darin liegen, auf die Struktur des Usenets zu verweisen, welche es dem Server-Betreiber nur ermöglicht, einzelne Usenet-Groups entweder zuzulassen oder gänzlich auszuschließen - (gewöhnlich) nicht aber einzelne Postings oder Files zu reglementieren. Nachteiligerweise sind einige Usenet-Groups inzwischen total in den Händen von Urheberrechtsverletzern, könnte ein Gericht sicherlich deren kompletten Bann anordnen (worauf sich die Nutzer schlicht in andere Groups zurückziehen).
In der Summe ist das Phänomen des Dateitausches über das Usenet aber sowieso niemals wirklich in den Griff zu bekommen, da es inzwischen auch reichlich Usenet-Provider mit Zugriff auf die Binary-Groups im für US-amerikanische und EU-europäische Gerichte unerreichbaren Ausland gibt. Als letzte Maßnahme bliebe dann nur noch das komplette Blocken des Usenet-Internetverkehrs bei den Internet Service Providern - in diesem Fall kann das Usenet aber seinen großen Trumpf gegenüber gewöhnlichen Filesharing-Programmen ausspielen, daß es eben auch mehr als genügend vollkommen legalen Inhalt enthält und eigentlich ja auch eher eine Diskussion- und keine Dateitausch-Plattform ist. Insofern ist das Usenet nicht so einfach in eine "dunkle Ecke" rückbar wie das bei Filesharing-Programmen möglich ist - womit das Problem des Dateitauschs über das Usenet auch nicht so einfach aus der Welt zu schaffen sein dürfte.
Shortcuts: Hard Tecs 4U vermelden neue Grafikkarten seitens Matrox für den Business-Einsatz. Allerdings basieren auch die neuen Grafikkarten weiterhin noch auf der Parhelia-Architektur, welche nunmehr auch schon mehr als fünf Jahre auf dem Buckel hat und für den Spiele-Einsatz inzwischen deutlich nicht mehr zu gebrauchen ist. Wie WinFuture berichten, soll ATIs "CrossFire X" neben der Möglichkeit von bis zu vier Grafikkarten auch noch weitere neue Technologien enthalten: Mit "CrossFire Overdrive" sollen sich die Taktraten der angesteuerten Grafikkarte je nach Situation dynamisch anpassen, mit "Hybrid CrossFire" will man sogar eventuell auf dem Mainboard integrierte ATI-Grafikchips mit für CrossFire nutzen. Letztere Idee hatte auch nVidia ("Hybrid SLI"), bei beiden Lösungen ist allerdings zu bezweifeln, ob sich hiermit (angesichts der Leistungsschwäche integrierter Lösungen) wirklich Performance-Gewinne realisieren lassen.
News des 16. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die X-bit Labs berichten ein wenig über Intels Pläne zur kommenden Nehalem-Prozessorenarchitektur bzw. den daraus resultierenden Prozessoren. So soll im vierten Quartal des kommenden Jahres eine komplette Modellpalette an Nehalem-Prozessoren für Mobile-, Desktop- und Server-Markt erscheinen, allerdings anfänglich erst einmal nur DualCore- und QuadCore-Modelle. Die mit der Nehalem-Architektur ebenfalls angedachten OctaCore-Prozessoren (mit acht physikalischen Kernen) sollen allerdings auch noch 2008 seitens Intel ausgeliefert werden - was dann aber auch in einem Markteintritt erst Anfang 2009 enden könnte. Zudem wird es jene Modelle mit auf dem Prozessor-Trägermaterial integriertem Grafikkern auch erst 2009 und somit nicht gleich vom Start weg geben.
Bei Bit-Tech hat man sich den aktuellen Haupt-Vorteil des Intel X38 Mainboard-Chipsatzes angesehen: Die Fähigkeit, zwei PCI Express Grafikkarten jeweils mit x16 ansteuern zu können. Beim P35-Chipsatz wird die zweite Grafikkarte zumeist darüber realisiert, daß diese über die Southbridge und dort elektrisch nur mit x4 angebunden wird, was natürlich für den HighEnd-Anspruch von CrossFire nur eine suboptimale Lösung darstellt. Eine klar bessere Variante benutzen diese Mainboard-Hersteller, welche dem P35-Chipsatz einen extra PCI Express Splitter-Chip spendieren, welcher die x16-Leitung der Northbridge in zwei x8-Leitungen aufsplittet - aber das kostet natürlich mehr und ist nur auf den wenigstens P35-Platinen so gelöst.
Nichts desto trotz scheint letztgenannte Variante wohl sehr sinnvoll zu sein, will man auf seiner CrossFire-Plattform keine Leistung verschenken. Wie Bit-Tech ermittelten, erreichte die x8/x8-Konfiguration beim P35-Chipsatz einen satten Vorteil von 12 Prozent gegenüber der x16/x4-Konfiguration beim gleichen Chipsatz. Für eine absolute "Begleittechnologie" ist das sehr viel, normalerweise liegen die Performance-Differenzen bei Mainboard-Chipsätzen im niedrigen einstelligen Prozentbereich. Da diese Anbindungsperformance letztlich aber sowieso nur die CPU- und nicht die Grafikkarten-Leistung unterstützt, könnte der Vorteil bei passenden Benchmarks (Savegames statt Timedemos, sehr niedrige Auflösungen) eventuell noch größer ausfallen als hier ausgemessen.
Womöglich würde sich dann auch die x16/x16-Konfiguration des X38-Chipsatzes besser schlagen, im Test von Bit-Tech lag diese erst einmal gegenüber der x8/x8-Konfiguration beim P35-Chipsatz minimal zurück. Dies dürfte aber eher dadurch zu erklären sein, daß X38-Mainboards derzeit natürlich noch nicht derart ausgereift sind - einige der X38-Ergebnisse deuten denn durchaus in die Richtung, daß die x16/x16-Konfiguration des X38-Chipsatzes womöglich in der Zukunft Leistungsgewinne von bis zu 10 Prozent realisieren kann. Aufgrund der Bindung an die CPU-Performance wird sich dies natürlich weniger in steigenden Durchschnitts-Frameraten äußern, dafür könnten jedoch die Frameraten in langsamen bis sehr langsamen Szenen deutlich steigen.
Der Heise Newsticker vermeldet erste bei Preisvergleichen aufgetauchte Mainboards für AMDs K10-Prozessoren. Beide Mainboards - eines von Gigabyte und eines von MSI tragen dabei AMDs RD790-Chipsatz, welcher inzwischen in "790FX" umbenannt wurde. Zudem verfügen beide Mainboards interessanter über gleich vier PCI Express 2.0 Grafikkarten-Steckplätze, welche im normalen CrossFire-Betrieb mit 2x16 und im Quad-CrossFire-Betrieb mit 4x8 angebunden sind. Ob sich vier Grafikkarten auf solcherart Boards allerdings lohnen, darf doch bezweifelt werden, weil in beiden Fällen nur vier SingleSlot-Grafikkarten verbaubar sind, was echte HighEnd-Lösungen nun einmal ausschließt. Jene Problematik ist natürlich nicht auf die AMD-Mainboards beschränkt, auch nVidia würde mit Quad-SLI vor ähnliche Problem gestellt werden - nicht umsonst hat man sich schließlich für Triple-SLI als neue Extreme-Lösung entschieden.
Golem berichten über die Nachbessungen an der Aktivierungsprozedur von BioShock, welche wohl bisher einigen Usern aufgrund ihrer Limitationen sauer aufgestoßen war. Interessant ist hier aber vor allem der Nebensatz, daß der von BioShock verwandte SecuROM-Kopierschutzes auch nach regelkonformer Deinstallation des Spiels weiterhin auf der Platte verbleibt. Dies könnte womöglich noch für Ärger für den BioShock-Publisher sorgen, denn bei dem SecuROM-Kopierschutz handelt es sich schließlich um einen regelrechten Treiber, welcher direkt auf die Hardware zugreift und in einigen Fällen für diverse Probleme mit dieser sorgt. Wenn man damit ein Stück guter Software verseuchen will, ist das die eine Sache, aber nach der Deinstallation dieser Software sollte das System doch wirklich vollkommen frei von allen solchen Nebenwirkungen sein. Ansonsten könnte man ja glatt auf die Idee kommen, daß eine Raubkopie die technisch bessere und vom Nervenaufwand her schonendere Lösung sei ;).
Der Heise Newsticker berichtet in Berufung auf den Chaos Computer Club (CCC) darüber, wie "sicher" unsere Politiker und Amtsträger die derzeitigen Reisepässe mit RFID-Funkchip wirklich halten: So trägt der Präsident des Bundeskriminalamts Jörg Ziercke den seinigen Pass in einer Abschirmhülle - wenn Otto Normalbürger das so macht, gilt das sofort als paranoid. Noch klarer ist die Angelegenheit bei Diplomatenpässen: Diese enthalten - bitte auf der Zunge zergehen lassen - "wegen der besonderen Gefährdungslage" generell keine RFID-Chips. Jegliche dummen Sprüche seitens der Politik ob der besonderen Sicherheit von RFID-Pässen sind damit deutlichst ad absurdum geführt. Nichts desto trotz wird am 1. November die zweite Stufe der RFID-Reisepässe mit der vorherigen Abgabe von Fingerabdrücken starten, wie schon erwähnt soll ab 2009 dieses zweifelhafte Vergnügen dann auch für den gewöhnlichen Personalausweis gelten.
News des 15. Oktober 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die ComputerBase hat einen umfangreichen Artikel zum ATI Catalyst 7.10 online gebracht, mit welchem ATIs "Wundertreiber" unter einer Radeon HD 2900 XT beleuchtet wird. Die Performance-Zuwäche mit einer einzelne Grafikkarte halten sich allerdings arg in Grenzen: Unter DirectX9-Spielen passiert da im Prinzip gar nichts, unter Direct3D10-Spielen waren es wenigstens 5 bis 15 Prozent Leistungsgewinn - allerdings sahen die Ankündigungen seitens ATI doch deutlich vielversprechender aus. Derzeit scheint der neue Treiber mehrheitlich nur den CrossFire-Modus unter Direct3D10-Spielen so zu beschleunigen, wie man sich das gedacht hatte. Unter dieser Konstellation werden dann allerdings auch wirklich starke Leistungsgewinne erreicht, wie zuletzt schon berichtet.
Bei Hot Hardware hat man sich die aktuellen Direct3D10 Mainstream- und HighEnd-Beschleuniger in den bisher vorliegenden Direct3D10-Titeln angesehen. Dabei fand man auch Zeit für einige interessante Bildqualitätsvergleiche zwischen den DirectX9- und Direct3D10-Versionen der jeweiligen Spiele und ermittelte somit auch einige Punkte, welche pro der Optik von Direct3D10 sprechen. Allerdings gibt es hierbei auch einen Fall (Call of Juarez), wo die bessere Optik der Direct3D10-Version eigentlich nicht durch Direct3D10 zu begründen ist, dieselbe oder eine ähnliche Bildqualität (wohl auch ohne größeren Performance-Unterschied) auch unter DirectX9 möglich wäre. In der Summe bleibt es somit trotzdem nicht berauschend, was Direct3D10 derzeit an Vorteilen zu bieten hat - wobei die Zeit natürlich klar für die neuere 3D-Schnittstelle arbeitet.
Die X-bit Labs haben neue Informationen zu den kommenden 45nm-Prozessoren von Intel. Danach scheint es dieses Jahr keinen 45nm-Prozessor für das Desktop-Segment mehr zu geben, obwohl bisherige Meldungen hierzu noch von einem Core 2 Extreme kurz vor Jahresende ausgingen. Aber nachdem AMD seine diesbezüglichen Pläne eines HighEnd-Prozessors auf K10-Basis noch vor Jahresende offensichtlich gestrichen hat und dieses Jahr "nur" K10 QuadCore-Modelle mit 2.2 und 2.4 GHz bringen wird, besteht für Intel wohl auch nicht mehr die Notwendigkeit des vorgezogenen Launches eines einzelnen 45nm HighEnd-Modells. Demzufolge wird man die komplette neue Riege an 45nm-Prozessoren "erst" im Januar in den Markt bringen.
Im DualCore-Bereich versucht man es dabei mit Taktfrequenzen von 2.66 bis 3.16 GHz, im QuadCore-Bereich geht man von 2.5 bis 2.83 GHz und ganz oben drauf wird Intel noch einen Core 2 Extreme QX9650 mit 3.0 GHz Takt setzen. Gegenüber den jetzt verfügbaren Prozessoren ist dies kein wesentlicher Sprung, auf der anderen Seite waren Intels 45nm-Prozessoren auch nie als große neue Architektur, sondern immer nur als Refresh angekündigt. Der größte Vorteil der neuen Intel-Prozessoren dürfte sich sowieso erst mittelfristig zeigen: Durch den Wechsel der Fertigungstechnologie von 65 auf 45nm werden höhere Taktfrequenzen möglich, zugleich steigt wieder der Übertaktungs-Spielraum. Sicherlich dürfte es hier mit den ersten Steppings noch keine dramatischen Unterschiede zu den aktuellen 65nm-Prozessoren von Intel geben, schätzungsweise ab der Mitte des Jahres sollte hier aber das Potential der 45nm-Serie freigelegt werden.
Daneben noch interessant ist die preisliche Einordnung der Dual- und QuadCore-Modelle: Wie schon in der aktuellen Preisliste setzt Intel die DualCore-Modelle nur noch in Mainstream-Bereiche an, der höchste Preis für ein DualCore-Modell liegt bei 266 Dollar Listenpreis für den Core 2 Duo E8500 mit 3.16 GHz. Genau an diesem Preispunkt fängt dann auch schon der kleinste QuadCore an - der Core 2 Quad Q9300 mit 2.5 GHz und allerdings auf 4x 1,5 MB beschnittenem Level2-Cache (alle anderen 45nm-Prozessoren haben 3 MB Level2 Cache pro Core). Intel setzt hiermit also wieder ein deutliches Zeichen pro der QuadCore-Modelle. Dabei erscheinen die kleineren QuadCore-Modelle durchaus als vernünftige Lösungen: Nicht deutlich höherer Preis gegenüber dem schnellsten DualCore-Modell und nicht deutlich niedrigere Taktraten.
So müsste ein Core 2 Quad Q9450 mit 2.66 GHz (der Q9300 ist hier schwer zu vergleichen wegen des beschnittenen Level2-Caches) nur 19 Prozent Leistungsgewinn durch QuadCore-Optimierungen aufweisen, um auf das Leistungsniveau eines Core 2 Duo E8500 zu kommen. Wenngleich zwischen diesen beiden Prozessoren dann auch noch ein Preisunterschied von ebenfalls 19 Prozent liegt, erscheint dies doch als machbare Aufgabe - vor allem weil die Zeit schließlich für die QuadCore-Optimierungen spielt. Bei den größeren QuadCore-Prozessoren wird dieses Verhältnis dann jedoch immer ungünstiger: Zwar liegen sie taktmäßig noch näher am Core 2 Duo E8500 mit dessen 3.16 GHz, erklimmen dann aber steil die Preisleiter und weisen demzufolge zumeist das deutlich schlechtere Preis/Leistungsverhältnis aus.
Shortcuts: Unter anderem gemäß der Berichterstattung von Silicon.de scheint die Windows-Update-Funktion wieder einmal ein Eigenleben entwickelt zu haben. Da Microsoft diesesmal alles abstreitet, scheint es sich dabei wohl nicht wieder um eine Aktualisierung der Update-Funktion selber zu handeln, vielmehr gibt es Hinweise darauf, daß andere Microsoft-Programme (Office & Onecare) die Benutzereinstellungen bei Windows Update selbstätig überschreiben - was natürlich genauso falsch ist. Wie der Heise Newsticker berichtet, ist die eigentlich demnächst anstehende Verschärfung der Jugendschutzgesetzgebung auch aufgrund des jüngsten und heftig diskutierten Vorschlags zum Testkauf von für Jugendliche verbotenen Gütern durch Jugendliche selbst vorerst auf Eis gelegt worden. Damit wird jedoch auch die mit diesem Gesetzeswerk geplante deutliche Gesetzesverschärfung gegenüber "Killerspielen" zumindestens nicht auf dem Eilweg durchgepeitscht werden, ergibt sich somit eine neue Chance zur Diskussion.