News-Archiv 26. Juni - 2. Juli 2006 (26. Kalenderwoche)
1./2. Juli 30. Juni 29. Juni 28. Juni 27. Juni 26. Juni
News des 1./2. Juli 2006 |
DailyTech berichten von einem hochinteressantem Rechtsstreit, welchen der Festplattenhersteller Western Digital kürzlich vor einem US-amerikanischen Gericht verlor. Dabei ging es um nichts weniger als den ständigen Ärger mit der Angabe der Festplattenhersteller zur Festplattengröße: Eine mit 80 GB beworbene Festplatte erreicht formatiert unter Windows gerade einmal eine Nutzgröße von 74 GB - was weniger auf den Formatierungsverlust (bei NTFS sowieso gering) zurückzuführen ist, sondern vielmehr aus der differierenden Auslegung der Maßeinheiten zwischen Festplatten- und Betriebssystemhersteller resultiert. Denn die Festplattenhersteller zählen ihre Platten gewöhnlich in Form von 1 MegaByte = 1.000.000 Byte, während die Betriebssystemhersteller hier der Zählung 1 MegaByte = 1.048.576 Byte den Vorzug geben ...
... Bei Festplatten á 80 GB erreicht diese andere Rechnung immerhin schon eine Differenz von runden 7 Prozent, was viele Anwender nach einem Festplattenkauf schon einmal höchstselbst erleben durften. Die größte Ironie an dieser Geschichte dürfte aber sein, daß rein technisch die Festplattenhersteller durchaus im Recht mit ihrer Rechnung sind: Laut offizieller Standardisierung sind die Präfixe kilo, mega, giga und tera für die Bytes-Maßeinheit nicht mehr zu verwenden bzw. ergeben bei Verwendung nicht die Werte 210, 220, 230 und 240, sondern wie von allen anderen Maßeinheiten gewohnt die Werte 103, 106, 109 und 1012. Offiziell vorgeschrieben sind seit 1999 für die Bytes-Maßeinheit dagegen die Präfixe kibi (Ki, 210), mibi (Mi, 220), gibi (Gi, 230) und tebi (Ti, 240), so daß zumindestens nach dem Sinn dieser Standarisierung zweifelsfrei die Betriebssystemhersteller mit ihren Angaben falsch liegen ...
... Die umgangssprachlich als "80 GB" bezeichnete Festplatte hat demnach ganz offiziell 80.000.000.000 Byte bzw. 80 GigaByte oder aber neumodischerweise 74,5 gibiByte. Einen Haken gibt es allerdings: Trotz der mittlerweile sieben Jahre zurückliegenden Standardisierung benutzt kaum jemand das kibi/mibi/gibi/tebi-System, was primär wohl zwei Ursachen haben dürfte. Erstens einmal sind mehr als genügend Anwender und im Prinzip das gesamte Personal der IT-Branche mit der kleinen Eigenheit der kilo/Mega/Giga/Tera-Präfixe vertraut: Treffen diese auf Bytes als Maßeinheit, gilt schlicht nicht das Dezimal-, sondern das Binär-Zahlensystem - ganz egal, ob die Standardisierung anders lautet. Dies hat sich über die Jahrzehnte dermaßen eingebürgert, daß dies schwerlich so einfach mit einer simplen Standardisierung verdrängt werden kann ...
... Und zweitens muß gesagt werden, daß es gerade in der Industrie am Willen fehlt, das kibi/mibi/gibi/tebi-System konsequent einzuführen: Im gewöhnlichen suchen sich nämlich die Hersteller jenes Präfix-System aus, welches die höheren Zahlen verspricht. Jetzt werden zwar möglicherweise die Festplattenhersteller gezwungen werden, davon abzukehren, aber andere Hersteller werden den Teufel tun und einen 30 GigaByte/sec Speicherbus (umgangssprachlich) korrekt mit 27,9 GigaByte/sec angeben - oder noch schlimmer, (offiziell korrekt) mit 27,9 gibiByte/sec. Denn trotz das letzteres gemäß der Standardisierung absolut richtig ist, erreichte man damit nur eine höchstmögliche Kundenverwirrung, womit letztlich niemanden gedient wäre. Insofern wird es wohl für die nächsten Jahre noch beim altbewähten System bleiben, daß man 230 Byte ungestraft als 1 GigaByte aka 1.073.741.824 Byte bezeichnen darf. Einzige die Festplattenhersteller werden nunmehr gezwungen, ihre Größenangaben dementsprechend anzupassen ...
... Was im Sinne der meisten Endkunden nur positiv ist - denn die wollen keine weiteren Maßeinheiten, sondern schlicht und ergreifend dassselbe an Plattengröße, was man glaubt bezahlt zu haben, auch unter Windows im Explorer-Dateimanager vorfinden. Zwar geben DailyTech nicht an, ob Western Digital dies künftig so handbaben wird, aber da der Festplattenhersteller das Urteil angenommen hat und sogar Schadensersatz an die Kundschaft leisten wird (für zwischen dem 22. März 2001 und dem 15. Februar 2006 erworbene WD-Platten gibt es unter der Angabe der Seriennummer ein kostenloses Backup-Programm bei Western Digital), kann man davon ausgehen, daß die WD-Bezeichnungspolitik sich demnächst ändern wird. Und gegen den nächsten Festplattenhersteller in Form von Seagate ist im übrigen schon eine gleichlautende Klage desselben Anwaltsbüros, welches Western Digital verklagt hat, am laufen.
Der Heise Newsticker berichtet über die Ankündigung von DDR3-Speicher für den Mobile-Einsatz, sprich DDR3-SODIMMs, seitens des Speicherherstellers Qimonda (ehemals Infineon). Nun wird DDR3-Speicher auf dem Desktop noch eine längere Zeit auf sich warten lassen, da Intel einen Chipsatz-seitigen Support von DDR3 erst für Mitte 2007 angekündigt hat - und AMD wie üblich erst auf den schon fahrenden Zug aufspringen wird, da man bei der von AMD verwendeten Technologie des Speichercontrollers im Prozessor zwingend darauf angewiesen ist, daß DDR3-Speicher zu gleichen oder zumindestens ähnlichen Preisen wie DDR2 erhältlich ist, um die eigene Kundschaft nicht in eine Kostenfalle zu schicken ...
... Doch abseits dieser Überlegungen für den Desktop-Marktes könnte sich für DDR3-Speicher, welcher vom Fortschritt der Speicherhersteller her betrachtet ganz offensichtlich erheblich früher in den Markt kommen könnte als erst Mitte 2007, dann doch eventuell schon in einigen Monaten im Markt einfinden: Denn abseits des Punktes, daß die jetzt produzierten DDR3-Speicher von der Taktfrequenz her noch keinen Vorteil gegenüber DDR2 haben, liegt DDR3 zweifellos bei der Stromaufnahme vorn - bzw. hinten, denn die Versorgungsspannung sinkt zwischen DDR2 und DDR3 von 1.8 auf 1.5 Volt, was einen grob um 40 Prozent niedrigeren Stromverbrauch ermöglicht (zwischen 1.5 und 1.8V liegen nur 20%, allerdings wirkt sich die Versorgungsspannung prinzipiell im Quadrat auf die Leistungsaufnahme auf) ...
... Im Desktopbereich mag dies noch zumeist unerheblich sein, im Mobile-Bereich dürften die Notebook-Hersteller jedoch beherzt zugreifen, sofern der Mehrpreis ertragbar ist - schließlich kann man dann auch schon wieder geringfügig an der Kühllösung sparen, wenn sich das ganze Gerät nicht so stark aufheizt. Zwar benötigen auch die Notebook-Hersteller erst passende Mainboard-Chipsätze mit dem Support von DDR3-Speicher (und die wird es dann natürlich nur für Intel-Prozessoren geben), allerdings wäre es ja durchaus denkbar, daß andere Chipsatz-Hersteller hier eher als Intel vorpreschen und diese Nische zuerst besetzen werden - ATI hat jedenfalls schon Samples von DDR3 SO-DIMM seitens Qimonda in Empfang nehmen dürfen.
Nochmals laut dem Heise Newsticker hat Suchmaschinen-Primus Google vor einem französischen Gericht eine Niederlage gegen einen Hersteller von Luxuswaren einstecken müssen, nachdem Google bei Suchanfragen zu diesem Hersteller bzw. dessen Produkten auch Links zu Produktfälschern angezeigt hatte. Richtig süffisant ist hierbei die Begründung der Richter: Danach wäre das Ausfiltern der Webseiten der Produktfälscher durch Google problemlos machbar gewesen - dies habe Google durch das Ausfiltern politisch unerwünschter Seiten bei der chinesischen Version von Google schon von ganz alleine bewiesen ;).
News des 30. Juni 2006 |
Gleich noch als Nachtrag zu unserer gestrigen News zum ATI R600 Grafikchip wäre eine Berichterstattung seitens The Inquirer zu erwähnen, welche sich wieder auf die unified Shader dieses Chips bezieht: Danach will ATI auch unter DirectX9-Spielen Gewinn aus dieser Architektur ziehen, der R600-Treiber soll hier ebenso wie unter Direct3D10 per Standard gefordert den einzelnen Shader-Einheiten entweder Vertexshader- oder Pixelshader-Programme zuweisen. Damit sollte speziell auch unter DirectX9 ein gewisser Geschwindigkeitsschub herauskommen, weil der R600-Chip durch diese dynamische Lastverteilung deutlich besser ausgelastet wird als Grafikchips mit festen Vertexshader- und Pixelshader-Einheiten.
Laut dem Heise Newsticker zieht Microsoft nun die Zügel enger und will eine ständige Echtheitsprüfung ab Herbst für jeden Windows XP Benutzer verbindlich machen. Bisher gab es die bekannte Windows-Aktivierung nach der Installation des Betriebssystems sowie die seit letztem Jahr mittels Windows Update auf den Rechner vieler Anwender geschummelte "WGA-Validation", welche die Echtheit der Windows- oder/und Office-Version fortwährend überprüft. Patches und andere Downloads von Microsoft-Seiten standen dann nur noch nach bestandener Echtheitsprüfung zur Verfügung - sicherheitskritische Patches gab es aber weiterhin ohne Echtheitsprüfung. Ab dem Herbst aber soll diese Echtheitsprüfung mittels der WGA-Validation deutlich restriktiver eingesetzt werden ...
... Laut dem Heise Newsticker heist es hierzu: Wer dann nicht regelmäßig bei Windows Update vorbeischaut und die WGA-Validation aktualisiert, wird - trotz einwandfreier Lizenz - wie ein Raubkopierer behandelt werden, Windows XP wird also den Nutzer entsprechend warnen und dann nach 30 Tagen seine Arbeit einstellen. Bei der eigentlichen Quelle, dem [IP] Block steht allerdings etwas geringfügig anderes: Danach wird die WGA-Validation ab dem Herbst für alle Nutzer verbindlich werden, wer sie nicht auf dem Rechner hat, wird - trotz einwandfreier Lizenz - wie ein Raubkopierer behandelt werden, Windows XP wird also den Nutzer entsprechend warnen und dann nach 30 Tagen seine Arbeit einstellen ...
... Bei beiden Versionen gibt es kleine, aber feine Unterschiede: Laut der Version des Heise Newsticker dürfte die eigentliche Änderung in der WGA-Validation selber liegen - wer sie also nicht installiert (oder rechtzeitig deinstalliert), dürfte sich um diese Problematik herumwinden können. Wer sie allerdings installiert hat, wäre dann dazu gezwungen, sich spätestens immer aller 30 Tage bei Windows Update blicken zu lassen, weil sich sonst Windows XP selber deaktivieren würde - trotz ansonsten gültiger Lizenz. Gerade wegen dieses Punktes können wir uns nicht vorstellen, daß die Version des Heise Newsticker stimmt, weil diese Einschränkung viel zu restriktiv ist und Microsoft sich mit dieser nur reichlich Rechtsstreitigkeiten an Land ziehen würde ...
... Insofern tendieren wir derzeit eher dazu, der Version des [IP] Blogs Glauben zu schenken. Diese bedeutet aber auch, daß die eigentliche Änderung nicht in der WGA-Validierung stattfindet, da Windows XP schließlich ab Herbst schon anfangen soll zu meckern, sofern diese Komponenten überhaupt noch nicht installiert ist. Die eigentliche Änderung dürfte also in einer anderen Windows-Komponente liegen, welche ab Herbst die WGA-Validierung zum zwingend benötigten Systembestandteil macht - mal schauen, wie clever Microsoft dieses "Update" zu tarnen versucht. Sofern sich dieses "Update" identifizieren läßt, kann man natürlich dessen Installation verweigern, womit dann auch Microsofts Idee einer verbindlichen WGA-Validierung obsolet wäre.
News des 29. Juni 2006 |
In Bezugnahme auf die R600-Berichterstattung vom Wochenende wäre doch noch ein eventuell interessanter Punkt zu diesem kommenden Direct3D10-Chip nachzutragen. Denn es ergibt sich aus der häufig anzutreffenden Aussage, der R600 wäre ein ziemlich großgeratener Chip, zusammen mit der Information, daß dieser "nur" 64 Shader-Einheiten tragen wird (der R580-Chip hat hier immerhin auch schon 56) die Annahme, daß die unified Shader-Einheiten des R600-Chip gegenüber herkömmlichen Shader-Einheiten doch einigermaßen mehr Platz auf dem Chip belegen. Dies könnte auch das Gerücht bestätigen, die kommende Chip-Generation würde deutlich mehr Strom verbrauchen als die jetzige Chipgeneration ...
... Sofern der R600-Chip bei 650 MHz Chiptakt deutlich mehr Transistoren aufweist als der R580-Chip, dürfte es bei gleicher 90nm Fertigungstechnologie klar in die Richtung eines höheren Stromverbrauchs gehen, selbst Verbeserungen an der Fertigungstechnologie sowie eine eventuelle Absenkung der Chipspannung sollten daran nichts wesentliches ändern können. Ob dies dann die hierzu auch schon einmal genannten 300 Watt Verlustleistung erreicht, wäre allerdings ebenso zu bezweifeln - für eine solch hohe Verlustleistung fehlt derzeit schlicht die auf dem vorhandenen Platz passende Kühltechnologie, sofern man keine den Kostenrahmen sprengende Technologien wie Wasserkühlungen oder andere Hochleistungskühlungen auf Serienkarten bringen will ...
... Im übrigen dürfte sich an den vermutlich sehr transistorenaufwendigen unified Shadern auch ergeben, warum nVidia für den G80-Chip noch nicht solcherart Shader setzt, sondern weiterhin nach Vertexshader- und Pixelshader-Einheiten unterteilt und Direct3D10 die von dieser API geforderten unified Shader nur per Treiber vorspielt: Möglicherweise ist nVidia derzeit der Transistoren-Aufwand schlicht noch zu groß für einen Chip, welcher auf unified Shader per Hardware setzt. nVidia könnte hier also mit einem geringerem Silizium-Einsatz beim G80-Chip antreten und dafür die höheren Taktraten in der Hinterhand haben - einmal abgesehen davon, daß dedizierte Vertexshader- und Pixelshader-Einheiten normalerweise immer schneller sein sollten als unified Shader-Einheiten, welche sowohl Vertexshader- als auch Pixelshader-Programme abarbeiten können müssen ...
... Auf ATI-Seite steht hier allerdings der Vorteil entgegen, daß nVidia die Shader-Einheiten im G80-Chip wahrscheinlich immer nur gemäß ihrer Auslegung verwenden kann: Vertexshader-Einheiten können keine Pixelshader-Programme ablaufen lassen und Pixelshader-Programme keine Vertexshader-Programme (wie bisher schon). In Fällen, wo jedoch der Software-Code nicht ausgewogen ist, sondern entweder klar Vertexshader-lastig oder klar Pixelshader-lastig ist, können auf dem R600 mit seinen unified Shadern dann beispielsweise auch alle Shader-Einheiten ein Pixelshader-Programm abarbeiten - beim G80-Chip wahrscheinlich ausschließlich nur die Pixelshader-Einheiten. Hier könnte sich ATI also Vorteile erarbeiten, weil die Lastverteilung dynamisch passiert und der Chip somit besser ausgelastet wird.
The Inquirer berichten ein wenig zur Möglichkeit von SLI auf dem P965-Chipsatz, welchen Intel zusammen mit den Conroe-Prozessoren auf den Markt bringen wird. Gemäß der ersten Meldung zum Thema soll es im t-break Forum gelungen sein, SLI auf einem P965-Mainboard freizuschalten - dies obendrein sogar mit zwei GeForce 7950 GX2 Grafikkarten. Wie dies gelang, ist allerdings unklar - normalerweise blockt der nVidia-Treiber andere Mainboards als solche mit nVidia-Chipsätzen ab. Mit der zweiten Meldung behaupten The Inquirer dann allerdings, daß Intel womöglich höchstselbst kein Interesse an SLI auf dem P965-Chipsatz haben könnte, eventuell resultierend aus der Abkommen mit ATI zur Unterstützung von CrossFire auf den aktuellen i965/i975-Chipsätzen ...
... Hierbei dürften sich The Inquirer allerdings kräftigst verspekuliert haben: Aus der (sicherlich zutreffenden) Information, die neuen Intel-Chipsätzen würden kein SLI unterstützen, läßt sich nämlich nicht ableiten, Intel würde diese Unterstützung nicht wollen. Auch ist ATI sicherlich nicht in der Position, Intel diesbezüglich Vorschriften machen zu können, auch nicht im Rahmen des CrossFire-Lizenzabkommens. Daß die neuen Intel-Chipsätze wieder kein SLI unterstützen werden, hängt primär daran, daß der Eigner dieser Technologie dieses nicht wünscht, sprich: nVidia will mit SLI möglichst die eigenen SLI-fähigen Mainboard-Chipsätze verkaufen und verhindert somit bewußt ein breiteres Angebot an Mainboards für diese Technologie.
News des 28. Juni 2006 |
Beim japanischen PC-Watch gibt es wieder einmal eine aktualisierte AMD Prozessoren-Roadmap, welche nun gar bis ins Jahr 2008 Vorschau auf die dann vermutlich anstehenden AMD-Prozessoren bietet. Aufgrund der Abgrenzung der einzelnen Marktsegmente untereinander ist in dieser Roadmap sehr gut zu erkennen, daß sich die vielzitierten Meldungen über erste QuadCore-Prozessoren seitens AMD schon im nächsten Jahr klar (und ausschließlich) auf das Segment der Workstation- und Server-Prozessoren beziehen. Dort soll es im zweiten Halbjahr den QuadCore-Prozessor "Brisbane" geben, während erste QuadCore-Prozessoren für das Desktop-Segment erst mit dem im ersten Halbjahr 2008 zu erwartenden "Greyhound"-Core anstehen werden ...
... Intel hingegen scheint das Thema QuadCore deutlich offensiver angehen zu wollen, so stehen für Mitte 2007 sowohl für das Desktop-Segment ("Kentsfield"-Core) als auch für das Workstation- und Serversegment ("Clovertown"-Core) erste QuadCore-Prozessoren an. Ob Intel allerdings - unabhängig des laufenden QuadCore-Hypes - mit dem frühen Einstieg von QuadCore-Prozessoren in das Desktop-Segment wirklich gut beraten ist, darf aus heutiger Sicht doch ernsthaft bezweifelt werden. Nach wie vor bewegen sich die Leistungsgewinne von DualCore- gegenüber SingleCore-Prozessoren in überschaubaren Grenzen, bei QuadCore-Prozessoren dürfte der Leistungsgewinn gemäß des Gesetzes vom abnehmenden Ertrag nochmals geringer ausfallen ...
... Denn während die Anpassung von im Desktop-Segment genutzter Software an DualCore-Prozessoren mittels des immerhin schon seit 2001 existierenden HyperThreading-Features schon einige Jährchen läuft, ist dieselbe Software auf QuadCore-Prozessoren nun regelrecht unvorbereitet. Gerade beim Sprung auf DualCore-Prozessoren konnten sich die Software-Entwickler oftmals mit verschiedenen Behelfskonstruktionen aus der Affäre ziehen, um irgendwie den zweiten Core geringfügig mitzubenutzen und dabei sogar noch das eine oder andere Prozent an Geschwindigkeit herauszuziehen. Für die Ausnutzung der Möglichkeiten von QuadCore-Prozessoren werden die Software-Programmierer dagegen zu einem generell anderem Herangehensweg gezwungen - hier muß dann wirklich multithreaded programmiert werden, auch schon im Hinblick auf später nachfolgende MultiCore-Prozessoren ...
... Nur wird ein solch totaler Wandel bei der Entwicklung von Desktop-Software aber nicht innerhalb von ein bis zwei Jahren größere Früchte zeigen können, dies dürfte eine langfristige Übergangsphase zur Folge haben. Ob also DualCore-Prozessoren für das Desktop-Segment schon im nächsten Jahr die wirklich beste Entscheidung aus Performance-Sicht ist (aus Marketing-Sicht sicherlich), muß sich demzufolge erst noch zeigen. Es wäre jedoch schon arg überraschend, wenn sich die Software-Welt (für auf dem Desktop genutzte Programme) innerhalb nur eines Jahres so massiv zugunsten multithreaded programmierter und demzufolge auf Dual- und QuadCore-Prozessoren deutlich schnellerer Software wandeln würde.
Golem berichten zu dem für Windows Vista geplanten Microsoft-eigenen Benchmark namens "Windows Experience Index" (WEI). Interessant hierbei ist, daß sich dessen Endwertung nach dem niedrigsten ermittelten Teilwert ausrichtet, somit also unausgewogene Systeme mit Schwachstellen beispielsweise bei der Grafikkarte eine entsprechend niedrige Endwertung erhalten, selbst wenn ein sehr leistungsfähiger Prozessor verbaut wurde. Insofern erscheint dieser WEI-Benchmark durchaus seinen Sinn zu haben, lassen sich doch somit gerade für in Hardware-Fragen eher nicht so erfahrene Anwender recht schnell unausgewogene PC-Systeme erkennen. Für Business-PCs, wo speziell die Leistung der Grafikkarte keinerlei Rolle spielt, würde sich natürlich noch ein extra Benchmark bzw. eine extra Auswertung lohnen - sozusagen eine WEI-Wertung ohne Berücksichtigung der Grafikkarten-Performance.
News des 27. Juni 2006 |
Wie der Heise Newsticker berichtet, hat der TSMC-Konkurrenz UMC nun mit dem Start der 65nm Produktion begonnen, nachdem TSMC bei dieser sogar einen Monat früher dran war. Beide Chip-Auftragsfertiger werden jedoch anfänglich noch nicht die viele Millionen Transistoren schweren Grafikchips in 65nm fertigen können, allerdings helfen natürlich die jetzt gewonnenen Erfahrungen mit kleineren Chips wie Mainboard-Chipsätze oder Handy-Chips für die später anstehenden großen Aufgaben. Die nächsten kommenden HighEnd-Grafikchips nVidia G80 sowie ATI R580+ und R600 sind allesamt noch in 80 oder 90nm geplant, die den Direct3D10-Chips G80 und R600 nachfolgende Refresh-Generation kann zum Sommer 2007 hin allerdings dann schon in 65nm erwartet werden.
Scheinbar in einem der neueren Beta-Treiber von nVidia haben NGOHQ (diese Webseite wurde im übrigen am Montag Mittag scheinbar gehackt, worauf diese News sicherheitshalber in den nächsten Tag verschoben wurde, NGOHQ ist nun aber offensichtlich wieder in Ordnung) Eintragungen zu drei neuen Grafikchips gefunden: GeForce 7300 SE, GeForce 7500 LE und GeForce 7600 LE. Dabei basieren die beiden erstgenannten auf dem G72-Chip, welcher für die GeForce 7300 LE/GS Verwendung findet und 4 Rendering-Pipelines und nur ein 64bittiges DDR-Speicherinterface bietet. Bei GeForce 7300 SE und GeForce 7500 LE kann es sich demzufolge nur um weitere Grafikkarten für den absoluten LowCost-Markt handeln, gegenüber echten LowCost-Lösungen wie der Radeon X1300 Pro und der GeForce 7300 GT haben die Abwandlungen des G72-Chips gewöhnlich keine Chance. Die GeForce 7600 LE wird dagegen auf dem für die GeForce 7300 GT sowie die GeForce 7600 GS/GT benutztem G73-Chip basieren ...
... Damit sind maximal 12 Rendering-Pipelines und ein 128bittiges Speicherinterface möglich, hieran könnte es bei der GeForce 7600 LE aber durchaus Abspeckungen geben (weniger wahrscheinlich beim Speicherinterface, aber durchaus wahrscheinlich bei den Rendering-Pipelines). Gemäß des reinen Produktnamens "GeForce 7600 LE" sollte diese Grafikkarte eigentlich höher als die GeForce 7300 GT einzuordnen sein - ob es so kommt, bleibt nichts desto trotz abzuwarten. Denn eigentlich ist das aktuelle nVidia-Lineup gerade im unteren Preisbereich schon als ziemlich "rund" anzusehen, besteht für weitere Karten nicht wirklich der Raum. Möglicherweise handelt es sich zumindestens bei einigen der drei neuen nVidia-Karten somit nur um OEM-Variationen, die inhaltlich schon vorhandenen Karten gleichen, nur eben einen anderen, besser klingenden Namen tragen. Mangels bekannter technischer Daten läßt sich derzeit aber sowieso schwerlich voraussagen, wie die drei neuen Karten seitens nVidia gedacht wurden.
DailyTech haben eine Intel-Roadmap zum Thema BTX bzw. der geplanten Marktentwicklung des neuen Gehäuse/Mainboard/Netzteil-Standards anzubieten. Gemäß dieser Voraussagen wird der immerhin zur CeBIT 2004 erstmals angekündigte BTX-Standard noch einige Zeit brauchen, um überhaupt nur bei der Hälfte der ausgelieferten PCs Verwendung zu finden: Laut Intel soll es bis Ende 2007 gerade einmal zu 35 Prozent Marktanteil für BTX im allerdings nur dem Intel-Teil des Gesamtmarktes reichen, für den Gesamtmarkt sind das nicht mehr als 25 bis 30 Prozent. Zwar wird BTX inzwischen von einige PC-Bauern vorzugsweise eingesetzt (man nannte hier Dell, Gateway und Lenovo), gerade aber im Retail-Markt sind BTX-Boards derzeit noch ausgesprochen selten anzutreffen. Möglicherweise wird sich dies mit der nächsten CeBIT im Frühjahr 2007 etwas ändern, eine wirkliche Relevanz im Retail-Markt dürfte BTX jedoch kaum vor 2008 entwickeln.
Shortcuts: Golem berichten von der offiziellen Vorstellung der ersten Core-basierenden Prozessoren in Form des Woodcrest-Cores für das Marktsegment der Workstation- und Server-Prozessoren. Der Heise Newsticker vermeldet dagegen den Start des Blu-Ray-Formats in den USA in Form eines ersten Players von Samsung sowie des Angebots von sechs ;) Filmen auf Blu-Ray-Disk. Über eine hochinteressante Idee für zukünftige Buchautoren berichten Golem: Danach startet mit Lulu eine Plattform, auf welcher Autoren von Büchern, CDs, DVDs, Bildern und Kalender ihre Werke kostenfrei (und trotzdem mit 80prozentiger Gewinnbeteiligung) publizieren können. Dies dürfte insbesondere für Nachwuchs-Buchautoren interessant sein, da diese bei den gesetzten Verlagen oftmals nur schwer Gehör finden und ein Buchdruck auf einiges Risiko im gewöhnlichen einige tausend Euro kostet. Und letztlich berichtet nochmals der Heise Newsticker über eine weitere Finanzspritze für FON, mit welcher auf Basis des Verkaufs von einer Million subventionierter WLAN-Router (á 5,80 Euro) das weltweit größte zusammenhängende WLAN-Netz aufgebaut werden soll (und wohl auch werden wird).
News des 26. Juni 2006 |
Bei The Inquirer bringt man mal wieder das Thema "Reserve HyperThreading" ins Gespräch, welches schon vor zwei Monaten als Gerücht zu "Anti-HyperThreading" die Runde machte. Neu ist nun aber, daß jenes "Reserve HyperThreading" laut The Inquirer angeblich gar schon in den aktuellen Sockel AM2 Prozessoren schlummern und dort auf seine Aktivierung warten soll. Was jenes "Reserve HyperThreading" überhaupt darstellen soll, ist derzeit jedoch noch eher unklar und demzufolge heftig umstritten. Generell vermutet man aufgrund des anfänglich genannten Namens "Anti-HyperThreading" eine Technologie, mit welcher sich die Leistung der zwei Cores eines DualCore-Prozessors für eine einzelne Anwendung bündeln lassen, der Prozessor sich also für die Anwendung wie nur mit einem (dafür doppelt so schnellem) Core darstellt ...
... Gegen die reine Möglichkeit einer solchen Technologie gibt es allerdings vielerorts ernste Bedenken, dies läßt sich auch in der entsprechenden Diskussion in unserem Forum nachverfolgen. Das Hauptgegenargument hierbei ist, daß nicht parallelisierbarer Software-Code eben wegen seiner Nicht-Parallelisierbarkeit (der nachfolgende Befehl ist auf das Ergebnis der Ausführung des vorherigen Befehls angewiesen) nicht durch mehrere Cores beschleunigt werden kann, egal sich ob diese in irgendeiner Form nur als ein Core ausgeben. Doch auch wenn man dieses Prinzip schwerlich durchbrechen kann, stellt dies noch nicht die gesamte Wahrheit dar. Denn das Problem heutiger Software auf DualCore-Prozessoren ist nicht zwingend, daß sie durchgehend nicht-parallelisierbar wäre, sondern in erster Linie, daß sie schlicht singlethreaded geschrieben wurde, selbst wenn umfangreiche Teile des Codes durchaus parallelisierbar wären ...
... Und für eine solche Situation gibt es durchaus Ansätze, wie man hierbei Performancegewinne mit einem DualCore-Prozessor erzielen kann, ohne dafür gleich die Software umschreiben zu müssen (was ja schließlich die Prozessorenhersteller auch nicht selber tun können). Ein guter Ansatzpunkt sind sogenannte "Helper-Threads", welche auf dem zweiten Core mitlaufen und während der Ausführung der eigentlichen Rechenaufgabe auf dem ersten Core den Software-Core analysieren. Dabei kann man Helper-Threads dazu einsetzen, um beispielsweise eine qualitativ deutlich bessere Spungvorhersage zu erreichen, oder aber auch um parallelisierbaren Code in der eigentlichen Rechenaufgabe zu entdecken und diesen Code-Teil dann eben doch parallelisiert auszuführen. Wirklich effektiv ist das natürlich nicht, der sich daraus ergebende Performance-Gewinn dürfte im Bereich von einigen Prozenten bleiben ...
... Andererseits ist dies immer noch besser, als wenn der zweite Core nur vor sich hinidelt. Und AMD könnten sicherlich auch nur wenige Prozentpunkte mehr Performance pro MHz reichen, angesichts dessen, welche Performance die Vorserien-Exemplare des Conroe-Cores abliefern. Ob AMD allerdings wirklich eine solche Technologie in der Hinterhand hat und ob sie wie vorbeschrieben oder ähnlich funktioniert, ist damit nicht gesagt - bisher ist zu diesem Thema eigentlich gar nichts handfestes bekannt, nicht einmal die genannten Namen "Reserve HyperThreading" oder "Anti-HyperThreading" sind als sicher zu betrachten. Beides scheint allerdings nichts mit Intels Projekt eines "Speculative Threadings" zu tun zu haben: Dort geht es darum, daß künftige Software-Compiler besser auf die Möglichkeiten von MultiCore-Prozessoren abgestimmt werden sollen, was jedoch nur zukünftiger und nicht der bestehenden Software hilft.
Davon abgesehen sei noch kurz auf ein von den Prozessorenherstellern durchaus gern produziertes Mißverständnis eingegangen, auf welches auch The Inquirer in der vorgelinkten Meldung hereinfielen. Dort fiel nämlich die Aussage, daß AMD durch die Zusammenlegung der beiden Cores dann bei 6 IPCs landen würde, während Intel hier "nur" die 4 IPCs des Conroe-Cores dagegenzusetzen hätte. Dies ist erst einmal schon in dieser Rechnung selber falsch, weil eine echte Parallelisierung von singlethreaded geschriebener Software nicht möglich ist: Entweder man schreibt diese komplett neu oder aber bedient sich solcher Hilfskonstrukten wie den vorgenannten "Helper Threads" - welche dann aber die Rechenleistung nicht für die eigentliche Rechenaufgabe sondern eben für den oder die Helper Threads einsetzen. Eine Addition der (theoretischen) Rechenleistung beider Cores verbietet sich in diesem Fall also ...
... Grundsätzlich daneben ist allerdings der banale Vergleich von Instructions Per Clock (IPC) zwischen AMD- und Intel-Prozessoren. Dies wurde gerade von Intel bei der Vorstellung der Core-Architektur mit der Aussage vorangetrieben, jene Architektur hätte nun 4 IPC, während die vorhergegende davon nur 3 aufzubieten hätte. Dies meint allerdings nicht (auch wenn dieses Mißverständnis wie gesagt gewünscht ist), daß ein solcher Prozessoren mit 4 IPCs nun um ein Drittel schneller rechnet als ein Prozessor mit 3 IPCs - so einfach ist dies bei Prozessoren dann eben doch nicht. Die Instructions Per Clock bei Prozessoren sind nur ein kleiner Baustein unter wirklichen vielen Bausteinen, welche für die letztendliche Performance sorgen - konkret geht es hier gar nur darum, wieviel fertig dekodierte Befehle in die Pipeline entlassen werden können ...
... Mit der eigentliche Berechnung hat dies noch gar nichts zu tun, die wird dann nämlich von den eigentlichen Ausführungseinheiten durchgeführt. Die hat Intel bei der Core-Architektur zwar ebenso aufgebohrt, doch sind die dort gemachten Änderungen nicht so schön plakativ in eine Aussage wie "4 IPCs" pressbar. Es muß aber klar gesagt werden: Allein mit dem Sprung von 3 auf 4 IPCs gewinnt man bei Prozessoren gar nichts. Dutzende wichtige und hunderte kleiner Bausteine und möglicher Flaschenhälse müssen beachtet und nötigenfalls angepasst werden, ehe hier auch nur ein Prozent Mehrperformance erreicht werden kann. Leider läßt sich die Leistung einer CPU eben nicht wie bei Grafikkarten grob über die Angabe einiger technischer Parameter beschreiben, CPUs sind dazu deutlich zu verschieden gegenüber Grafikchips aufgebaut.