Zum 3DCenter Forum
Inhalt




Kolumne: Doppelher(t)z für Prozessoren

7. April 2005 / von BlackBirdSR / Seite 1 von 1


  Irgendwann im 2. Quartal 2005:

Die Markt-Einführung von DualCore Prozessoren von Intel und (später) von AMD für den Heimanwender steht nun kurz bevor. Ein Ereignis, das von vielen sehnsüchtig erwartet wird. Zum ersten Mal bekommen wir nicht einfach nur eine schnellere CPU aktueller Generation, oder seltener eine neue Architektur – nein, diesesmal versprechen die Hersteller die Kraft zweier CPUs auf einmal. Das klingt verlockend, sehr sogar. Dabei sind es weniger reale Leistung oder pure Notwendigkeit, die solch Anziehungskraft ausstrahlen. Ein Dualsystem galt jeher als Zeichen von Rechenleistung im Überschuss, und vor allem von Exklusivität.

Exklusivität mag so ein System aus Mainboards mit 2 Sockeln und den passenden AMD/Intel CPUs ja bieten - Leistung im Überfluss gibt es aber nur für die passenden Anwendungen. Diese SMP Systeme (Symmetric Multi Processing) finden besonders als Server oder Workstation ihren Markt. Der neu aufkommende Ansatz für Dualsysteme vereint zwei bisherige CPU Kerne auf einer einzelnen CPU und bietet somit die gleichen Vorteile. Zusätzlich benötigt das Mainboard nur einen Sockel, auch der zweite Kühler entfällt. Damit verbilligt sich die ganze Angelegenheit erheblich.

Bis heute wären nur die wenigsten auf die Idee gekommen, sich ein teures Mainboard und 2 identische, sowie teure Server-CPUs zu kaufen. Dabei gab es in der Vergangenheit durchaus Möglichkeiten, sich relativ preiswert mit einem SMP-System anzufreunden. Durch leichte Modifikationen ließen sich z.B. die Intel Celeron 300A Prozessoren dazu überzeugen, im Tandem zu arbeiten.

Doch wer kann von sich behaupten, jemand mit solch einem System zu kennen? Richtig populär wurde die Geschichte also nicht. Wo liegen die Gründe dafür? Man stelle sich vor, trotz all dem Wirbel um Multiprozessorsysteme waren weder Leistung noch Preis oder Aufwand für die meisten Käufer attraktiv genug. DualCore CPUs besitzen nun das Potential, wesentlich populärer zu werden, stellen sie doch für uns endlich einen wesentlich benutzerfreundlicheren Einsteig in die Multiprozessorwelt bereit. Heißt es also jetzt blind zugreifen?

Das muss jeder für sich entscheiden. Daher sollten gerade die Nachteile der DualCore Lösungen nicht verschwiegen werden. Theoretisch kann man von einer beinahe Verdoppelung der Leistung ausgehen. In der Praxis wird der freudige Käufer allerdings schnell eines Besseren belehrt werden. Damit eine Anwendung die Kraft der Doppelherzen auch nutzen kann, muss sie speziell darauf vorbereitet sein.

Software die aus HyperThreading ihren Nutzen zieht, gehört zwar dazu, ist aber trotzdem immer noch eher selten anzutreffen. Alternativ bleibt nur noch die Möglichkeit, zwei fordernde Programme gleichzeitig zu betreiben und sie auf jeweils eine CPU zu verteilen. So oder so: Ohne entsprechende Programme rechnet eine DualCore CPU gleichen Taktes in Anwendungen nicht schneller als bisherige Vertreter von AMD und Intel, dies zeigten auch die ersten Vorab-Tests.

Aber nicht nur softwareseitig gibt es den einen oder anderen Stolperstein. Bei der Taktrate muss der Hersteller, und damit auch wir, Abstriche machen. DualCore CPUs sind überaus komplexe Entwürfe, die sich nur schwer auf ähnliche Taktraten wie ihre heutigen Vorgänger bringen lassen. So ergeben sich Situationen, in denen die teuersten DualCore CPUs abgeschlagen hinter den momentan schnellsten verfügbaren SingleCore CPUs von AMD und Intel liegen. Bei Spielen wird dies besonders ins Gewicht fallen.

Doch um nicht alles schwarz zu sehen: Beide Probleme lassen sich beheben. Software wird in Zukunft zwangsweise besser auf Dualsysteme abgestimmt, und auch die Taktraten werden weiter steigen, wenn vielleicht auch etwas langsamer als bisher.


  Irgendwann an Stichtag, 2. Quartal 2005:

Da sind sie nun: Die ersten DualCore CPUs für Desktopuser liegen in den Regalen der Händler, bzw. lagen dort, denn die Meisten sind schon wieder ausverkauft. Trotz einiger Bedenken strahlen an diesem Tag die Augen vieler PC-Enthusiasten dieses gewisse Leuchten aus. Die Sehnsucht nach DualCore CPUs ist stark, und ein anfänglicher Misserfolg scheint selbst bei ernüchternden Benchmarkergebnissen unwahrscheinlich. Denn Exklusivität war schon immer eines der erstrebenswerteren Ziele - das wissen auch AMD und Intel. Es scheint nur logisch, dass der Anwender für solch Exklusivität zu Beginn etwas tiefer in die Tasche greifen darf.

Den Anfang macht Intel mit der Extreme Edition des neuen Pentium D. Die Taktrate soll sich auf 3.2 GHz belaufen, der Level2 Cache beträgt 1 MB pro Kern und die Verbindung zur Außenwelt übernimmt weiter der bewährte FSB800. Zusätzlich kommt Hyperthreading zum Einsatz, wie wir es in bisherigen Pentium 4 finden. Für das Betriebsystem erscheint die neue Extreme Edition als CPU mit vier Kernen. Zwei physikalisch vorhandene, die sich jeweils mit zwei virtuellen Kernen beim Betriebsystem anmelden. Diese "extreme" Version des Pentium D wird sicherlich wieder Bestmarken in Sachen Preis erzielen. Der Pentium D ist zwar theoretisch mit der Extreme Edition identisch, wird aber mit teilweise weniger Takt sowie ohne HyperThreading auskommen müssen.

Zum Vergleich: Aktuelle Pentium 4 basieren auf dem gleichen Kern, wenn auch nur einem pro CPU. Sie takten mit maximal 3.8 GHz und besitzen 2 MB Level2 Cache für sich alleine. HyperThreading beherrschen alle Modelle außer dem Celeron. Fairerweise muss jetzt erwähnt werden, dass eine DualCore CPU nicht anders auf passende Software reagiert als eine mit HyperThreading, nur eben schneller.

HyperThreading beim Pentium D würde bei entsprechender Software noch einmal etwas Performance freisetzen, jedoch keine großen Veränderungen mehr bringen. Trotzdem wird der Anwender damit eines liebgewonnenen Erkennungsmerkmals beraubt, das nur durch die teure Extreme Edition wieder erkauft werden kann. Allerdings bleibt es fraglich, ob sich diese teure CPU für viele der Interessierten wirklich lohnen wird. Der Schritt von einem Kern hin zu zwei Kernen (egal ob DualCore oder HyperThreading) ist sicherlich deutlich zu spüren. Mehr als zwei Kerne dürften gemäß des Gesetzes des abnehmenden Ertrags nur noch selten ihre volle Wirkung zeigen.

  Kurz nach dem Stichtag:

Der Pentium D ist gekauft und eingebaut, es kann losgehen. Zuerst darf die neue CPU bei Far Cry beweisen, wie viel Kraft in ihr steckt. Doch oh Schreck? Warum ist der Rechner des Freundes mit einem lächerlichen 3.4 GHz Prescott schneller? Hatte der Verkäufer nicht versprochen, dass hier die Kraft von zwei CPUs gleichzeitig am Werke ist?

Der Großteil der durchschnittlichen User benötigt maximale CPU-Leistung hauptsächlich für Spiele. Gerade diese profitieren zur Zeit allerdings rein gar nicht von Prozessoren, in deren Brust zwei Herzen schlagen. Wirklich Vorteile zeigen sich momentan nur bei Medienbearbeitung und bei Aufteilen zweier fordernder Aufgaben auf jeweils einen Kern. Eben jene Bereiche, die auch schon durch Intels HyperThreading beschleunigt wurden. Dazu zählen zu einem gewissen Grad auch die minimalen Bilder pro Sekunde, wenn andere fordernde Anwendungen während des Spielens im Hintergrund arbeiten.

Also was soll man zuerst probieren? Filme codieren und dabei nach Primzahlen suchen. Oder man konvertiert schnell seine CD-Sammlung auf MP3 und spielt nebenher ein wenig, ohne allzu große Performanceverluste in Kauf nehmen zu müssen. Das ist zwar auch mit HyperThreading kein größeres Problem, aber der Pentium-D erledigt alles noch einen Tick schneller.

Vielleicht fängt der stolze Käufer aber erst einmal an, Benchmarks zu installieren. Schließlich müsste die CPU ihre Gegenüber locker in die Tasche stecken, lässt man 3DMark2001 und Sysmark gleichzeitig laufen. Besitzer der Extreme Edition könnten den ärmeren Pentium D Besitzern zudem zeigen, wie viel schneller die eigene CPU ist, wenn zusätzlich zu den beiden genannten Benchmarks noch Prime95 und PCMark laufen. Doch abgesehen von Benchmarks wird es erst auf lange Sicht ausreichend Spiele und alltägliche Programme geben, die vom Doppelherz in der eigenen CPU wirklich profitieren.


  Irgendwann nach dem Umtausch des Pentium D:

Etwas enttäuschend war die Leistung des neuen Pentium D bei all den Spielen. Das Arbeitsgefühl unter Windows wurde auch nicht besser, verglichen mit dem alten 3 GHz Pentium 4. Der Händler darf somit sein Prachtstück wieder zurücknehmen. Ein nagelneuer 3.8 GHz Prescott mit 2 MB Level2 Cache entfesselt schon ganz andere Leistung bei Spielen. Dank HyperThreading muss er auch in angepasster Software nicht groß zurückstecken.

So richtig notwendig sind DualCore CPUs noch nicht. Ein überwältigender Teil der Anwender würde, statt der erhofften Leistungsexplosion, sogar einen Leistungsverlust zu spüren bekommen. Wirklich nötig haben es allerdings die Hersteller selbst. Unlängst blieb es Intel noch verwehrt, die Taktrate des Pentium 4 weiter auf der Überholspur zu steigern. Die Physik gibt sich stur, und zwei CPUs zu einer zu verschmelzen ist - so unwahrscheinlich es klingt - der effektivere Weg geworden, um die Leistung zu steigern.

Was in anderen Märkten schon länger ein Thema ist, erreicht also auch den trägen x86 Markt. HighEnd CPUs tauschen die Komplexität eines Kerns gegen eine größere Anzahl an Kernen. Bis vor kurzem galt es noch, so viele Befehle wie möglich gleichzeitig auszuführen. Immer mehr Tricks sollten diesem Ziel entgegenkommen, verschlangen dabei aber immer mehr Geld, Zeit und Platz. Als selbst das Allheilmittel "Taktrate" zu versagen drohte, galt es einen Plan B zu entwickeln.

Der nächste Schritt besteht deshalb darin, wieder weniger auf Komplexität zu setzen. Als Ausgleich arbeiten mehrere Kerne auf einer CPU, jeder an einer eigenen Aufgabe. Natürlich kann jeder Kern nur an voneinander unabhängigen Aufgaben rechnen. Hier kommen dann Betriebsystem und der Programmierer ins Spiel: Lassen sich die anfallenden Berechnungen effizient verteilen, ergibt sich ein spürbarer Performancezuwachs.

Und während das bei IBMs Serverangebot oder SUNs Workstations kein größeres Problem ist, wird die Anpassung bei unserem altehrwürdigen x86-Markt etwas länger dauern. Vergleichbar mit 64 Bit ist die ganze Sache ja schon irgendwie ... aber mal ehrlich, wen stört das schon? Denn trotz allem üben DualCore CPUs diesen unwiderstehlichen Charme aus.

  Irgendwann drei Wochen nach Verkaufsstart der DualCore CPUs:

Die letzten Reviews sind geschrieben, jedes Magazin und jede Internetpräsenz für Hardware hat ihre Benchmarks der Öffentlichkeit präsentiert. Spiele werden nicht schneller, je nach vorheriger CPU sogar langsamer. Videos encoden geht zwar schneller, man hat nun aber auch ein paar Minuten mehr Zeit zum Spielen. Und am generellen Anwendungsverhalten ändert sich auch nicht viel zum Pentium 4 mit HyperThreading.

Auch die 64 Bit Funktionen bleiben vorerst relativ unnütz. Wer sie wirklich benötigt, setzt z.B. auf Linux. Andernfalls plänkelt er momentan nur damit herum. Ähnlich sieht es bei DualCore CPUs aus: Wer sie bisher wirklich nötig hätte, besitzt meist schon ein Dual Opteron/Xeon/G5 System. Nur die wenigsten Anwender werden wirklich von Anfang an Nutzen aus der ganzen Sache ziehen können.

Für alle anderen heißt es wie so oft: Bitte warten Sie auf passende Software. Und diese wächst leider nicht über Nacht auf Bäumen, sondern benötigt bei der heutigen Komplexität von Software-Programierung zumeist Jahre, ehe sie breit verfügbar ist.






Kommentare, Meinungen, Kritiken können ins Forum geschrieben werden - Registrierung ist nicht notwendig 3DCenter-Artikel - Index Home

Shortcuts
nach oben