News-Archiv 17. - 23. September 2007 (38. Kalenderwoche)
22./23. September 21. September 20. September 19. September 18. September 17. September
News des 22./23. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Intel hat auf seinem IDF wieder eine Demonstration von Raytracing für Computerspiele gegeben, wovon PC Perspective recht ausführlich berichten. Dabei stand als erstes einmal eine deutliche Performance-Verbesserung gegenüber früheren Raytracing-Demonstrationen an, mittlerweile schafft eine für Raytracing modifizierte Quake-4-Engine immerhin (konstante) 90 fps unter der Auflösung von 1280x720. Erreicht wurde dies natürlich primär durch die inzwischen leistungsfähigere Hardware, Intel griff hierfür auf ein Skulltrail-ähnliches System mit zwei QuadCore Xeon-Prozessoren zurück. Viel bedeutender ist allerdings, daß dies seitens Intel offenbar nicht nur ein Forschungsprojekt ist (wie man als große Firma gewöhnlich viele Forschungsprojekte hat), sondern Intel diesen Weg wohl definitiv gehen will. Demzufolge ist auch davon auszugehen, daß die kommenden Intel-Grafikkarten des Larrabee-Projekts gleich Raytracing-Beschleuniger sein werden, was natürlich auch der Architektur von Larrabee mit x86-Prozessorkernen entgegenkommt.
Seitens Hartware, der FiringSquad und des TechSpots hat man sich die Performance der Demo von Enemy Territory: Quake Wars unter verschiedenen Grafikkarten und teilweise auch verschiedenen CPUs angesehen. Die für das Spiel benutzte Doom-3-Engine ist heutzutage sicherlich nicht mehr das, was man einen besonderen Prüfstein für die Hardware nennen würde, nichts desto trotz sollte man dennoch wenigstens eine Mainstream-Grafikkarte der aktuellen Generation (GeForce 8600 Serie, Radeon HD 2600 Serie) oder eine Performance-Grafikkarte der letzten Generation (GeForce 7900 Serie, Radeon X1800/X1900 Serien) sein eigen nennen, um das Spiel in hohen Qualitätseinstellungen und mit Anti-Aliasing spielen zu können.
Auf der anderen Seite knallen heutige HighEnd-Boliden ohne Anti-Aliasing oder/und in niedrigen Auflösungen sehr schnell an CPU-Limits - was das Alter der Engine verdeutlicht. Insofern zählt in diesem Spiel wohl in erster Linie ein ausgewogenes System. Bei den Grafikkarten ergibt sich derzeit eine extreme Präferenz zugunsten von nVidia - teilweise erreicht selbst ein CrossFire-Gespann aus zwei Radeon HD 2900 XT Grafikkarten nicht die Leistung einer einzelnen GeForce 8800 GTS. Bei anderen Tests sind die Abstände nicht so dramatisch, aber dennoch immer noch eindeutig zugunsten von nVidias Direct3D10-Boliden. Einzig allein mit den DirectX9-Karten kann ATI punkten: Hier schlägt eine Radeon X1950 Pro weiterhin eine GeForce 8600 GTS - wobei dieses Kunststück auch der GeForce 7900 GS gelingt, was wieder einmal die Schlagkraft der "alten" Performance-Grafikkarten gegenüber der neuen Mainstream-Generation verdeutlicht.
Diese klare Präferenz zugunsten von nVidia ist derzeit kaum erklärbar, womöglich kann ATI hier ja später noch mittels neuerer Treiber nachlegen. Gerade die letzten Tests mit neueren Spielen hatten eher ergeben, daß die Radeon HD 2900 XT immer mehr gegenüber der GeForce 8800 GTX aufholen konnte - bei Enemy Territory: Quake Wars geht es nun aber wieder in die umgekehrte Richtung. Die angestellten Tests mit verschiedenen Intel-Prozessoren offenbaren zudem eine ordentliche Skalierung selbst unter eher ungünstigen Benchmark-Bedingungen (Timedemos, hohe Auflösungen), wobei allerdings auch kleinere Intel-Prozessoren aktueller Bauart jederzeit in den Bereich von spielbaren Frameraten kommen. Und letztlich offenbart ein Vergleich zwischen Windows XP und Vista noch, daß man mit dem neuen Betriebssystem zwischen 3 und 11 Prozent an Performance verliert.
Die Tech-Hounds haben sich mit der Festplatten-Performance von Windows Vista beschäftigt. Dazu hat man zuerst einige Tests zur Einladezeit von Spielen angestellt, welche damit unter anderem die Schlagkraft von Windows Vistas "SuperFetch"-Feature nachweisen sollten. Hierbei ergab sich allerdings nichts bedeutsames, die Einladezeit war in jedem Fall entweder gleich hoch oder höher als bei Windows XP, zudem kamen dafür bei Windows Vista noch deutlich höhere CPU-Auslastungen während des Einladevorgangs hinzu. Regelrecht desaströs fiel zudem ein weiterer Test aus, bei welchem ein als ISO-Image vorliegendes Spiel auf einem RAID0-System schlicht installiert werden sollte: Windows Vista benötigte hierfür im Vordergrund 47 Prozent mehr Zeit, im Hintergrund laufend waren es gar 144 Prozent mehr Zeit. Ganz offensichtlich liegt hier ein maßgeblicher Schwachpunkt von Windows Vista vor, welcher auch durch den jüngsten, im Test schon verwendeten Microsoft-Patch nicht beseitigt wurde.
News des 21. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Einige News-Magazine und Hardware-Redaktionen haben sich auf dem IDF Intels Skulltrail angesehen können (Liste der Artikel), mittels welcher Intel eine Plattform für "Extreme Gaming" anbieten möchte. Dazu setzt man auf ein Server-Mainboard mit Seaburg-Chipsatz, welches zwei Xeon-Prozessoren und vier Grafikkarten Platz bietet. Dies deutet dann schon an, daß der preisliche Punkt bei dieser Plattform absolut keine Rolle gespielt hat - denn sowohl die Xeon-Prozessoren als auch der für das Mainboard benötigte FB-DIMM Speicher werden den Käufer nicht billig kommen. Den FB-DIMM Speicher gibt es zudem derzeit nur auf DDR2-Basis und mit eher mittelprächtigen Latenzen, so daß zumindestens im Speicherbereich diese Konstruktion keinesfalls "HighEnd" darstellt.
Die ersten angestellten Benchmarks basieren zudem erst noch auf zwei Grafikkarten. Dabei schlug sich das System zwar erwartungsgemäß gut, allerdings ist einfaches SLI oder CrossFire nun wirklich günstiger hinzubekommen - faktisch der einzige Vorteil von Skulltrail bei der Nutzung von zwei Grafikkarten sind die acht Cores der zwei QuadCore-Prozessoren, während man in normalen Desktop-Systemen derzeit "nur" vier Cores von einem QuadCore-Prozessor hinbekommt. Dafür dann jedoch 4000 Dollar aufwärts hinzulegen, wäre ein wenig viel verlangt, so daß Skulltrail nur dann Sinn macht, wenn man auch vier Grafikkarten nutzen kann. Dies wird durch einen extra nVidia nForce 100 Chip ermöglicht, im Quad-Betrieb sind die vier Grafikkarten dann allerdings auch nur mit x8 angebunden.
CrossFire-Support dürfte (wie bei Intel üblich) von Haus aus geboten werden, wie aber schon vorab berichtet, unterstützt Intels Skulltrail jedoch auch SLI. Allerdings richtet sich der Support seitens nVidia wohl nur auf jenes spezielle Skulltrail-Mainboard und umfasst somit nicht einmal den eingesetzten Server-Chipsatz oder gar andere Intel-Chipsätze. Zusammen mit der Freischaltung vieler Overclocking-Funktionen auf eben jenem Mainboard (Intel zeigte selber ein auf 4.0 GHz übertaktetes Skulltrail-System) soll so ein ultimatives Spiele-System mit natürlich auch ultimativem Preis entstehen, welches allerdings wohl vorrangig nur über die Anbieter von Komplett-PCs erhältlich sein wird.
Ein erheblicher Nachteil ergibt sich allerdings: Laut einem bei Hardwareluxx zu sehendem Bild eines Skulltrail-Mainboards sind die Grafikkarten-Slots Nummer 3 und 4 nur für SingleSlot-Modelle ausgelegt - unklar ist, wie Intel hier nach eigener Aussage bis zu vier GeForce 8800 Ultra Grafikkarten verbauen will. Sollte sich diese Einschränkung bestätigen bzw. nicht irgendwelche Sondermodelle der GeForce 8800 Ultra im SingleSlot-Design oder aber als DualChip-Lösung erscheinen, wäre vier Grafikkarten auf Skulltrail nur machbar, wenn diese aus dem Mainstream-Segment stammen. Sollte dies so zutreffen, wäre die ganze Plattform automatisch witzlos, weil wie gesagt normales SLI bzw. CrossFire mit zwei Grafikkarten wirklich deutlich einfacher zu erreichen ist.
Neben dem Punkt, daß Skulltrail in erster Linie natürlich Marketing sein dürfte und sich von den abgesetzten Stückzahlen her sicherlich kaum für Intel rechnet, wäre bei solcherart Systemen natürlich immer zu bedenken, daß der allgegenwärtige Preisverfall solcherart HighEnd-Systeme besonders hart trifft. Sprich: Ein halbes Jahr nach dem Erscheinen könnte es sein, daß man dieselbe Leistung mit normalen Desktop-Komponenten zu einem vertretbaren Preis erreicht. Gerade der Anspruch, den man mit einem solchen System erwirbt (nämlich den von absolut unerreichter Performance), geben gerade solche Systeme innerhalb kürzester Zeit wieder ab, was sie aus wirtschaftlicher Sicht vollkommen uninteressant macht. Wenn, dann müsste man sich ein solches System aller halben Jahre neu kaufen - denn nur dann läßt sich der Anspruch hochhalten, welcher mit einem solchen System einhergeht.
Beim chinesischsprachigen PCOnline (maschinelle Übersetzung ins englische) gibt es den ersten Test einer Sapphire Radeon HD 2600 XT Dual mit zwei RV630-Grafikchips auf einem Board. Getestet wurde diese leicht über den default-Taktraten bei 800/800 MHz laufende Karte gegen die gleiche Karte im SingleChip-Modus sowie eine Radeon HD 2600 XT GDDR4, welche wie bekannt mit höherem Speichertakt (800/1100 MHz) gegenüber der zumeist üblichen GDDR3-Variante (800/700 MHz) antritt. In den Benchmarks konnte die DualChip-Grafikkarte dann oftmals sehr beachtliche Leistungszuwächse vorlegen, wenngleich der Test von PCOnline hier sicherlich noch nichts endgültiges zur Performance dieser Karte sagen kann.
Denn durch das Weglassen von Anti-Aliasing rauscht gerade die DualChip-Grafikkarte wohl zu oft in CPU-Limits und zeigt dann scheinbar keinen Gewinn gegenüber der SingleChip-Variante mehr. Hier werden spätere Tests noch klarstellen müssen, wie hoch der Leistungsgewinn dieser DualChip-Grafikkarte genau einzuschätzen ist. Das allererste Problem droht der Karte aber weniger bei der Leistung, als denn beim Preis: Wahrscheinlich soll die Karte um die 200 Euro kosten - doch da gibt es für nur wenig Euros mehr in Kürze die Radeon HD 2900 Pro mit mehr Shader-Einheiten und breiterem Speicherinterface. Selbst eine Radeon HD 2900 GT sollte es noch mit der Radeon HD 2600 XT Dual aufnehmen können - und diese Karte ist für klar unter 200 Euro zu erwarten.
Einen weiteren Test dieser Karte scheint im übrigen die ComputerBase vorzubereiten. Dabei experimentierte man aufgrund einer Mainboard-Unverträglichkeit vorab auch mit einem nVidia-Mainboard herum - und stellte dabei mit Erstaunen fest, daß die Sapphire Radeon HD 2600 XT Dual auch auf diesem mit beiden Grafikchips läuft. Momentan ist noch nicht ganz klar, wieso es zu diesem seltsamen Umstand gekommen ist: Womöglich ist der benutzte Catalyst-Treiber noch nicht vollständig auf die neue DualChip-Grafikkarte vorbereitet und schließt unter dieser CrossFire auf SLI-Boards nicht aus - insofern könnten zukünftige Treiber dieses Verhalten wieder verändern. Als Anzeichen dessen, daß ATI zukünftig CrossFire auch auf nVidia-Mainboards ermöglich will, ist dieses jedenfalls noch nicht zu sehen - dafür müsste sich ATI schon eindeutig erklären. Auf der anderen Seite zeigt dieser Fall nunmehr absolut eindeutig, daß vorhandene Mainboard-Einschränkungen gegen SLI und CrossFire rein Lizenz-rechtlicher und keinesfalls technischer Natur sind.
News des 20. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Geht es nach den (häufig allerdings nicht wirklich genauen) Informationen von Fudzilla, so geben die kürzlich genannten Radeon HD 2900 GT und Pro nur ein recht kurzes Gastspiel und werden in wohl nur zwei Monaten von den ersten Grafikkarten auf Basis des ATI RV670-Grafikchips abgelöst werden. Jedenfalls sollen die beiden Ausführungen des RV670-Chips - RV670 Pro und RV670 XT - schon nächsten Monat zu den Grafikkarten-Herstellern gehen, was im optimalen Fall einen weiteren Monat später in kaufbaren Produkten resultieren sollte. Wie schon die Radeon HD 2900 GT und Pro soll der RV670-Chip in das Performance-Marktsegment (zwischen 150 und 300 Euro) gehen, wahrscheinlich dürfte der RV670 aber stärker als der abgespeckte R600-Chip sein und damit eine bessere Konkurrenz zur GeForce 8800 GTS bilden.
Auf dem Intel Developer Forum hat der weltgrößte Prozessorenbauer Intel wie üblich einen umfangreichen Überblick über die in den nächsten Monaten anstehenden Produkte gegeben - selbst wenn man natürlich noch nicht alle Fragen zu diesen beantworten wollte. Als erstes im Fokus standen dabei die 45nm-Prozessoren der Core-Prozessorenarchitektur, welche zum Jahreswechsel anstehen. Wie bereits mittels Vorserientests bekannt, konnte Intel bei diesen Prozessoren die Pro/MHz-Leistung eher unspektakulär um 5 bis 10 Prozent steigern. Da auch die Taktraten (trotz 45nm Fertigung) nicht deutlich nach oben gehen, stellen die 45nm-Prozessoren erst einmal nur eine eher kleinere Evolutionsstufe dar.
Das wirkliche 45nm-Feuerwerk wird Intel wohl erst im Laufe des nächsten Jahres entfachen, wenn die Taktraten dieser Prozessoren in Richtung 4 GHz steigen sollen. Das dies problemlos möglich sein dürfte, beweist Intel schon selber mittels eines auf dem IDF zu sehenden QuadCore-Systems auf 5.9 GHz Prozessoren-Takt. Selbst wenn dieses Ergebnis nur mit professioneller Kühlung erreicht wurde, deutet es doch an, welche Taktreserven noch in der Core-Prozessorenarchitektur stecken - gerade nach dem Sprung auf die 45nm-Fertigung. Nichts desto trotz dürfte sich der Blick der Presse und Enthusiasten nächstes Jahr schon langsam in Richtung der Core-Nachfolgearchitektur "Nehalem" verschieben, mit welcher im zweiten Halbjahr zu rechnen ist.
Diese bringt wie bekannt eine neue Anschlußtechnologie des Prozessors mit sich: Der Speicher wird über ein integriertes DDR3-Speicherinterface (wahrscheinlich TripleChannel, dies ist aber derzeit immer noch nicht bestätigt wurden) angebunden, mit dem Rest des Systems kommuniziert man dann über ein Common System Interface (CSI), nun offiziell "QuickPath" genannt. Und da dieses AMDs HyperTransport nicht unähnlich ist, hat AMD natürlich auch gleich die Gelegenheit genutzt, darauf herumzureiten, Intel würde nun AMD-Technologien "kopieren" ;). Daneben bringt die Nehalem-Architektur wie bekannt bis zu acht physikalische Cores, eine neue Art von HyperThreading (und damit bis zu 16 logische Cores) sowie einen integrierten Grafikkern mit sich.
Letzterer wird wohl in derselben Fertigungstechnologie hergestellt wie die Prozessoren selber (45nm), allerdings "nur" neben die Prozessoren-Cores auf das Trägermaterial integriert, ist also noch nicht direkt im Prozessor-Die enthalten. Im Prinzip hat Intel damit schon eine Antwort auf AMDs Fusion, bevor dieses überhaupt an den Start geht - wobei das Fusion-Konzept allerdings noch deutlich über die Integration nur einer Grafiklösung hinausgeht. Die Leistungsfähigkeit eben dieser integrierten Grafiklösung bei der Nehalem-Architektur wird zwar von Intel maßlos hochgelobt, es ist aber dennoch aus Preis/Leistungs-Erwägungen heraus nicht davon auszugehen, daß hierbei viel mehr als die Leistungsklasse von integrierter Grafik von Mainboard-Chipsätzen geboten werden wird.
Zudem gab Intel noch einen groben Überblick über die Nehalem nachfolgenden Prozessoren: Ein Jahr nach Nehalem wird Intel eine Neuauflage dieser Architektur unter dem Codenamen "Westmere" bringen, diese wird dann schon in 32nm gefertigt sein. Prinzipiell dürfte es sich hierbei um einen ähnlichen Schritt handeln wie derzeit beim Wechsel von der 65nm- auf die 45nm-Fertigung bei der Core-Prozessorenarchitektur. Und im Jahr 2010 soll dann (ebenfalls in 32nm) bereits die Nachfolgearchitektur unter dem Codenamen "Sandy Bridge" spruchreif werden, zu welcher derzeit allerdings nicht viel mehr als eben nur der Name bekannt ist. Da Intel aber nur zwei Jahre Entwicklungszeit für "Sandy Bridge" hat (im Gegensatz zu den mehr als fünf Jahren, in denen schon an Nehalem rumgebastelt wird), sollte der architektonische Sprung normalerweise nicht so groß ausfallen wie beispielsweise von der Netburst-Architektur des Pentium 4 auf die aktuelle Core-Architektur oder auch (vermutlich) von dieser Core-Architektur auf die kommende Nehalem-Architektur.
Langfristig sind von Intel zwei maßgebliche Innovationen bei den kommenden Prozessorenarchitekturen zu erwarten: Erstens einmal dürfte irgendwann der Schritt zu reinen 64bittigen Prozessorkernen erfolgen. Eigentlich wollte Intel dies mit der IA64-Architektur der Itanium-Prozessoren schon lange vorantreiben und aus diesem Enterprise-Computing-Bereich langsam auch in den Desktop-Bereich überführen. Nachdem der Itanium aber nicht so lief wie erwartet und AMD einfach eine 64-Bit-Erweiterung anstatt eines reinen 64-Bit-Prozessors an den Start brachte, schob auch Intel diese Zwischenstufe der 64-Bit-Erweiterung ein. Ein reines 64-Bit-Projekt ist damit aber sicherlich nicht vom Tisch, sondern dürfte halt dann kommen, wenn Intel die Zeit hierfür als gekommen ansieht - primär dürfte das an der Verbreitung von 64bittiger Software hängen.
Und zum anderen dürfte irgendwann der große Spung vom MultiCore-Prozessor zum ManyCore-Prozessor erfolgen. Beide Prozessorenhersteller haben schon angedeutet, daß sie kaum Prozessoren mit mehr als 8 oder höchstens 16 Kernen heutiger Bauart vorstellen werden. Prozessoren mit höherer Kernanzahl als 8 bzw. 16 werden dann wahrscheinlich grundlegend anders aussehen: Es wird wohl gleich einige Dutzende Kerne geben, dafür sind diese Kerne dann deutlich einfacher als heutige Prozessorenkerne, zusätzlich dürfte es einige Spezialkerne mit speziellen Funktionalitäten geben. Aber auch hier sind die Voraussetzungen von Software-Seite aus nicht gering: Damit solche Prozessoren ihre Rohleistung anständig umsetzen können, muß die benutzte Software wirklich gut auf Prozessoren mit (sehr) vielen Kernen ausgelegt sein - insofern dürfte auch diese Innovation wohl nicht in allernächster Zeit zu erwarten sein.
News des 19. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Im Fall von Intels Larrabee geht nach Intels Ausführungen auf dem IDF der Zug immer deutlicher in Richtung einer echten Grafikkarte - auch wenn hier noch nicht alle Zweifel beseitigt sind. Wie unter anderem Golem diesbezüglich ausführen, wurde das Larrabee-Projekt auf dem IDF unter dem klaren Stichwort "Graphics" vorgestellt und zugleich auch auf Nachfrage die Aussage getroffen, daß man für Larrabee natürlich Treiber für DirectX und OpenGL anbieten werde. Damit deutet derzeit eigentlich fast alles in die Richtung, daß es in ein bis zwei Jahren (erste Larrabee-Demonstrationen soll es Ende 2008 geben, frühere Informationen sprechen von einem Markteintritt Anfang 2009) mit Intel einen dritten großen Mitspieler im Grafikchip-Geschäft geben wird.
Letzte Zweifel kann man natürlich trotzdem anstellen: Zum einen bedeuten "Treiber für DirectX und OpenGL" mitnichten zwingend, daß man damit vernünftig spielen kann. Auch eine CAD-Grafikkarte benötigt schließlich Treiber für DirectX und OpenGL, hat aber dennoch einen komplett anderen Einsatzzweck und ist auch nur in diesem stark. Und zum andere sieht das grundsätzliche Design von Larrabee gemäß den bisher bekannten Daten eher nach einem GPGPU-Beschleuniger aus, zumindestens steht die Effektivität als konventioneller Spiele-Beschleuniger arg in Frage. Alternativ könnte es natürlich sein, daß Intel hier gleich generell auf Raytracing als völlig anderem Beschleunigungsansatz setzt - damit wäre Larrabee zwar eine vollwertige Grafikkarte, würde aber faktisch in ihrem eigenen Feld spielen und bräuchte Jahre intensiven Supports, ehe sich diese Renderingmethode durchgesetzt haben würde.
Gemäß unserers Forums besitzen die ForceWare-Treiber ab der Version 163.67 endlich die lange versprochene Möglichkeit, den Shader-Takt von GeForce8-Grafikkarten unabhängig vom "normalen" GPU-Takt zu regeln. Während vorher der Shader-Takt in einem festen, vom BIOS festgelegten Verhältnis an den GPU-Takt gebunden war, bewirkt ab dieser Treiber-Version eine Steigerung des GPU-Taktes nicht mehr automatisch eine Steigerung des Shader-Taktes. Wenn man ab dieser Treiber-Version auch den Shader-Takt steigern will, benötigt man extra Übertaktungstools, da nVidia bei den Übertaktungsfunktionen des Treibers weiterhin nur GPU- und Chip-Takt zur Übertaktung anbietet. Allerdings eröffnet sich nun auch die Möglichkeit, für GPU- und Shader-Takt dediziert an die Grenzen des jeweiligen Silziums zu gehen.
Auf dem IDF hat Intel laut Hard Tecs 4U einen Mainboard-Chipsatz gezeigt, welcher tatsächlich SLI beherrscht. Allerdings ist der Seaburg-Chipsatz für den Einsatz mit zwei Server-Prozessoren im Sockel 771 gedacht und damit für Desktop-Belange weitestgehend uninteressant (auch weil teurer FB-DIMM als Speicher erforderlich ist). Dafür unterstützt der Chipsatz aber auch gleich vier Grafikkarten-Steckplätze - und wenngleich diese dann elektrisch nur mit PCI Express x8 angebunden werden, wäre damit sogar Quad-SLI möglich. Insgesamt scheint sich das System aber mehr als CAD-Workstation zu eignen, wo sowohl die zwei Prozessoren als auch die vier Grafikkarten in gewissen Anwendungsfeldern einen Produktivitätsgewinn erzielen können. Von SLI auf Intels Desktop-Chipsätzen ist dagegen nichts zu sehen, diese unterstützen weiterhin "nur" ATIs CrossFire.
Shortcuts: Wie Hard Tecs 4U ausführen, wird Intel in ca. einem Jahr erstmals QuadCore-Prozessoren für Notebooks anbieten. Diese Prozessoren sind dann natürlich schon in 45nm gefertigt, da sich ansonsten keine für mobile Geräte handelbare Verlustleistung (Intel gibt eine TDP von 45 Watt an) erreichen lassen würde. Über eine weitere mögliche GPGPU-Anwendung berichten The Inquirer: Danach läßt sich eine Radeon HD 2900 XT zur Beschleunigung eines Antiviren-Scans einsetzen und erledigt diese Arbeit bis zu 21mal schneller als ein Opteron-Prozessor. Für den Heimanwender liegt diese Performance allerdings leider außer Reichweite, denn hier limitiert im Antivirenscan immer die Festplatten-Geschwindigkeit. Gedacht ist das ganze eher für Server bzw. Internetknotenpunkte, wo sich die Radeon HD 2900 XT dann allerdings exzellent als dedizierter Virenscanner einsetzen lassen würde ;).
Der Heise Newsticker berichtet von neuen Xeon-Prozessoren, mit welchen Intel den neuen K10-basierenden Opteron-Prozessoren begegnen will. Dabei setzt Intel bereits auf 45nm-Modelle und wird damit wie AMD seine neuesten Prozessoren früher in den Server- als in den Desktop-Markt bringen. Allerdings sind die neuen 45nm Xeons noch nicht erhältlich - und wenn Intel nur lange genug "wartet", wird AMD in der Zwischenzeit die angekündigten höheren Taktstufen der K10-basierenden Opterons herausbringen ;). Und nochmals der Heise Newsticker berichtet letztlich von der Absicht Intels, in den nächsten zwei Jahren die Performance von integrierter Grafik um den Faktor 10 deutlich zu steigern. Dem prinzipiell positivem Gedanken steht allerdings entgegen, daß die integrierten Intel-Grafikchips derzeit nicht unbedingt die großen Probleme bei der Rohleistung haben, sondern wie bekannt viel deutlicher bei den Treibern.
News des 18. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Neue Daten gibt es zur Radeon HD 2900 GT und Pro, welche ATI in den Raum zwischen GeForce 8600 GTS und GeForce 8800 GTS positionieren will und welche diese Lücke bis zum Erscheinen von ATIs Refreshgeneration füllen sollen. Erst einmal war Grafikkarten-Hersteller HIS etwas voreilig und hat eine Produktseite zur Radeon HD 2900 Pro online gebracht, welche auch Auskunft über technische Daten dieser R600-basierenden Grafikkarte enthält. Allerdings war es von Anfang an unwahrscheinlich, daß diese Karte wirklich mit einem 512bittigem Speicherinterface erscheinen würde - hier hat wohl ein einfacher Copy&Paste-Fehler bei dieser HIS-Produktseite zugeschlagen ;).
Deutlich gehaltvoller sind da die ATI-Folien, welche in unserem Forum zu visitieren sind. Danach tritt die Radeon HD 2900 Pro mit den vollen 320 Shader-Einheiten, aber "nur" mit einem 256bittigen Speicherinterface und Taktraten von 600/800 MHz an. Wenn ATI hier nichts an den Textureneinheiten und ROPs verändert hat (was eher unwahrscheinlich ist), liegt der primäre Unterschied zur Radeon HD 2900 XT eigentlich nur bei der Speicherbandbreite, welche nur auf der Hälfte jener Karte rangiert. Da die Radeon HD 2900 XT allerdings eher "zuviel" Speicherbandbreite hat, dürfte dies wohl eine sehr verschmerzbare Abspeckung sein, dazu kommt aber noch - aufgrund des Taktunterschiedes - eine 19 Prozent niedrigere Rohleistung.
Für eine Karte dieses Preisbereichs - die ersten Listungen beim Geizhals-Preisvergleich sprechen von 210 bis 230 Euro für eine 512-MB-Karte - sollte das dennoch ein gutes Angebot darstellen. Grob hochgerechnet sollte sich die Radeon HD 2900 Pro von der Performance her etwas unterhalb der GeForce 8800 GTS 320MB positionieren, jedoch noch weit überhalb der GeForce 8600 GTS. Näher zu dieser liegt dann offenbar die Radeon HD 2900 GT, eine weitere Abspeckung des R600-Chips. Noch ist zu dieser Karte zu wenig bekannt, aber vermutlich wird bei dieser neben dem Speicherinterface auch die Anzahl der Shader-Einheiten beschnitten werden. Nachdem der Launch der Radeon HD 2900 Pro offenbar kurz bevor steht, dürfte es auch bei der Radeon HD 2900 GT nicht mehr lange dauern, bis diese in den Markt kommt.
Das TechConnect Magazine hat die Daten der kommenden 45nm-Prozessoren von Intel anzubieten. Damit bestätigen sich frühere Gerüchte, wonach Intel noch in diesem Jahr eine Extreme-Version der neuen Prozessoren in den Markt bringen will, um damit AMDs Launch der K10-Prozessoren für den Desktop-Bereich zu stören (obwohl dort für dieses Jahr wohl auch nicht viel mehr als ein teurer Phenom FX kommen dürfte): Der Core 2 Extreme QX9650 mit 3.0 GHz ist (laut Golem) für den 12. November zu erwarten, der Rest der 45nm-Prozessoren dann im Januar 2008. Wie schon vorher bekannt, ist Intel bezüglich der Taktraten der 45nm-Modelle zumindestens für den Anfang erstaunlich zurückhaltend: Im DualCore-Bereich geht es von derzeit 3.0 auf dann 3.16 GHz, im QuadCore-Bereich bleibt es gar bei den jetzt schon erreichten 3.0 GHz. Allerdings wird Intel wohl im Laufe des Jahres 2008 die Taktschraube energisch nach oben drehen, es sind bis zu 4.0 GHz im DualCore-Bereich im Gespräch.
Golem berichten über ein auf dem Intel Developer Forum (IDF) gezeigtes erstes System mit laufendem Nehalem-Prozessor. Der benutzte Prozessor soll dabei gerade einmal drei Wochen alt sein, konnte aber schon in Windows booten und eine Musikdatei abspielen - für die Kürze der Zeit sicherlich nicht schlecht. Die Nehalem-Prozessorenarchitektur, welche schon zu Zeiten des Pentium 4 angedacht wurde, nun aber wohl recht stark an die Core-Prozessorenarchitektur angelehnt ist, soll mit bis zu acht physikalischen Cores, einer neuen Form von HyperThreading (und damit bis zu 16 logischen Cores), einem integrierten DDR3-Speichercontroller und integrierter Grafik bereits im zweiten Halbjahr 2008 erscheinen.
Der Heise Newsticker berichtet zur Online-Durchsuchung, daß nach fachmännischer Analyse der bisher vom BND durchgeführten Online-Durchsuchungen diese sich vor allem auf unveröffentlichte Sicherheitslücken stützen würden. Im Klartext würde das bedeuten, daß Vater Staat (in diesem Fall der BND) bei kriminellen Hacker-Netzwerken bislang unbekannte Sicherheitslücken erstanden hätte - womit man letztlich mit Steuergeldern (!) das organisierte Verbrechen unterstützt hätte. Hier würde uns durchaus brennend interessieren, ob das nicht - BND hin oder her - "leicht" strafbar gewesen ist - von der moralischen Komponente, daß Vater Staat, anstatt den Bürger auftragsgemäß vor Sicherheitslücken zu schützen, diese dann zum Eigenzweck einsetzt, einmal ganz abgesehen.
Shortcuts: Der neue Beta-Treiber 163.69 von nVidia führt eine neue Grafikkarte: Die GeForce 8600 GS basiert (wie die GeForce 8600 GT/GTS) auf dem G84-Chip und sollte wohl unter diesen beiden anzusiedeln sein. Genaueres zu dieser neuen Karte ist derzeit aber noch nicht bekannt, denkbar wäre auch eine stark abgespeckte OEM-Lösung des G84-Grafikchips. Laut Hard Tecs 4U hat AMD seine kommenden TripleCore-Prozessoren inzwischen nun offiziell bestätigt. Entgegen den gestrigen Aussagen soll es sich hierbei nun aber doch wieder um QuadCore-Modelle handeln, bei welchen ein Kern deaktiviert wurde. Vermutlich handelt es sich damit also um Prozessoren, welche irgendwo im Silizium einen Produktionsfehler aufweisen und welche AMD durch Deaktivierung eines Kerns wieder lauf- und damit verkaufsfähig machen kann.
News des 17. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Unter anderem TweakTown vermelden die mehr oder weniger vollständigen Kenngrößen der einzelnen Grafikkarten der kommenden Refresh-Generation von nVidia. Die dazu zu sehende Tabelle kommt einem in der Aufmachung allerdings verdächtig bekannt vor: So etwas gab es vor einem dreiviertel Jahr schon einmal in Bezug auf die erste Direct3D10-Generation von ATI und nVidia - und schon seinerzeit waren die Angaben dieser Tabellen zu bezweifeln und stellten sich letztlich als großflächig unzutreffend heraus. Auch die neuerliche Tabelle zeigt schon auf den ersten Blick einige Schwächen (beispielsweise werden die kommenden nVidia-Grafikchips durchgehend in 65nm gefertigt sein, nicht in 80nm), so das sie für den Moment ins Reich der Fabeln zurückverwiesen werden muß (Zufallstreffer sind natürlich nie auszuschließen).
In unserem Forum war bis vor kurzem ein Teil einer nVidia-Präsentation zum Thema "Triple-SLI" zu sehen. Das Bild musste zwar inzwischen auf Bitten nVidias entfernt werden, zudem handelt es sich natürlich auch nur um ein Bild und keine exakte Beschreibung. Nichts desto trotz wird nunmehr klar, daß auch bei nVidia der Weg in Richtung dreier GPUs im System geht und daß die Idee mit vier GPUs im System wohl vorerst ausgedient hat. Vorerst sollen GeForce 8800 GTX und Ultra in den Genuß von Triple-SLI kommen, wahrscheinlich will man hierbei zukünftig aber auch noch mehr Grafikkarten für Triple-SLI freischalten. Daß größte Problem von Triple-SLI wird dabei allerdings weniger der Grafikkarten-Treiber darstellen, sondern vielmehr der Mainboard-Support.
Denn natürlich wird für Triple-SLI ein Mainboard mit gleich drei Grafikkarten-Steckplätzen benötigt - welche, selbst wenn es derzeit wirklich schon einzelne Exemplare geben sollte, zumindestens extrem selten sind. Insofern wird für Triple-SLI immer auch ein Mainboard-Wechsel notwendig - gut, daß nVidia auch Hersteller von Mainboard-Chipsätzen ist ;). Denn in einer solchen Situation zahlt es sich natürlich aus, daß man auf der SLI-Technologie sitzt und diese nicht an andere Chipsatz-Hersteller lizensiert. Interessanterweise will nVidia Triple-SLI allerdings sogar auf dem nForce 680i SLI Chipsatz möglich machen, obwohl dieser offiziell nur 46 PCI Express Lanes besitzt und damit zwei zu wenig, um drei elektrisch als x16 angebundene PCI Express Steckplätze zu ermöglichen.
Unklar ist zudem, warum hier nicht der besser passende nForce 680a SLI erwähnt wurde, welcher immerhin gleich 56 PCI Express Lanes besitzt (der Chipsatz wurde eigentlich für AMDs QuadFX entwickelt und ist außerhalb dessen sehr selten). Gut möglich, daß nVidia hier bezüglich Triple-SLI noch passendere Chipsätze vorstellt - in jedem Fall werden aber auch bei Benutzung "älterer" Chipsätze neue Mainboards nötig. Diese bieten dann nur noch drei Grafikkarten-Steckplätze und wohl keine weiteren PCI-Express- oder PCI-Steckplätze für andere Komponenten mehr, da die Grafikkarten-Steckplätze so konzipiert wurden, das sie DualSlot-Grafikkarten aufnehmen können. Aufgrund dieser Einschränkung dürfte es Triple-SLI sicherlich nicht leichter haben, denn die Zielgruppe dieser Systeme wird sich sicherlich ungern von ihren teils hochwertigen Soundkarten trennen und auf integrierte Soundlösungen setzen wollen - von manchmal eben doch notwendigen Steckkarten für andere Zwecke ganz zu schweigen.
Aber auch von AMD ist der dreifache Chip-Einsatz geplant - nicht nur wie bereits bekannt bei Grafikchips (mittels Triple-CrossFire), sondern erstaunlicherweise auch bei Prozessoren: Wie Hard Tecs 4U hierzu berichten, will AMD in Zukunft TripleCore-Prozessoren anbieten. Interessanterweise will AMD hierbei echte 3-Kern-Prozessoren verkaufen, also nicht 4-Kern-Modelle mit einem deaktivierten Kern. Diese sollen in den Bereich zwischen HighEnd- und Mainstream-Prozessoren plaziert werden, insofern scheint der Name "Phenom X3" durchaus denkbar. Ob sich allerdings hier wirklich eine Marktlücke sowohl vom Preis als auch der Leistung finden läßt, sei dahingestellt. Denn ganz besonders dann, wenn Intel anfängt, QuadCore-Modelle noch aggressiver in den Markt zu drücken, ist zu bezeifeln, daß sich TripleCore-Prozessoren durchsetzen werden können.