News-Archiv 6. - 12. November 2006 (45. Kalenderwoche)
11./12. November 10. November 9. November 8. November 7. November 6. November
News des 11./12. November 2006 |
DailyTech berichten von einem seitens nVidia abgehaltenem Analystenmeeting, bei welchem nVidia-Gründer und CEO Jen-Hsun Huang die Aussage traf, auf der G80-Technologie basierend zukünftig insgesamt neun Grafikkarten vorstellen zu wollen. Die bisher zwei gelaunchten G80-basierenden Grafikkarten GeForce 8800 GTX & GTX scheinen dabei noch gar nicht einmal mitgezählt, denn wie AnandTech weiterhin erfahren hat, will nVidia angeblich im Februar drei neue G8x-Grafikchips launchen, welche dann in jeweils drei Grafikkarten resultieren sollen - was die vorgenannten neun G8x-basierenden Karten ergibt. Zumindestens für den LowCost- und Mainstream-Markt deckt sich das grob mit früheren Informationen, wonach seinerzeit Grafikchips mit den Codenamen G86 (Mainstream-Segment) und G84 (LowCost-Segment) für das Frühjahr 2007 genannt wurden ...
... Ob nVidia allerdings schon zum selben Zeitpunkt eine Ablösung des G80-Chips für das HighEnd-Segment bringt, bliebe stark abzuwarten: Prinzipiell wird das natürlich irgendwann passieren, allerdings wäre ein solcher Chip eher denn für den Sommer 2007 zu erwarten. Ein so früher Start im Frühjahr würde ATI natürlich noch stärker unter Druck setzen, weil sich deren geplantes Direct3D10 HighEnd-Projekt R600 dann eben schon mit der Refresh-Generation von nVidia herumschlagen müsste und nicht mehr nur mit dem G80-Chip. Die von nVidia genannte Anzahl an kommenden Grafikkarten auf G8x-Technologie ist im übrigen nicht überzubewerten: Im Endeffekt heißt dies nur, daß nVidia bis zum Frühjahr komplett auf die G8x-Technologie umsteigen will - daß man dafür den Markt mit gleich neuen verschiedenen Lösungen bedienen will, hat es aber auch schon früher teilweise gegeben.
Der Tech Report berichtet über einen Wasserkühlungs-Übertaktungsversuch mit der GeForce 8800 GTX, welcher in einer Taktfrequenz von 660 MHz resultierte. Von der Differenz zum Standardtakt dieser Karte von 575 MHz her erscheint allerdings diese Übertaktung mit gerade einmal 15 Prozent Taktgewinn durch eine Wasserkühlung nicht wirklich spektakulär - dabei scheint der eingesetzte Wasserkühler von SilentX seine Sache sogar noch wirklich gut zu machen, wie man sich im Original seitens der Awardfabrik überzeugen kann. Insofern scheinen die Taktraten des G80-Chips wohl eher schon auf Kante ausgelegt zu sein - nVidia hat den Grafikkarten-Herstellern wohl nicht umsonst empfohlen, bei ihren Karten besser doch auf Übertaktungen ab Werk zu verzichten ...
... Natürlich hängt dies beim G80 auch mit an dessen sehr unterschiedlichem Shader-Takt, welcher durch eine Erhöhung des allgemeinen Chiptakts immer mit hochgerissen wird und dabei dann echte Takterhöhen erklimmt. Zwar schweigt sich nVidia derzeit bezüglich der genauen Ermittlung des Shader-Taktes aus, doch ist zu vermuten, daß der Shader-Takt 1:1 mit dem allgemeinen Chiptakt nach oben geht - bei 660 MHz also satte 1550 MHz erreicht. Erst mit späteren Treibern will nVidia es ermöglichen, den Shader-Takt getrennt zu regeln, dann könnte sich eventuell auch der allgemeine Chiptakt stärker nach oben anheben lassen. Denn die bisherigen Übertaktungsergebnisse der GeForce 8800 GTX sind eher unterdurchschnittlich, sie reichen ohne Veränderung der Kühlung beim Chiptakt von 600 bis 650 MHz, beim Speichertakt von 920 bis 1100 MHz (vollständige Liste der Ergebnisse) ...
... Dabei liegt das Mittel bei 628/1005 MHz, womit (ausgehend von 575/900 MHz) der Chip im Schnitt um 9 Prozent und der Speicher im Schnit um 12 Prozent mehr vertrugen. Das Wasserkühlungs-Ergebnis lag wie erwähnt mit 660/1100 MHz auch nicht wesentlich höher (zumindestens zwei Karten erreichten mit default-Kühlung auch schon 650 MHz Chiptakt), während bei Nordic Hardware mittels eines AirDucts gar 704 MHz Chiptakt erzielt werden konnte - allerdings auf einer Karte, welche auch schon unter default-Kühlung recht gut übertaktbar war, speziell dieses Ergebnis ist also schwer zu verallgemeinern. Insofern kann mit Fug und Recht gesagt werden, daß die GeForce 8800 GTX ein eher sehr mäßiger Übertakter ist und man wegen der paar Prozente sich die ganze Sache wohl eher sparen kann ...
... Etwas anders sieht dies dagegen bei der GeForce 8800 GTS aus, von welcher auch einige Übertaktungsergebnisse vorliegen: Danach ging diese mit original 500/800 MHz taktende Karte im Schnitt auf 606/926 MHz hinauf, wobei dies noch durch ein sehr unterdurchschnittliches Ergebnis von Hot Hardware etwas heruntergezogen wird. Nimmt man jenes Ergebnis hinaus, kommen die drei anderen GTX-Übertaktungsversuche im Schnitt auf 620/953 MHz, was mit 24 Prozent beim Chiptakt und 19 Prozent beim Speichertakt schon aller Ehren wert ist. Allerdings war und ist es natürlich zu erwarten, daß die kleineren Ausführungen desselben Grafikchips sich immer besser übertakten lassen - schließlich werden bei TSMC erst einmal alle G80-Grafikchips mit dem Ziel produziert, die Taktraten der GeForce 8800 GTX erreichen zu können, womit die meisten der letztlich als "GeForce 8800 GTS" gelabelten Grafikchips mehr erreichen dürften als nur die nominellen Taktraten dieser Karte ...
... Richtiggehend hochinteressant sind hier aber noch die Benchmark-Ergebnisse der FiringSquad mit ihrer übertakteten GeForce 8800 GTS: Auf 620/907 MHz schlug diese sogar geringfügig die Werte einer auf Standardtaktraten laufenden GeForce 8800 GTX unter 1280x1024 und 1600x1200 mit jeweils 4x Anti-Aliasing und 16x anisotropen Filter (im Schnitt mit 6 Prozent und in keinem Test langsamer als diese). Dies ist insofern deutlich bemerkenswert, als daß trotz des leichten Taktvorteils der übertakteten GeForce 8800 GTS die GeForce 8800 GTX immer noch einen mehr als erheblichen Vorteil bei den Hardware-Einheiten hat: 128 Shader-Prozessoren anstatt 96, 32 Textureneinheiten anstatt 24, 24 ROPs anstatt 20 und letztlich ein 384bittiges Speicherinterface anstatt eines 320bittigen wie bei der GeForce 8800 GTS ...
... Somit sind diese Benchmarks ohne eine Bestätigung von anderer Seite her zum jetzigen Zeitpunkt auf keinen Fall für bare Münze zu nehmen: Denn das mit einer maximal 24prozentigen Übertaktung eine im Schnitt 35prozentige Leistungssteigerung erreicht wird, gibt doch eher Anlaß an der Glaubwürdigkeit dieser Zahlen zweifeln zu lassen, anstatt jetzt sofort auf übertaktete GTS-Karten als Ersatz für das GTX-Modell zu setzen. Nichts desto trotz läßt sich im Overclocking ein weiterer Pluspunkt der GeForce 8800 GTS erkennen, da sich diese Karte zumindestens zweifellos besser übertakten läßt als die GeForce 8800 GTX - auch wenn immer wieder dazugesagt werden muß, daß sich die konkrete Übertaktungsfähigkeit jeder einzelnen von den Händlern ausgelieferten Karte stark unterscheiden kann und die hier genannten Durchschnittswerte auf keinen Fall von jeder Karte erreicht werden dürften.
News des 10. November 2006 |
Der Heise Newsticker wie auch Golem (gestern schon verlinkt) berichten über den bevorstehenden Start von AMDs 4x4 Plattform als Gegenpol zu Intels erstem QuadCore-Prozessoren. Gezeigt wird dabei unter anderem auch ein erstes ensprechendes 2-Sockel-Mainboard auf Basis eines noch nicht vorgestellten nVidia-Chipsatzes, wahrscheinlich handelt es sich dabei um den nVidia nForce 680a SLI, welcher weitgehend identisch zum neuen nForce 680i SLI für Intel-Prozessoren ist. Entsprechende Mainboards sollen - wie bei AMD jedoch üblich und bekanntermaßen ein großer Vorteil im Vergleich zu Intel - auch mit den kommenden QuadCore-Prozessoren von AMD harmonieren, so daß ab dem dritten Quartal 2007 4x4-Usern dann mittels einer einfachen Umrüstung sogar acht Prozessoren-Kerne zur Verfügung stehen können ...
... Beim Punkt "Kerne" muß aber ein bislang wenig beachteter Nachteil der 4x4-Plattform zur Sprache gebracht werden: Denn dadurch, daß sich die insgesamt vier CPU-Kerne dieser AMD-Plattform auf zwei Sockel verteilen, zählt das ganze lizenztechnisch als Mehrprozessoren-System, womit zur Ausnutzung aller Prozessoren nicht mehr die Standard-Versionen von Windows XP und Vista ausreichen: Bei Windows XP muß es die Professionall-Version sein, bei Windows Vista gar gleich die Ultimate-Version. Entsprechende OEM-Systeme sollten natürlich gleich die passenden Betriebssystem-Version installiert haben, wer sich jedoch selbst ein solches System aufbauen will, muß hier diesen Zwang zu den jeweils höherwertigen Betriebssystem-Versionen beachten. Für gewöhnliche DualCore- und QuadCore-Prozessoren hat diese Lizenzregelung im übrigen keine Auswirkungen, da Microsoft nach Sockeln und nicht nach Kernen abrechnet.
Legion Hardware bringen noch einmal einen Vergleich von erster zu zweiter Revision der Radeon X1900 GT, welche wie frühere Tests zum Thema der zweiten Revision (575/600 MHz) einen Performance-Rückstand von 5 bis 10 Prozent zur ersten Revision dieser Karte (512/660 MHz) bescheinigt. So wie es ausschaut, sind aber in unseren Breitengraden keinerlei Radeon X1900 GT Grafikkarten der zweiten Revision im Handel - einmal davon abgesehen, daß diese Karte (egal in welcher Revision) durch den Markteintritt der Radeon X1950 Pro sowieso weitestgehend uninteressant geworden ist: Die Radeon X1950 Pro ist zum einen schneller selbst als die erste Revision der Radeon X1900 GT und wird inzwischen sogar zum selben Preis angeboten wie diese.
Shortcuts: Wieder einmal ein Lebenszeichen des RD600-Chipsatzes von AMD/ATI für Intel-Prozessoren haben The Inquirer: Danach soll ein entsprechendes DFI-Board im Dezember an den Start gehen. Ob dieses nach der langen Verzögerung noch Sinn macht, darf durchaus hinterfragt werden - zudem bleibt abzuwarten, ob die genannte Platine auch wirklich in den Markt findet. nVidia hingegen wird nach einer Meldung seitens des Planet 3DNow! zukünftig auch Mainboard-Chipsätze mit integrierten Grafiklösungen für Intel-Prozessoren anbieten. Offiziell begreift man dabei den sich abzeichnenden Rückzug von AMD/ATI aus dem entsprechenden Markt als "großartige Chance" - inoffiziell dürfte man zudem die Befürchtung haben, bei möglichen eigenen Platinen für AMD-Prozessoren von AMD nach der ATI-Übernahme wohl nicht mehr eine 100prozentige Unterstützung zu bekommen.
News des 9. November 2006 |
Laut The Inquirer hat ATI schon erste, niedrig getaktete R600-Samplekarten an Spieleentwickler und bedeutenden Kunden verschickt. An den Plänen, den R600-Chip trotzdem erst im neuen Jahr zu launchen, scheint sich jedoch nicht geändert zu haben. Dies deutet im übrigen auf ein reines Produktions-Problem hin, denn die Existenz von Samplekarten beweist doch, daß der R600-Chip selber spruchreif erscheint. Womöglich sind ATI aber die Taktraten, in welchen TSMC den Chip derzeit fertigen kann, noch nicht ausreichend hoch genug - die Aussage, daß die genannten Samplekarten noch mit niedrigeren als den finalen Taktraten ausgeliefert wurden, zeigt ebenfalls in diese Richtung.
Der Heise Newsticker gibt einige Tips bezüglich durch verwundbare ActiveX-Elemente erzeugte neue Windows-Sicherheitslücken. Dabei wird unter anderem wieder einmal empfohlen, ActiveX bis zum Erscheinen eines entsprechendes Patches zu deaktivieren. Die eigentliche Frage hierbei ist allerdings eher doch, weshalb man dieses nur bis zum Erscheinen eines Patches tun soll: Erstens einmal kommen derzeit die Sicherheitslücken fast im Wochen-Takt, artet das ständige Aktivieren und Deaktivieren von ActiveX inzwischen schon in Arbeit aus. Und zum anderen schützt die Deaktivierung von ActiveX (und möglichst auch aller anderen aktiven Inhalte) absolut zuverlässig auch vor den nächsten noch nicht entdecken Sicherheitslücken - Patches hin oder her.
G80-Shortcuts: Laut TweakPC betrifft der Rückruf an GeForce 8800 GTX Karten wegen eines defekten Widerstands "nur" 20.000 Karten - was im übrigen für eine absolute HighEnd-Lösung gar nicht einmal so wenig sind. Zumindestens dürften entgegen früherer nVidia-Aussagen auch etliche Retail-Karten betroffen sein, denn allein mit Rezensions-Exemplaren sind die 20.000 genannten Karten nicht erreichbar ;))). Laut der PC Games Hardware läßt die Lüftersteuerung der GeForce 8800 GTX/GTX im nVidia Control Panel auch ein komplettes Ausschalten des Lüfters zu. Ob es allerdings eine gute Idee war, diese Option dem Nutzer zu geben, ohne an solche Features wie eine Notabschaltung gedacht zu haben, bliebe arg zu bezweifeln - das gleiche gilt im übrigen aber auch für besonders niedrige Lüfterdrehzahlen, welche sich ebenfalls im nVidia Control Panel ohne Widerspruch einstellen lassen ...
... The Inquirer berichten hingegen von einer GeForce 8800 GTX seitens Sparkle, welche gleich ab Werk mit Peltier-Kühlung ausgerüstet ist. Nochmals bei TweakPC gibt es eine schöne Auflistung der bisher von den Grafikkarten-Herstellern angekündigten GeForce 8800 GTX/GTX Karten inklusive Links auf deren jeweilige Produkt-Webseiten. Viel interessanter ist allerdings die nächste Meldung von wiederum TweakPC, welche davon spricht, daß gerade die GeForce 8800 GTS zu teilweise viel höheren Preisen angeboten wird als von den Listenpreisen suggeriert. Hier könnten sich natürlich aufgrund der aktuellen Knappheit an GeForce 8800 GTS/GTX Karten mancher Händler eine goldene Nase verdienen (andererseits wird der Preis nun einmal über Angebot und Nachfrage bestimmt), allerdings schätzen wir dies derzeit eher als eine sehr kurzfristige Situation ein, welche sich nach dem ersten Ansturm wohl wieder einpendeln dürfte.
News des 8. November 2006 |
Zum Launch der GeForce 8800 GTS & GTX, welchen wir in einem extra Artikel abgehandelt haben, wäre noch nachzutragen, daß sich die Hardware-Tester positiverweise nicht an die nVidia-Empfehlungen im "GeForce 8800 Benchmark Guide" gehalten und nur Auflösungen von 1600x1200 und höher ausgetestet haben - es gibt genauso oft auch Benchmarks unter 1280x1024 und teilweise sogar noch unter 1024x768. Zwar mag das seitens nVidia geäußerte Argument zutreffen, daß gerade die GeForce 8800 GTX unter 1280x1024 selbst unter Anti-Aliasing und anisotropen Filter häufiger denn einmal auf CPU-limitierte Szenarien trifft, allerdings läßt sich damit nicht vom Tisch fegen, daß selbst der Kreis der G80-Käufer häufig eben noch genau diese Auflösung einsetzt ...
... Gerade mit TFT-Monitoren sind die maximal möglichen Auflösungen eben viel stärker limitiert als mit den früheren Röhrengeräten - und nicht jeder potentielle G80-Käufer sitzt halt vor einem 20-Zöller oder größerem TFT-Gerät. Dazu hatten wir vor einiger Zeit eine Umfrage in unserem Forum gestartet, welche die potentiellen G80-Käufer abfragt, mit welcher Monitor-Auflösung jene maximal aufwarten können. Wie erwartet ergibt die Zwischen-Auswertung dieser Umfrage, daß Auflösungen unterhalb von 1600x1200 (bzw. 1680x1050) selbst in der eigentlichen G80-Zielgruppe weiterhin mit 43 Prozent noch einen erheblichen Anteil der Nutzer darstellen, dabei ist 1280x1024 von allen abgefragten Auflösungen sogar die (mit 34 Prozent) am häufigsten genutzte ...
... Natürlich wird dieser Anteil zukünftig langsam zurückgehen, insofern spielt hier die Zeit klar für Auflösungen von 1600x1200 und höher. Für das nächste halbe Jahr ist aber die Performance der G80-Grafikkarten auch unter 1280x1024 noch interessant, weil dort halt eben nach wie vor noch viele potentiell G80-Käufer sitzen. Dagegen wäre angesichts der Performance der GeForce 8800 GTX und deren nun endlich effizientem 8x Anti-Aliasing eher zu überlegen, ob man Benchmarks von HighEnd-Boliden nicht langsam aber sicher vom bisherigen 4xAA samt 8xAF auf nunmehr 6x/8xAA samt 16xAF umstellt - schließlich erscheint die GeForce 8800 GTX durchaus in der Lage, 8x Anti-Aliasing durchgehend abzuleisten, während auf ATI-Seite deren 6x Anti-Aliasing bei den entsprechenden HighEnd-Grafikkarten eigentlich schon des längerem kein großes Problem mehr darstellt.
Davon abgesehen hat nVidia neben dem G80-Chip auch gleichzeitig noch neue Mainboard-Chipsätze vorgestellt, worüber u.a. Hard Tecs 4U berichten. Die neuen Mainboard-Chipsätz nForce 650i Ultra (kein SLI), nForce 650i SLI (SLI mittels PCIe 2x8) und nForce 680i SLI (SLI mittels PCIe 2x16, dazu ein weiterer mittels PCIe x8 angebundener Grafikkarten-Steckplatz, zusätzliche Overclocking-Funktionen) sind für Intels Core 2 Duo/Extreme Prozessoren inklusive auch der QuadCore-Modelle gedacht, können aber natürlich auch mit allen bisherigen Sockel 775 CPUs von Intel umgehen. Hochinteressant erscheint natürlich der nForce 680i SLI, wo ein dritter Grafikkarten-Steckplatz wohl für die Benutzung einer Grafikkarte als Physik-Beschleuniger gedacht erscheint (da Dreifach-SLI derzeit eine eher unwahrscheinliche Möglichkeit darstellt) ...
... Davon abgesehen zielt nVidia mit dem nForce 680i SLI maßgeblich auf eingefleischte Übertakter ab und bietet demzufolge ab Werk Übertaktungsmöglichkeiten bis zu FSB1333 und DDR2/1200 hinauf. Inwiefern die Mainboard-Hersteller dann in ihren BIOS-Versionen hier noch einmal etwas drauflegen, wäre abzuwarten - allerdings zur Ausnutzung des hohen Speichertaktes durchaus sinnvoll. Denn wie im Speicherskalierungs-Aktikel zum Core 2 Duo ausgeführt, lohnt ein hoher Speichertakt bei diesen Prozessoren nur dann, wenn gleichzeitig auch der FrontSideBus wenigstens in ähnlicher Höhe taktet. Für DDR2/1200 mit 600 MHz physikalischem Speichertakt wäre bei einem 1:1-Verhältnis zwischen FSB und Speichertakt dann aber schon ein FSB2400 erforderlich, welcher ebenfalls mit pyhsikalisch 600 MHz taktet ...
... Anders formuliert: Ohne gleichwertig hoher FSB-Taktungen in Richtung von mindestens FSB2000 sind die hohen Speichertaktungen, welche der nForce 680i SLI ermöglicht, nicht wirklich ausnutzbar, schlagen zumindestens nicht in entsprechender Mehrleistung um. Allerdings wäre es wiederum zu bezweifeln, daß die Leiterbahnen auf dem Mainboard wie auch der Mainboard-Chipsatz selber derart hohe FSB-Taktungen verkraften kann, wenn derzeit 266 MHz FSB-Takt (bei FSB1066) der Standard sind. Wir müssen also befürchten, daß sich der Support von DDR2/1200-Speicher beim nForce 680i SLI Mainboard-Chipsatz, so löblich dieser auch sein mag, nicht wirklich ausnutzen lassen wird. Interessanter werden diese Optionen sicherlich beim AMD-Äqivalent des nForce 680i SLI sein: nVidia will hier den nForce 680a SLI Mainboard-Chipsatz zusammen mit AMDs 4x4-Plattform herausbringen, welche für den 14. November erwartet wird.
neuer Artikel |
Zum Launch des nVidia G80-Chips
Mit dem heutigen Tag stellt der kalifornische Grafikchip-Entwickler nVidia mit dem G80-Grafikchip und den darauf basierenden Grafikkarten GeForce 8800 GTS & GTX den ersten Direct3D10-Grafikchip und damit den Beginn einer neuen Grafikchip-Generation sowohl für nVidia als auch allgemein für den Markt vor. Denn der G80-Grafikchip ist nicht nur wie gesagt der erste Grafikchip, welcher das - allerdings nur unter Windows Vista verfügbare - Direct3D10 unterstützt, sondern stellt auch innerhalb der Reihe der bisherigen nVidia-Grafikchips einen erheblich neuen Ansatz dar. Der nachfolgende Artikel soll einen kurzen Überblick über den Chip selber und die ersten Testergebnisse zu diesem geben ... zum Artikel
News des 7. November 2006 |
Sowohl AnandTech als auch Ars Technica und TweakTown berichten vom Hardware Editor’s Day seitens Valve, den Schöpfern der Half-Life-Serie. Dabei gab es seitens Valve die Ankündigung, die eigene Source-Engine demnächst maßgeblich auf MultiCore-Prozessoren optimierieren zu wollen - wobei hier als Besonderheit gegenüber ähnlichen Ankündigungen hervorsticht, daß man dabei ausdrücklich eine nahezu lineare Skalierung mit steigender Core-Anzahl anstrebt. Die "Hybrid Threading" genannte Lösung geht dazu verschiedene Wege: Zuerst einmal sollen Rechenaufgabe, welche wenig Interaktion mit anderen Rechenaufgaben haben, an nur einen Kern gebunden werden ...
... Die Aufteilung verschiedener Rechenaufgaben an verschiedene Kerne wird derzeit schon praktiziert, dies bringt aufgrund der ständig nötigen Interaktion zwischen den verschiedenen Rechenaufgaben jedoch mit steigender Kern-Anzahl immer weniger an Performance-Gewinn, weil der Verwaltungsaufwand immens steigt. Zudem besteht jederzeit die Gefahr, daß eine Rechenaufgabe (von der benötigten CPU-Last her) absolut dominant ist und somit die anderen Rechenaufgaben auf den anderen Kernen immer auf diese eine Rechenaufgabe warten müssen - hierbei wären dann gar keine Performancegewinne durch eine noch höhere Kern-Anzahl mehr möglich. Genau hier setzt dann allerdings der Hauptteil der geplanten Valve-Lösung an: Die absolut dynamische Verteilung der hauptsächlichsten Rechenaufgaben auf verschiedene CPU-Kerne ...
... Konkret sind davon die künstliche Intelligenz (K.I.), die Physik-Aufbereitung und die Vorbereitungen für die Grafik-Berechnung betroffen. Wie Valve das Konzept konkret umsetzen will, ist dann in den vorgenannten Artikeln mal mehr und mal weniger umfassend ausgebreitet, sagt allerdings nur CPU-Insidern wirklich etwas. Wichtiger für den Endanwender ist natürlich, daß die ganze Sache auch wirklich funktioniert - was Valve anhand der Vorab-Version einer entsprechend angepassten Source-Engine jedoch halbwegs zu demonstrieren in der Lage war: Dabei konnte in allerdings eher theoretischen Szenarien durchaus schon eine Leistungsverdopplung bei Kern-Verdopplung ereicht werden. Für den Spieler soll es diese angepasste Engine im übrigen bereits im ersten Quartal 2007 mit der Episode 2 von Half-Life 2 geben, Valve will damit aber auch schon ausgelieferte Spiele noch nachträglich patchen ...
... Denn vollen Performance-Gewinn sollte man sich von diesen Patches jedoch nicht versprechen, denn die wichtigsten Teile der Valve-Ausführungen drehten sich eher darum, wie man zukünftig programmieren will, was wohl den vollen Effekt von "Hybrid Threading" erst bei wirklich neuen Spiele-Projekten zeigen wird. Auch beschäftigte sich Valve schon mit dem "Problem", wie die enorme dann zur Verfügung stehende Rechenleistung bei einer wirklich linearen Leistungssteigerung mit steigender Core-Anzahl auch ausgenutzt werden kann: Wie zufälligerweise gestern schon von uns prognostiziert, wird dies wohl in einer erheblichen Verbesserung des Spiele-Kontents resultieren - Spiele können sowohl optisch verfeinert als auch logisch deutlich glaubwürdiger werden.
Shortcuts: Bei HardwareOC hat man sich damit beschäftigt, wieviel CPU-Power eine GeForce 7950 GX2 vertragen kann. Da die Karte derzeit immer noch absolutes HighEnd (für einzelne Grafikkarten) ist, ergaben sich natürlich selbst in den angestellten Benchmarks mit Durchschnitts-Frameraten aus Timedemos noch ausreichend Vorteile bei modernen Prozessoren - wenn man sich nur die absoluten Tiefstwerte betrachtet hätte, wäre dies sicherlich noch drastischer ausgefallen. Der Tech Report hat sich mit dem Thema Folding@home auf Grafikkarten beschäftigt. Bisher unterstützen aktuelle ATI-Grafikkarten schon solcherart Berechnungen, mit dem neuesten Catalyst 6.10 werden sogar CrossFire-Systeme für Folding@home nutzbar ...
... Die Leistungsfähigkeit freier und nicht-freier Linux-Treiber für ATIs R300-Chip, verbaut bei den Radeon 9500 & 9700 Grafikkarten, haben sich Phoronix angesehen. Dabei wurde deutlich, daß der Linux-Gamer wohl weiterhin auf die ATI-eigenen nicht-freien Treiber angewiesen ist, erreichen die freien Treiber doch ausnahmslos nicht die Performance der ATI-eigenen. Laut TweakPC bieten verschiedene Asus-Mainboards für den Core 2 Duo die Option, den CPU-Multiplikator trotz der Hardware-Sperre in den Prozessoren frei zu verändern. Daß dies allerdings wirklich funktioniert, ist damit noch nicht erwiesen - bislang gibt es keine weiteren Meldungen zum Thema, welche bei einer funktionierenden Option allerdings reichlich zu erwarten wären. Und letztlich wartet natürlich das gesamte Web auf den Abend des Mittwochs, wenn das NDA zum ersten Direct3D10-Grafikchip fällt und dementsprechende Berichte das Web überfluten werden ;)).
neuer Artikel |
Speicher-Skalierung auf dem Core 2 Duo
Nachdem wir kürzlich den aktuellen AM2-basierenden Athlon 64 X2 auf dessen Speicherskalierung hin untersucht haben, steht nun folgerichtig auch für Intels Angebot für den Desktop-Prozessorenmarkt derselbe Test an. Auch mit diesem Artikel soll wieder die Frage beantwortet werden, mit welchen Performance-Unterschieden mit verschiedenen DDR2-Speichersettings bezüglich Speichertakt, Speichertimings und FSB:RAM-Verhältnis auf den Core 2 Duo/Extreme Prozessoren unter Spielen gerechnet werden kann ... zum Artikel
News des 6. November 2006 |
Die VR-Zone berichtet von einem Rückruf von GeForce 8800 GTX Karten (die GTS-Version soll nicht betroffen sein) aufgrund eines fehlerhaften Widerstands, welcher für die Umschaltung zwischen 2D- und 3D-Modus verantwortlich ist. Der Fehler soll zwar nur auf wenigen Modellen wirklich auftreten, sicherheitshalber hat nVidia jedoch die gesamte bisher ausgelieferte Charge zurückgerufen. Etwas unklar bleibt allerdings, ob hierbei nur die derzeit kursierenden Rezensions-Exemplare oder auch die teilweise schon bei den Distributoren lagernden Retail-Exemplare gemeint sind: Laut beispielsweise TweakPC würde der Fehler nur auf die Rezensions-Exemplare zutreffen. Die originale Quelle meldet dagegen, daß die Karten-Hersteller die neuen Widerstände teilweise auch direkt an die Distributoren schicken, damit jene den entsprechenden Umbau vornehmen. Dies würde allerdings nahelegen, daß auch Retail-Karten von diesem Fehler betroffen sind - wenngleich natürlich trotzdem keinerlei fehlerhafte Karten an den Endkunden ausgeliefert werden sollen.
Golem berichten über eine Demonstration der Leistungsfähigkeit von QuadCore-Prozessoren bei perfekt angepasster Software: So konnte mit einem Intel Core 2 Extreme QX6700 Quake 4 in einem speziell erstellten Raytracing-Modus um den Faktor 3,84 gegenüber einem ansonsten gleichen SingleCore-Prozessor beschleunigt werden. Natürlich gilt es hier dazuzusagen, daß beim Raytracing derzeit die komplette Grafikdarstellung ebenfalls über den Prozessor läuft, es also niemals den Faktor der Grafikkarten-Limitierung geben kann, welcher eine höhere zur Verfügung stehende Prozessoren-Power (beispielsweise eben durch QuadCore-Modelle) eventuell nutzlos verpuffen lassen würde. Damit deutet dieses Beispiel von perfekt angepasster Software aber auch indirekt an, wofür QuadCore- und die darauffolgenden MultiCore-Prozessoren unter Spielen im eigentlichen gut sind ...
... Denn dies kann und darf weniger die Beschleunigung von eventuell vorhandenen Performance-Engpässe sein - dafür würden 30 bis 50 Prozent mehr CPU-Leistung ausreichen, was auch über den Takt erreicht werden kann. Gerade MultiCore-Prozessoren werden jedoch (bei perfekt angepasster Software) Leistungssteigerungen von vielen hundert Prozent ermöglichen. Sinnvoll läßt sich dies nur über höherwertigeren Kontent ausnutzen: Spiele könnten dann generell eine deutlich intelligentere K.I. erhalten, in Management- und Strategie-Simulationen würden viel komplexere Hintergrundberechnungen möglich. Natürlich wird uns dies aber erst erwarten, wenn die installierte Basis an MultiCore-Prozessoren groß genug ist - aber es scheint langfristig der einzige Weg zu sein, wie man die in den nächsten Jahren durch die hinzukommenden Cores rapide steigende Rechenleistung auch verbraten kann.
Wie der Spiegel berichtet, hat der Bundesgerichtshof letztinstanzlich ein Urteil gegen T-Online bestätigt, wonach der Internet Service Provider (ISP) laut geltender Datenschutz-Gesetzgebung nicht die an die eigenen Kunden bei der Einwahl ins Internet vergebenenen IP-Adressen speichern darf, sofern es sich um einen Flatrate-Tarif handelt. Bemerkenswert neben der Länge des Verfahrens - es handelt sich immerhin um einen Fall aus dem Jahr 2002 mit einer schon seinerzeit an Eindeutigkeit kaum zu überbietenden Gesetzeslage - ist aber vor allem, daß das Urteil nur für den konkreten Fall ergeht - wer also von seinem ISP ähnliches will und dieser das nicht freiwillig tut, muß nun ebenfalls erst einmal den Klageweg einschreiten ...
... Natürlich hätte eine solche Klage nach diesem Urteil klarsten Aussicht auf Erfolg (bei Nutzern von Volumen-Tarifen könnte es noch etwas kritisch werden, aber letztlich ist auch dort die Speicherung der vergebenen IP-Adressen nicht sinnvoll, es reicht für Abrechnungszwecke allein die Speicherung des verbrauchten Volumens unter der jeweiligen Kundennummer), allerdings darf durchaus die Frage in den Raum gestellt werden, wieviel wert ein seit Jahren verbrieftes Recht ist, wenn man dieses im Zweifelfall für jede Person erst jeweils einzeln vor Gericht durchsetzen muß. Der vielgerühmten bundesdeutschen Datenschutzgesetzgebung fehlen ganz klar Strafandrohungen für Zuwiderhandlungen - man stelle sich nur einmal vor, was passieren würde, wenn Bankraub zwar verboten wäre, eine Strafandrohung hierfür aber fehlen würde ;).