News-Archiv 17. - 23. Oktober 2005 (42. Kalenderwoche)
22./23. Oktober 21. Oktober 20. Oktober 19. Oktober 18. Oktober 17. Oktober
News des 20. Oktober 2005 |
Wie AnandTech berichten, werden die kommenden nVidia-Chips G72 und G73 Pin-kompatibel zu den bisherigen Chips NV40 und NV43 sein. AnandTech spinnen diesen Gedanken dann noch reichlich weiter und spekulieren über einheitliche Sockel für Grafikchips. Angeblich soll nVidia entsprechenden Pläne haben, um auf zukünftigen Mainboards neben dem CPU-Sockel auch einen Grafikchip-Sockel unterzubringen. Wir für unseren Teil halten jedoch Erwartungen in diese Richtung hin für weit überzogen bzw. vermutlich sogar für den völlig falschen Schluß aus den vorliegenden spärlichen Informationen zu diesem Thema ...
... Denn das nVidia einen einheitlichen Sockel für Grafikchips inklusive auch der Mainstream- und HighEnd-Chips plant, erscheint uns als sehr unwahrscheinlich und auch kaum zu realisieren. Speziell ein Firmen-übergreifender Sockel wäre nur in Zusammenarbeit mit anderen Grafikchip-Entwicklern machbar, dafür sind sich jedoch schon allein ATI und nVidia nicht grün genug - wie man auch an der Entwicklung im Notebook-Markt sehen kann, wo beide Hersteller ihre eigenen Formate für austauschbare Grafikkarten-Steckplatinen entwickelt und in den Markt gebracht haben, anstatt im Sinne der Notebook-Hersteller sich auf einen gemeinsamen Standard zu einigen ...
... Auch daß nVidia zukünftig HighEnd-Grafikchips auf Mainboards integrieren will, halten wir für äußerst unwahrscheinlich. Aus einer ganz anderen Betrachtungsweise wird wohl eher ein Schuh daraus: Der extra Sockel auf dem Mainboard soll vermutlich allein für bisher integrierte Grafikchips dienen, die nVidia wohl zukünftig nicht mehr in die eigentlichen Mainboard-Chipsätze (gewöhnlich die Northbridge) integrieren will. Schon bei den aktuellen GeForce 6100/6150 Grafikchips im nForce4 410/430 Mianboard-Chipsatz geht nVidia schließlich schon einen Teil dieses Weges und produziert den reinen Grafikchip in 90nm getrennt vom Rest der Northbridge in 130mm - und setzt den Grafikchip dann wohl erst nachträglich in die Northbridge ein ...
... Speziell das Thema der Produktionsverfahren spielt hier eine entscheidende Rolle: Denn dadurch, daß eine Chipsatz-Northbridge im gewöhnlichen nur einige Millionen Transistoren und niedrige Taktraten von 100-200 MHz hat, wird diese gewöhnlich mit dem billigsten verfügbaren Herstellungsprozeß gefertigt - einem Herstellungsprozeß, der dem aktuellen Stand der Technik zumeist um ein oder zwei Stufen zurückhängt, aber dafür eben sehr billig und ausgereift ist. Bisher wurden in Northbridges integrierte Grafikchips mit in dieses Muster gezwängt, was natürlich auch deren Taktfrequenz limitierte. Gerade aber bei den neuen integrierten Grafikchips, welche Transistoren-aufwändige Shader 3.0 Fähigkeiten und teilweise sogar einen eigenen Geometrie-Prozessor mitbringen, liegt die Transistoren-Zahl und auch die gewünschte Taktrate dermaßen über dem der Northbridge, daß sich eine getrennte Fertigung klar anbietet ...
... nVidia kann somit die nForce4 410/430 Northbridge wie gewohnt billig in 130nm fertigen, während der Grafikchip GeForce 6100/6150 mittels der pro forma zwar teureren, in der Ausbeute für diese großen und schnell getakteten Chips letztlich doch wirtschaftlicheren 90nm Fertigung hergestellt wird. Und wenn man Northbridge und Grafikchip sowie schon getrennt herstellt, bietet es sich natürlich an, diese nicht erst zusammenzufriemeln, sondern dem Grafikchip gleich einen eigenen Platz auf dem Mainboard zuzuweisen. Beim nForce4 410/430 bzw. den GeForce 6100/6150 Grafikchips war das natürlich noch nicht realisierbar, aber vermutlich entwickelt nVidia genau in diese Richtung, wenn es um extra Grafikchip-Sockel auf dem Mainboard geht ...
... Dies bedeutet natürlich auch, daß es sich bei diesem Grafikchip-Sockel auf dem Mainboard mitnichten um einen CPU-ähnlichen Sockel handelt, wo also der Nutzer den Chip selber austauschen kann. Aller Vermutung nach wird es beim bisherigen System bleiben, daß der integrierte Grafikchip nicht austauschbar ist - der Standard-Sockel ist nur wichtig für die Mainboard-Hersteller, damit diese eine klare Vorgabe für die Designs ihrer Mainboard haben. Und um endlich wieder auf die "echten" Grafikchips G72 und G73 zurückzukommen, wo schließlich auch von gleichen Sockeln wie NV40 bzw. NV43 die Rede war: Auch hier geht es sicherlich nicht um die Entwicklung eines zukünftigen Standardsockels, sondern darum, daß die Grafikkarten-Hersteller beispielsweise ein NV40-Boarddesign später auch problemlos mit einem G72-Chip bestücken und somit Zeit und Entwicklungskosten sparen können ...
... Damit will nVidia schlicht erreichen, daß die kommenden Chips G72 und G73 von den Grafikkarten-Herstellern möglichst schnell in Grafikkarten gegossen und dann auf dem Markt geworfen werden können. Womit wir abschließend kurz über die genannten Chips selber reden wollen: Da G72 und G73 ja jeweils zu NV40 und NV43 Pin-kompatibel sein sollen, können wir daraus schließen, daß der G72 als Ablösung des NV40 (GeForce 6800 /GT/Ultra) gedacht ist und den Markt der Grafikkarten zwischen 200 und 300 Euro bedienen soll. Der G73 - die Namensverwandschaft zum NV43 deutet es zusätzlich an - soll dann wohl den NV43 (GeForce 6600 /LE/GT) beerben und ins Mainstream-Segment von unterhalb 200 Euro gehen. Beide Grafikchips werden die Änderungen des G70-Chips beinhalten und sind irgendwo Richtung Jahreswechsel zu erwarten.
Wie der Heise Newsticker berichtet, haben sich sowohl Micosoft als auch HP für eine Änderung des restriktiven Kopierschutzes von Blu-Ray ausgesprochen - hin zu etwas mehr Freiheit für den Konsumenten. Was insbesondere bei Microsoft schon recht ironisch ist, schließlich ist der Software-Riese einer der stärksten Vorantreiber von "Schutztechnologien", welche zumeist zuungunsten der Konsumenten ausgehen. Daher steckt natürlich in erster Linie die Angst, auf zukünftigen PCs nicht mehr die kommenden Medien HD-DVD und Blu-Ray wiedergeben zu können, wenn man nicht jeden der Kopierschutzwünsche von Hollywood erfüllt. Insofern ist es schön, daß die großen IT-Hersteller nun aber auch einmal die andere Seite der Medaille wahrnehmen: Nämlich das niemand den PC als Abspielstation für HD-DVD und Blu-Ray wahrnehmen wird, wenn das Rechtemanagment zu aggressiv ausfällt.
Shortcuts: ATI hat nun bestätigt, daß der Beta-Treiber Catalyst 5.10a auch schon den OpenGL-Performanceboost enthält. Dieser dürfte allerdings nur auf den Radeon-X1000-Karten feststellbar sein, da sich die Verbesserungen auf den programmierbaren Seichercontroller der neuen ATI-Chips beziehen. Der Planet 3DNow! berichtet von Problemen des neuen Creative-Soundchips X-Fi in Zusammenhang mit dem nVidia nForce4 Mainboard-Chipsatz. Hard Tecs 4U vermelden hingegen, das AOpen im November schon erste Blu-Ray-Laufwerke in den Markt bringen will, wenngleich zuerst einmal nur in Fernost. Wie AnandTech berichten, wird der geplante DualGrafikkarten-Chipsatz i975X von Intel offenbar keine SLI-Support erhalten - übrig bleiben würde dann nur noch ein (angenommener) CrossFire-Support, welchen aber die entsprechenden Mainboard-Chipsätze von ATI sicherlich genauso gut erledigen können.
neuer Artikel |
Speicher-Skalierung auf dem Athlon 64
Die Möglichkeit, auf demselben Prozessortakt mit verschieden schnell getakteten Speichertaktraten zu arbeiten, gibt es beim Athlon 64 Prozessor seit seiner Markteinführung, dennoch wird diese Möglichkeit zumeist nur von Übertaktern genutzt, da AMD den Athlon 64 bisher fest auf einen Speichertakt von 200 MHz (DDR400) fixiert hat. Dabei eignet sich der Athlon 64 gerade wegen des fehlenden FSBs viel besser als derzeitige Intel-Prozessoren, um mit höheren Speichertakten mehr Performance herauszuholen - ohne dabei den CPU-Takt überhaupt steigern zu müssen, wohlgemerkt.
Unser Artikel beschäftigt sich nun genau mit dem Thema der Speicher-Skalierung auf dem Athlon 64 bzw. wo die größten Performance-Reserven und wo die Limitierungen dieser Skalierung liegen. Zusätzlich gehen wir das Thema der sich - wieder durch den Einfluß des Speichers - mit dem CPU-Takt ändernden Pro/MHz-Leistung des Athlon 64 Prozessors an ... zum Artikel
News des 19. Oktober 2005 |
Der neue Catalyst 5.10a Beta-Treiber von ATI ist laut ATI-offizieller Angabe "nur" ein Bugfix für Radeon-X1000-Karten unter Quake 4 sowie Serious Sam II und wird darüber hinaus nicht für den "Allgemeingebrauch" empfohlen. Nachdem es aber Gerüchte gab, ATI wolle dieser Tage noch den Catalyst 5.11 samt der von diesem Treiber bekannten deutlichen OpenGL-Performancesteigerung veröffentlichen, wäre es durchaus denkbar, daß jener Catalyst 5.10a diese gerüchtemäßig bekannte Treiber-Veröffentlichung darstellen soll - schließlich sind sowohl Quake 4 als auch Serious Sam II OpenGL-Spiele (letztgenanntes Spiel verfügt allerdings noch über einen Direct3D-Port). Spinnt man den Gedanken weiter, so müsste jener für den Catalyst 5.11 angekündige OpenGL-Performanceboost dann schon in jenem Catalyst 5.10a Beta-Treiber enthalten sein.
Wie Hard Tecs 4U berichten, plant der Grafikkarten-Hersteller Sapphire offenbar AGP-Versionen der Radeon X1000 Serie. Zum Ende des Jahres sollen AGP-Versionen von Radeon X1300 und Radeon X1600 in den Handel kommen, eine Planung für AGP-Versionen der Radeon X1800 scheint dagegen noch nicht zu existieren. Wie auch bei nVidias neuestem HighEnd-Chip G70 ist die komplette neue ATI-Chipserie mit nativer PCI-Express-Anbindung ausgerüstet, benötigt also einen der bekannten Bridge-Chips zur AGP-Funktionalität. Trotz daß dies natürlich einen gewissen Mehraufwand pro Grafikkarte bedeutet, überrascht nichts desto trotz die erstaunliche Untätigkeit der Grafikkarten-Hersteller beim Thema neuer AGP-Grafikkarten, speziell beim schließlich schon im Juni vorgestellten G70-Chip ...
... Die Marktdurchbringung von PCI-Express-Plattformen ist bei weitem noch nicht so weit gediehen, als daß man AGP-Systeme links liegen lassen könnte. Sicherlich spielen AGP-Systeme beim Kauf kompletter PC-Systeme inzwischen kaum noch eine Rolle, doch Grafikkarten und dabei speziell HighEnd-Ausführungen sind nun einmal auch zum Aufrüsten bestehender Systeme sehr beliebt. Und bei der installierten Basis ist PCI Express - selbst bei HighEnd-Systemen - noch weit von einem Marktanteil von wenigstens 50 Prozent entfernt. Insofern ist es uns wirklich schleierhaft, wieso sich nicht wenigstens einer der Grafikkarten-Hersteller ein Herz fasst und diesen total brach liegenden Markt der AGP-Grafikkarten auf Basis der aktuellen HighEnd-Chips G70 und R520 anpackt.
Bei AnandTech hat man ein paar neue Halb-Informationen zum ATI R580, dem Refresh-Chip des R520. Doch während die letzten Meldungen zum R580 davon sprachen, daß ATI jenen noch dieses Jahr bringen will, erwarten AnandTech den R580 nach Rücksprache mit einigen Grafikkarten-Herstellern nun nicht mehr vor der CeBIT im März 2006. Im Sinne dessen, daß eine all zu schnelle Produktabfolge eher kontraproduktiv für die R520-Verkäufe sein dürfte, ist dies allerdings wohl nicht ganz so wild. Die weitere Aussage von AnandTech, daß sich auch Ageias Physikbeschleuniger-Karte PhysX bis ins zweite Quartal des Jahres 2006 verzögern soll, fällt jedoch nicht darunter - hier muß eher befürchtet werden, daß wenn Ageia nicht möglichst schnell zu Potte kommt, andere in diese Lücke springen werden.
Laut TweakPC hat Intel auf dem IDF Taiwan die neue "Robson"-Technologie vorgeführt, mit welcher sich Bootzeiten und Startzeiten von Anwendungen drastisch verkürzen lassen. Nach den wenigen vorliegenden technischen Informationen zur Robson-Technologie wird dabei der nicht von Festplatte, sondern von einem Flashspeicher gestartet, welcher zwischen 64 MegaByte und 4 GigaByte betragen kann. Damit würde man die Vorteile von RAM-Disk (Performance) und Festplatte (nicht-Flüchtigkeit der Daten) vereinen. Wann Intel die Robson-Technologie in den Markt bringen will, ist allerdings noch nicht bekannt, vermutlich wird der Robson-Flashspeicher ein Feature zukünftiger Intel Mainboard-Plattformen darstellen.
News des 17. Oktober 2005 |
Wie The Inquirer vermelden, plant nVidia offenbar eine weitere Grafikkarte der GeForce-6800-Serie, um gegen den Ansturm der Radeon-X1600-Karten von ATI gegenhalten zu können. Die GeForce 6800 GS soll auf dem 110nm-Chip NV42 basieren, ein 256bittiges Speicherinterface mitbringen und angeblich eine Performance ähnlich einer GeForce 6800 GT zu einem Listenpreis von 249 Dollar hinlegen. Genauere Daten fehlen noch, aber da der NV42-Chip physikalisch nur 12 Pixel-Pipelines hat, wird nVidia wohl an der Taktschraube drehen müssen, um das Ziel einer GeForce-6800-GT-Performance (16 Pipelines, 350/500 MHz) mit der GeForce 6800 GS erreichen zu können ...
... Ergo kann man die GeForce 6800 GS wohl mit um die 400 MHz Chiptakt erwarten. Beim Speichertakt kann sich nVidia hingegen zurückhalten, schließlich hat man hier das 256bittige DDR-Speicherinterface, während die Radeon-X1600-Karten "nur" ein 128 Bit DDR-Speicherinterface (bei allerdings recht hohen Speichertakten) aufzubieten haben, irgendetwas mit 400 MHz wäre also zu erwarten. Damit würde die GeForce 6800 GS von der Theorie her durchaus in die Nähe einer Radeon X1600 XT kommen, welche den gleichen Listenpreis von 249 Dollar hat. Wer in der Praxis die Nase vorn hat, bleibt abzuwarten - allerdings könnte es in der Zwischenzeit genauso auch passieren, daß die GeForce 6800 GT auf einen Straßenpreis von 250 Euro herunterrutscht.
Der Planet 3DNow! berichtet über die PCI-SIG Validierung neuer ULi-Chipsätze, darunter ist auch der M1697 Chipsatz als um einige moderne Features aufgepeppte Nachfolger des aktuellen M1695-Chipsatzes. Zwar gibt es zum M1697 noch keinen konkreten Termin, es wäre aber zu hoffen, daß dieser bei den Mainboard-Herstellern auf ein etwas größeres Interesse als der M1695 stößt. Jener M1695, welcher - in Zusammenarbeit mit der M1567-Southbridge - immerhin als einziger Mainboard-Chipsatz zu nativer Anbindung von PCI Express x16 und AGPx8 fähig und damit beim aktuell laufenden Übergang von AGP auf PCIe der NonPlus-Ultra-Sockel-939-Chipsatz am Markt ist, wird derzeit nämlich leider nur auf einem hierzulande verfügbaren Mainboard verbaut, dem ASRock 939Dual-SATA2.
In der World-of-WarCraft-Gemeinde erregt derzeit der Vorwurf der Spionage durch Spielehersteller Blizzard die Gemüter, zurückgehend auf ein Blog-Posting. Stein des Anstoßes ist dabei eine Überwachungsfunktion des WoW-Clienten, welche aller 15 Sekunden die Fenstertitel aller aktive Anwendungen ausliest und sich zudem die Adressräume aller laufenden Prozesse anschaut. Interessanterweise wird dieses Vorgehen sogar durch die Nutzungsbestimmungen von World of WarCraft gedeckt, der Absatz 13 weist ziemlich klar auf ständig laufende Systemüberwachung hin ...
... Der Punkt, ob diese Funktion nun als Spionage oder nicht zu betrachten ist, hängt jedoch unserer Meinung nach entscheidend daran, an welchem Ort die ausgelesenen Daten mit den Daten bekannter Cheat-Programme verglichen werden. Schließlich muß es gerade Herstellern von ausschließlich online gespielten Games erlaubt sein, Cheater zu erkennen. Die Frage ist also nicht, welche Daten erhoben werden, sondern wo diese Daten hingehen: So lange die von der WoW-Überwachungsfunktion erhobenen Daten auf dem eigenen PC mit der Blackliste verglichen werden, findet letztlich keine Spionage durch Blizzard statt. Leider gibt die bisherige Berichterstattung zum Thema noch keinen Hinweis darauf, wo nun die erhobenen Daten mit der Blacklist verglichen werden - auf dem PC des WoW-Spielers oder auf einem Blizzard-Server ...
... Sollte letzteres zutreffen, dann würde es sich natürlich um einen glasklaren Fall von Computer-Spionage handelt, ganz unabhängig davon, ob Blizzard beteuert, kein (weiteres) Interesse an den erhobenen Daten zu haben oder aber auf die entsprechende Passage in den Nutzungsbestimmungen verweist. Aber da es wie gesagt noch keine sicheren Informationen darüber gibt, ob die erhobenen Informationen den PC des WoW-Spielers auch wirklich verlassen, kann derzeit davonnoch keine Rede sein. Abseits dessen muß Blizzard natürlich sicherstellen, daß es Systeme und Möglichkeiten gibt, mittels dieser automatischen Überwachungsfunktion eventuell zu Unrecht gebannte Spieler wieder zu "entbannen".