News-Archiv 30. Oktober - 5. November 2006 (44. Kalenderwoche)
4./5. November 3. November 2. November 1. November 31. Oktober 30. Oktober
News des 4./5. November 2006 |
Die DigiTimes berichtet etwas zu den seitens ATI und nVidia geplanten (und schon laufenden) 80nm Projekten, wobei beide Grafikchip-Entwickler diese Zwischenstufe insbesondere im Mainstream- und LowCost-Bereich umfangreich nutzen werden, ehe im Frühjahr/Sommer 2007 der generelle Umschwung auf die 65nm Fertigung kommen wird. Seitens ATI gibt es hier die Grafikchips RV570 (Radeon X1950 Pro), RV560 (Radeon X1650 XT), RV535 (Radeon X1650 Pro, von der DigiTimes nicht genannt), RV516 (Radeon X1300 /Pro) sowie RV505, wobei bei letzterem Grafikchip immer noch unklar ist, ob damit die Radeon X1300 /Pro (eigentlich RV515/RV516) bedient oder eine neue LowCost-Lösung noch unterhalb dieser gebildet werden soll ...
... Ebenfalls noch fehlend in der Aufstellung der DigiTimes ist ATIs R600-Chip, welcher ebenfalls in 80nm erwartet wird. Genauso wird nVidia seinen neuen HighEnd-Chip G80 (in den nächsten Tagen) auch in der 80nm Fertigungstechnologie an den Start schicken. Beide Hersteller verzichten aber darauf, die (noch) aktuellen HighEnd-Chips R580(+) und G71 auf 80nm umzusetzen - was ein deutlicher Fingerzeig darauf ist, daß diese Chips bzw. die darauf basierenden Grafikkarten nach dem Start der neuen HighEnd-Boliden kurz- bis mittelfristig Auslaufware sind. Wie ATI wird nVidia aber auch im Mainstream- und LowCost-Bereich die aktuellen Grafikchips noch auf 80nm transferieren: So stehen hier der G73-B1 und der G72 auf 80nm an. Hier ist allerdings noch nicht klar, inwiefern nVidia diese 80nm Grafikchips zum direkten Ersatz der bisherigen 90nm Chips benutzen oder damit (ähnlich ATI) neue Grafikkarten-Modelle kreieren wird.
Eine Kolumne bei OSWeekley stellt die Frage in den Raum, ob Windows Vista denn wirklich für den Gamer gerüstet sei. Denn während derzeit hierzu vorwiegend über die neuen Möglichkeiten mittels Direct3D10 gesprochen wird, fällt oftmals ein bzw. eigentlich der wichtigste Punkt für den Gamer unter Windows Vista aus der Diskussion heraus: Wie das neue Betriebssystem mit vorhandener Spiele-Software umgeht. Und da sieht es nicht wirklich rosig aus: Die Spiele-Kompatibilität von Windows Vista scheint anfänglich nicht besser zu sein als diejenige von Windows XP zum Start dieses Betriebssystems, als es faktisch auch Glückssache war, welches Spiel ohne Probleme und mit voller Performance lief ...
... Unter Windows Vista dürften für diese (anfänglichen) Probleme oftmals die diversen Kopierschutzlösungen der Spiele-Publisher verantwortlich sein, da diese sich so tief ins Betriebssystem eingraben, daß sie dann out-of-the-box nicht mehr unter Windows Vista laufen. Jede Menge Spiele dürften somit Vista-Patches benötigen, ehe sie überhaupt starten oder aber anständig laufen - wobei nicht garantiert werden kann, daß es diese Patches auch in jedem Fall für ältere Software geben wird. Die Kopierschutzlösungen werfen aber gleich ein weiteres Problem auf: Mit diesen werden die Anwender auch unter Vista oftmals gezwungen werden, als Administrator zu arbeiten, da sich diese eher gehackten Treibern gleichenden Lösungen sonst nicht ins System einbinden lassen ...
... Dies wirft natürlich einen Kernpunkt von Windows Vista wieder um: Trotz fast voller Funktionalität nicht ständig mit vollen Administrator-Rechten auf dem eigenen System unterwegs sein zu müssen. Hier bleibt natürlich abzuwarten, ob die Spielehersteller für ihre Spiele mit vom Start weg Vista-Kompatibilität nicht elegantere Lösungen finden werden können. Was auch für die anderen beschriebenen Probleme zutrifft: Mit der Zeit werden diese sicherlich durch Patches seitens der Spielehersteller sowie möglicherweise auch von Microsoft in den meisten Fällen gelöst werden. Dies benötigt aber natürlich Zeit - und so wird der Gamer unter Windows Vista die ersten Monate nach Start des Betriebssystems wohl noch klar im Nachteil gegenüber dem Gamer unter Windows XP sein.
News des 3. November 2006 |
Die VR-Zone hat eine Prozessoren-Roadmap der in näherer und mittelfristiger Zukunft von AMD und Intel zu erwartenden neuen CPU-Modelle anzubieten. Danach wird das erste Halbjahr 2007 ein recht ruhiges bezüglich neuer Prozessoren sein: AMD wird den Athlon 64 X2 DualCore-Prozessor mittels des Brisbane-Cores auf Basis der 65nm Fertigung bis auf 2.8 GHz treiben, was aber ausgehend von den jetzt verfügbaren 2.6 GHz Modellen absolut nicht die Welt ist. Ein ähnliches Bild zeigt Intel: Hier bekommt der Core 2 Duo mit dem FSB1333 eine höhere FrontSideBus-Stufe spendiert, bei den Taktfrequenzen ist dann aber auch mit 3.0 GHz schon wieder Schluß. Selbst im QuadCore-Land wird noch relative Ebbe herrschen: Zum eben vorgestellten QX6700 kommt nur noch der Core 2 Quad Q6600 mit 2.4 GHz, welcher aber wie schon vermeldet ebenfalls eine ziemlich hohe Preisvorstellung haben wird ...
... Deutlich interessanter wird dann allerdings das zweite Halbjahr des Jahres 2007: In diesem will Intel zum Sprung von der 65nm auf die 45nm Fertigung ansetzen, was in den zwei neuen Cores Wolfdale (DualCore) und Yorkfield (QuadCore) resultieren wird. Der Wolfdale-Core scheint dann weiterhin unter dem Markenamen "Core 2 Duo" vermarktet zu werden, gegenüber den aktuellen Modellen gibt es als Unterscheidungsmerkmale den FSB1333, gleich 6 MB Level2-Cache - und vor allem viel mehr Takt: Laut der VR-Zone reichen die Taktraten des Wolfdale-Cores von 3.5 bis 4.0 GHz - womit Intel in nur einem halben Jahr die Taktraten der DualCore-Modelle von 3 auf 4 GHz hochziehen würde ...
... Die gleiche Entwicklung gibt es dann bei den QuadCore-Modellen bzw. beim Yorkfield-Core: FSB1333, 12 MB Level2-Cache und höhere Taktfrequenzen, wobei der Yorkfield selbst für die Core 2 Extreme Prozessoren im Jahr 2007 nicht höher als 3.73 GHz gehen soll, die DualCore-Modelle vom reinen Takt her also weiterhin im Vorteil bleiben sollen. Interessanter als die Extreme-Modelle dürften aber sicherlich die Prozessoren der Core 2 Quad Serie sein - bzw. ob diese dann im zweiten Halbjahr 2007 eventuell in bezahlbare Regionen herunterrutschen. Bevor dieses nämlich nicht passiert, dürfte QuadCore für die Hersteller ein reines Prestige-Objekt und für den Markt ein klares Nischenprodukt bleiben ...
... Allerdings könnte AMD diese Überlegung noch umwerfen, denn der kleinere der beiden großen Prozessoren-Hersteller scheint viel stärker auf QuadCore-Modelle zu setzen als Intel: In diesem Augenblick, wo AMD mit dem K8L-Core daherkommt (mit den Codenamen Antares für DualCore- und Altair für QuadCore-Prozessoren), setzt man zwar nicht zum großen Taktsprung an, wird jedoch sowohl unter DualCore wie auch unter QuadCore mit bis zu 2.9 GHz die gleichen Taktfrequenzen anbieten. Normalerweise sollten sich die kleineren DualCore-Modelle besser takten lassen, insofern kann man hier durchaus vermuten, AMD würde mit der Strategie in den Markt gehen, mit der Ankunft des K8Ls breitflächig QuadCore-Modelle durchsetzen zu wollen ...
... Davon abgesehen ist dem K8L-Core schon jetzt ein schwerer Stand vorauszusagen: Hat bei annähernd gleich hohen verfügbaren Taktraten der aktuelle Athlon 64 X2 einen takt-normierten Rückstand von generell um die 20 Prozent (unter Spielen 32 Prozent) hinter Intels Core 2 Duo, so sollte AMDs kommender K8L-Core den AMD-Prozessoren zwar wieder eine deutlich höheren Pro/MHz-Leistung bringen und diesen Rückstand wohl aufholen können - doch wie der im nächsten Jahr prognostizierte erhebliche Taktvorteil zugunsten Intel von AMD noch aufgeholt werden soll, steht in den Sternen. Angesichts der von Intel geplanten Taktraten müsste der K8L nicht nur schlicht 20 Prozent in der Pro/MHz-Leistung zulegen, sondern besser gleich um 60 und mehr Prozent, wenn man es auf maximal 2.9 GHz Takt mit Intel-Boliden auf 4.0 GHz aufnehmen will. Ob AMD dies mit dem K8L erreichen kann, wäre eher zu bezweifeln - es bleibt natürlich abzuwarten, ob AMD nicht doch nicht mit höheren Taktraten als dato erwartet antritt.
Als kleine Anekdote zum gestern besprochenen Launch des ersten QuadCore-Prozessors von Intel sei noch dessen Referenzkühler bzw. dessen Geräuschbelastung erwähnt: Bei Hard Tecs 4U kann man sich hierzu entsprechende Musik- und Video-Dateien herunterziehen, welche dem geneigtem Leser die Möglichkeit geben, sich selbst ein Bild zu machen. Vorab nur soviel: Der (hiermit ins Leben gerufene) "GeForceFX 5800 Ultra Gedächtnis Award" ist Intel zweifellos sicher - ein Glück nur, daß man nicht wirklich auf den Intel-Referenzkühler angewiesen ist und andere getestete Kühler die Sache mit deutlich größerer Laufruhe genauso gut erledigen können. Käufer von Fertig-PCs sollten diese Information allerdings durchaus im Hinterkopf behalten, wird bei diesen PCs doch zu oft (ohne größeres Nachdenken) der Intel-Referenzkühler verbaut.
Nach einigem hin und her bezüglich Microsofts Re-Aktivierungspolitik bei Windows Vista hat der Softwarekonzern nun die US-amerikanischen Lizenzbestimmungen für Windows Vista geändert, wie u.a. der Heise Newsticker berichtet. Danach wird die Übertragung einer Windows Vista Lizenz auf eine andere Hardware oder einen anderen Rechner unbeschränkt möglich - wobei natürlich eine Lizenz nie gleichzeitig auf zwei Systemen installiert sein darf, was aber bisher auch schon so war. Wie der Heise Newsticker richtig anmerkt, ist damit allerdings noch nicht klar, wie die entsprechende Lizenz für unsere Breitengrade aussehen wird: Die vorher von Microsoft ausgedachten Einschränkungen wären hierzulande zwar sowieso kaum durchsetzbar gewesen, andererseits liegen derzeit schlicht noch keine Lizenbestimmungen für die deutschsprachigen Länder vor.
News des 2. November 2006 |
Etwas vorfristig hat Intel zum zweiten Tag des neuen Monats seinen ersten QuadCore-Prozessor vorgestellt - eigentlicherweise wurde dieser erst zum 14. November erwartet, womit dieser Tag nun aber frei ist für AMDs 4x4-Projekt, mit welchem man dem neuen Intel-Boliden begegnen will. Das Web wurde natürlich wieder einmal überflutet mit ersten Testberichten zum Core 2 Extreme QX6700, hinter welchem sich ein QuadCore-Prozessor mit 2.66 GHz Takt, FSB1066 und insgesamt 8 MB Level2-Cache verbirgt. Wie schon vorher bekannt, hat sich Intel beim benutzten Kentsfield-Core des einfacheren Wegs bedient, eine QuadCore-CPU zu erstellen: Anstatt aufwendig eine regelrechte Vierkern-CPU zu konzipieren, hat man sich schlicht dazu entschlossen, zwei Conroe-Cores auf ein Die zu pflanzen und miteinander zu verbinden ...
... AMDs Einwand, daß dies eigentlich kein echter QuadCore-Prozessor sei, kann allerdings so nicht stehengelassen werden, schließlich wurde auch schon Intels erster DualCore-Prozessor mit Codenamen "Smithfield" genau so erstellt - und damals gab es auch keine Proteste seitens AMD. Und für den Endanwender ist es letztlich herzlich egal, wie die Leistung erreicht wird , sofern sich für diesen keinen Einschränkungen aus der einen oder anderen verwendeten Technologie ergeben. Was natürlich auf den Kentsfield-Core nicht zutrifft - zieht man einmal das Intel-übliche Problem ab, daß eine neue HighEnd-CPU öfters einmal neue Mainboards erfordert, selbst wenn der Sockel und selbst der Mainboard-Chipsatz gleich bleiben ...
... Prinzipiell unterstützen die Intel-Chipsätze 975X und P965 den ersten QuadCore-Prozessor, die eigentliche Mainboard-Unterstützung hängt aber immer daran, ob das konkrete Mainboard die für den QX6700 geänderte CPU-Spannungsversorgung schon intus hat. Insbesondere frühe 975X- und P965-Platinen sind diesbezüglich Wackelkandidaten, auf aktuelleren Mainboard sollte man dagegen mehr Glück haben. Eine (zweifellos noch unvollständige) Liste der aktuell den QX6700 unterstützenden Platinen befindet sich bei Tom's Hardware Guide, ein BIOS-Update zur korrekten Erkennung des neuen Prozessors dürfte allerdings trotzdem in den meisten Fällen erforderlich sein ...
... Abgesehen von der Suche nach der passenden Plattform wird der Anwender beim QX6700 noch mit einer anderen wesentlichen Suche konfrontiert: Derjenigen nach den Anwendungen, welche den Prozessor auch wirklich auslasten. Findet man solche Anwendungen, welche am ehesten aus dem Multimedia- und dem professionellen Bereich kommen, dann rennt der neue Prozessor den bisherigen HighEnd-Modellen maßgeblich davon - so wie es bei fast der gleichen Taktfrequenz und aber der doppelten Core-Anzahl sein sollte. In anderen Anwendungen offenbart sich dagegen das ganze MultiCore-Dilemma: Wenn die Anwendung selber nur single-threaded geschrieben ist, dann nützt ein DualCore-Prozessor eventuell noch, um die Anwendung exklusiv nur auf einem Core laufen lassen zu können, aber spätestens ab QuadCore-Prozessoren passiert dann gar nichts mehr in Bezug auf eine höhere Performance ...
... Aber auch viele Anwendungen, welche über eine eher halbherzige DualCore-Optimierung verfügen, können mit den QuadCore-Boliden dann nichts mehr anfangen bzw. erreichen mit diesen keine höheren Leistungen. Gerade unter Spielen ist es derzeit gang und gäbe, einzelne Aufgaben des Spiels auf weitere Cores auszulagern. Damit erreicht man insbesondere unter DualCore-Modellen eine gewisse Entlastung des "Hauptthreads" auf dem ersten Core, was dann durchaus in 10 bis 30 Prozent Leistungsgewinn resultieren kann (CPU-limitierte Szenarien vorausgesetzt). Mittels QuadCore-Prozessoren funktionieren diese "Milchmädchen-Optimierungen" allerdings nicht mehr - ob man die Nebenthreads nun auf einen zweiten Core oder gleich drei Cores verschiebt, ist sich gleich, weil die Performance weiterhin vom "Hauptthread" abhängt ...
... Erst eine Aufteilung der Last in nahezu gleich große Teile würde hier Leistungszuwächse auch auf QuadCore-Prozessoren bringen. Doch wie sagte es kürzlich ein Spieleentwickler laut The Inquirer so schön: "Wir sind in der Frühzeit der DualCore-Programmierung". Insofern ist es wenig überraschend, daß der erste QuadCore-Prozessor unter Spielen ziemlich exakt diese Leistung erreicht, welche ein gleich getaktetes DualCore-Modell erreichen würde - und damit natürlich auch hinter einem Core 2 Extreme X6800 zurückliegt, der "nur" zwei Kerne hat, dafür aber mit 2.93 GHz die etwas höhere Taktrate. Dabei soll der erste QuadCore-Prozessor hier gar nicht schlecht geredet werden - es soll nur die Warnung gegeben werden, ein solches Modell mit Bedacht zu kaufen ...
... Denn während der Kauf einer DualCore-CPU selbst für einen Spiele-PC heutzutage ein gewisser Selbstläufer ist, werden einem die DualCore-Boliden doch geradezu hinterhergeworfen, kostet der heute vorgestellte Intel-Prozessor schlicht noch zu viel, um sich diesen Luxus auch unter QuadCore zu gönnen. Ein bezüglich QuadCore-Prozessoren interessierter User sollte also durchaus ein paar Anwendungen in Benutzung haben, welche von QuadCore auch maßgeblich profitieren - vorher lohnt sich die Überlegung nicht. Für Spieler dürfte QuadCore dagegen noch eine ganze Zeitlang völlig uninteressant bleiben, denn die Spieleentwickler widmen sich wie gesagt derzeit erst einmal dem Thema DualCore und werden die (wirkliche) Ausnutzung von QuadCore-Modellen wohl erst dann in Angriff nehmen, wenn sich diese Prozessoren breiter im Markt durchzusetzen beginnen.
Shortcuts: Über einen Domainstreit in umgekehrter Richtung berichtet der Heise Newsticker. Danach beschwert sich eine US-amerikanische Rohrfirma, daß deren Intelpräsenz "utube.com" zunehmend von Usern angesteuert wird, welche eigentlich zum bekannten Videohoster YouTube wollten - was teilweise bis zum Ausfall der Server von utube.com führt ;). Andere Unternehmen würden sich über so viel kostenlose Werbung freuen, die US-amerikanische Rohrfirma will dagegen gerichtlich durchsetzen, daß YouTube nicht mehr unter der bekannten URL auftritt. Gulli berichten hingegen vom ersten Platz Deutschlands in einer weltweiten Studie zum Thema Datenschutz. Interessant wäre es natürlich zu sehen, wie das Ergebnis nächstes Jahr ausfällt, wenn die präventive Telekommunikationsdaten-Überwachung oder auch eine (noch) bessere Überwachung der Bankdaten der Bundesbürger gestartet ist.
News des 1. November 2006 |
Die Elite Bastards haben sich die Performance verschiedener Grafikkarten unter der Demo von Need for Speed: Carbon angesehen. Dabei fällt sofort ins Auge, daß ATI-Grafikkarten in dieser Demo deutlich besser abgehen, da eine GeForce 7950 GT, welche im Normalfall keine Probleme mit einer Radeon X1950 Pro haben sollte, in jedem einzelnen Test mehr als deutlich hinter dieser Karte zurückliegt und noch nicht einmal vollständig die Performance einer Radeon X1800 XT erreicht. Leider war ein Test der GeForce 7950 GX2 nicht möglich, da diese nicht unter SLI in dieser Demo funktionieren wollte. Insgesamt scheint nVidia für dieses Spiel noch einige Treiber-Arbeit vor sich zu haben, um auf eine vergleichbare Performance gegenüber ATI kommen zu können.
Beim TechSpot hat man sich dagegen mit der unter Company of Heroes zu erwartenden Grafikkarten-Performance beschäftigt. Dabei ergibt sich ein allerdings etwas differenziertes Bild: Im HighEnd-Bereich scheint die Radeon X1900 XT etwas (im einstelligen Prozentbereich) vor der GeForce 7950 GT zu liegen. Bei den Karten des oberen LowCost-Segments deklassiert dagegen die GeForce 7300 GT die Radeon X1300 Pro und kommt selbst an die Werte der eigentlich im unteren Mainstream-Bereich angesiedelten Radeon X1600 XT (inzwischen abgelöst durch die gleich getaktete Radeon X1650 Pro) noch knapp heran.
Desweiteren hat sich die FiringSquad die unter Dark Messiah of Might & Magic zu erwartende Performance aktueller 3D-Beschleuniger anhand der Demo-Version des Spiels angesehen. Zu beachten wäre hier, daß man die nVidia-Grafikkarten generell unter dem "High Quality" Setting der Treiber ausgemessen hat, was unter Timedemos durchaus einen Unterschied ergeben kann (unter Savegames allerdings kaum eine Relevanz hat). Ob es daran liegt, läßt sich schwer sagen, aber zumindestens scheint auch Dark Messiah of Might & Magic den ATI-Karten besser zu liegen, da laut den Benchmarks der FiringSquad eine Radeon X1900 XT vor einer GeForce 7900 GTX liegt, sowie eine Radeon X1800 XT vor einer GeForce 7950 GT - wenn auch mit jeweils eher verschmerzbaren Differenzen.
Wie die VR-Zone berichtet, wird es für die nächsten Prozessoren-Architektur von Intel in Form des Nehalem-Cores auch neue Sockel gaben: Sockel B und Sockel H, ersterer mit 1366 und zweiterer mit 715 Kontakten. Zum Nehalem-Core wird vermutet, daß Intel mit diesem im Jahr 2008 (wie bei AMD schon des längeren vorhanden) den Speichercontroller in die CPU integrieren will. Hierzu deutet die VR-Zone, daß der Sockel B mit 1366 Kontakten für Nehalem-Prozessoren mit integriertem Speichercontroller vorgesehen wäre, der Sockel H mit 715 Kontakten dann für Nehalem-Prozessoren ohne integriertem Speichercontroller. Dies muß allerdings nicht zwingend zutreffen, auch AMD kommt schließlich beim Sockel 754 mit ebenso vielen Kontakten für eine CPU mit integriertem Speichercontroller aus ...
... Der Unterschied in der Anzahl der Kontakte der vorgenannten neuen Intel-Sockeln könnte sich schlicht ähnlich wie bei AMDs Prozessoren begründen lassen: Dort kommt man auf dem Desktop-Markt mit 754 bis 940 Kontakten aus, im Server-Markt benutzt man inzwischen aber auch 1207 Kontakte - in diesem Markt arbeitet man halt gewöhnlich aus Sicherheitserwägungen heraus mit einer größeren Anzahl an Kontakten. Davon abgesehen ist zum Nehalem-Core als solchem zu sagen, daß dieser wie gesagt 2008 eine neue Prozessoren-Architektur einläuten wird, nachdem dieser Core schon zu frühen Pentium-4-Zeiten als dessen Ablösung im Gespräch war. Aus diesen Zeiten hält sich immer noch die Überlegung, der Nehalem könnte Intels Desktop-Abwandlung der Itanium-Architektur sein - wobei sich allerdings das Nehalem-Projekt im Laufe der langjährigen Entwicklung sicherlich einigermaßen verändert haben dürfte.
neuer Artikel |
Speicher-Skalierung auf dem Athlon 64 X2 (AM2)
Mit der AM2-Plattform besitzt AMD nun ebenfalls den Support für DDR2-Speicher. Dieser ermöglicht in erster Linie deutlich höhere Speichertaktraten, worauf im Markt inzwischen auch jede Menge an unterschiedlich getakteten und mit verschiedenen Timings versehene DDR2-Speicher erhältlich sind. Aus dieser Konstellation ergibt sich schon fast automatisch die Frage, was diese verschiedenen Möglichkeit bezüglich Speichertakt und -timings letztlich zu bewirken in der Lage sind. Unser Artikel hat demzufolge die Aufgabenstellung, die unter Spielen mit diversen DDR2-Speichersettings auf AM2-basierenden Athlon 64 X2 Prozessoren erreichbaren Performance-Unterschiede aufzuzeigen ... zum Artikel
News des 31. Oktober 2006 |
Zum gestrigen Launch der Radeon X1650 XT wäre noch nachzutragen, daß die Karte laut ATI nicht sofort verfügbar ist, sondern erst in der dritten November-Woche im Handel erhältlich sein wird. Gleichzeitig berichten Hard Tecs 4U von einer AGP-Ausführung dieser Karte seitens PowerColor. Diese ist zwar prinzipiell löblich, aufrüstwilligen AGP-Usern sei allerdings eher die Radeon X1950 Pro auf AGP empfohlen, mit welcher man zu einem überschaubaren Mehrpreis wohl noch deutlich länger auf AGP überwintern wird können (womöglich gar bis zu Start von PCI Express II zur Mitte des kommenden Jahres). AGP-Ausführungen der Radeon X1950 Pro sind derzeit von Gecube, PowerColor und Sapphire geplant, deren Auslieferung sollte eigentlich mit dem letzten Tag des Oktober-Monats starten (wovon derzeit allerdings noch nichts zu sehen ist).
Wie TweakPC berichten, hat nVidia anläßlich des 500millionsten bei TSMC produzierten nVidia-Grafikchips auch bekanntgeben, daß das Unternehmen dort bereits Chips in 65nm herstellt. Weitere Informationen hierzu gibt es allerdings nicht, so daß dies dem Feld der Spekulationen überbleibt: Die wahrscheinlichste Möglichkeit ist dabei, daß nVidia sich hier auf frühe Samples der vom G80 abgeleiteten Mainstream- und LowCost-Grafikchips bezieht, welche womöglich schon in 65nm gefertigt werden. Hierfür spricht, daß diese Grafikchips erst im nächsten Frühjahr erscheinen werden - und daß nVidia seit dem NV30-Desaster, als Probleme mit der damals neuen 130nm Fertigungstechnologie den Grafikchip um 6 bis 8 Monate zurückwarfen, es wohl tunlichst vermeiden zu versucht, zuerst mit einem großen HighEnd-Chip auf eine neue Fertigungstechnologie zu wechseln.
Neue, zu letzter Woche jedoch deutlich abweichende Informationen zu Microsofts Re-Aktivierungspolitik bei Windows Vista liefern Ars Technica: Wiederum basierend auf den Aussagen eines Microsoft-Mitarbeiters wird dabei die Darstellung zurückgewiesen, Windows Vista könnte man bis zu 10mal neu aktivieren. Vielmehr bleibt es bei der einmaligen Übertragung der Lizenz, welche schon die (US-amerikanischen) Lizenzverträge so aussagen. Zwar sei Windows Vista laut Microsoft deutlich unanfälliger für eventuelle Re-Aktivierungen nach einem Hardware-Tausch, aber dieser Freizügigkeit dürften schon technisch enge Grenzen gesetzt sein: Spätestens beim Mainboard-Tausch wird immer eine neue Aktivierung aufgrund der dann notwendigen Neuinstallation notwendig sein ...
... Dabei bezweifeln wir allerdings weiterhin, daß diese Regelung sich mit dem deutschen Recht auf uneingeschränkte Produktnutzung vereinen läßt: Die Hardware, auf welche das Betriebssystem läuft, stammt nicht von Microsoft, außerdem wird damit mit der Installation neuer Hardware keines der Microsoft gesetzlich verbrieften Urheber- und Copyright-Rechte angegangen. Die Microsoftschen Lizenzbestimmungen zu Windows Vista beziehen sich in diesen Punkten alleinig darauf, wie die Software genau zu nutzen ist, was jedoch bei der Rechtslage in Deutschland allein im Ermessen des Kunden liegt. Demzufolge sollte Microsoft in Deutschland gemäß unseres Rechtsverständnis mit solcherart Lizenzbestimmungen keinerlei rechtliche Chancen haben - das man es eventuell trotzdem mit diesen Lizenzbestimmungen probieren wird, steht auf einem anderen Blatt.
Shortcuts: Wie TweakPC ausführen, soll die höchste G80-Ausführung GeForce 8800 GTX wiederum ein recht großes Stück Hardware mit einer Länge von 28cm und einem Gewicht von 800 Gramm sein. Allerdings schlägt man damit noch nicht die wirkliche Übergröße einer GeForce 7900 GX2, welche satte 33,5cm Länge aufwies (und damit in viele OEM-Tower nicht mehr passt). Laut The Inquirer ist Anti-Gaming-Anwalt Jack Thompson mal wieder aktiv geworden - und treibt seinen Verfolgungswahn mittlerweile auf die Spitze: Verklagt wird diesesmal der Vertreiber der Mortal-Kombat-Spiele - weil man mittels der Editier-Option des Spiels (durch eigene Arbeit) eben auch ein Alter Ego des Anwalts in der Spiel einbinden kann. Ob Jack Thompson demnächst auch die Hersteller und Vertreiber von Bildbearbeitungsprogrammen und ähnlicher Software verklagt, ist dagegen nicht bekannt ;)).
News des 30. Oktober 2006 |
Am letzten Montag des Oktobers hat ATI wie versprochen seine neue Mainstream-Lösung Radeon X1650 XT auf Basis des RV560-Chips vorgestellt. Wie schon vorab bekannt war, besitzt dieser Grafikchip 8 Rendering-Pipelines mit 24 Pixelshader-Einheiten an einem 128bittigem Speicherinterface und passt somit perfekt in die lange Zeit existierende Lücke zwischen den Angeboten des HighEnd-Segments mit 12 bzw. 16 Rendering-Pipelines und dem bisherigen ATI-Angebot des "echten" Mainstream-Segments in Form des RV530-Chips bzw. der Radeon X1600 Pro/XT Serie mit nur 4 Rendering-Pipelines. Letztere wurde inzwischen in Form der weiterhin RV530-basierende Radeon X1300 XT sowie der RV535-basierenden Radeon X1650 Pro neu aufgelegt, befindet sich nun aber klar im unteren Mainstream- bzw. oberen LowCost-Segment ...
... Die Radeon X1650 XT soll dagegen ATIs neue Lösung im mittleren Mainstream-Segment werden, dazu setzt der kanadische Grafikchip-Entwickler einen US-Listenpreis von 149 Dollar an, welcher nach ersten Listungen auf ca. 140 Euro hierzulande hinausläuft. Dafür gibt es vernünftige Taktraten von 575/675 MHz, 256 MB GDDR3-Speicher, (äquivalent zur Radeon X1950 Pro) natives CrossFire und letztlich volle HDCP-Kompatibilität, da ATI wie schon bei der Radeon X1950 Serie den benötigten HDCP-Lizenzschlüssel gleich mit in den Grafikchip integrierte. Als Hauptkonkurrent für die Radeon X1650 XT darf angesichts der preislichen Situation klar die GeForce 7600 GT gelten, welche wie bekannt mit 12 Rendering-Pipelines, 12 Pixelshader-Einheiten, 128bittigem Speicherinterface, Taktraten von 560/700 MHz und üblicherweise ebenfalls 256 MB GDDR3-Speicher ausgestattet ist ...
... Erstaunlicherweise ist die Anzahl der bisherigen Radeon X1650 XT Reviews ziemlich gering, obwohl doch gerade im Mainstream-Bereich die meisten Karten des Retail-Segments verkauft werden - und vor allem auch nVidias GeForce 7600er Serie dort bisher glänzend dastand. Zukünftig dürfte hier aber auch ATI seinen Anteil am Geschäft machen können, da sich die Radeon X1650 XT gegenüber der GeForce 7600 GT bei der Performance absolut achtbar schlägt: Je nach Review liegt mal die Radeon X1650 XT und mal die GeForce 7600 GT in nicht relevanten Größenordnungen von 3 bis 5 Prozent Differenz vorn, insofern erscheint von der reinen Performance her kein Unterschid zwischen beiden Karten zu existieren ...
... Natürlich gibt es noch andere Punkte, welche zu einer Entscheidung führen können: So hat die ATI-Lösung immer den Vorteil, HDR-Rendering auch zusammen mit Anti-Aliasing ableisten zu können, gleichfalls hat man das weitestgehend winkel-unabhängige Area-AF in Peto. Anhänger einer möglichst guten Bildqualität könnten hier also durchaus die ATI-Karte vorziehen, gerade auch weil sich in Punkto Übertaktung keine wesentlichen Unterschiede ergeben: Ist die GeForce 7600 GT aufgrund ihrer für Mainstream-Grafikkarten schon recht hohen Taktraten nicht als besonderer Overclocker bekannt, so stellen die aktuellen Reviews der Radeon X1650 XT ein ähnliches Zeugnis aus, geht es durch Übertaktung mit im Schnitt 616/764 MHz nur geringfügig nach oben ...
... Interessant ist daneben, daß Radeon X1650 XT trotz ihrer klaren Mainstream-Ansetzung einer solchen Karte wie der Radeon X1800 GTO Paroli zu bieten vermag, welche mit teilweise ab ab 160 Euro inzwischen in einem ähnlichen Preissegment spielt, aufgrund ihrer technischen Daten - 12 Rendering-Pipelines an einem 256bittigem Speicherinterface - ihre Vergangenheit als kleinere HighEnd-Lösung jedoch nicht leugnen kann. Zwar liegt die Radeon X1800 GTO laut den heutigen Tests weiterhin vorn, die Unterschiede sind mit 3 Prozent (Tech Report) bzw. 13 Prozent (FiringSquad) jedoch von der preislichen Differenz (14 Prozent) mehr als vollständig gedeckt und sprechen somit sogar eher für die Radeon X1650 XT ...
... Kritischer sieht es dagegen gegenüber den Lösungen des oberen Mainstream-Marktes Radeon X1900 GT, Radeon X1950 Pro und GeForce 7900 GS aus: Zwar haben alle diese Karten einen Preispunkt von günstigstenfalls 180 Euro, was einer preislichen Differenz von runden 30 Prozent entspricht. Dem steht jedoch ein zweifellos größerer Leistungsgewinn gegenüber: Der Tech Report ermittelte hierbei für die Radeon X1900 GT 53 Prozent, für die Radeon X1950 Pro 54 Prozent und für die GeForce 7900 GS 50 Prozent, welche diese Karten vor der Radeon X1650 XT rangieren. Trotz daß die Radeon X1650 XT also ein gutes Angebot darstellt, erscheint hier die Mehrausgabe für die letztgenannten drei Karten mehr als gerechtfertigt, da es für einen gewissen höheren monetären Einsatz einen deutlich höheren Performance-Gewinn gibt.