News-Archiv 16. - 22. April 2007 (16. Kalenderwoche)
21./22. April 20. April 19. April 18. April 17. April 16. April
News des 21./22. April 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Fudzilla berichtet von einem Listenpreis für die Radeon HD 2900 XT von 399 Dollar - und wiederlegen sich damit eigentlich selber, denn erst kürzlich wurden noch angebliche 100 bis 150 Dollar/Euro Preisvorsprung gegenüber nVidia vermeldet. Doch da die Radeon HD 2900 XT leistungsmäßig irgendwo zwischen GeForce 8800 GTS 640MB (ca. 350 Euro) und GeForce 8800 GTX (ca. 490 Euro) liegen sollte, wäre der Listenpreis von 399 Dollar bzw. in Europa gar 434 Euro Straßenpreis (angeblich der Listenpreis eines europäischen Resellers) absolut gerechtfertigt, würde aber keinesfalls den vorher prognostizierten Preis/Leistungsknaller abgeben. Die (gleich mit 1 GB DDR4 ausgestattet, aber erst im Juni kommende) Radeon HD 2900 XTX ist dann im übrigen angesichts dieser Zahlen für einen Listenpreis von wohl 499 Dollar zu erwarten. Dies würde auch zum gleicher Quelle noch vermeldeten Taktunterschied passen: 800/800 MHz für die Radeon HD 2900 XT und 800 MHz oder etwas darüber Chip- und 1100 MHz Speichertakt für die Radeon HD 2900 XTX.
Nachdem Guru3D in den Release Notes zum Forceware 158.19 einen Eintrag für eine "GeForce 8800 GS" gefunden haben, hat nVidia diese Release Notes kurzfristig geändert und zum anderen bestätigt, daß es keine solche Karte geben solle. Ob es sich hierbei um einen einfachen Schreibfehler handelt, ist nicht klar, in der zum Treiber gehörigen INF-Datei war jedenfalls auch kein Eintrag zu dieser Karte zu finden. Eine angenommene GeForce 8800 GS würde jedoch wohl eine weitere Abspeckung des G80-Chips bedeuten, was allerdings kaum noch wirtschaftlich wäre (und deutlich niedrigere Taktraten würden wiederum nur die Übertakter einladen). Denkbar wäre natürlich trotzdem eine irgendwie noch leistungsreduzierte Version, die dann rein für OEMs produziert wird ...
... Auf der anderen Seite erscheint es derzeit aber sowieso als folgerichtig, das nVidia den riesigen Performance-Zwischenraum zwischen GeForce 8600 GTS und GeForce 8800 GTS 320MB noch irgendwie füllen wird. Sicherlich wird dies nicht sofort passieren, derzeit liegen beide Karten preislich ja gar nicht weit auseinander (ca. 190 Euro zu ca. 260 Euro) - momentan wird man also versuchen, erst einmal die GeForce 8600 GTS breit abzusetzen. Aber nach diesem Launchschwung wird der Preis dieser Karte wohl in die Nähe von 150 Euro fallen müssen, um gegenüber Radeon X1950 Pro/XT und GeForce 7900 GS/GT sowie GeForce 7950 GT langfristig konkurrenzfähig zu bleiben. Dann würde ein Raum für eine derzeit spekulativ als "GeForce 8700" bezeichnete Serie bleiben. Diese würde dann natürlich nicht auf dem G80-Chip basieren, sondern vielmehr auf einem extra Grafikchip für das obere Mainstream-Segment - wie es ATI mit dem RV570 (Radeon X1950 Pro) schon vorgemacht hat ...
... Hardware-technisch sollte ein solcher Grafikchip dann irgendwo zwischen G80 (acht Funktionsblöcke mit jeweils 16 Shader-Einheiten und vier TMUs, 384 Bit DDR Speicherinterface) und G84 (zwei Funktionsblöcke mit jeweils 16 Shader-Einheiten und acht TMUs, 128 Bit DDR Speicherinterface) liegen: Man kann hierbei wohl über vier Funktionsblöcke mit jeweils 16 Shader-Einheiten und acht TMUs (angelehnt an der verbesserten G84-Architektur) sowie ein 192 oder 256 Bit Speicherinterface spekulieren. Ein solcher Chip würde dann natürlich nicht gerade klein werden, wahrscheinlich dürfte nVidia mit diesem warten, bis man die 65nm Fertigung zu Verfügung hat - was allerdings auch nicht mehr so lange dauern sollte. Nichts desto trotz ist eine "GeForce 8700" derzeit immer noch hochspekulativ, gibt es keinerlei gesicherte Fakten dazu, ob und wie nVidia eine solche Karte plant.
Laut nochmals Fudzilla soll ATIs kommender Mainstream-Grafikchip RV630 über 32 Shader-Einheiten und damit die Hälfte des R600-Chips verfügen, der LowCost-Grafikchip RV610 über 16 Shader-Einheiten und damit ein Viertel des R600-Chips (über die Anzahl der Shader-Einheiten ist der R600 natürlich nicht mit dem G80 zu vergleichen, da die Shader-Einheiten von ATI und nVidia im gewöhnlichen unterschiedlich leistungsfähig sind). Dies würde auf eine Mainstream-Variante von ATI hindeuten, welche Hardware-technisch nicht so arg beschnitten ist wie der G84-Chip (GeForce 8600 Serie). Auf der anderen Seite hat der RV630 aber auch bekanntermaßen das gleiche Speicherinterface wie der G84 - 128 Bit DDR - womit gerade in höheren Auflösungen samt Anti-Aliasing wieder die Gefahr besteht, daß Radeon X1950 Pro/XT und GeForce 7900 GS/GT sowie GeForce 7950 GT aufgrund der dort verbauten 256 Bit DDR Speicherinterfaces auch an ATIs neuer Mainstream-Lösung vorbeiziehen.
Shortcuts: Die am Freitag genannten Dell-Spezifikationen zur GeForce 8800 Ultra kann man sich im übrigen hier in einer Kopie ansehen. Mit dieser bestätigen sich auch die weiterhin nur 768 MB Grafikkartenspeicher dieser Karte, womit ein Listenpreis von 999 Dollar doch als eher unwahrscheinlich angesehen werden kann. Bei den aktuellen Bildern zur Radeon HD 2600 XT (beispielsweise hier) ist auffällig, daß diese größte Mainstream-Ausführung von ATI keinen extra Stromstecker mehr trägt. Ursprünglich wiesen sogar ATI-eigene Unterlagen dieser Karte noch 121 Watt Stromverbrauch aus, ohne extra Stromanschluß kann es jedoch kaum über 60 Watt sein (da man die maximal 75 Watt des PCIe-Ports nie vollständig ausreizt). Einen Benchmarkwert dieser Karte gegenüber einer GeForce 8600 GTS unter Need for Speed: Carbon kann man zudem noch hier nachschlagen.
News des 20. April 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Seitens HardSpell gibt es erstmals angeblich verläßliche Daten zur GeForce 8800 Ultra, welche aus einem zu frühzeitig von Dell publizierten Angebot stammen: Danach besitzt die Ultra-Ausführung des G80-Chips die gleichen Hardwareeinheiten (128 Shader-Einheiten, 384 Bit Speicherinterface) wie die GTX-Ausführung und hat somit nur einen höheren Takt von 650/1080 MHz anzubieten, wobei es sich trotz des hohen Speichertaktes weiterhin um GDDR3-Speicher handelt. Ob damit der im Web vielfach zu lesende Preis von 999 Dollar zu halten sein wird, bezweifeln wir erst einmal - machbar ist hier sicherlich kaum mehr als eine Preisvorstellung von 600 bis 650 Euro für diese nur mäßige "Übertaktung" von 13 bzw. 20 Prozent. Allenfalls mit gleich 1,5 GB Speicherbestückung wären die 999 Dollar vorstellbar - auf der anderen Seite würde das dann zum Prestigeobjekt ausarten, denn so viel Speicher wird der Grafikkarte zu Lebzeiten keinerlei Vorteile bringen können.
Nochmals HardSpell berichten zu ersten halben Benchmarks der kommenden Mainstream-Lösung von ATI, der "Radeon HD 2600 XT" - womit im übrigen auch die "HD"-Namenswahl nunmehr fast vollständig gesichert ist. Da die 3DMark06-Einzelwerte im Vergleich zu einer GeForce 8600 GTS fast deckungsgleich sind und zudem zur Radeon HD 2600 Serie bereits das 128 Bit DDR-Speicherinterface bekannt ist, ergibt sich hier durchaus der begründete Verdacht, daß die neuen Mainstream-Lösungen von ATI bei der reinen Performance nur ähnlich durchschnittlich abschneiden werden wie die neuen Mainstream-Karten von nVidia.
Wie Hard Tecs 4U ausführen, hat AMD äußerst schlechte Geschäftszahlen vermeldet: Einem Quartalsumsatz von 1233 Millionen Dollar steht ein Quartalsverlust 611 Millionen Dollar gegenüber, wovon nur 113 Millionen Dollar als Sonderaufwendungen für die Übernahme von ATI ausgewiesen wurden. Primär dürften AMD die derzeit sehr niedrigen Durchschnittspreise für PC-Prozessoren treffen - und dies mehr als Intel, welche fertigungstechnisch deutlich vor AMD liegen und damit den niedrigeren Verkaufspreisen auch niedrigere Fertigungskosten entgegenstellen können. Zwar steht AMD nach wie vor ganz vernünftig im Markt, allerdings sollten derart krasse Quartalsverluste wirklich die Ausnahme bleiben, ansonsten könnte das mit einer nicht geringeren Kreditsumme belastete Unternehmen auch ganz schnell schwere Schlagseite bekommen.
Laut dem Planet 3DNow! wird die Desktop-Version der AMD K10-Architektur nun erst im vierten Quartal erscheinen, im dritten Quartal sollen erst einmal nur die Server-Versionen in Form des Barcelona-Cores kommen. Damit verschiebt sich der seitens AMD eigentlich dringend benötigte positive Schub durch die verbesserte Prozessoren-Architektur weiterhin nach hinten, da die zuerst erscheinenden Server-Modelle auf dem Gesamtmarkt nicht einen solchen Einfluß haben, als das es die derzeit sehr schlechten AMD-Zahlen ins Plus drehen könnte. Zudem rutscht damit die Veröffentlichung von K10-Desktopversionen auch schon wieder recht nahe an den Launch des Penryn-Cores seitens Intel zum Jahresanfang 2008 heran: Dies bringt AMD in die unvorteilhafte Lage, daß sich die K10-Architektur nunmehr nicht an den aktuellen Core 2 Duo/Quad Prozessoren messen wird müssen, sondern an dem ebenfalls verbesserten Penryn-Core.
Bei der FiringSquad hat man sich die CPU-Performance unter Stalker: Shadow of Chernobyl insbesondere unter dem Augenmerk der Ausnutzung von DualCore- und QuadCore-Prozessoren angesehen. Problematisch an den angestellten Tests ist allerdings, daß mindestens unter 1280x1024 und damit eher nur getestet wurde, inwiefern die CPU etwas zur Durchschnitts-Performance beitragen kann. Dies kann sie zwar, sofern die anliegende Grafikkarten-Power (beispielsweise mittels SLI) ausreichend hoch genug ist, allerdings würde genauso auch interessieren, ob eine schnellere CPU nicht eventuell in den langsamsten Stellen des Spiels eine (möglicherweise mächtige) Hilfe ist - etwas, was man mit Durchschnittsmessungen schwerlich herausfinden kann.
Shortcuts: Laut Hard Tecs 4U wird Intel AMDs "QuadFX" in Form des "Skulltrail"-Projektes einen Counterpart gegenüberstellen. Und da es sich wie bei AMD um ein reines Prestigeobjekt handelt, wird Intel bei diesem auch gleich in die Vollen gehen: Zwei QuadCore-CPUs aka acht Kerne und vier Grafikchips sollen bei Skulltrail zusammenarbeiten ;). Die bei den X-bit Labs aufgetauchten Zahlen zur Aufteilung des Grafikkarten-Marktes in die einzelnen preislichen Segmente basieren auf einer seitens der Analysten von Jon Peddie Research schon einmal vor einigen Wochen veröffentlichten Meldung, deren Wahrheitsgehalt wir bei einem angeblich 10mal so großem Mainstream- wie LowCost-Markt weiterhin arg bezweifeln. Dies Angabe widerspricht allem, was die Grafikkarten-Herstellern zu Geschäftszahlen gewöhnlich von sich geben: Diese reden vielmehr regelmäßig davon, daß nicht nur die Stückzahlen, sondern auch das große Geld in OEM-Deals (für natürlich eher leistungsschwächere Grafikkarten) steckt.
News des 19. April 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Den Test einer DualChip Radeon X1950 Pro mit gleich zweimal 512 MB Speicher seitens Sapphire gibt es bei techPowerUp!. Die Karte durchlief die Benchmarks dabei mit erstaunlich konstant guten Ergebnissen, im Schnitt waren es unter 1600x1200 mit 4x Anti-Aliasing immerhin 71 Prozent Leistungsgewinn gegenüber einer einzelne Radeon X1950 Pro (mit ebenfalls 512 MB Speicher). Leider wurde keine GeForce 8800 GTS 640MB mitgetestet - hierbei wäre es interessant zu wissen, ob diese preislich vergleichbare Karte schneller oder langsamer als jene DualChip Radeon X1950 Pro ist. Denn bei nur 14 Prozent Performance-Vorsprung einer GeForce 8800 GTX vor der DualChip Radeon X1950 Pro könnte es hier durchaus knapp werden für die GeForce 8800 GTS 640MB.
Wie WinFuture berichten, kommt seitens Zepto zum Ende des Monats eine erste Flashspeicher-Festplatte zu einem bezahlbaren Preis in den Handel: 349 Euro für eine 64-GB-Ausführungen können zwar niemals in Konkurrenz zu herkömmlichen Festplatten gehen, sind allerdings auch nicht völlig übertrieben, sondern knapp noch im Rahmen des Denkbaren. Zudem ist die Größe der Festplatte ebenfalls knapp ausreichend für ein normales PC-System, größere Datensammlung kann man schließlich auch auf (abschaltbare) externe Festplatten auslagern. Natürlich werden sich Flashspeicher-Festplatten trotzdem erst dann breit durchsetzen, wenn diese die gleiche Speichergröße und den gleichen Preis wie herkömmliche Festplatten aufweisen ...
... In der Zwischenzeit sind Flashspeicher-Festplatten aber durchaus für Nischen interessant: So beispielsweise für PC-Systeme und Anwendungen, wo die dramatisch niedrigere Zugriffszeit der Flashspeicher-Festplatten ausgenutzt werden kann. Primär denken wir allerdings derzeit eher an komplett lautlose Systeme, welche mit Flashspeicher-Festplatten erstmals möglich werden - und ohne das man dafür sein PC-System in ein vollgedämmtes Gehäuse stecken muß. Denn Passiv-Kühler für CPUs und Grafikkarten sowie passiv gekühlte Netzteile sind außerhalb von HighEnd-Leistungsansprüchen heutzutage kein Problem mehr, einzig allein die Festplatte(n) musste man bisher als nicht abstellbare Geräuschquelle im PC akzeptieren.
Gemäß Golem wurde ein deutscher Usenet-Provider vor Gericht erstaunlicherweise von der Mittäter-Haftung für von Nutzern gehosteten urheberrechtlich geschützten Inhalte freigesprochen - was zwar in der Sache positiv ist, allerdings auch wieder den Zickzackkurs der deutschen Rechtssprechung bei diesem Thema verdeutlicht, denn andere Klagen in ähnlichen Verfahren sind bislang zumeist im umgekehrten Sinne ausgegangen. Zwar besteht natürlich ein moralischer Unterschied, wenn diverse Anbieter aggressiv mit der durch ihre Dienste möglichen Urheberrechtsverletzung werben und das andere Anbieter (wie im konkreten Fall) nicht tun. Technisch besteht jedoch kein Unterschied: Wenn man dem einem Anbieter eines Dienstes, welche den (unkontrollierten) Austausch von Dateien durch die User ermöglicht, es gestattet, ohne der Vorkontrolle aller hochgeladenen Dateien zu operieren, kann man diese Forderung nicht anderen Anbietern auferlegen, welche technisch auf ähnlicher bis vollkommen gleicher Basis arbeiten.
Shortcuts: Hard Tecs 4U berichten zum Wiedereinstieg von ELSA in den deutschen Grafikkarten-Markt - wobei die heutige Firma ELSA nur wenig mit dem früher hierzulande angesiedeltem Hardware-Hersteller zu tun hat, sondern vielmehr aus dem seinerzeitigen asiatischen ELSA-Ableger entstand, welcher nach der Pleite der Mutterfirma die Namensrechte übernahm. Über eine interessante britische Studie berichten Golem, welche die emotionale Einbindung beim Ansehen von Filmen als höher bewertet als beim Spielen von Computerspielen. Die emotionale Einbindung ist entscheidend bei der Frage, ob und in wie weit diese Medien ihre Nutzer letztlich beeinflußen können.
News des 18. April 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Eine kleine Korrektur noch zu unserem G84/G86-Launchreport: nVidia hat bei diesen beiden neuen Grafikchips in der Tat die Textureneinheiten noch einmal gegenüber dem G80-Chip verändert, womit die grundlegenden Funktionsblöcke bei G84 und G86 also doch etwas anders aussehen als beim G80. Jener HighEnd-Chip verfügt wie bekannt über 32 Textureneinheiten (acht Quad-TMUs), welche allerdings jede zwei bilineare Texturensamples pro Takt berechnen können. Da bei diesen also doppelt ausgelegten Textureneinheiten jedoch die "Texture Adress Units" nur einfach ausgelegt sind, kann der G80-Chip pro Takt weiterhin nur 32 Texturensamples auswerfen, selbst wenn 64 berechnet werden könnten. Diese Differenz kann man allerdings dazu nutzen, in einem Takt trilineare Filterung zu ermöglichen, der G80-Chip wirft also (maximal) in einem Takt 32 gleich trilinear gefiltere Texturensamples aus ...
... Für die G84- und G86-Chips wurde diese Anordnung jedoch wieder etwas verändert, nun haben die Textureneinheiten auch eine doppelte Addressierungs-Einheit, womit man also nicht mehr von doppelt ausgelegten Textureneinheiten sprechen sollte, sondern bessern von zwei Textureneinheiten. Demzufolge verfügt der G84-Chip (GeForce 8600 Serie) nun also über 16 Textureneinheiten, der G86-Chip (GeForce 8300/8400/8500) über deren 8. Eine Änderung bei der nominellen Texturierungsleistung bedeutet dies zwar nicht, allerdings ergeben sich Vorteile bei rein bilinearer Filterung, wie sie beispielsweise viele Shader-Programme verwenden. Vermutlich dürfte sich diese Entwicklung zudem auch in zukünftigen HighEnd-Grafikchips von nVidia wiederfinden, da sie natürlich eine effektivere Ausnutzung der zur Verfügung stehenden Rohpower ermöglicht.
Bei Hard Tecs 4U gibt es erste exakte Testergebnisse des gestern schon kurz besprochenen Penryn-Cores zu vistieren. Die Tests wurden allerdings von Intel selbst durchgeführt, konnten also von den anwesenden Journalisten nur passiv beobachtet werden. Zudem wurde nicht auf gleichem Takt gemessen, sondern wieder 2.93 GHz (Conroe) gegen 3.33 GHz (Penryn) verglichen, was in etwa 10 Prozent Performance-Unterschied ausmachen sollte. Und natürlich dürfte der Prozessorenhersteller bei seiner Präsentation auch nur diese Benchmarks ausgewählt haben, welche den Penryn im allerbesten Licht darstellen. Nichts desto trotz sind einige der Ergebnisse recht überzeugend: 111 Prozent Plus in einem DivX-Test deuten beispielsweise schon einmal die Schlagkraft von SSE4 bei entsprechend optimierter Software an ...
... Währenddessen lassen die 37 Prozent mehr Performance unter Half-Life: Lost Coast vermuten (allerdings ohne Angabe jeglicher Settings), das auch (CPU-hungrige) Spiele mittels des Penryn-Cores noch einmal einen Schub erhalten können. Gerade aber bei den Spielen sind wir derzeit noch vorsichtig mit allgemeinen Prognosen, da die bekannten Änderungen des Penryn-Cores eigentlich nicht auf großartige generelle Performance-Zuwächse unter Spielen hindeuten. Hier sollte man sich also von dem einzelnen Benchmark-Ergebnis unter Half-Life nicht all zu viel versprechen - wenn der Penryn dann in der Tat ab Jahresanfang 2008 auch unter Spielen klar mehr Performance bieten sollte, um so besser.
Wie zu erwarten, hat die Gesetzesvorlage zur Telekommunikations-Vorratsdatenspeicherung natürlich das Bundeskabinett passiert, welches nun allerdings noch vom Bundestag beschlossen werden muß, um in Kraft treten zu können. Golem und der Heise Newsticker bieten hierzu entsprechende Meldungen an, welche einen Überblick über den immerhin 200 Seiten starken Gesetzesentwurf geben, der deutlich mehr als nur die vielzitierte Vorratsdatenspeicherung umfasst. Sehr lobenswert an den Ausführungen der Zeit zu den noch viel umfassenderen Plänen von Bundesinnenminister Schäuble ist hingegen vor allem, daß man zu jedem derzeit kursierenden Einzelvorschlag den Stand der Umsetzung, die diesbezüglichen aktuellen Möglichkeiten und rechtliche Schranken aufzeigt.
News des 17. April 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie schon in einem extra Artikel ausgeführt, hat nVidia am Dienstag die ersten Mainstream-Beschleuniger für Direct3D10 vorgestellt. Dabei deutete sich schon in jenem Artikel an (welcher kurz nach dem Launch erschien), daß die meisten Hardware-Redaktionen, welche zum Launch die neuen Karten testen konnten, keine herausragenden Noten vergeben haben. Dabei sind die GeForce 8600 GT und GTS Karten durchaus nicht verkehrt, nVidia hat bei diesen neuen Grafikkarten vieles richtig gemacht: Die Stromaufnahme liegt im Rahmen, die meisten Lüfterkonstruktionen sind recht leise, sogar passiv gekühlte Karten sind möglich. Dazu kommen alle modernen Features des G80-Chips sowohl beim reinen Featureset als auch bei den bildqualitätsverbessernden Optionen - zusammen garniert mit vollständiger HDCP-Kompatibilität bei der GeForce 8600 GTS und bei den meisten GeForce 8600 GT Karten ...
... Einzig allein an der puren Performance hapert es wie bekannt etwas. Auffällig ist jedoch, das sich die GeForce 8600 GTS durchaus behaupten kann, sofern man keine höhere Auflösung als 1280x1024 ansetzt: Dann liegt man geringfügig über der Radeon X1950 Pro, gerade in den eher neueren Spiele-Titeln. Das gibt durchaus Hoffnung darauf, daß die GeForce 8600 Serie mit neueren Spielen eventuell bessere Resultate einfahren kann als die jetzige DirectX9-Konkurrenz. Allerdings sollte man weniger darauf setzen, daß die GeForce 8600 Serie inbesondere von Direct3D10-Titeln wird profitieren können: Dafür ist Direct3D10 noch viel zu frisch, ist zu Lebenszeiten dieser Karten (noch) nicht der große Schwung an Direct3D10-Titeln zu erwarten. Die Performance holt die GeForce 8600 Serie derzeit wohl aus der hohen vorhandenen Shader-Power und kann damit die nur mittelmäßige Speicherbandbreite bis zu einem gewissen Maß überdecken.
Wie der Heise Newsticker vom Intel Developer Forum berichtet, soll die 45nm-Auskopplung der Core 2 Duo Prozessoren mit Codennamen "Penryn" zwischen 15 und 40 Prozent schneller sein als die aktuellen Core 2 Duo Modelle auf Basis des Conroe-Cores. Allerdings basieren diese Angaben auf einem Vergleich mit einem gewissen Taktunterschied (2.93 zu 3.33 GHz), insofern sind gute 10 Prozent von diesen Angaben gleich wieder abzuziehen. Die damit übrig bleibenden 5 bis 30 Prozent Vorteil stellen dann schon eine eher realistische Voraussage für einen Core dar, welcher schließlich keine neue Architektur bringt, sondern nur eine Verbesserung der aktuellen Architektur mit mehr Level2-Cache und besseren Anbindung desselben sowie einem schnelleren FSB und der SSE4-Befehlssatzerweiterung darstellt. Der Hauptpluspunkt des Penryn-Cores ist jedoch eher seine 45nm-Fertigung, welches es Intel ermöglichen wird, deutlich höhere Taktraten bis hin zur 4-GHz-Schallmauer anzubieten bzw. natürlich auch Übertaktern den Spielraum geben wird, da noch deutlich mehr draufzulegen.
Ebenfalls ein Thema auf dem Intel Developer Forum war laut Golem das Projekt "Larabee", hinter welchem man bisher Intels Integration einer Grafiklösung in eine CPU vermutete. Dies scheint es nun aber doch nicht so zu werden: Zwar sieht Intel Larabee als Konkurrenz zu Grafikkarten - allerdings nicht auf dem Gebiet der 3D-Spiele, sondern auf dem Gebiet GPGPU, also der Ausnutzung der reinen Rechenleistung von Grafikchips für gänzlich Spiele-fremde Berechnungen. Hierbei will man sich offenbar von ATI und nVidia nicht die Butter vom Brot nehmen lassen und zukünftig halt eigene Lösungen für Anwendungen mit einem hohen Bedarf an reiner Rechenleistung offerieren. Als Grafikchip dürfte sich Larabee dagegen nur eingeschränkt nutzen lassen - dafür scheint es aber auch nicht konzipiert, selbst wenn die angebotene Rechenleistung sehr hoch sein sollte ...
... Das ganze bedeutet natürlich auch einen gewissen Dämpfer für jene Spekulationen, welche Intel demnächst als vollwertigen Anbieter im Grafikchip-Markt gesehen haben. Intel dürfte hingegen zuerst einmal "nur" mit neuen integrierten Grafiklösungen kommen, wo dann aber der Grafikchip nicht mehr in der Northbridge des Mainboard-Chipsatzes steckt, sondern vielmehr als extra Chip neben dem eigentlichen Prozessor mit aufs Trägermaterial gepresst wird. Ob man hierbei auch (deutlich) leistungsfähigere Grafikchips entwickeln wird als bisher, ist noch nicht heraus - in dieser Frage ist noch alles möglich. Offensichtlich haben diese Planungen aber wenig mit dem Projekt "Larabee" zu tun, welche wohl einen ganz anderen Zweck verfolgt als einen Einstieg in den Grafikchip-Markt.
Der Heise Newsticker berichtet ein wenig zum am Mittwoch dem Bundeskabinett zur Verabschiedung vorliegenden Gesetzesentwurf zur Telekommunikations-Vorratsdatenspeicherung. Interessanterweise (und bisher wohl weitestgehend unbeachtet) enthält dieser eine Passage, wonach die schon länger bestehende Informationspflicht von abgeschlossenen Abhörmaßnahmen gegenüber dem Abhörobjekt nach einer Zeitspanne von fünf Jahren nunmehr entfallen kann. Dies bietet Vater Staat einen exzellenten Ausweg aus der Problematik, das dieser der bisher schon bestehenden Informationspflicht in nahezu 90 Prozent der Fälle (illegalerweise) nicht nachgekommen ist ;).
Shortcuts: Bei Gulli gibt es eine ganz interessante Meldung zur Funktionsweise des "File Sharing Monitors", mit welchem die Rechteinhaber bzw. deren Vertreter in Filesharing-Netzwerken nach Urheberrechts-Missetätern suchen. Golem berichten über eine für 2009 geplante Erweiterung der PCI Express 2.0 Spezifikation, mit welcher sich Spezialprozessoren direkt an die CPU anbinden lassen würden. Dies kann für Co-Prozessoren genutzt werden, allerdings wäre auch die Anbindung "gewöhnlicher" Grafikkarten auf diesem Wege denkbar. Und wie nochmals Golem berichten, hat das OLG Dresden die in Deutschland geltende Rechtsprechung zum Verbot von Onlinevideorekorder-Diensten bestätigt. Das Problem sah man hierbei darin, daß sich eine Privatkopie (wie mit einem herkömmlichen Videorrekorder) legal nur von Privatpersonen anfertigen läßt, entsprechende Online-Dienste rein rechtlich jedoch als "kommerziell" gelten.
neuer Artikel |
nVidia stellt die ersten Mainstream Direct3D10-Grafikkarten vor
Mit dem heutigen Tag stellt nVidia seinen LowCost-Grafikchip für Direct3D10 in Form des G84 und seinen Mainstream-Grafikchip für Direct3D10 in Form des G86 sowie die auf diesen Grafikchips basierenden Direct3D10-Grafikkarten GeForce 8500 GT, GeForce 8600 GT und GeForce 8600 GTS vor. In unserem Launchreport nennen wir die relevanten Daten zu den neuen Karten und gehen auf die Ergebnisse der ersten Testartikel vor allem auch in Bezug auf die aktuelle Preissituation ein ... zum Artikel
News des 16. April 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Laut der DigiTimes hat Asus seine GeForce 8600 GTS Grafikkarte etwas vorfristig schon am Montag angekündigt. Damit bestätigen sich auch einige Daten zu dieser Karte - immer noch fehlend ist allerdings die Angabe zur Anzahl der Shader- und Textureneinheiten. Von einigen bei verschiedenen Quellen veröffentlichten 3DMark-Einzelwerten läßt sich aber auf 12 Textureneinheiten schließen - was, wenn nVidia den grundsätzlichen Aufbau der einzelnen Funktionsblöcke zum G80-Chip nicht grundlegend verändert hat (wäre unlogisch, weil es viel Arbeit bedeutet und die Funktionsblöcke als recht ausgewogen gelten), dann auch auf 48 Shader-Einheiten hinausläuft. Damit würde der G84-Chip von den fürs Rendering zuständigen Einheiten 3/8 dem G80 entsprechen, vom Speicherinterface (und den ROPs) her wären es 1/3 des G80 ...
... Auch deutet sich damit an, daß zwischen GeForce 8600 GT und GTS kein Unterschied bei den Hardware-Einheiten besteht, sondern nur ein Taktunterschied (540/700 MHz zu 675/1000 MHz). Gleichfalls gibt es erste Straßenpreise dieser Karten zu vermelden: Der Geizhals-Preisvergleich listet die entsprechenden Modelle von MSI für um die 150 Euro (GeForce 8600 GT) bzw. 200 Euro (GeForce 8600 GTS) auf - was insbesondere für die GeForce 8600 GT interessant klingt, wenn diese Karte in der Tat keinen Unterschied bei den Hardware-Einheiten zur GeForce 8600 GTS haben sollte. Aber natürlich müssen sich die neuen Karten auch erst einmal gegen die in diesem Preissegment bereits angebotenen DirectX9-Karten durchsetzen, welche allesamt eine HighEnd-Abstammung in die Waagschale werfen können und damit den neuen Mainstream-Karten von nVidia durchaus gefährlich werden können.
Wollte man The Inquirer Glauben schenken ;), so kommt die GeForce 8800 Ultra nur in einer Miniauflage von einigen Dutzend Stück. Jene Meldung bezweifeln wir allerdings kräftig, denn nVidia hat es derzeit wohl nicht nötig, sich auf Krampf (sprich beim Kampf um die Performancekrone) derart mit der Computer-Szene zu verscherzen - was allerdings passieren würde, sollte man eine Ultra-Edition nur für einige ausgewählte Hardwaretest-Redaktionen herausbringen. So etwas ist früher schon mal durchgegangen und wurde seinerzeit auch nicht als gut angesehen, heutzutage würden sich dagegen umgehend Hohn und Spott über nVidia ergießen. Und da sich dies auch nVidia ausrechnen kann, wird man wohl diesem Marketing-GAU zu entgehen versuchen und damit entweder eine wenigstens in einigen tausend Exemplaren lieferfähige Ultra-Karte bringen - oder eben gar keine.
Bei der FiringSquad hat man sich die Karten des Preisbereichs von 100 bis 300 Euro im neuen Vorzeige-Shooter Stalker angesehen. Wie schon bei einigen anderen Spielen gibt es derzeit wohl noch kein funktionierendes Anti-Aliasing unter Stalker, wenngleich nVidia hierfür Abhilfe mit einem kommenden Treiber verspricht. Zudem stellte sich die dynamische Beleuchtung insbesondere für ältere Grafikkarten als extremer Performancekiller heraus, hier kann man mit einer statischen Beleuchtung schnell auf die 5fache Performance kommen. Prinzipiell dürfte diese Erkenntnis allerdings auch auf die neueren Grafikkarten umlegbar sein - wenn die Performance unter Stalker nicht passt, sollte man eventuell einfach einmal probieren, die dynamische Beleuchtung durch eine statische zu ersetzen ...
... Im Vergleich der 256-MB- zu den 512-MB-Grafikkarten zeigen sich einige kleinere Vorteile für die Varianten mit dem größerem Grafikkartenspeicher, allerdings blieben diese mit im Schnitt 10 Prozent noch im Rahmen. Sollte allerdings zukünftig noch Anti-Aliasing unter Stalker möglich werden, könnte dies eventuell größere Performance-Unterschiede hervorrufen. Der reine Performance-Test ergab hingegen ein zu erwartenden Bild: An die Spitze setzt sich die GeForce 8800 GTS, danach folgen mit einigem Abstand die verschiedenen Mainstream-Grafikkarten von ATI und nVidia. Und im letztlich noch angestellten SLI-Test war wieder einmal auffällig, das SLI bei den GeForce7-Karten problemlos funktionierte, mit der GeForce 8800 GTS jedoch kein wirklicher Mehrgewinn erreicht werden konnte. Hier wird nVidia im Forceware-Treiber noch nachlegen müssen - genauso wie ATI bei den Catalyst-Treibern, wo CrossFire derzeit (ungeachtet der benutzten Grafikkarte) gar keinen Performancegewinn unter Stalker verzeichnen kann.
Shortcuts: Seitens Area3D tut man sich mit einigen Spannungs-Mods für Grafikkarten hervor: Radeon X1900 GT Rev.2, Radeon X1950 Pro GeForce 7900 GTO/GTX und GeForce 8800 GTS. Bei Hartware hat man sich eine DualChip Radeon X1650 XT angesehen, welche in diesem Test allerdings kaum glänzen konnte. Dies liegt vor allem an der Preisgestaltung der Karte, welche deutlich teurer angeboten wird als zwei einzelne Radeon X1650 XT Grafikkarten und damit natürlich eigentlich außerhalb jeglicher Diskussionen steht. Ein paar Benchmarks zur GeForce 8600 GTS gibt es bei Fudzilla: Verglichen wurde allerdings nur gegen eine GeForce 7600 GT, welche schon von der preislichen Lage her kein Gegner für die GeForce 8600 GTS sein sollte. Neues Wasser auf die Mühlen der Microsoft-Kritiker bringt das aktuelle Kartellverfahren gegen Microsoft hervor, über welches Golem berichten: Danach wurde nun eine eMail seitens Bill Gates öffentlich, in welcher dieser darüber nachdenkt, Schnittstellen derart zu gestalten, das sie nur mit dem Windows-Betriebssystem richtig funktionieren ;)).