News-Archiv 8. - 14. Mai 2006 (19. Kalenderwoche)
13./14. Mai 12. Mai 11. Mai 10. Mai 9. Mai 8. Mai
News des 13./14. Mai 2006 |
Bei der Overclockers Workbench sowie Bit-Tech gibt es erste Artikel zur Radeon X1900 GT - erstgenannte Seite hat dabei die Ausführung von PowerColor im Test, die zweitgenannte jene von Connect3D und Sapphire. Die Ergebnisse sind allerdings nicht ganz einfach zu bewerten, da beide Artikel auf nVidia-Seite jeweils mit übertakteten GeForce 7900 GT Karten operiert haben, die nur einen indirekten Vergleich der neuen ATI-Karte zu einer GeForce 7900 GT auf default-Taktung zulassen. Nichts desto trotz läßt sich jetzt schon sagen, daß Radeon X1900 GT und GeForce 7900 GT eine insgesamt sehr ähnliche Performance aufweisen, wohl letztlich nur ein paar Nuancen zwischen den beiden Karten liegen ...
... Natürlich hat ATI derzeit den generellen Vorteil auf seiner Seite, Anti-Aliasing unter HDR-Rendering bieten zu können, wie auch das qualitativ hochwertigere Verfahren für den anisotropen Filter ("Area-AF") in Peto zu haben. Im Fall der GeForce 7900 GT kann nVidia allerdings mit der ausgesprochen guten Overclocking-Eignung dieser Karte punkten, während die Übertaktungseigenschaften der Radeon X1900 GT zwar vernünftig, aber keinesfalls überragend waren: Von 575/600 MHz ging es auf 625/740, 592/640 bzw. 620/720 MHz hinauf. Zwar sind die Radeon X1900 GT Karten derzeit hierzulande noch nicht erhältlich, liegen aber zumindestens bei den ersten Straßenpreisen schon einmal unter dem Listenpreis von 299 Dollar ...
... Womit ATI die GeForce 7900 GT gehörig unter Druck setzt: Sollten die Radeon X1900 GT Karten wirklich für real um die 250 Euro über die Ladentheken gehen, wird sich nVidia bei der GeForce 7900 GT wohl bewegen müssen, da diese Karten derzeit immer noch recht nah am Listenpreis von 299 Dollar/Euro verkauft werden. Dabei bietet die GeForce 7900 GT gemäß einhelliger Meinung schon jetzt ein ausgezeichnetes Preis/Leistungsverhältnis für eine HighEnd-Grafikkarte - ein weiterer Preisrutsch in Richtung 250 Euro würde eine Situation aufkommen lassen, in welcher die jeweiligen Top-Modelle von ATI und nVidia zwar 30 bis 50 Prozent mehr leisten als Radeon X1900 GT bzw. GeForce 7900 GT, dafür aber auch fast 100 Prozent mehr kosten ...
... Davon abgesehen dürften mit dem Auftauchen der Radeon X1900 GT nunmehr die bisher in diesem Preissegment von ATI verkauften Karten aufs Abstellgleis rutschen: Gemäß des ATI/nVidia-Lineups zum GeForce 7600/7900 Launch setzte ATI seinerzeit als GeForce 7900 GT Konkurrenten die Radeon X1800 XT 256MB für einen Listenpreis von 329 Dollar an, die Radeon X1800 XL 512MB für einen Listenpreis von 299 Dollar. Mit der Radeon X1900 GT dürften diese Karten nunmehr wohl überflüssig werden und mittelfristig aus dem Angebot verschwinden: Mittelfristig deshalb, weil schon zum GeForce 7600/7600 Launch die Radeon X1800 XT 512MB aus dem offiziellen ATI-Lineup verschwand, nichts desto trotz aber weiterhin - zu teils sagenhaft niedrigen Preisen - verkauft wird ...
... Ob sich bei den nun wahrscheinlich aus dem offiziellen Lineup verschwindenden Radeon X1800 XT 256MB und Radeon X1800 XL 512MB Karten eine ähnlichen Entwicklung ergeben wird, bleibt natürlich abzuwarten: Die Radeon X1800 XT 256MB müsste schon erheblich unter den Preis der wie gesagt derzeit sehr günstig angebotenen 512-MB-Edition dieser Karte fallen, um ein wirklich attraktives Angebot zu bilden. Und bei der Radeon X1800 XL 512MB sehen wir aufgrund der recht moderaten Taktraten von 500/500 MHz das Problem eher von der Leistungsseite her: Diese Karte dürfte wohl trotz 16 Rendering-Pipelines nicht schneller sein als die 12-Pipelines-Karte Radeon X1900 GT, welche der älteren XL-Ausführung die höheren Taktraten sowie die bekannten drei Pixelshader-Einheiten pro Pipelines voraus hat.
News des 12. Mai 2006 |
Ein ziemlich erfrischendes Review der aktuellen HighEnd-Lösungen von ATI und nVidia haben Hard Tecs 4U abgefasst. Neben einer ausführlichen Besprechung der aktuellen Filter-"Optimierungen" beider Grafikchip-Entwickler führte man alle Benchmarks auf der jeweils höchstmöglichen Qualitätsstufe durch (Ausnahme: kein Area-AF bei ATI), um diese "Optimierungen" bestmöglich zu umgehen. Dabei ergaben sich auch - selten durchgeführte - Messungen mit ausgeschaltetem Catalyst A.I., welches die ATI-Karte im Test zwar nicht gerade erheblich zurückwarf, aber dennoch für einen recht ungefährdeten Sieg der nVidia-Karten sorgte. Dies resultiert aus dem Punkt, daß sich hinter ATIs A.I. nicht nur diverse Filter-"Optimierungen" verbergen, sondern auch Spiel-spezifische Fixes, welche ganz ohne der Opferung von Bildqualität für mehr Performance sorgen ...
... Als Beispiel sei hier ATIs Shader-Replacement für Doom 3 genannt, welches nach allgemeiner Meinung nicht die Bildqualität angreift. Teilweise verstecken sich hinter A.I. aber auch zwingend benötigte Spiele-Bugfixes, damit diese überhaupt bzw. mit halbwegs anständiger Performance auf ATI-Karten laufen (ähnliches gibt es auch bei nVidia, beide Grafikchip-Entwickler fixen mit dieser Methode grobe Fehler von Spieleentwicklern, falls es dafür keine andere Lösung gibt). Leider aber koppelt ATI die jederzeit heftig diskutierten Filter-"Optimierungen" mittels A.I. an die zwingend benötigten Spiele-Bugfixes, selbst die CrossFire-Spieleprofile sind unseres Wissens nach ohne aktiviertem A.I. nicht abrufbar, womit der Performancegewinn durch CrossFire erheblich abnimmt ...
... Was ein wunderhübsches Feigenblatt zugunsten von ATI bezüglich der Frage ergibt, wie man die eventuell unerwünschten Filter-"Optimierungen" ausschalten kann: Der User hat theoretisch schon die Wahl - und wird rein praktisch dann doch wieder zu einem aktivierten A.I. gezwungen, um nicht die ganzen Spiele-Bugfixes zu verlieren. Wenn ATI wirklich behaupten will, daß der Endkunde die Wahl hat, die ATI-Optimierungen auszuschalten, dann sollte diese Behauptung allerdings auf der Grundlage stehen, daß es dafür einen Schalter gibt, welcher ausschließlich für diesen Zwecke vorhanden ist - und nicht gleich alles mögliche andere mit ausschaltet, welches eigentlich noch benötigt wird.
Shortcuts: Nochmals Hard Tecs 4U berichten über eine in Japan aufgetauchte Adapterkarte, mit welcher sich PCI-Steckkarten in PCI Express Steckplätzen verwenden lassen. Golem berichten hingegen von einem Blendschutz für Notebooks - bestens geeignet für diejenigen, die sich im deutschen (oder sonstigen, wenn man nicht gerade auf der Südhalbkugel weilt) Frühsommer mit ihrem mobilen Gerät in die freie Natur setzen wollen. Gemäß den X-bit Labs soll die kommende für Quad-SLI gedachte DualChip-Grafikkarte GeForce 7950 GX2 zu einem Preis von 649 Euro antreten. Damit würde die Karte nicht viel teurer sein als zwei GeForce 7900 GT Karten - bei im übrigen ganz ähnlichen Taktraten (500/600 MHz für die GX2 gegenüber 450/660 MHz für die GT).
News des 10. Mai 2006 |
Laut DailyTech wird nVidia am kommenden Montag mit der GeForce 7300 GT eine weitere Grafikkarte für das LowCost bzw. untere Mainstream-Segment vorstellen. Obwohl der Verkaufsname eigentlich auf die Benutzung des G72-Chips (GeForce 7300 LE/GS) hindeutet, setzt nVidia für die GeForce 7300 GT den G73-Chip (GeForce 7600 Serie) ein. Der Grund dürfte primär darin liegen, daß der G72-Chip aus Kostengründen nur über ein 64bittiges DDR-Speicherinterface verfügt, dies aber für den mit der neuen Karte angepeilten Zielmarkt deutlich zu schwach sein dürfte. Der G73-Chip verfügt bekanntermaßen über ein 128bittiges DDR-Speicherinterface sowie über 12 Rendering-Pipelines - von welchen bei der GeForce 7300 GT allerdings nur 8 aktiviert sein werden, um einen Unterschied zur GeForce 7600 GS zu schaffen ...
... Gegenüber dieser soll die GeForce 7300 GT mit 375/333 MHz auch die etwas niedrigeren Taktfrequenzen (GeForce 7600 GS: 400/400 MHz) haben, ansonsten bleiben aber alle Features der G7x-Serie an Board, sogar SLI soll mit der GeForce 7300 GT möglich sein (wenngleich es weniger sinnvoll erscheint). Als Preispunkt sind zwischen 89 und 109 Dollar Listenpreis im Gespräch, wahrscheinlich differierend nach der jeweiligen Speicherausstattung. Damit geht die GeForce 7300 GT in preisliche Konkurrenz zur Radeon X1300 Pro (4 Rendering-Pipeline, 128 Bit DDR-Speicherinterface, 600/400 MHz, derzeitiger Straßenpreis ca. 80 Euro) bzw. zur Radeon X1600 Pro (4 Rendering-Pipeline mit allerdings jeweils drei Pixelshader-Einheiten pro Pipeline, 128 Bit DDR-Speicherinterface, 500/400 MHz, derzeitiger Straßenpreis ca. 90 Euro).
Das nächste für Foren-Betreiber relevante Urteil kommt vom Landgericht Düsseldorf: Wie der Heise Newsticker berichtet, haftet ein Foren-Betreiber nach der Ansicht dieses Gerichts auch bei mehrmaligen gleichartigen Rechtsverstößen durch Foren-Teilnehmer immer erst nach Kenntnisnahme des Rechtsverstoßes bzw. erst dann, wenn die entsprechenden Foren-Postings dann nicht umgehend entfernt werden. Eine Pflicht zur Vorprüfung von Foren-Beiträgen, um eventuellen Rechtsverstößen vorzubeugen, sah das Landgericht allerdings nicht - selbst dann nicht, wenn dieselben Rechtsverstöße wiederholt vorkommen. Allerdings betrachtet man den Foren-Betreiber als in solchen Fällen dazu verpflichtet, sein Forum zumindestens zu überwachen und weiteren Rechtsverstöße derselben Art somit bestmöglich vorzubeugen ...
... Hierbei wurde jedoch nicht ausgeführt, wie dies genau zu geschehen hat - ein nachträgliches Lesen aller von den Foren-Teilnehmern eingestellten Postings läuft auf denselben (unbewältigbaren) Arbeitsaufwand hinaus wie das vorherige Prüfen dieser Posting, so wie es das Landgericht Hamburg im Urteil gegen den Heise-Verlag gefordert hatte. Der einzig praktikable Weg scheint uns die Moderation von Foren zu sein, wo also die Teilnehmer selber rechtsrelevante Beiträge an die Moderation melden können - ob das jedoch der Intention des Landgerichts Düsseldorf entspricht, bleibt im Dunklen. Davon ganz abgesehen finden wir die Formulierung "ab Kenntnis des Rechtsverstoßes" (selbst wenn diese schon des öfteren Verwendung fand und wir auf nachfolgendes eben erst jetzt gekommen sind) noch ein paar weiterführender Gedanken wert ...
... Man spricht hier schließlich explizit von einem "Rechtsverstoß", nach den Regeln der deutschen Sprache kann es sich somit also nur um einen bewiesen, nicht aber einem nur vermuteten oder behaupteten Rechtsverstoß handeln. Die Frage ist, ob diese Auslegung auch gerichtsfest ist, denn dies würde einiges ändern: Denn in den wenigsten Fällen, wo irgendwelche Privatpersonen, Organisationen oder Firmen von Foren-Betreibern mit dem Hinweis auf einen angeblichen Rechtsverstoß um dessen Entfernung bitten, ist dieser zu diesem Zeitpunkt bewiesen. Die Foren-Betreiber befinden sich dadurch in der unglücklichen Lage, auf etwas reagieren zu müssen, was eigentlich nur den Status einer unbewiesenen Behauptung hat - dies aber unter dem Damoklesschwert, daß man sich eventuell haftbar macht, löscht man nicht umgehend und fordert erst einmal einen Beweis für diese Behauptung ...
... Damit kommt es dann in den meisten Fällen zur widerspruchslosen Löschung des nach wie vor rein angeblichen Rechtsverstoßes, was eigentlich nicht im Sinne von Recht und Gesetz sein kann. Würde man die Formulierung "ab Kenntnis des Rechtsverstoßes" nun aber im Sinne des Wortes auslegen, müssten Foren-Betreiber angeblich rechtsverletzende Beiträge eigentlich erst dann entfernen, wenn deren rechtsverletzender Charaker entweder gerichtsfest bewiesen oder durch vorhergehende gleichartige Fälle offensichtlich ist. Die Bringpflicht würde dann erst einmal bei demjenigen liegen, der die Behauptung aufstellt - was eigentlich eine absolute Selbstverständlichkeit der Rechtsfindung ist, im deutschen Internet-Recht (sofern das Flickenwerk, was es derzeit zweifellos ist, überhaupt eine solche Bezeichnung verdient hat) gegenüber Foren-Betreibern jedoch unverständlicherweise bis dato nicht umgesetzt wird.
News des 9. Mai 2006 |
Wer sich unseren Artikel zu Ageias PhysX bereits durchgelesen hat, dürfte schon ganz gut über den ersten Physikbeschleuniger am Markt informiert sein, ansonsten gibt es mit dem Fall des NDAs (an welches sich allerdings erstaunlicherweise einige englischsprachige Webseiten gleich um einige Tage nicht gehalten haben) zum frühen Morgen des 9. Mai genügend weiteren Lesestoff zum Thema. In der Summe der Artikel wird PhysX dabei ziemlich ähnlich bewertet wie wir dies bei unserem Artikel getan haben - im Augenblick ist dies keine sinnvolle Anschaffung, selbst dann nicht, wenn der Preis keine Rolle spielt ...
... Auffallend im Unterschied zu unserem Artikel ist aber, daß in vielen Artikeln der Performance-Einbruch durch PhysX speziell unter Ghost Recon: Advanced Warfighter nicht so deutlich gesehen bzw. gemessen wurde wie bei uns. Dies könnte natürlich auch daran liegen, daß in einem längerem Timedemo-Ablauf der Anteil an Szenen mit PhysX-Anteil relativ gesehen gering ist und somit die niedrigere Performance in PhysX-Szenen auf das Gesamtergebnis des Timedemos nicht so deutlich durchschlagen kann, als wenn man allein nur die PhysX-Szenen für sich selbst betrachtet und ausmißt. Weshalb aber PhysX ausgerechnet in diesen Szenen, wo es etwas für die Karte zu tun gibt, so dermaßen einbricht, ist derzeit sowieso noch ein heftig diskutiertes Rätsel ...
... Die Antwort auf diese Frage wird aber wohl erst in den nächsten Monaten gefunden werden können: Entweder schafft es Ageia, mit neuen Treibern, besserer Software-Anpassung oder möglicherweise auch einem nicht ganz so übertriebenen Einsatz zusätzlicher Physik-Elemente die Spielbarkeit von PhysX-Titeln (bei gleichzeitig trotzdem besserer Optik) zu gewährleisten - oder aber man wird von der Konkurrenz überrannt werden. Havok bastelt hier bekanntlich und maßgeblich promotet durch nVidia an der "Havok FX" Physik-Engine, welche die Physikberechnungen auf die Grafikkarte auslagern kann. Havok hat hierbei den großen Vorteil, durch die bisherige gleichnamige Physik-Engine bei vielen Spiele-Entwicklern schon einen Fuß in der Tür zu haben, zudem benötigt "Havok FX" im Gegensatz zum Ageia-Ansatz auch keine zusätzliche Hardware, sondern läuft auf gewöhnlichen Shader 3.0 Beschleunigern ...
... Auch ATI hatte schon mehr oder weniger im Vorbeigehen bekanntgegeben, daß man über solche Software-Lösungen nachdenkt - und wie gesagt würde Havok FX ja schließlich auch auf der Radeon X1000 Serie von ATI laufen. Zudem steht immer noch die Option im Raum, Microsoft könnte bei kommenden DirectX-Versionen einen Software Physik-Beschleuniger einbauen, der dann ebenfalls die Last auf die Grafikkarte verlagern würde. Natürlich muß klar gesagt werden, daß jegliche Verlagerung von zusätzlichen Berechnungen auf die Grafikkarte deren fps-Raten zwingend nach unten drücken wird, außerdem sind die aktuellen Shader-Prozessoren von Grafikkarten eigentlich wenig für diese Art von Berechnungen geeigent, welche für aufwändige Physik eingesetzt werden ...
... Dafür besitzen alle Software-Lösungen, die sich der Rechenleistung von Grafikkarten bedienen, wie gesagt den Vorteil, daß sie kein Henne-Ei-Problem wie Ageia haben: Die Hardware ist beim Endkunden (in Form der Grafikkarten) schon da, es muß also "nur" noch die Software angepasst werden. Ageia hingegen müsste selbst bei durchschlagender Wirkung von PhysX immer erst einmal ein paar hunderttausend Karten verkaufen, ehe man eine gewisse Basis an installierten Systemen vorzuweisen hätte. Dieses Ziel kann für Ageia aber nur dann erreicht werden, wenn man eine deutlich bessere Physik als die Software-Lösungen zu einer dadurch nicht deutlich sinkenden Performance anbieten kann - man hat ja schließlich im Gegensatz zu den Software-Lösungen dedizierte Hardware. Wer diesen Wettstreit letztlich gewinnen wird, ist derzeit noch kaum abzusehen - und demzufolge besser in aller Gelassenheit abzuwarten.
neuer Artikel |
Seit einigen Monaten "kurz vor dem Release" stehend, kommen nun endlich die ersten Retail-Boards auf Basis von Ageias PhysX Physikbeschleunigerchip in den Markt. Damit wird die Physikberechnung erstmalig (von der CPU) auf eine extra dafür ausgelegte Hardware ausgelagert, womit in erster Linie deutlich aufwändigere und realistischere Physik-Engines in zukünftigen Spielen ermöglicht werden. Was die PhysX-Karte von BFG Tech heute zum Launch-Tag leisten kann, dem geht unser Review nach ... zum Artikel
News des 8. Mai 2006 |
Weitere Artikel zur aktuellen Quad-SLI Lösung von nVidia, der GeForce 7900 GX2 DualChip-Grafikkarte, gibt es bei Bit-Tech, der FiringSquad sowie Tom's Hardware Guide. An der generellen Aussagen ändert sich allerdings nichts, Quad-SLI ist derzeit zumeist nicht ausreichend schneller als normales SLI auf Basis zweier GeForce 7900 GTX Grafikkarten, außer man setzt auf Auflösungen wie 1920x1200 oder 2560x1600. Zudem berichten alle drei Seiten übereinstimmend von einigen Problemen unter Quad-SLI, angefangen von Bildfehlern über Programmabstürze bis hin zu System-Crashes - hier liegt offenbar noch viel Treiberarbeit vor nVidia, bevor Quad-SLI überhaupt anständig stabil läuft.
Wie u.a. Hard Tecs 4U (inklusive Bilder der entsprechenden Logos) berichten, werden die kommenden Prozessoren auf Basis der Intel Core-Architektur den äußerst einfallsreichen Verkaufsnamen "Core 2" tragen. Dazu gibt es als Anhängsel ein "Duo" für einen gewöhnlichen DualCore-Prozessor sowie ein "Extreme" für die beliebten überteuerten Extreme-Versionen, SingleCore-Prozessoren scheinen offensichtlich gar nicht mehr geplant zu sein. Die Namenswahl ist im übrigen identisch für die Prozessoren des Mobile- und des Desktop-Segments, obwohl hierbei jeweils unterschiedliche Prozessor-Kerne (Merom bzw. Conroe) zum Einsatz kommen werden.
Ein einmal mehr deutlich niederschmetterendes Performance-Preview des Sockel AM2 bzw. der darauf basierenden AMD-Prozessoren gibt es bei t-break, hierbei verlor der Sockel-AM2-Prozessor unter den Spielebenchmarks gar 9 Prozent auf den Sockel-939-Prozessor. Mittlerweile drängt sich fast der Verdacht auf, daß bei den Sockel-AM2-Prozessoren irgendetwas noch generell im argen liegt, da DDR2/800 (selbst auf höheren Timings) eigentlich unmöglich langsamer sein kann als das bisher benutzte DDR400. Bleibt nur zu hoffen, daß AMD dies bis zum offiziellen Launch der neuen Prozessoren noch fixen wird können - die momentan verbreiteten Benchmarks basieren natürlich auf Vorab-Exemplaren, müssen also nicht die Performance des Serien-Produkts wiedergeben.
Golem berichten über die nahende Marktreife einer Hybrid-Festplatte seitens Samsung namens "Windows ReadyDrive". Gegenüber einer herkömmlichen Festplatte verfügt die Hybrid-Festplatte als zusätzlichen Cache über 1 GB Flash-Speicher, welcher dazu dient, die eigentliche Festplatte zu entlasten. Dazu wird erst einmal ausschließlich nur mit dem Flash-Zwischenspeicher gearbeitet - die reguläre Festplatte springt erst an, wenn dessen Kapazität erreicht ist. Samsung will hierbei erreichen, daß die reguläre Festplatte nur zwischen 30 und 45 Sekunden in einer ganzen Stunde wirklich dreht, die restliche Zeit aber im Ruhemodus schlummert. Damit wird natürlich die Lebensdauer der mechanischen Teile verlängert und vor allem der Strombedarf erheblich reduziert, womit die Hybrid-Festplatte von Samsung auch vorwiegend für den Einsatz in mobilen Geräten gedacht ist ...
... Als zweites Feature will man die Boot-Zeiten von Windows Vista erheblich reduzieren können - wobei man sich mit Erklärungen zur technischen Realisierung dieses Features noch zurückhielt. Allerdings soll es die Hybrid-Festplatten sowieso erst zum Launch von Windows Vista zu kaufen geben, inwiefern auch Windows XP von diesen neuartigen Festplatten profitieren kann, ist bislang noch nicht bekannt. Etwas ziemlich ähnliches hat im übrigen auch Intel mit der Robson-Technologie in peto, wobei hier der zusätzliche Flash-Speicher auf dem Mainboard angebracht werden soll. Interessanterweise ist aber auch Robson primär für mobile Geräte gedacht und soll 2007 mit der "Santa Rosa" Mobile-Plattform von Intel seine erste Anwendung finden.