News-Archiv 28. November - 4. Dezember 2005 (48. Kalenderwoche)
3./4. Dezember 2. Dezember 1. Dezember 30. November 29. November 28. November
News des 3./4. Dezember 2005 |
Eine größere Verwirrung gibt es derzeit um die GeForce 7800 GS, die geplante 16-Pipelines-Karte auf Basis des G70-Chips von nVidia. Denn während die einen berichten, die Karte würde definitiv nicht kommen, wollen dies andere nur für die PCIe-Version so sehen und ganz andere Meldungen gehen schließlich sogar davon aus, daß es die GeForce 7800 GS weiterhin geben wird - nur eben nicht für den Retail-Markt. Daß es die Karte vollständig nicht geben wird, können wir uns eigentlich nicht vorstellen, schließlich gab es für diese schon einmal einen Eintrag in einem Beta-Treiber von nVidia. Insofern erscheint uns derzeit die Variante, daß es die GeForce 7800 GS nicht für den Retail-, jedoch für den OEM-Markt geben wird, als die wahrscheinlichste - die beiden anderen Auflösungen sind damit jedoch mitnichten ausgeschlossen.
TweakPC berichten vom aktuell laufenden Preissturz bei Grafikkarten der Radeon X800 Serie. So fallen viele ehemalige HighEnd-Grafikkarten wie die Radeon X800 XT nun auf ein Niveau von deutlich unter 300 Euro, womit diese schon in Richtung des Mainstream-Segments tendieren und den dort eigentlich plazierten Karten der neuen Radeon X1600 Serie das Leben schwer machen dürften. Ganz nebenbei ergeben sich damit auch noch vernünftige Aufrüstmöglichkeiten für AGP-User, schließlich ist die "alte" ATI-Serie bis hinauf zur Radeon X850 XT-PE noch auf AGP erhältlich (bei nVidia bis zur GeForce 6800 Ultra).
Nochmals TweakPC berichten von weiteren Preisstürzen - diesesmal bei der Radeon X1800 Serie. So sollen nach Weihnachten die Preise in etwa folgendermaßen sinken: Bei der Radeon X1800 XL vom US-Listenpreis 449 Dollar auf dann 299 Euro, bei der Radeon X1800 XT 256MB vom US-Listenpreis 499 Dollar auf 399 Euro und bei der Radeon X1800 XT 512MB vom US-Listenpreis 549 Dollar auf 499 Euro. Allerdings sind diese Karten hierzulande meistens sowieso schon etwas günstiger als für die US-Listenpreise zu haben, insofern ist der Preisnachlaß nicht ganz so groß, wie er auf den ersten Blick erscheint. Diese Preisabsenkung könnte im übrigen die durchaus die Einführung des R580-Chips ankündigen, dessen Launch laut Informationen der DigiTimes noch im Januar 2006 zu erwarten ist.
Bei Hot Hardware gibt es einen weiteren Artikel samt Benchmarks zur S3 Chrome S27 Grafikkarte. Interessanterweise wurde die Karte dabei gegen GeForce 6600 und auch GeForce 6600 GT getestet, wobei S3 als Chrome-S27-Konkurrenz eher die "normale" GeForce 6600 sieht und das auch vom Preisgefüge her der passendere Vergleich ist. Nichts desto trotz kann die Chrome S27 ohne Anti-Aliasing bzw. den anisotropen Filter ganz gut mit der GeForce 6600 GT mithalten: Sie kann die teurere nVidia-Karte zwar nicht übertrumpfen, liegt aber zumeist nur wenige Prozentpunkte hinter dieser, während der eigentliche Konkurrent GeForce 6600 klar überflügelt wird ...
... Mit 2x Anti-Aliasing und 8x anisotropen Filter, was bei der GeForce 6600 GT in vielen Spielen sicherlich ein noch gangbares Setting ist, fällt die Chrome S27 allerdings deutlich zurück, sogar unterhalb die Werte einer GeForce 6600. Messungen allein mit aktiviertem anisotropen Filter haben Hot Hardware nicht angestellt, aber es steht zu vermuten, daß für dieses Resultat in erster Linie die technische Ausführung des Anti-Aliasings bei S3 als Supersampling Anti-Aliasing verantwortlich ist, welches bekanntlich gegenüber Multisampling Anti-Aliasing deutlich leistungsfressender ist. Insofern fällt das Bild etwas zweigeteilt aus: Ohne Anti-Aliasing ist die Chrome S27 in der Tat schneller als die aktuelle Konkurrenz-Karte von nVidia, mit Anti-Aliasing kehrt ist das Bild deutlich um.
Wie inzwischen allgemein bekannt sein dürfte, gilt in den EU-Mitgliedsstaaten Deutschland und Österreich das Verbot des Umgehens von Kopierschutzmaßnahmen. Interessanterweise ergibt sich jedoch aus der Ablehnung einer Klage gegen diese neue Rechtslage vor dem bundesdeutschen Verfassungsgericht eine neue Facette in dieser Angelegenheit: Und zwar lehnte das Verfassungsgericht die Klage gegen das Kopierschutz-Umgehungsverbot mit der Begründung ab, daß dieses Verbot keine Strafandrohung enthält. Daraus ergibt sich faktisch die Situation, daß das Umgehen eines Kopierschutzes in Deutschland zwar verboten ist, jedoch - so lange keine andere Gesetze wie beispielsweise das Urheberrechtsgesetz verletzt werden - toliert wird ...
... Damit kann beispielsweise einem Anwender, welcher unter Mißachtung des Kopierschutz-Umgehungsverbots für seine legal erworbenen Datenträger oder auch Musikdateien Sicherheitskopien anfertigt, niemand etwas - auch nicht die Kontentindustrie (MAFIA), so lange es sich wie gesagt um legal erworbene Software bzw. Musik- und Filminhalte handelt. Davon unberührt bleibt allerdings das geltende Verbot der Herstellung und Verbreitung von Kopierschutz umgehenden Werkzeugen bzw. Programmen, dies wird definitiv nach auch mit Strafandrohung verfolgt bzw. ist auch relevant bezüglich Schadensersatzforderungen der Kontentindustrie, da Anbietern solcher Programme regelmäßig von MAFIA-Anwälten vorgerechnet wird, wieviel (theoretischer) Schaden mit diesen möglich ist.
Shortcuts: Der Spiegel berichtet bezüglich des grandios gescheiterten XCP-Kopierschutzes von Sony, daß Sony schon einen Monat vor Bekanntwerden der Angelegenheit seitens des Antiviren-Herstellers F-Secure auf die Problematik aufmerksam gemacht wurde. Seinerzeit entschloß sich Sony jedoch, durch Hinhalten und Kleinreden die Sache unter den Tisch zu kehren - mit den bekannten Auswirkungen ;). Bei Hartware gibt es Einblicke in das "Tagebuch eines Grafikkartentesters", wobei die dort aufgeführten Ereignisse sicherlich noch nicht einmal die Spitze des Eisberges darstellen, dafür aber jedoch teilweise auch auf andere Hardware-Branchen zutreffen. Und letztlich haben Technolgy Review noch einen recht interessanten Beitrag zum Internet2, welches uns in den nächsten 5 bis 10 Jahren erreichen dürfte.
News des 2. Dezember 2005 |
The Inquirer bringen mal wieder eine Nachricht über die addressierbare Speichergrößen von Grafikchips - diesesmal wurden die nVidia-Chips NV40 & G70 "entlarvt", bis zu 2 GB Grafikkartenspeicher unterstützen zu können, was dem technisch interessierten Anwender allerdings schon viel länger bekannt war. Ausnahmsweise haben The Inquirer diesesmal nicht - wie in der Vergangenheit bei ATI-Karten geschehen - gleich eine Story draus gestrickt, nVidia würde nun 2-GB-Grafikkarten planen, denn solcherart Meldungen sind keine Angabe über Planungen der Hersteller, sondern allein über technische Machbarkeiten ...
... Und diese technischen Machbarkeiten legen beide Grafikkarten-Entwickler bei der addressierbaren Speichermenge gewöhnlich großzügig aus, schließlich benutzt man dieselben Grafikchips auch für professionelle Grafikbeschleuniger, wo 2 GB Grafikspeicher durchaus nicht selten sind. Diese rein technischen Möglichkeiten können nun jedoch keineswegs die Grundlage für Spekulationen über ähnliche Grafikkarten für den Consumer-Markt darstellen. Dort wird erst einmal mittelfristig der Sprung auf 512 MB Grafikkartenspeicher erfolgen - und erst nach dem dieser mehrheitlich durch ist, werden sich erste Grafikkarten mit 1 GB Grafikkartenspeicher blicken lassen, was aber wiederum sicherlich nicht vor dem Jahr 2007 der Fall sein dürfte.
Wie u.a. die altehrwürdige ;) Tagesschau berichtet, haben sich die EU-Justizminister nun bezüglich der geplanten Speicherung von Telefon- und Internetverbindungsdaten geeinigt. Die beschlossene Regelung ermöglicht den EU-Mitgliedsländern, die erhobenen Daten zwischen mindestens 6 und maximal 24 Monaten zwischenzuspeichern. In Deutschland wird es nach den Worten der Justizministerin wohl zu einer 6monaten Speicherungsfrist kommen, ähnliches dürfte für Österreich gelten, welche beides zu den EU-Mitgliedsstaaten zählen, welche der generellen Speicherung von Telefon- und Internetverbindungsdaten eher skeptisch gegenüberstehen ...
... Allerdings muß auch klar gesagt werden, daß es sich bei den zu speichernden Daten keineswegs um Gesprächsinhalte oder andere jegliche Inhalte, sondern allein um Zugangsdaten handelt. Konkret bedeutet dies: Für Telefonate inlusive SMS wird mitgeloggt, wer wann mit wem gesprochen hat, bei der Mobil-Telefonie werden zusätzlich auch Standort-Informationen gespeichert. Erfolglose Verbindungsversuche können dabei je nach EU-Mitgliedsland mitgeloggt werden, in Deutschland wird dieses jedoch wohl entfallen. Für das Internet gilt, daß zwischengespeichert wird, wer sich wann unter welcher IP-Adresse eingeloggt hat. Vom Surfer besuchte URLs werden jedoch nicht mitgeloggt, dies fällt unter "Inhalte", die wie gesagt prinzipiell nicht gespeichert werden ...
... Zudem werden bezüglich des Internets noch Zugangsdaten über Internet-Telefonie (wie beim herkömmliche Telefon: wer wann mit wem) sowie über eMails (dito: wer wann an wen Mails gesandt hat, jedoch keine Mailinhalte) mitgeloggt - wobei dies allerdings Punkte sind, die der Nutzer durchaus umgehen kann. Denn die Internet-Telefonie läßt sich nur abhören, wenn es sich um Internet-Telefonie à Telekom etc. handelt, welche also weiterhin Hardware- und Rufnummern-basiert ist und nur das Internet als günstigeren Übertragungsweg nutzt. Reine Software-Lösungen wie Skype sind dagegen erst einmal nicht abhörbar, da hier kein Kommunikations-Anbieter existiert, wo der Staat ansetzen könnte ...
... Indirekt gilt gleiches für eMail, wenn man einen eigenen Server inklusive eigenem Mailserver besitzt (beispielsweise über die eigene Webseite). Zur Überwachung des Mailverkehrs wird der Staat zwar prinzipiell erst einmal bei allen Mail-Anbietern ansetzen, jedoch wird es dort sicher (wie schon aktuell) Ausnahmeregelungen für Kleinstanbieter geben. Davon abgesehen dürfte der privat gemietete Server mit eigenem Mailserver für allein die private Post noch lange Zeit unter dem Radar des Staates durchrutschen, da dessen Technik-Kenntnis regelmäßig 5 bis 10 Jahre hinter dem aktuellen Stand zurückliegt ;). Und letztlich wäre immer noch ein Miet-Server im nicht-EU-Ausland eine narrensiche Möglichkeit, der eMail-Überwachung zu entkommen. Nicht mit geschafft in die EU-weite Regelung hat es im übrigen eine Überwachung von Chat-Räumen, diese wäre aber womöglich technisch gar nicht so einfach realisierbar gewesen ...
... Interessant wird es bei der Frage der Kosten: Allein die zur Zwischenspeicherung der auf Generalverdacht erhobenen Daten notwendigen Datenspeicher dürften Hunderte Millionen Euro kosten. In Österreich wird dies wohl wie bisher der Staat übernehmen, in Deutschland sträubt sich die Politik vehement dagegen. Innenminster Schäuble bezeichnete es gar als "staatsbürgerliche Pflicht" der Firmen, die Kosten der allgemeinen Überwachung zu berappen. Vielleicht sollte sich der Minster mal am offensichtlichen Vorbild der ostdeutschen Stasi ein Beispiel nehmen, die bezahlte ihre Spitzel für deren Tätigkeit wenigstens noch. Aber wahrscheinlich wollte der Minister auch einfach nur auf die "neuen Freiheiten" laut der Regierungserklärung hinaus: Die Freiheit des Staates, den Bürger zu überwachen, ohne das dies erklärter Wille der Bürgergemeinschaft wäre - und dem Bürger dann auch noch die Kosten dafür in Rechnung zu stellen, ganz so wie man in China den Hinterbliebenen des zum Tode Verurteilten die Patrone in Rechnung stellt ;).
Shortcuts: Der Heise Newsticker berichtet über den Europa-Launch der Xbox 360. Interessant ist dort u.a. der Punkt der Lautstärke, unter Last ging es bis auf 3,8 Sone hinauf, was einem lauten PC gleichgesetzt werden kann und auch deutlich überhalb der ersten Xbox (1,6 Sone) liegt. The Inquirer berichten hingegen über einen neuen Mobile-Grafikchip, den ATI M56, welcher die Mobile-Abwandlung des RV530 (Radeon X1600 Serie) darstellen soll. Der Planet 3DNow! berichtet über ein erstes Mainboard auf Basis von ULis M1697-Chipsatz, welches erstaunlicherweise von Abit kommt. Und letztlich vermelden The Register die beim Yonah DualCore Mobile-Prozessor geplanten (anfänglichen) Taktfrequenzen, die von 1.66 bis 2.16 GHz reichen sollen. Dazu wird es im übrigen noch eine SingleCore-Variante des Yonah auf 1.66 GHz geben.
News des 1. Dezember 2005 |
Wie das ChromeCenter berichtet, scheint S3 Graphics nun wenigstens einen ersten Abnehmer ihrer neuen Chrome S2X Grafikchips gefunden zu haben, da der taiwanesische Grafikkarten-Hersteller Digicool angekündigt hat, entsprechende Karten in sein Segment aufzunehmen. Der hierzulande eher unbekannte Hersteller arbeitet auch mit ATI und nVidia zusammen, hatte aber auch schon Grafikkarten mit GammaChrome S18 Grafikchip im Angebot und gilt als Zulieferer für die im S3-Shop angebotenen Grafikkarten. Allerdings agierte Digicool bisher ausschließlich in Nordamerika und Asien, ein regulärer Bezug von Chrome-S2X-Grafikkarten in Europa ist also nach wie vorn nicht gesichert.
Nachdem der ATI RV560 Chip nun noch weitere Male genannt wurde, tendieren wir nun eher dazu, daß dies kein Schreibfehler in Bezug auf den RV506 gewesen sein und dieser Mainstream-Chip tatsächlich existieren dürfte. Die VR-Zone spekuliert beim RV560 im übrigen in Richtung eines 256bittigen DDR-Speicherinterfaces, was womöglich sogar zutreffen könnte: So bietet nVidia im oberen Mainstream-Segment derzeit ausschließlich Abwandlungen früherer HighEnd-Grafikchips an - mit 256bittigem DDR-Speicherinterface, während die GeForce 6600 Serie mit ihrem 128bittigem DDR-Speicherinterface klar ins untere Mainstream-Segment abgerutscht ist ...
... ATIs neue Mainstream-Serie Radeon X1600 bietet dagegen nur ein 128bittiges DDR-Speicherinterface, wenn auch dafür mit meistens sehr hohen Speichertakten. Aber hohe Speichertakte bei Karten des LowCost- und Mainstream-Segments deuten gewöhnlich darauf hin, daß ein größeres Speicherinterface unmmittelbar bevorsteht, da in diesem Marktsegmenten die Benutzung wirklich hoch getakteter Speicherbausteine relativ gesehen zu stark auf den Preis der Grafikkarten schlägt. Insofern wäre es nicht verwunderlich, wenn ATI mit dem RV560 das 256bittige Speicherinterface zum neuen Maßstab im Mainstream-Segment macht. Diese dürfte dann im übrigen auch die Weiterentwicklung der im HighEnd-Segment üblichen Speicherinterfaces vorantreiben, womöglich gibt es also schon mit den Shader 4.0 Grafikchips 512bittige DDR-Speicherinterfaces im HighEnd-Segment ...
... Zu weiteren möglichen Änderungen des RV560 gegenüber dem aktuellen RV530 ist nichts bekannt - und möglich ist dort alles: Daß ATI an den Pipelines alles so läßt wie bekannt, oder auch, daß ATI dem RV560 mehr Pipelines bzw. mehr Textureneinheiten spendiert (der RV530 hat 4 Pixel-Pipelines mit jeweils dreifach ausgelegten Shader-Einheiten, was dann oftmals als 12-Pipeline-Design bezeichnet wird). Gleiches gilt aber auch für nVidias kommenden neuen Mainstream-Grafikchip G73: Außer dem Punkt, daß nVidia damit die pro MegaHertz und Pipeline klar leistungsfähigere G70-Technik ins Mainstream-Segment bringen wird, gibt es derzeit weder Informationen über geplante Pixel-Pipelines noch das Speicherinterface beim G73-Chip.
News des 30. November 2005 |
Wie Hard Tecs 4U berichten, kommt aus Fernost die Kunde von einer GeForce 7800 GS auf AGP, womit es endlich mal wieder eine neue AGP-Karte geben würde. Allerdings dürfte die GeForce 7800 GS bei Erscheinen schon kaum noch dem HighEnd-Segment zugeordnet werden können, schließlich ist diese G70-basierende Karte auf 16 Pixel-Pipelines und Taktraten von 375/500 MHz beschränkt. Nach den Vorab-Informationen seitens AnandTech liegt die Leistung nahe einer Radeon X1800 XL, dementsprechend also nicht wirklich schneller als eine GeForce 6800 Ultra - und diese gibt es schließlich schon seit über einem Jahr auf AGP. Insofern scheint sich hier auch bei nVidia zu bestätigen, daß die Grafikkarten-Hersteller keine neuen HighEnd-Karten auf AGP mehr planen, sondern nur noch Mainstream-Grafikkarten auf AGP herausbringen.
Wiederum AnandTech haben einen ersten Artikel mit Benchmarks zu Intels Yonah Prozessor anzubieten, welcher ab Anfang des kommenden Jahres als erster DualCore-Prozessor des Mobile-Marktes jenen betreten wird. Grob betrachtet stellt Yonah im Prinzip den Verbund zweier Dothan-Prozessoren dar, allerdings werden sich die beiden Cores den weiterhin zum Dothan gleich großen Level2 Cache von 2 MegaByte teilen müssen. Zudem steigt der FrontSideBus (von FSB533) auf FSB667, außerdem bekommt Yonah die Virtualisierungs-Technologie Vanderpool mit. Der vielleicht wichtigste Punkt zwischen Yonah und Dothan stellt allerdings die erreichbaren bzw. geplanten Taktfrequenzen dar ...
... Denn während bei den DualCore-Varianten des Pentium 4 die Taktfrequenzen der DualCore-Modelle unterhalb der SingleCore-Modelle liegen, will Intel mit Yonah die Taktfrequenzen weiter steigern: Gibt es den Dothan-Core bisher auf maximal 2.13 GHz (2.26 GHz waren eigentlich noch geplant), so soll der Yonah-Core gleich mit 2.33 GHz einsteigen. Selbst wenn es anfänglich nur 2.0 GHz werden wie bei AnandTechs Vorab-Sample, so geht die Reise danach auf jeden Fall in höhere Taktgefilden, gestützt durch die 65nm Fertigung. Hier zahlt sich die Stromsparsamkeit der Pentium M Prozessoren deutlich aus: Denn während das DualCore-Modell eines (als SingleCore) 25 Watt verbrauchenden Prozessors wie Dothan von der Verlustleistung her eben jederzeit unkritisch ist, geht das selbe Beispiel bei einem nahezu 100 Watt ziehenden Pentium 4 eben schon deutlich in Richtung technischer Grenzen ...
... Allerdings hat auch der Yonah-Core mit dem allgemeinen Problemen von DualCore-Prozessoren zu kämpfen: In unoptimierten Benchmarks kommt der zweite Core nicht zum Einsatz, womit allein die Taktfrequenz zählt - und wenn diese niediger als beim SingleCore-Prozessor liegt, dann verliert der (modernere) DualCore-Prozessor auch gegen diesen. Da sich dieses Bild bei vielen Anwendungen (u.a. Spielen) kurz- und mittelfristig nicht so schnell ändern wird, können die Prozessoren-Hersteller dies nur mit gesteigerten Taktfrequenzen der DualCore-Prozessoren auffangen - was aber wie gesagt beim Yonah-Core schon so geplant ist ...
... Von dieser prinzipiellen Problematik im Vergleich zu SingleCore-Prozessoren abgesehen haben AnandTech den Yonah-Core noch gegen einige DualCore-Prozessoren getestet: Athlon 64 X2 3800+ mit 2.0 GHz Takt und 2x 512 kB Level2 Cache, Athlon 64 X2 4200+ mit 2.2 GHz Takt und gleichem Cache sowie Pentium D 830 mit 3.0 GHz Takt und 2x 1 MB Level2 Cache, ergo allesamt aktuelle Mittelklasse-Prozessoren. In dieses Feld fügte sich der Yonah mit 2.0 GHz Takt und 1x 2 MB Level2 Cache von der Performance her nahtlos ein, auffallend war zudem, daß die Spiele-Performance eher in Richtung der AMD-Prozessoren als in Richtung des (diesbezüglich zurückhängenden) Pentium D Prozessors tendierte. Dies gibt Intel sicherlich Hoffnung für die bekanntermaßen aus dem Pentium M entwickelte kommende neue Intel Prozessoren-Architektur, auf das diese den derzeitig klaren Rückstand der Intel-Prozessoren unter Spielen eventuell aufholen kann.
Der Heise Newsticker berichtet über eine Studie, nach welcher der europäische Musikindustrie eine sogenannte "demografischer Zeitbombe" droht, wenn es dieser nicht gelänge, die derzeit nicht kaufenden, sondern eher tauschenden Jugendlichen zum legalen Kauf von Musik zu bekehren - weil ab einem gewissen Alter der Konsumenten zu erwarten wäre, daß diese dann bei ihren bisherigen Gewohnheiten bleiben würden, womit der Musikindustrie kaufkräftige Konsumentengruppen dauerhaft ausfallen würden. Herausgefunden hat man dies mit der schlichten Tatsache, daß nur 5 Prozent der europäischen Verbraucher derzeit legale Download-Plattformen im Internet nutzen, 15 Prozent hingegen ihre Musik über Filesharing-Netze "beziehen" ...
... Ob die Studie in diesem Punkt allerdings richtig durchdacht ist, wäre zu bezweifeln, denn sie befasst sich allein nur mit den Online-Gewohnheiten. Doch hier sind die Möglichkeiten für einen legalen Musik-Kauf in Europa nach wie vor arg begrenzt: Während in den Staaten gleich ein Dutzend Anbieter um die Gunst der Kunden buhlen, gibt es in Europa nur wenige aktive Player, die ihre Kundschaft zudem mit umständlichen DRM-Maßnahmen vergraulen. Zudem läßt die Zerstückelung Europas unter den Verwertungsgesellschaften (pro EU-Land eine) derzeit einen EU-weiten Musik-Onlinemarkt nicht zu, da ein EU-weites Download-Portal den Segen von 25 nationalen Verwertungsgesellschaften bräuchte ;). Somit ist es derzeit weder auf Anbieter- noch auf Verbraucher-Seite möglich, jene Vorteile zu nutzen, welche ein einheitlicher Markt mit mehr als 450 Millionen potentiellen Teilnehmern eigentlich bringen sollte ...
... Daß in einer solchen Situation die Umsätze im legalen Online-Musikmarkt in Europa eher kümmerlich (gerade im Vergleich zu Amerika) sind, sollte klar sein - viele kaufwillige Nutzer dürften in unseren Breitengraden schlicht weiterhin die herkömmliche CD bevorzugen, weil entsprechende Online-Angebote keine wirkliche Alternative darstellen. Und letztlich hat dann die vorgenannte Studie doch wieder recht: Gelingt es der Musikindustrie nicht baldigst, der Online-Generation auch einen Online-Markt für Musik zur Verfügung zu stellen, welcher des Namens auch wirklich würdig ist, dann könnte eine ganze Generation "verloren" für jegliche legale Angebote sein. Aber dieses Problem löst man dann auch sicher nicht mit halbseidenen Kampagnen, sondern nur mit echten Angeboten.
News des 29. November 2005 |
Bei der FiringSquad hat man sich damit beschäftigt, wie die neuen HighEnd-Grafikkarten unter Quake 4 abschneiden. Als erstes fällt dabei auf, daß der seitens ATI mit dem Catalyst 5.11 eingeführte Performance-Boost unter OpenGL auch speziell unter Quake 4 für eine ordentliche Mehrperformance im Bereich von 25 bis 50 Prozent sorgt. Dies sorgt dann letztlich dafür, daß die Radeon X1800 XT unter Quake 4 knapp vor der "normalen" GeForce 7800 GTX liegt. Die 512-MB-Version der letztgenannten Karte dürfte dann allerdings wieder die Führung übernehmen, wurde aber in diesem Artikel nicht mitgetestet. Im Bereich der "alten" HighEnd-Karten um Radeon X800 XT-PE und GeForce 6800 Ultra liegt im übrigen zumeist nVidia etwas vorn, allerdings sind dort die Abstände in den meisten Fällen sehr gering.
In einem weiteren Artikel der FiringSquad hat man sich dann noch die Performance von HighEnd-Grafikkarten unter Call of Duty 2 angesehen. Basierte der Vorgänger noch lose auf der Engine von Quake III Arena (wenn auch grafisch deutlich aufgewertet), wurde für CoD2 eine eigene DirectX9-Engine entwickelt. Diese schraubt die Anforderungen an die Hardware in von Vorgänger ungewohnte Höhen, beispielsweise ergibt sich unter CoD2 auch erstmals ein deutlicher Unterschied zwischen 256- und 512-MB-Grafikkarten: Mit der höchsten Texturenstufe samt 4xAA und 8xAF sind dies auf einer Radeon X800 XL unter 1024x768 stattliche 44 Prozent Differenz ...
... Dies kann man schon durchaus einen Dimensionsunterschied nennen - wahrscheinlich ist jene 512-MB-Version der Radeon X800 XL damit noch deutlich schneller als eine Radeon X800 XT-PE mit gewöhnlichen 256 MB Grafikkartenspeicher. Allerdings ist es wohl noch etwas verfrüht, hiermit das Ende der 256-MB-Grafikkarten einzuläuten, schließlich ist CoD2 nur ein Spiel - und andere Spiele zeigen derzeit mitnichten größere Performance-Unterschiede zwischen 256- und 512-MB-Grafikkarten. Allerdings ist dieser Punkt weiterhin zu beachten, denn sollten sich in der Zukunft ähnliche Spiele einstellen, so würden 256-MB-Grafikkarten erheblich ins Hintertreffen geraten ...
... Doch damit zurück zur allgemeinen Performance von Call of Duty im ewig neuen Wettstreit ATI vs. nVidia: Die Ergebnisse fallen ähnlich aus wie schon zuvor bei Quake 4 - die Radeon X1800 XT liegt leicht vor der GeForce 7800 GTX, der Abstand ist jedoch gering genug, daß die (nicht mitgetestete) 512-MB-Version der GeForce 7800 GTX die Radeon X1800 XT locker übertrumpfen sollte. Bei den "älteren" HighEnd-Karten ergibt sich wiederum ein Bild mit sehr ähnlichen Frameraten, ebenfalls ähnlich zu Quake 4 liegen hier die "älteren" nVidia-Karten zumeist wenige Punkte vor den "älteren" ATI-Karten.
Und letztlich haben sich AnandTech die aktuellen HighEnd-Grafikkarten unter F.E.A.R. angesehen, einem der derzeit sicherlich Hardware-fordernsten Spiele. Als erstes einmal haben sich AnandTech mit dem vom Game gebotenen "Soft Shadow" Feature beschäftigt: Dieses erzeugt einen erheblichen Performance-Hit, bringt aber (in diesem Spiel) leider nicht die gewünschten soften Schatten hervor, sondern eher nur ein schlechteres Bild (schwer zu erklären, die Screenshots bei AnandTech sagen da mehr aus), insofern wurde es für die Performance-Tests deaktiviert. Allerdings zeigte sich das Spiel auch ohne Soft Shadows sowie ohne AA/AF als wahrer Performance-Fresser - und behält seine von der Demo schon bekannte Vorliebe für nVidia-Grafikkarten bei ...
... Denn während es bei ATI für die Auflösung von 1024x768 schon mindestens eine aktuelle Mainstream-Grafikkarte sein sollte, reicht bei nVidia auch eine "ältere" Mainstream-Grafikkarte vom Schlag einer GeForce 6600 GT. Für ein Spielen unter 4x Anti-Aliasing samt 8x anisotropen Filter braucht man bei F.E.A.R. dagegen schon klar ein Top-System: Überhalb von 30 fps (nur im Durchschnitt wohlgemerkt) kommen hier nur noch Radeon X1800 XL und höher sowie GeForce 6800 GT und höher unter der Auflösung von 1024x768, bei 1280x1024 muß es mindestens eine Radeon X1800 XL oder eine GeForce 7800 GT sein. Leider wurden die "älteren" HighEnd-Grafikkarten von ATI nicht mitgestetet, es steht aber zu vermuten, daß auch Radeon X800 XT und XT-PE noch vernünftig in diesem Spiel mithalten dürften.