News-Archiv 3. - 9. Mai 2004 (19. Kalenderwoche)
8./9. Mai 7. Mai 6. Mai 5. Mai 4. Mai 3. Mai
News des 8./9. Mai 2004 |
Auf dem letztem Meeting zwischen nVidia und Börsenanalysten, auch bekannt als "Conference Call", hat nVidia-Präsident Jen-Hsun Huang laut nV News eine interessante Aussage zur Die-Größe des NV40-Chips und damit zu dessen Wirtschaftlichkeit getroffen. So hat der NV40 zwar rund 38 Prozent mehr Transistoren als der R420-Chip, das Die ist aber nur 9 Prozent größer. Insgesamt sollen so - laut nVidia-Darstellung - die Herstellungskosten eines Wafers mit NV40-Chips ca. 10 bis 15 Prozent unter denen eines Wafers mit R420-Chips liegen, da dieser den teureren low-k-Herstellungsprozeß benutzt (Erklärung zu low-k) ...
... Allerdings ist diese Information nicht wirklich sicher, ganz besonders, da jede Firma sich gegenüber Börsenanalysten natürlich immer im allerbesten Licht darstellt - noch dazu bei so schwer nachprüfbaren Informationen. Hinzukommt, daß der nVidia-Präsident hier explizit von Waferkosten und nicht von den letztendlichen Kosten pro Chip sprach. Eine wirkliche Aussage darüber, ob NV40 oder R420 in der Produktion günstiger sind, ist damit also nicht gegeben. Aber vermutlich ist dies sowieso schlecht zu vergleichen, denn angeblich bezahlt nVidia bei IBM nur für funktionierende NV36- und NV40-Chips (und damit einen höheren Stückpreis), während ATi den gewöhnlicheren Weg geht und bei TSMC pro Wafer zahlt und damit das Risiko der Ausbeute auf sich nimmt.
Temporal Anti-Aliasing ist zwar - wie am Freitag schon ausgeführt - in den R420-Reviews von den Hardware-Testern weitestgehend nicht beachtet worden, jedoch findet sich im Artikel von Tom´s Hardware Guide dazu eine interessante Anmerkung: Danach wird Temporal Anti-Aliasing vom ATi-Treiber nur dann erzeugt, wenn in der jeweiligen Sequenz 60 fps erreicht werden - und unterhalb der 60 fps wird nur noch das normale Anti-Aliasing ausgegeben. Mittels dieser hohen "Schaltschwelle" erreicht ATi, daß der hier schon beschriebene Effekt des Kantenflimmerns durch Temporal Anti-Aliasing zumindestens teilweise verschwindet ...
... Denn bei 60 fps sollte eigentlich kaum noch jemand Kantenflimmern wahrnehmen, wobei dies trotzdem eine Sache der subjektiven Wahrnehmung bleiben wird. Probleme wird es allerdings geben, wenn bei einer Framerate von zufällig um die 60 fps ständig zwischen Temporal Anti-Aliasing und normalen Anti-Aliasing hin- und hergeschalten wird. Dann wird sich das Kantenflimmern zumindestens technisch wieder einstellen, auch wenn es die wenigsten von uns bei diesen hohen Bildraten noch sehen werden. Problematisch ist die 60-fps-Grenze aus anderer Sicht, nämlich aus jener der potentiell in der Nähe liegenden Monitor-Refreshrate ...
... Sprich, arbeitet der benutzte Monitor mit einer Refreshrate von 75 oder 85 Hz, so ist die Chance, ab und zu einmal wirklich etwas von dem angefordertem Temporal Anti-Aliasing zu sehen, doch recht gering. Dies würde im Beispiel von 85 Hz Refreshrate nur dann passieren, wenn das Spiel 85 fps oder mehr erreicht. Sobald es unterhalb von 85 fps geht, also beispielsweise 65 fps, begrenzt der für Temporal Anti-Aliasing zwingend notwendige Vsync die real ausgebene Framerate auf die Hälfte der Refreshrate (genaue Erklärung siehe hier), womit das Spiel letztlich (in diesem Beispiel) nur 42,5 fps darstellen und Temporal Anti-Aliasing vom ATi-Treiber nicht eingesetzt werden wird ...
... Erst bei sehr hohen Refreshraten von dem doppelten der Schaltschwelle von Temporal Anti-Aliasing, ergo 120 Hz, ist dieser Effekt verschwunden. Diesem läßt sich im übrigen aber auch durch das Einschalten von Triple Buffering entgegenwirken, diese Option bietet der ATi-Treiber allerdings derzeit nur unter OpenGL an. Triple Buffering hat dagegen jedoch wieder den Nachteil eines höheren Speicherverbrauchs, was (je nach Speicherausrüstung der Grafikkarte) höhere Anti-Aliasing Modi in höheren Auflösung unmöglich machen kann. Temporal Anti-Aliasing scheint insofern mit einigen wirklich kniffligen Einschränkungen verbunden zu sein, womit eher bezweifelt werden darf, daß das Feature in Zukunft generell genutzt werden wird - trotz daß es von der technischen Seite her eine brilliante Idee ist.
GDDR3-Speicher ist noch nicht einmal richtig auf dem Markt, da berichten die x-bit Labs schon über den nächsten Streich der Speicherhersteller in Form von GDDR4. Genauere technische Daten hierzu gibt es noch nicht, allerdings will Samsung damit (physikalische) Taktfrequenzen von 1.0 bis 1.4 GHz (und mehr) erreichen, nachdem GDDR3 ungefähr bis 1.0 GHz reichen soll. Wie bei GDDR3 gilt aber auch für GDDR4, daß dieses nun überhaupt nichts mehr mit den offiziellen Speicherstandards der JEDEC zu tun hat ...
... Während GDDR2 noch eine Abwandlung des DDR2-Standards rein für Grafikkarten-Speicher ist, stellen GDDR3 und GDDR4 klare extra Entwicklungen dar. Beispielsweise muß GDDR3-Speicher nichts mit dem Richtung 2006/2007 antretendem DDR3-Speicher zu tun haben, welcher im übrigen noch nicht einmal fertig spezifiziert ist. GDDR3 und GDDR4 sind derzeit nicht viel mehr als bessere Marketing-Namen, womit eine eigentlich eher nur geringfügig aktualisierte Technologie schlicht sexier und damit besser verkaufsfähig gemacht werden soll. Dies soll natürlich die Leistung der Speicherhersteller nicht schmälern, nur die reale Lage der Dinge etwas geraderücken.
Akiba PC-Tuning berichten von einem Overclocking-Versuch des ATi R420-Chips auf dem System Builders Summit in Barcelona. Dabei konnte eine Radeon X800 Pro mit einer Extrem-Kühlung vom Hersteller-default 475/450 MHz auf ebenso extreme 696/560 MHz sowie eine Radeon X800XT Platinum Edition vom Hersteller-default 520/560 MHz auf 717/636 MHz übertaktet werden. Aufgrund der verwendeten Trockeneis-Kühlung sind dies sicherlich keine repräsentativen Werte, aber dennoch absolut beeindruckend, zeigen sie doch die theoretischen Möglichkeiten des R420-Chips - und werden natürlich auch mit einsamen 3DMark-Rekorden von 15738 Punkten im 3DMark03 bzw. 33484 Punkten im 3DMark2001 belohnt.
neuer Artikel |
Interview mit Luciano Alibrandi von nVidia
Wir hatten vor kurzem die Gelegenheit, mit Luciano Alibrandi von nVidia ein kurzes Interview zu führen. Dabei konnten wir ein paar Fragen stellen, welchen nach dem Launch der GeForce 6800 Ultra noch offengeblieben waren ... zum Artikel
News des 7. Mai 2004 |
Mit diesen News wollen wir die noch fällige Nachbetrachung zum Launch der Radeon X800 Pro/XT nachliefern - was insbesondere deshalb wichtig ist, weil wir schließlich keine Radeon X800XT Platinum Edition (und auch keine GeForce 6800 Ultra Extreme) zum Test zur Verfügung hatten. Die entsprechenden Artikel haben wie erwartet am 4. Mai das Web überflutet (Liste), wobei in den meisten Fällen eine Radeon X800XT Platinum Edition gegen die GeForce 6800 Ultra getestet wurde. In wenigen Fällen waren schon GeForce 6800 Ultra Extreme Grafikkarten mit im Test und in ganz seltenen Fällen auch schon GeForce 6800GT Grafikkarten ...
... Vor der Betrachtung der im Web ermittelten Benchmark-Zahlen gilt jedoch anzumerken, daß leider bis auf Beyond3D (plus der PC Games Hardware in ihrem R420/NV40-Test in Ausgabe 06/2004) keine andere Hardware-Webseite den anisotropen Filter der ATi-Karten so genau genug untersucht hat, daß dabei der bilineare Filter auf den Texturenstufen 1-7 unter Direct3D (oder auch einfach "bi/trilinearer Filter") zum Vorschein kam - und das, obwohl das entsprechende Tool nun inzwischen weit verbreitet genug ist. Während die meisten Webseiten diese Tests gleich gar nicht erst antraten, versteiften einige sich sogar auf die Behauptung, ATi würde im default-Zustand der Treiber voll-trilinear filtern - was nachweislich nicht korrekt ist ...
... Dieser Umstand wäre nun eigentlich nicht weiter schlimm, da diese Optimierung von ATi sicherlich kaum großartig Bildqualität frisst. Die meisten der Tester dürften aber bei nVidia hingegen deren brilineare Filter-Optimierung deaktiviert haben, weil nVidia dafür einen Schalter in den Treiber eingebaut hat (einiger Tester gaben dies direkt an, bei den anderen vermuten wir es, da beim NV40-Launch nahezu jeder Tester diese Optimierung deaktiviert hatte). Und an diesem Punkt wird es unserer Meinung nach unfair (selbst wenn wir uns jetzt anhören müssen, angeblich pro-irgendwem zu sein): Wer die brilineare Optimerung bei nVidia ausschaltet, sollte zwangsläufig auch die bi/trilineare Optimierung bei ATi ausschalten, ansonsten kann es kaum ein fairer Vergleich werden ...
... Nach der Durchsicht aller entsprechenden Artikel gehen wir jedoch davon aus, daß bei keinem die ATi-Optimierung deaktiviert wurde (geht mittels rTool, für Nutzung mit R420-Grafikkarte einfach mit "rtool.exe R300" starten), daß jedoch im Gegenzug bei wohl den meisten die nVidia-Optimierung ausgeschaltet wurde. Die Leistungs-Differenz zwischen Optimierung und keiner Optimierung liegt bei beiden Herstellern bei ca. 5 Prozent unter RealWorld-Anwendungen und bis zu 15 Prozent in theoretischen oder Theorie-nahen Testern (wie den Flybys von Unreal Tournament 2003). Unsere eigenen X800-Benchmarks wurden natürlich mit deaktivierten Optimierungen sowohl bei nVidia als auch bei ATi getätigt, auch wenn wir den Hinweis darauf ziemlich versteckt haben ...
... Allerdings retten sich zumindestens jene Tests, welche mit dem 61.11er nVidia-Treiber getätigt wurden, durch den Umstand, daß in diesem die Abschaltung der brilinearen Filter-Optimierung unter Direct3D nicht funktioniert, wie der Tech Report berichtet. Laut nVidia ist dies ein Bug, welcher in späteren Treibern gefixt werden wird - was ein schon reichlich kurioser "Zufall" ist. Denn daß auf gar wundersame Weise just bei diesem Treiber, welchen nVidia den R420-Testern für ihre NV40-Vergleichsmessungen zur Verfügung stellte, die nVidia-Optimierung sich unter Direct3D nicht mehr deaktivieren lässt und damit genau der Optimierungs-Stand erreicht wird, welchen auch ATi hat (Optimierung unter Direct3D, nicht aber unter OpenGL), grenzt schon an ein mittleres Wunder :-)) ...
... Damit werden die gesammelten Tests natürlich noch schwieriger zu bewerten, weil dort sowohl mit den nVidia-Treibern 60.72 als auch 61.11 getestet wurde. Doch im Schnitt aller Zahlen sagen wir von unserer Warte aus, daß die Radeon X800XT Platinum Edition etwas vor der GeForce 6800 Ultra liegt. Dabei sehen wir allerdings keinen wirklich großen Abstand zwischen diesen beiden Karten, es dürften nur runde 5 bis 10 Prozent sein. Daß in den Foren des Webs derzeit die Radeon X800XT Platinum Edition so extrem hochgejubelt wird, dürfte in erster Linie an deren bombastischen Ergebnisse unter Far Cry liegen - doch auch dieses Spiel ist nur ein Benchmark, und im Querschnitt aller Zahlen kommt bei weitem kein so überdimensional unterschiedliches Ergebnis heraus ...
... Damit ergibt sich natürlich die Chance für die GeForce 6800 Ultra Extreme, gegen die Radeon X800XT Platinum Edition punkten zu können. Einige Artikel hatten auch diese Super-HighEnd-Variante schon im Test, aus deren Ergebnissen läßt sich ableiten, das alles auf einen Gleichstand zwischen GeForce 6800 Ultra Extreme und Radeon X800XT Platinum Edition hinausläuft. Allerdings läßt sich bei der GeForce 6800 Ultra Extreme ein Effekt, welcher schon bei der GeForce 6800 Ultra teilweise sichbar ist, recht deutlich erkennen: Diese gewinnt vorwiegend die Benchmarks unter geringeren Bildqualitäts-Anforderungen, verliert aber vorwiegend die Benchmarks unter höheren Bildqualitäts-Anforderungen. Die Unterschiede bleiben aber auch hier gering, ein eindeutiger Sieger ist kaum auszumachen ...
... Allerdings hat die Radeon X800XT Platinum Edition natürlich immer noch ihren Listenpreis von 499 Dollar als "Vorteil", während die GeForce 6800 Ultra Extreme defintiv darüber liegen wird. Davon abgesehen hat es zudem auch noch einige Tests gegeben, welche Benchmark-Resultate einer GeForce 6800GT anzubieten haben, welche mit einem US-Listenpreis von 399 Dollar bekanntlich in direkter Konkurrenz zur Radeon X800 Pro steht. Dabei hat die nVidia-Karte allerdings den erheblichen Vorteil, mit den vollen 16 Pixel-Pipelines antreten zu können, die ATi-Karte hat hier nur deren 12 aktive aufzubieten. Und dies scheint wohl den Ausschlag in diesem Vergleich zu geben, denn die wenigen verfügbaren Benchmarks zu diesen beiden Karten sprechen eher klar für die GeForce 6800GT ...
... Der Abstand zwischen diesen beiden Karten liegt aber auch nur bei rund 10 Prozent, was sich also mittels anderer Tests und neuer Treiber durchaus noch ändern kann. Diesen Punkt kann man wohl als generelles Benchmark-Fazit stehen lassen: Trotz tonnenweise Benchmarks ergibt sich derzeit noch kein klares Bild der Lage. Dafür ist es allerdings aber womöglich sowieso noch zu früh, denn schon einen Monat später (und damit bevor die meisten dieser Karten wirklich ausgeliefert werden) können neue Treiber durchaus noch einmal für andere Ergebnisse sorgen. Wir bemühen uns daher wie gesagt, diese ganzen Karten einmal für einen umfassenden Test zu uns zu bekommen, doch dies kann allerdings noch etwas dauern ...
... Und damit zu einigen "Nebenthemen": Bei den ShaderMark 2.0 Messungen ergab sich ein ziemliches Durcheinander der Resultate, da die einen die Radeon X800XT Platinum Edition noch vor der GeForce 6800 Ultra Extreme sahen, die anderen jedoch gar einen Gleichstand zwischen Radeon X800XT Platinum Edition und GeForce 6800 Ultra (was wiederum die GeForce 6800 Ultra Extreme klar in die Pole Position schieben würde). Einzig allein zwischen Radeon X800 Pro und GeForce 6800GT ging die Sache recht klar zugunsten der nVidia-Karte aus, auch wenn hier der Abstand mit wiederum runden 10 Prozent nicht wirklich weltbewegend ausfällt ...
... Beim Stromverbrauch gab es einige Messungen, welche letztlich aber das bestätigten, was ATi und nVidia schon offiziell angeben hatten: Eine rund 30 Watt große Differenz zwischen Radeon X800XT Platinum Edition (halb-offiziell 80 Watt) und GeForce 6800 Ultra (offiziell 111 Watt) zugunsten von ATi. Die Radeon X800 Pro verschlingt dann noch einmal rund 10-15 Watt weniger (offiziell 68 Watt), während die GeForce 6800GT runde 10 Watt oberhalb der Radeon X800XT Platinum Edition liegt, was auf ca. 90 Watt hinausläuft (alle genannten Werte sind Vollast). In diesem Punkt liegt ATi klar vorn, auch wurde das (nahezu nicht vorhandene) Lüftergeräusch der neuen ATi-Karten von den meistens Tests lobend erwähnt ...
... Eine genauere Betrachtung von Temporal Anti-Aliasing hat leider keiner der Tests abgeliefert, aber dafür reichte offenbar die Testdauer auch nicht aus - ganz besonders, wo man dieses Feature erst einmal in der Praxis austesten sollte, ehe man sich an Benchmarks damit wagt. Allerdings wären selbige sowieso eher sinnlos, weil Temporal Anti-Aliasing nur mit aktiviertem Vsync funktioniert und man damit nur den Monitor ausmisst und nicht die Grafikkarte. Und damit zum letzten Punkt, und zwar dem Overclocking, was allerdings auch nur von den wenigstens Testern betrieben wurde. Bei der FiringSquad konnte man erst einmal eine GeForce 6800 Ultra Extreme von 450/550 MHz auf 472/627 MHz übertakten, was ein passables Ergebnis darstellt ...
... Die Radeon X800XT Platinum Edition lief hingegen bei Hexus von 520/560 MHz auf 526/573 MHz, beim DriverHeaven auf 555/600 MHz und bei Hot Hardware auf 534/590 MHz. Dies sind genauso nur passable Ergebnisse und untermauern damit die These, daß beide Hersteller mit ihren Spitzenprodukten wohl schon an das Ende ihrer Taktmöglichkeiten gelangt sind. Zudem waren seitens der Radeon X800 Pro noch bei Hot Hardware ein Overlocking-Ergebnis von 475/450 MHz auf 520/525 MHz und beim DriverHeaven auf 540/580 MHz zu verzeichnen, womit wir mit unseren 510/588 MHz auf dieser Karte in guter Gesellschaft sind. Aber auch bei der Radeon X800 Pro scheint zumindestens beim Chiptakt nicht mehr viel Luft zu sein, beim Speichertakt liegen hingegen aufgrund der unterrateten Speicherchips (Speichertakt ist 450 MHz, die Chips sind aber 2.0ns und damit für 500 Mhz tauglich) einige Möglichkeiten.
Shortcuts: Für diejenigen, welche mit vielen externen Geräten á externen Festplatten und CD/DVDs arbeiten, ist ein externe 5¼" Gehäuse für alle diese Geräte eventuell eine sinnvolle Sache, wie beispielsweise das bei PC-Max im Test befindliche Stardom U7-4-B2. Für den Transport von etwas kleineren Datenmengen haben sich dagegen USB-Sticks fest etabliert, wozu der bei Hard Tecs 4U im Test befindliche MSI MEGA CACHE 15 in Konkurrenz tritt. Dahinter verbirgt sich eine Mini-Festplatte mit sehr geringen Abmessungen und deutlich besserem Preis als ein USB-Stick mit selber (Daten-)Größe. The Inquirer berichten, daß der Athlon XP Prozessor keinen Support für PCI Express bietet - und meinen damit allerdings, daß die Chipsätze für den Athlon XP einen solchen Support nicht bieten. Am Prozessor selber hängt dieser Punkt nicht, es wird schlicht seitens der Chipsatz-Entwickler keine entsprechenden Athlon XP Chipsätze mit PCI Express Support mehr geben.
News des 6. Mai 2004 |
Laut der Virtual Zone kann der neue nVidia-Treiber 61.11 in der Tat gegenüber dem bisherigen Treiber 60.72 auf der GeForce 6800 Ultra einige Vorteile erzielen: Im Normalfall sind es 3 bis 5 Prozent, unter FarCry jedoch (je nach Auflösung) 15 bis 40 Prozent. An diesem Punkt ist dann gleich die Chip eingestiegen, welche nach einer Umbenennung der FarCry.exe und daraus resultierenden deutlich niedrigeren Benchmark-Resultaten einen Benchmark-Betrug unter Far Cry vermuteten. Auf die (doch eigentlich naheliegende) Idee, vor einer solchen Aussage schlicht die Bildqualität gegenzuprüfen, kam man leider nicht ;-). Denn nVidia gab beim 61.11er Treiber selber an, daß dieser einen Z-Culling Bug unter Far Cry fixen würde ...
... Und da der Treiber natürlich nicht das Game selber patchen kann, läuft dies dann logischerweise über eine Treiber-Funktion, welche sich beim Start der "FarCry.exe" aktiviert. Solche Spiele-Fixes durch die Grafikchip-Entwickler und nicht die Spiel-Enwickler sind in gewissem Sinne normal und in manchen Fällen sogar zwingend notwendig, beispielsweise wenn der Support für ein Spiel eingestellt wurde oder aber - wie in diesem Fall - wenn man nicht bis zum nächsten offiziellen Patch des Spiels warten will. Damit ist nun nicht gesagt, daß diese Treiber-Funktion des 61.11er nVidia-Treibers definitiv kein Cheat ist - oder aber das es definitiv einer wäre. Die Antwort auf diese Frage findet man schlicht über den Vergleich der entstehenden Bildqualität heraus.
Unser Review der nVidia GeForce 6800 Ultra stützt sich - wie auch dort erwähnt - teilweise auf ältere Benchmark-Werte bei Radeon 9800XT und GeForceFX 5950 Ultra mit den älteren Treiber-Versionen 4.1 bzw. 53.03. Im aktuellen Review der Radeon X800 Pro wurden diese Werte nun ebenfalls noch auf die jeweils neuesten offiziellen Treiber 4.4 und 56.72 aktualisiert, im Quervergleich ergibt sich somit eine gewisse Aussage zur Entwicklung der Treiber in diesem Zeitraum. Bei ATi ergab sich so von Catalyst 4.1 zu Catalyst 4.4 eigentlich keine wirkliche Verbesserung, die meisten Werte sind fast gleich oder differieren um ± 1 fps ...
... Interessant ist nur der enorme Zugewinn unter Enemy Territory - wobei dies allerdings wohl eher an einer (bekannten) Schwäche des 4.1er Treibers in diesem Spiel liegt, welche mit anderen ATi-Treibern nicht auftritt. Bei nVidia sind die Ausschläge zwischen den Treiber-Versionen 53.03 und 56.72 dagegen wesentlich deutlicher, insgesamt gesehen kann der 56.72 dabei sogar als etwas schneller angesehen werden. Erwähnenswerte Performance-Abschläge waren dabei unter AquaNox 2, Dungeon Siege sowie dem 4xS Anti-Aliasing unter Unreal Tournament 2003 zu verzeichnen, bei den Performance-Gewinnen wären Call of Duty, Elite Force II, Enemy Territory (hier überflügelt die GeForceFX 5950 Ultra letztlich sogar GeForce 6800 Ultra und Radeon X800 Pro) sowie Max Payne 2 zu erwähnen ...
... Ingesamt gewinnt also die GeForceFX 5950 Ultra durch diese Aktualisierung der Treiber etwas gegenüber der Radeon 9800XT, der Effekt dürfte allerdings über alle Test-Spiele betrachtet eher geringfügig sein. Absolut positiv wäre jedoch zum nVidia-Treiber 56.72 noch zu erwähnen, das bei diesem die seinerzeit von uns festgestellten Fehler des Treibers 53.03 ausgeräumt wurden. Konkret war es beim 53.03er Treiber in den Spielen AquaNox 2, Comanche 4, Max Payne 2, Tron 2.0 und Unreal Tournament 2003 nicht möglich, unter 1280x960 ein 8x Anti-Aliasing darzustellen. Dieses ist nun mit dem neueren Treiber 56.72 möglich, das vormalige Problem bleibt allein unter Dungeon Siege weiter bestehen.
Noch etwas zum Thema isotrope Filterung beim nVidia NV40: Möglicherweise müssen wir zurückrudern, was unsere Behauptung angeht, dass beim NV40 die normale (das heißt, nicht mittels AF verbesserte) Texturqualität gesenkt wurde. Welches Filterverfahren dem Optimum näher kommt, ist derzeit allerdings noch Gegenstand der Diskussion. Sobald wir wieder über NV40-Hardware verfügen, werden wir dieses Thema erneut unter die Lupe nehmen. Bis dahin bitten wir, unsere Konklusion zum Thema NV40 und isotrope Filterung unter Vorbehalt zu sehen - sie kann bestätigt werden, muss aber nicht.
TweakPC berichten darüber, daß die aktuellen Sasser-Epidemie dazu geführt hatte, daß man zeitweise bei der Postbank kein Geld mehr abheben konnte, weil deren Filialcomputer aufgrund wegen Sasser hochgesetzter Firewall-Einstellungen nicht mehr richtig auf den Zentral-Computer zugreifen konnten ;-)). Aber wenn wir schon beim Thema sind: Sicher ist in diesem Fall nur, daß es Sicherheit ganz garantiert nicht von demjenigen geben kann, welcher letztlich für die ganze Missere verantwortlich ist - sprich, Microsoft. Ebenfalls sind diese offenbar selbsternannten "Sicherheitsexperten", welche sich derzeit im TV präsentieren, anzuzweifeln, wenn deren Lösungen nicht wirklich grundsätzlicher Natur sind ...
... Etwas "grundsätzliches" ist beispielsweise die oft genannte Formulierung, verdächtig aussehende Mails "nicht zu öffnen". Nun, wie wäre es an dieser Stelle einmal mit der Empfehlung, ein Mail-Programm zu benutzen, wo es die Terminologie "Mail öffnen" gar nicht gibt? Auch wenn die begriffliche Unterscheidung nicht exakt sind, deutet "eine Mail öffnen" auf ein Mail-Programm hin, welches diese in HTML darstellt und damit die Mail selber ausführbar macht. Und exakt auf dieser Ausführbarkeit basieren schließlich die allseits beliebten Viren & Würmer - und ohne diese Ausführbarkeit geht für diese gar nichts. Die Empfehlung muß also eher zu einem Mail-Programm gehen, welche dieses generelle Einfallstor für Viren & Würmer gar nicht erst bietet bzw. wo man diese Funktionalität prinzipiell abstellen kann (im Gegensatz zu den Microsoft-Produkten) ...
... An diesem Punkt angelangt, ist es ein wenig unverständlich, weshalb dieser einfache Tip nicht immer und immer wieder gegeben wird, sondern statt dessen ein Flickwerk mittels Patches und der Empfehlung zu Virenscanner (als ob diese neue Viren auf Anhieb erkennen könnten) betrieben wird. Selbst wenn man Microsoft keine Mitschuld an den regelmäßigen Virenepidemien anlasten wollte, so ist doch die Empfehlung zu einem anderem Mailprogramm mehr als folgerichtig, werden doch bei dem aktuellen Marktanteil von Outlook und Outlook Express fast alle Viren speziell für diese Programme geschrieben und funktionieren damit im Normalfall auf nicht-Microsoft-Produkten sowieso nicht. Es bleit somit die Frage im Raum stehen, was diese sogenannten Sicherheitsexperten daran hindert, dem Endverbraucher eine wirklich sichere Lösung vorzuschlagen.
Shortcuts: Wie Hard Tecs 4U berichten, gibt es bei Gainward wieder einmal die "ab Werk" übertakteten Grafikkarten: Zum einen eine wassergekühlte GeForce 6800 Ultra mit 450/600 MHz und zum anderen eine luftgekühlte mit 430/575 MHz. Dem Nebensatz einer Meldung der DigiTimes zum Radeon 9100 Pro IGP Chipsatz läßt sich entnehmen, das Radeon X800 Pro Grafikkarten nicht vor Ende Mai verfügbar sein werden - und damit zum ungefähr gleichen Zeitpunkt wie GeForce 6800 Ultra Grafikkarten. Und letztlich kann laut Golem bezüglich der Speicherpreis-Entwicklung offenbar Entwarnung gegeben werden: Diese geht wohl nicht weiter nach oben bzw. die Preise sinken derzeit sogar wieder etwas.
neuer Artikel |
Die neuen HighEnd-Karten im Überblick
Mit dem gestrigen Start des R420-Grafikchips von ATi steht dem NV40-Grafikchip von nVidia nun ein ebenbürtiger Kontrahent gegenüber. Gleichzeitig wird das HighEnd-Segment komplett neu geordnet, denn die neuen Chips sind beide deutlich schneller als die bisherigen Performance-Könige R360 und NV38. Beide Hersteller belassen es aber nicht nur bei den bisher angekündigten Chip-Varianten, sondern werden zusätzlich noch weitere Variationen ihrer Chips in den Markt bringen. Diese wollen wir nun nachfolgend kurz skizzieren, damit der Überblick über alle 7 neuen HighEnd-Lösungen gewahrt bleibt ... zum Artikel
2 neue Artikel |
Inside ATIs R420 + ATi Radeon X800 Pro (R420) Review
Am heutigen Tag macht nun endlich auch ATi Ernst und präsentiert den R420-Grafikchip sowie die beiden darauf basierenden Grafikkarten Radeon X800 Pro und Radeon X800XT Platinum Edition. Wie schon beim NV40 gehandhabt, haben wir zu diesem Launch sowohl einen detaillierten Technik-Artikel anzubieten, als auch einen ausführlichen Benchmark-Part, welcher die Radeon X800 Pro in den Vergleich zur GeForce 6800 Ultra, Radeon 9800XT und GeForceFX 5950 Ultra stellt ... zum Technik-Artikel bzw. zum Benchmark-Artikel
PS: Heute gibt es keine "normalen" News mehr - für genügend Lesestoff ist sowieso gesorgt (plus ein weiterer kleiner Artikel in Vorbereitung, der irgendwann in der Nacht kommen wird - Update: verzögert sich bis morgen Mittag, da noch ein wenig Klärungsbedarf vorhanden ist). Morgen wird es dann regulär weitergehen.
News des 3. Mai 2004 |
So wie es ausschaut, hat ATi seine schon gedruckten Planungen für den kommenden R420-Launch doch noch einmal in einem wichtigen Detail abgeändert und wird nicht mit den drei hier genannten R420-Versionen, sondern anscheinend sogar mit deren 4 antreten - inklusive auch etwas veränderten Taktfrequenzen (einige schon vor einiger Zeit, einige erst sehr kurzfristig). Gleichzeitig ist aber auch aus dem nVidia-Lager gerüchteweiser zu hören, daß deren GeForce6-Serie nun ebenfalls 4 und nicht wie bisher 3 Karten umfassen soll. Damit wird das HighEnd-Segment so breit wie lange nicht mehr bestückt sein ...
... Dabei werden beide Hersteller jeweils Karten an den Preismarken von 299, 399 und 499 Dollar stationieren, die beiderseits vierte Karte wird dabei die eigentlich seit Jahren feste 499-Dollar-Grenze sogar nach oben durchbrechen. Bei dieser jeweils vierten Karte handelt es sich aber anscheinend bei beiden Herstellern um extra selektierte Chips nur zum Gewinnen von Benchmarks, welche letztlich dann nur in äußerst geringen Stückzahlen in den Markt kommen dürften. Beide Hersteller scheinen gewillt, die Taktmöglichkeiten ihrer Topprodukte diesesmal bis auf das äußerste auszureizen - natürlich, weil man um jeden Preis den absoluten Performance-Thron besteigen will ...
... Somit wird der morgige Tag den Launch von zwei neuen HighEnd-Grafikchips eines sicherlich allbekannten Herstellers ;-) sehen, ironischerweise wird damit aber das Bild an der Leistungsspitze definitiv nicht komplett sein, weil - neben anderen - zumindestens ein Kandidat auf den Performancethron noch fehlen wird. Und wem das ganze jetzt zu verklausuliert geschrieben ist, der wartet einfach bis morgen, dann wird es hier wieder zwei Artikel (plus vermutlich einen weiteren im Laufe des Abends) zum Thema geben. Die exakte Uhrzeit wagen wir diesesmal kaum zu erwähnen (es ist die gleiche wie zuletzt schon), aber der neue Server hält es diesesmal hoffentlich aus ;-).
Bei der KoreaTimes ist zu lesen, daß der Speicherhersteller Samsung zum Ende des Jahres mit auf 1 GHz getaktetem GDDR3-Speicher wird aufwarten können. Momentan hat Samsung diesen speziell auf Grafikkarten eingesetzten Speicher mit 500 bis 800 MHz im Angebot und ist damit schon allein auf weiter Flur bei diesen Taktfrequenzen. Ob diese Taktfrequenzen wie 1 GHz allerdings auch wirklich von den Grafikchip-Entwicklern genutzt werden, bleibt abzuwarten. Bekanntermaßen werden ATi wie auch nVidia bei ihren neuen HighEnd-Geschossen komplett unterhalb von 600 MHz Speichertakt liegen. Ob dies daran liegt, daß höhere Speichertakte zwar in der Liste stehen, aber womöglich nicht real lieferbar sind, oder aber ob die höheren Speichertakte schlicht noch zu teuer sind, ist derzeit nicht bekannt.
Bei Intel findet man einen interessanten Artikel, welcher den BIOS-Nachfolger EFI genauer beschreibt. Mittels EFI will Intel das nunmehr seit über 20 Jahren bestehende PC-BIOS ablösen, welches trotz aller Modernisierung und Erweiterungen in Teilen in der Tat noch auf Techniken basiert, welche schon vor eben diesen 20 Jahren genutzt wurden ;-). Ob das - für Computer-Verhältnisse - nahezu biblische Alter allerdings wirklich als Grund für dessen Abgang ausreichend ist, darf bezweifelt werden, schließlich gilt nicht umsonst "dont touch a running system". Sicherlich bringt die (uralte) BIOS-Konzeption mit Teilen heutiger Hardware einige Probleme mit sich, allerdings konnten die Hersteller diese letztlich immer noch alle umschiffen ...
... Der Ansatz von EFI mag eleganter sein und viele Kleinigkeiten, mit welchen man sich heutzutage beim BIOS herumschlägt, dürfte EFI gar nicht mehr kennen. Allerdings wird EFI eben auch wie die meiste heutiger Software geschrieben: Modern, knallbunt, mit so viel grafischer Oberfläche wie möglich (und dafür immer weniger Bezug zu den Dingen, die "unter der Haube" passieren - was allerdings für ein BIOS wichtig wäre), vollgepropft bis oben hin mit nützlichen und weniger nützlichen Funktionen - und natürlich als neue wandelnde Sicherheitslücke. Wir werden also, kommt es böse, dann sogar Sicherheitsupdates für das BIOS brauchen - nur weil jemand auf die glorreiche Idee gekommen ist, im BIOS einen Internet-Browser nebst Internet-Zugang einzubauen ...
... Dazu kommt im übrigen noch die Unterstützung einer Online-Updatefunktion noch im BIOS, welche zwar eigentlich zum Patches des Systems gedacht ist, jedoch von Hackern sowie Würmern als freundliche Einladung betrachtet werden dürfte. Sicherlich wird es für jede neu gefundene Lücke in EFI neue Patches geben - doch wäre es nicht einfacher und deutlich konsequenter, anstatt die Sicherheit eines Internetzugangs sowie einer Online-Updatefunktion im BIOS durch ständige Patches aufrecht zu halten, einfach auf diese beiden Features zu verzichten?! Ein Nutzwert für diese Features ist sicherlich vorhanden, dem stehen aber auch deutlich höhere Risiken gegenüber ...
... EFI hätte gut sein können - hätte man einfach das alte BIOS abgelöst, ohne sich aber auf die vielen neuen Funktionen zu versteifen. So aber muß die Sache gleich wieder kritisch betrachtet werden, weil (noch dazu völlig ohne Not) eine neue potentielle Sicherheitslücke aufgetan wird. Und hierbei haben wir noch nicht einmal die "Vorzüge" von EFI für TCPA (kann den Anwender schon beim Start vor dem System abschirmen) und vor allem DRM (Stichwort automatische Zwangs-Rechtekontrolle beim Booten des PCs durch EFI über zentrale Rechteverwaltungs-Server im Internet) wirklich erwähnt ;-).
Shortcuts: Bei Beyond3D lässt sich erfahren, daß John Carmack den extra NV30-Codepfad bei der Doom III Engine entfernt hat - weil die neuen nVidia-Treiber den standardgemäßen ARB2-Codepfad inzwischen genauso schnell abarbeiten wie den NV30-Pfad. CompressorCooling haben sich dagegen den neusten Streich von Asetek angesehen - eine Vapochill LightSpeed Kompressorkühlung, welche den verwendeten Pentium 4 Northwood mit original 3.2 GHz bei -28° Celcius Evaporator-Temperatur sowie -2° Celcius Die-Temperatur auf gute 4,2 GHz brachte. Zu letztlich wäre wieder einmal unser Folding@home-Team zu erwähnen, welche in der Folding-Teamwertung in kürzester Zeit wieder ein paar Plätze von Position 182 auf 174 nach oben klettern konnte.