News-Archiv 17. - 23. Mai 2004 (21. Kalenderwoche)
22./23. Mai 21. Mai 20. Mai 19. Mai 18. Mai 17. Mai
neuer Artikel |
Nach ATi in den letzten Tagen mit einer - um es vorsichtig zu sagen - doch sehr schwer zu findenden Filter-"Optimierung" eher negativ auffiel, ist heute nun wieder nVidia im "Optimierungs-Wettstreit" dran. Offensichtlich hat der kalifornische Chip-Entwickler ebenfalls eine bisher unbekannte Filter-"Optimierung" mitlaufen, welche sich mittels der üblichen und von beiden Chip-Entwicklern empfohlenen Bildqualitäts-Testprogramme nicht entdecken läßt ... zum Artikel
News des 22./23. Mai 2004 |
In unserem Forum gibt es eine interessante Diskussuion zur Technologie der Xbox 2 - welche insofern für PC-Spieler interessant ist, als daß ATi bekanntlich den Grafikchip für diese Konsole liefern wird. Am Anfang dieser Forums-Diskussion ging man zwar noch davon aus, daß es sich hierbei um eine R500-nahe Lösung handeln wird, doch da dieser Grafikchip wohl schon in einem Jahr antreten dürfte und die Xbox 2 nicht vor dem Ende des nächsten Jahres, ist es eher wahrscheinlich, daß es sich bei dem Grafikchip der Xbox 2 um eine R600-nahe Lösung handelt - wobei nicht völlig ausgeschlossen werden kann, daß ATi für Microsoft womöglich ein völlig abweichendes Design entwickelt, welches auf dem PC dann nie eingesetzt werden wird ...
... Nun denn, dies wird sich wohl so schnell nicht klären lassen, deswegen bleiben wir erst einmal beim Grafikchip der Xbox 2. Interessant an diesem ist auf jeden Fall, daß dieser neben seiner normalen Speicheranbindung auch noch einmal extra 10 MB EDRAM (wobei hier nicht wirklich klar ist, ob eDRAM aka eingebetter DRAM oder EDRAM aka enhanced DRAM gemeint ist) ausgerüstet ist. Dieser extra Speicher entlastet den normalen Speicher (welchen man sich in einer Konsole sowieso noch mit den anderen Komponenten teilen muß) insbesondere bei der besonders bandbreitenlastigen Verwaltung der Framebuffer ...
... Diese Idee wurde von den Bitboys seinerzeit für deren letztlich nie gebaute Grafikchips schon einmal forciert und ist insbesondere für Konsolen durchaus sinnvoll. Denn da diese zumeist mit (gegenüber dem PC) recht niedrigen Auflösungen arbeiten, wird nur eine geringe Größe jenes eDRAM benötigt, die bei der Xbox 2 angesetzten 10 MB dürften somit wohl ausreichend sein. Ob sich solche Ideen noch einmal auf dem PC sehen lassen werden, bleibt indes abzuwarten - denn mit dessen höheren Auflösungen würde man mit 10 MB eDRAM auf keinen Fall mehr hinkommen. Technisch interessant wären solche Lösungen aber allemal, versprechen sie doch eine überlegene Speicherbandbreite und damit deutlich weniger Performance-Verlust bei der Nutzung höherer Auflösungen.
Wer sich die ATi-Techdemos vom X800-Launch auch mit einer anderen Grafikkarte als einer Radeon X800 ansehen will, dem kann natürlich geholfen werden: Hier werden dazu verschiedene Wrapper angeboten, welche die Ruby-Techdemo (130 MB) und die Subsurface-Techdemo (103 MB) auch auf den aktuellen Radeon-Grafikkarten ab der Radeon 9500 sowie auch GeForceFX-Grafikkarten lauffähig machen. Erforderlich sind allerdings 128 MB Grafikkarten-Speicher sowie mindestens 512 MB Hauptspeicher - und besser mehr, um eine ordentliche Performance in diesen Demos zu erreichen.
Hard Tecs 4U berichtet über die PCI Express Aktivitäten seitens VIA in der Form der demnächst anstehenden Chipsätze PT890 und PM890 für den Intel-Markt sowie K8T890 und K8M890 für den AMD-Markt (die "M"-Ausführung ist jeweils mit integrierter UniChrome-Grafikeinheit). Interessant an PT890 und K8T890 ist beiderseits, daß die jeweiligen Referenz-Designs von VIA sowohl einen AGP- als auch einen PCI-Expess-Steckplatz für die Grafikkarten aufwiesen und somit sowohl Zukunftssicherheit als auch Abwärtskompatibilität gesichert wäre. Ob alle Mainboard-Hersteller diese Referenzdesigns so übernehmen werden, ist zwar nicht sicher, aber ein paar solcher Boards wird es sicherlich geben.
Shortcuts: Bei der AMDZone hat man die Performance des ersten ATi-Treibers für Windows XP 64-bit mit der des normalen 32bittigen Treibers verglichen: Wie aber schon bei nVidia ist 64-bit derzeit noch ein gutes Stück davon entfernt, generell die gleiche Performace wie 32-bit zu bringen. Bei 3DChip gibt es einen Test der GeForceFX 5700 Ultra in der DDR2-Version mit 450 MHz Speichertakt gegen die DDR3-Version mit 475 MHz Speichertakt, wobei sich dieser geringe Unterschied eben auch nur in geringen Leistungsunterschieden bemerkbar macht. Tualatin haben hingegen ein umfangreiches Kompendium anzubieten, welches beschreibt, wie man den - offenbar sehr gut übertaktbaren - Celeron Mobile in Desktop-Systemen zum Laufen bekommt ...
... Bei Hard Tecs 4U wird über den C5J-Prozessor von VIA berichtet, welcher bei 1 GHz Taktfrequenz nur 3,5 Watt verbraucht und sich damit natürlich passiv kühlen läßt. VIA will jenen C5J mit der Zeit sogar auf 2 GHz treiben, was dann immer noch unter 10 Watt Leistungsaufnahme wären. Der Planet 3DNow! hat dagegen erste Preise von Sockel-939-Prozessoren, welche gegenüber den bisherigen Preisen von Athlon 64 Modellen erstaunlich hoch ausfallen. Gleichfalls berichtet man im übrigen über das erste Grantsdale-Preview seitens The Inquirer, welches allerdings aufgrund fehlender vergleichender Benchmarks noch keinen wirklichen Aufschluß auf die Leistungsfähigkeit der neuen Intel-Plattform bietet. Und auf der Game-Seite hat letztlich zum einen die GameZone den offiziellen Release-Termin von Doom III zu vermelden, zum anderen gibt es endlich die Version 2.0 des WW2-Mods Red Orchestra zum Download, welcher mit dieser Version allerdings Unreal Tournament 2004 und nicht mehr 2003 voraussetzt.
neuer Artikel |
Wie viel Optimierung ist optimal?
In den letzten Tagen hat das Thema der Treiber-"Optimierungen" durch die Grafikchip-Entwickler bekanntermaßen durch die Entdeckung einer neuen ATi-"Optimierung" deutlich neuen Auftrieb erhalten. Unsere Kolumne beschäftigt sich - auch, aber nicht nur mit dem Blick auf die aktuellen Entdeckungen - mit der Entwicklung der Filter-Qualität und der dafür von ATi und nVidia angesetzten "Optimierungen" in den letzten Jahren ... zum Artikel
News des 21. Mai 2004 |
The Inquirer berichten über nVidia´s PCI Express Bridge bzw. vielmehr darüber, daß diese ein Zwei-Wege-Chip sei, sprich: Der Chip kann sowohl eingesetzt werden, um einen AGP-Grafikchip auf einem PCI-Express-Board lauffähig zu machen, aber auch, um einen PCI-Express-Grafikchip auf einem AGP-Board lauffähig zu machen - wobei dies ehrlicherweise auch schon in unserem seinerzeitigen Artikel stand. Wichtiger ist hier der Punkt, daß es sich nVidia mittels dieser Lösung offen läßt, wie lange man den AGP-Standard noch unterstützt, da man mittels des Bridge-Chips flexibel auf die Anforderungen des Marktes reagieren kann ...
... Dies ist inbesondere deshalb wichtig, weil der NV40 wohl der letzte nVidia-Grafikchip mit internem AGP-Interface gewesen sein dürfte, bei allen nachfolgenden Chips der NV4x-Linie rechnet man mit internen PCI-Express-Interfaces. Nur kann derzeit wohl noch keiner voraussagen, wie schnell sich PCI Express wirklich durchsetzen wird: Die PC-Bauer werden es sicherlich als Checklisten-Feature so schnell wie möglich mit an Board haben wollen, während der Retail-Markt aufgrund der aktuell nicht vorhandenen Vorteile von PCI Express als Grafik-Schnittstelle (diese werden sich erst in der Zukunft ergeben) sicherlich gemächlicher an den neuen Standard herangehen wird ...
... In diesem Sinne spielt ATi diesbezüglich ein recht gefährliches Spiel, denn durch die Absage an Bridge-Lösungen, welche natürlich Geld kosten und damit einen wirtschaftlichen Nachteil bedeuten, ist man an die internen Interfaces der eigenen Grafikchips gebunden. Ähnlich wie bei nVidia wird dabei alles dem R420 nachfolgende wohl nur noch PCI Express sein. Für Systeme mit AGP-Schnittstelle können demzufolge GeForce 6800 Ultra und Radeon X800XT als die derzeit maximale Aufrüstgrenze angesehen werden - welche allerhöchstens dann erweitert werden wird, wenn sich der AGP-Standard wider Erwarten noch länger hält und dann zukünftige PCI-Express-Grafikchips seitens nVidia mittels Bridge-Chips als AGP-Versionen angeboten werden.
Bei dieser Gelegenheit kann man wohl gleich einmal über die kommenden Mainstream- und LowCost-Abwandlungen der neuen HighEnd-Grafikchips philosophieren, welche allerdings ebenfalls deutlich differierende Strategien bei beiden Herstellern aufzeigen. nVidia wird die NV40-Linie konsequent auch nach unten hin ausbauen: Der NV41-Chip soll im unteren HighEnd- bis oberen Mainstream-Bereich plaziert werden, wobei dessen technische Ausführung derzeit noch etwas schleierhaft ist (womöglich ein NV40 mit nur echten 8 oder 12 Pipelines), der NV43 soll die Rolle der GeForceFX 5700 /Ultra aus dem Mainstream-Segment übernehmen und der NV42 oder der NV44 soll in die Rolle der GeForceFX 5200/5500 Chips im LowCost-Segment schlüpfen ...
... Völlig anders sieht dies hingegen bei ATi aus, welche derzeit keine Pläne haben, den R420-Chip ins Mainstream- oder/und LowCost-Segment zu übernehmen. Dies ergibt sich natürlich auch aus der Tatsache, daß der R420-Chip letztlich R300-Technik darstellt, was die jetzigen ATi-Angebote zumindestens im Mainstream-Bereich auch schon sind. Somit wird ATi für den Mainstream-Bereich "nur" auf eine Weiterentwicklung des bisherigen setzen und mit dem RV380 eine PCI-Express-Version der Radeon 9600XT aka RV360 herausbringen. Eine Neuentwicklung wird dagegen der RV370-Chip für den LowCost-Bereich darstellen, wobei übertragenermaßen sicherlich die bisherigen RV3x0-Chips Pate bei diesem gestanden haben dürften ...
... Der RV370 wird wohl jedoch aufgrund seiner Ausrichtung für den OEM-Bereich, wo nVidia derzeit den DirectX9-Markt aufgrund der sehr preisgünstigen GeForceFX 5200/5500 Grafikkarten dominiert, ebenso wie die beiden vorgenannten nVidia-Chips noch weiter abgespeckt werden, um Transistoren zu sparen und somit einen möglichst günstigen Herstellunsgpreis realisieren zu können. Allen vorgenannten neuen Grafikchips von ATi und nVidia ist zudem das PCI Express gemein - und das sie ungefähr im dritten Quartal antreten sollen. Dann werden beide Grafikchip-Entwickler zusammen mit NV45 und R423 als den HighEnd PCI-Express-Abwandlungen von NV40 und R420 das komplette Grafikkartensegment mit neuen PCI Express Grafikkarten abdecken können, was das baldige Aussterben der AGP-Schnittstelle durchaus stark vorantreiben könnte.
Laut einer Meldung der x-bit Labs kommen Interessenten an einer Radeon 9800 Pro demnächst ebenfalls noch in den (zweifelhaften) Genuß, auf das Vorhandensein der jeweils höherwertigen Speicheranbindung achten zu müssen, denn Sapphire will diese Karte zusätzlich zur regulären Version auch mit nur 128 Bit Speicherinterface anbieten. Original haben diese Karten bekanntermaßen ein 256bittiges Speicherinterface, was auch deutlich besser zu den 8 Rendering-Pipelines dieser Karten passt. In einer Version mit auf 128 Bit halbierten Speicherinterface dürfte diese Radeon 9800 Pro deutlich an Leistung verlieren, weil einfach zu wenig Speicherbandbreite vorhanden ist ...
... Ob die erreichten Leistungen dann noch überhalb einer Radeon 9600XT (500/300 MHz bei 4 Pipelines und 128 Bit Speicherinterface) liegen, hängt von den exakten Taktraten der Radeon 9800 Pro 128-bit ab (vermutlich gleich der normalen Radeon 9800 Pro, ergo 380/340 MHz), aber zumindestens sollte der Unterschied nicht wirklich bedeutend sein. Preislich soll die Radeon 9800 Pro 128-bit etwas teurer als die Radeon 9600XT rangieren, wobei hierbei allerdings noch nicht sicher ist, ob diese von den x-bit Labs aus Japan gemeldeten Karten nicht eventuell nur ein Produkt rein für den asiatischen Markt darstellen, welche dann hierzulande letztlich nie auftaucht ...
... Nichts desto trotz gilt, jederzeit auf den feinen, aber für die Performance wesentlichen Punkt des Speicherinterfaces beim Grafikkarten-Kauf zu achten, auch wenn Sapphire in diesem Fall diese Karten geradezu vorbildlich auch klar als "128-bit Edition" labelt. Andere derzeit im Handel befindliche Grafikkarten mit halbierten Speicherinterface sind im übrigen: Radeon 9800SE (original 256 Bit, teilweise auch 128 Bit Versionen am Markt), Radeon 9200 (original 128 Bit, aber derzeit sind fast nur noch Versionen mit 64 Bit zu bekommen), Radeon 9200SE und 9600SE (beide werden generell nur als 64 Bit ausgeliefert) auf ATi-Seite sowie GeForceFX 5600XT, 5200 und 5500 (hier sind allesamt sowohl 128- als auch 64-Bit-Versionen im Handel) auf nVidia-Seite.
Shortcuts: Bei den x-bit Labs gibt es eine hervorragende FAQ zur GeForceFX 5900XT, welche sich maßgeblich mit deren verschiedenen Hersteller-Varianten sowie deren Overclocking-Möglichkeiten beschäftigt. Bei Allround-PC gibt es den Testbericht einer seltenen 256-MB-Ausführung der Radeon 9600XT (seitens Abit). Normalerweise sind 256 MB Grafikkartenspeicher den HighEnd-Boliden oder aber den LowCost-Grafikkarten vorbehalten, im oberen Mainstream-Bereich aber bislang noch nicht vertreten. Wichtig für IT-Verantwortliche: Laut dem Heise Newsticker kann selbst der unwissentliche Weiterversand von Virenmails durch Firmen Haftungsansprüche nach sich ziehen, da Firmen zur Sicherung der eigenen IT-Anlagen verpflichtet sind. Und letztlich wäre noch auf einen wirklich hübsch anzuschauenden Case-Mode namens "BaDassII" hinzuweisen, welcher bei PC Perspective gezeigt wird.
News des 20. Mai 2004 |
Beim chinesischen PC-Pop (maschinelle englische Übersetzung) gibt es einen ersten Benchmark einer GeForce 6800. Dieser fällt mit 8242 Punkten in 3DMark03 ziemlich positiv aus, vergleicht man es mit unserem Ergebnis der GeForce 6800 Ultra von 10796 Punkten auf einem sehr ähnlichen Mittelklasse-Testsystem. Denn dies sind nur eine Leistungsdifferenz von 31 Prozent bei einem Hardware-Unterschied von 64 Prozent bei der Füllrate und 57 Prozent bei der Bandbreite. Wie die GeForce 6800 wirklich einzuordnen wäre, ist mit diesem einzelnen Benchmark-Ergebnis natürlich bei weitem noch nicht gesagt. Interessant wird hier in erster Linie der Vergleich zur Radeon X800SE sein, da jene im selben Preissegment von 299 Dollar US-Listenpreis antreten wird.
Beim Heise Newsticker gibt es noch ein paar weitere technische Informationen zum MXM-Standard seitens nVidia, dort sieht man diesen allerdings etwas weniger erfolgversprechend. Den großen durchschlagenden Erfolg wird MXM sicherlich erst dann haben, wenn auch ATi mit auf diesen Zug aufspringt. Hierzu bringen die x-bit Labs die Information, daß ATi prinzipiell offen gegenüber MXM dasteht: Sollte es ein Notebook-Hersteller von ATi fordern, so werde man die eigenen Notebook-Grafikchips auch im MXM-Format anbieten. Allerdings wird ATi anscheinend in den nächsten Wochen zusätzlich noch seinen eigenen Standard für austauschbare Notebook-Grafikchips bringen, welcher allerdings inkompatibel zu MXM sein soll ...
... Was dies für Auswirkungen hat, ist jetzt noch nicht abzusehen: Möglich wäre durchaus die Situation, daß für beide Standards dann nur Grafikchips des jeweiligen Herstellers angeboten werden. Genauso gut ist es aber auch denkbar, daß beide Grafikchip-Entwickler ihre Notebook-Grafikchips in allen möglichen Bauformen anbieten: Sowohl für den eigenen Standard als auch für den Standard des Konkurrenten. Die Grafikchips selber bleiben dabei schließlich unverändert (es ist also keine extra Produktion notwendig), da sie auf den austauschbaren Modulen wie auf einer Art Mini-Grafikkarte sitzen und immer nur diese Platine geändert werden müsste.
Sehr eingehend mit dem nVidia nForce3 250Gb Chipsatz und dem darauf basierenden Epox 8DKA3+ Mainboard hat man sich bei Hard Tecs 4U beschäftigt. Bezüglich der Performance-Messungen war wieder einmal der Effekt zu beobachten, daß sich die verschiedenen Chipsätze für den Athlon 64 im Schnitt der Messungen eigentlich nichts nehmen, eventuell auftretende Unterschiede sind eher im marginalen Bereich zu sehen. Dies hängt sicherlich in erster Linie daran, daß der für die Mainboard-Performance maßgeblich entscheidende Speichercontroller bei den K8-Prozessoren bekanntlich in die CPU selber gewandert ist ...
... Insofern kann man sich wohl langsam aber sicher beim Thema Athlon 64 Chipsätze von der Suche nach dem jeweils schnellsten verabschieden (während dies bei den Pentium 4 Chipsätze nach wie vor ein Thema bleibt), denn alle bisherigen Erkenntnisse auf diesem Gebiet deuten in die Richtung, daß es hier auch zukünftig keine wirklichen Unterschiede geben wird. Somit werden zwischen den Athlon 64 Chipsätzen vermehrt die Punkte Southbridge-Features und Overclocking-Eignung als Unterscheidungsmerkmale interessant, wobei der nForce3 250Gb hier durchaus glänzend dasteht, wenn er auch nicht am Maximum des derzeitig möglich ist (die Dolby Digital Soundeinheit des nForce2 fehlt bisher in allen nForce3-Variationen) ...
... Interessant am Artikel von Hard Tecs 4U ist die recht vollständige Beschreibung der integrierten Firewall des nForce3 250Gb (welche nicht beim nForce3 250 ohne "Gb" vorhanden ist!), jenes erstmals bei einem Mainboard-Chipsatz integrierte Feature wurde bisher schon mit großer Aufmerksamkeit seitens der Hardware-interessieren Gemeinde bedacht. Allerdings sind wir für unseren Teil nach der Lektüre dieses Artikels nicht mehr so sicher, ob sich diese Lösung wirklich "per Hardware" nennen darf oder ob nVidia nicht einfach per Treiber eine - in gewissem Sinne "gewöhnlich" - Software-Firewall beilegt, Zertifizierung durch ein angesehenes Institut hin und her ...
... Denn letztlich ist eine Hardware-Firewall per Definition auch nur eine Software-Lösung, welche jedoch auf einem extra Rechner läuft und damit - das ist der entscheidende Punkt - unabhängig vom restlichen Rechner-Netzwerk ist. Der Sinn der Sache liegt darin, daß bei einer Komprimitierung eines zu schützenden Rechners die Schutz-Software nie auf demselben Rechner läuft und damit unmöglich selber zum Ziel eines Angriffs werden kann. Dies greift den zweitwichtigsten Nachteil von Software-Firewalls auf (der erstwichtigste ist der Benutzer selber: ohne richtige Konfiguration ist eine Firewall gefährlicher als gar keine Firewall), nämlich den Punkt, daß eine Schädlingssoftware potentiell eine auf demselben Rechner laufende Software-Firewall ebenso befallen könnte ...
... Im schlimmsten Fall würde diese Schädlingssoftware dem Benutzer das Weiterfunktioneren der Firewall vortäuschen, währenddessen deren Funktionalität eigentlich deaktiviert wurde. Liegt die Firewall auf einem anderen Rechner, eben einer Hardware-Firewall, welche nur zum Zweck der Überprüfung der IP-Pakete mit dem Netzwerk verbunden und ansonsten durch dieses nicht ansprechbar ist, vermeidete man dieses Risiko. Natürlich haben Hardware-Firewalls noch andere Vorteile, welche sich inbesondere im Einsatz für große Rechner-Netzwerke ergeben, doch speziell die Firewall des nForce3 250Gb ziehlt sicherlich nicht auf einen solchen Einsatzort ab ...
... "Hardware-Firewall" möchten wir sie hingegen eher nicht mehr nennen, denn dafür fehlt die grundsätzliche Bedingung, unabgängig von der eigentlich zu schützenden Hardware zu sein. Daß ist die Firewall des nForce3 250Gb mitnichten, denn ein möglicher Schädling kann potentiell eben auch diese befallen und damit unwirksam machen. Von der Art und Weise ist die Firewall des nForce3 250Gb allerdings in der Tat eher professionell aufgebaut, sprich es stehen umfangreiche Möglichkeiten zur Detail-Einstellung der Firewall zur Verfügung. Um diese alle Nutzen zu können (und vorher ist die Firewall wohl wirkungslos), bedarf es allerdings sicherlich bei den meisten Nutzern einer gewisse Einarbeitungszeit - danach hätte man aber eine Software-Firewall auf anscheinend recht hohem Niveau bei der Hand.
News des 19. Mai 2004 |
Nach Hercules/Guillemot zieht sich jetzt auch noch TerraTec aus dem Grafikkarten-Geschäft zurück, wie Hard Tecs 4U berichten. Der Grund dafür ist ähnlich wie schon bei Hercules der Punkt, daß es im Grafikkarten-Geschäft zu wenige Möglichkeiten zu einer Unterscheidung zu anderen Herstellern gibt - womit letztlich nur der Preiskampf bleibt, was wiederum dem Unternehmsergebnis nicht besonders zuträglich ist (auch wenn TerraTec den letzten Punkt nicht offen aussprach). Zum Ausgleich gibt es dafür ein Review der ersten Grafikkarten vom wiederauferstandenen Grafikkarten-Hersteller Diamond bei Hot Hartware - selbst wenn die dort untersuchten Grafikkarten aufgrund deren 64bittigen Speicherinterface eher zweifelhafter Natur sind.
Andere Grafikkarten-Hersteller versuchen vorgenannter Meldung jedoch zu trotzen und legen einige Abwandlungen bekannter Grafikkarten vor: So wird Sapphire laut einer Meldung von Hartware jeweils "Toxic" genannte Sonder-Varianten der Radeon X800 Pro sowie der Radeon X800XT ins Feld führen, welche ausgerüstet mit einer ArcticCooling VGA-Silencer Cooling-Lösung leiser und zugleich übertaktungsfreudiger zu Werke gehen sollen. Die x-bit Labs haben dagegen Details zu den neusten Kreationen von Gainward, bekannt für seine ab Werk übertakteten Grafikkarten ...
... So soll es auf Basis des GeForce 6800 Ultra Chips eine "CoolFX PowerPack! Ultra/2600 Golden Sample" genannte Grafikkarte mit den Taktraten 430/575 MHz geben, eine wassergekühlte Ausführung dieser soll sogar mit 450/600 MHz antreten. Wobei die Übertaktung der Speicherchips zwar nett ist, aber dennoch kein Kunststück darstellt, da die auf GeForce 6800 Ultra wie Radeon X800XT eingesetzten Samsung-Speicherchips sowieso für 600 MHz Takt spezifiziert sind. Mit der richtigen Speicherspannung sollten alle GeForce 6800 Ultra und Radeon X800XT Grafikkarten diesen Speichertakt ohne jegliche Gefahr für die Hardware realisieren können.
Im Fall der gegenüber ATi erhobenen Cheat-Vorwürfe hatte man seitens ATi einen Chat mit einigen ATi-Entwicklern angesetzt, dessen Log hier nachzuschlagen ist. Richtig und auch unsererseits hervorzuheben ist der Punkt, daß die neue ATi-"Optimierung offensichtlich kaum Bildqualität kostet, dies also im realen Spiel-Alltag kaum oder nicht wahrzunehmen sein wird. Insofern kann man durchaus von einer recht idealen Optimierung sprechen, bei welche viel Performance für wenig Bildqualität getauscht wird. Ironischerweise müsste dies dann aber auch für nVidia´s brilinearen Filter gelten, denn dieser hat letztlich den fast identischen Effekt wie die neue ATi-"Optimierung ...
... Allerdings läßt sich auch mit Recht argumentieren, daß eine solche Optimierung immer auch deaktivierbar sein sollte - ganz besonders bei 500-Dollar-Beschleunigern. Eine Option mehr im Control Panel und keiner hätte einen Grund gehabt, sich zu beschweren. ATi sagte diesbezüglich im übrigen aus, daß man die Option eines voll-trilinearen Filters eventuell in zukünftige Treiber einbauen werde, wenn es denn von den Nutzern gefordert werden würde. Die Crux liegt aber weniger in dieser Optimierung an sich, sondern in der damit schwindenen Vergleichsfähigkeit von Grafikkarten ...
... Denn wie sollen zukünftig Grafikkarten verglichen werden, wenn die Länge der Benchmark-Balken durch die Klasse der Optimierung bestimmt wird - und nicht durch die real anliegende Leistung? Die Optimierung des einen Herstellers wird so letztlich nur die Optimierung des anderen herausfordern. Wieder stellt sich also die Frage, wieso es für die Hersteller so schwierig ist, einen entsprechenden Aus-Schalter in ihre Treiber zu integrieren. Und selbst auf die Gefahr hin, als nVidia-biased dazustehen: Die Kalifornier haben es letztlich beim NV40 getan - und werden nun mit Nachteilen in den Benchmarks gestraft ...
... Im übrigen ist die Diskussion zum Thema in unserem Forum natürlich weitergegangen und hat auch noch ein paar interessante Statements produziert. Als erstes hätten wir da eine Aussage von John Carmack, welcher die Sache klar als Cheat ansieht. Gegenüber der gern vorgetragenen Begründung, ATi´s neue "Optimierung" hätte schließlich Microsoft´s WHQL-Prüfung bestanden, richtet sich dieses Posting, welches klar aussagt, daß die WHQL-Prüfung eine Optimierung des trilinearen Filters gar nicht erkennen kann. Lesenswerte Meinungen gibt es zudem hier, hier und hier - damit wir uns nicht immer wieder bezüglich unseres eigenen Standpunkts zum Thema wiederholen müssen :-).
Wie beim Planet 3DNow! zu lesen ist, haben nun auch noch Transmeta und VIA die Unterstützung für das NX-Feature von Windows XP, hier genauer beschrieben, angekündigt. Damit sind letztlich inzwischen alle Prozessoren-Hersteller für x86-Prozessoren an Board bei NX, welches Microsoft mit dem zweiten Service Pack für Windows XP bringen wird. Bei Intel steckt NX bekanntlich schon im Prescott-Prozessor, wird aber von Intel erst dann aktiviert werden, wenn jenes zweite Service Pack spruchreif ist. Was ehrlicherweise ziemlich nachteilig für die jetzigen Käufer eines Prescott-Prozessors ist, welche dann für den Genuß von NX schon wieder zum Neukauf gezwungen wären.
Über die erheblich vorgezogene Einführung des FSB1066 beim Pentium 4 Prozessor berichten Hard Tecs 4U. Ursprünglich war der FSB1066 erst für den Tejas-Prozessor im Jahr 2005 oder gar erst 2006 vorgesehen, nun aber soll es schon dieses Jahr soweit sein. Dabei bekommen zuerst die Extreme Editions den höheren FrontSideBus, aber auch der normale Pentium 4 soll noch dieses Jahr zum FSB1066 kommen. Für den Intel-Käufer wird damit die Mainboard-Geschichte interessant, denn die im Sommer kommenden neuen Sockel 775 Chipsätze werden allesamt den FSB1066 noch nicht offiziell unterstützen ...
... Dies will Intel erst mit dem i925XE-Chipsatz im dritten Quartal nachholen, einer FSB1066-Abwandlung des normalen i925X "Alderwood" Chipsatzes. Wer also bei seiner Sockel 775 Plattform wirklich zukunftssicher kaufen will, muß entweder auf den i925XE warten, oder aber ein i915/i925-Mainboard suchen, welches inoffiziell schon den FSB1066 unterstützt. Dafür reicht aber sicherlich nicht allein die reine Möglichkeit, so weit zu übertakten, sondern vielmehr muß es das Mainboard auch in der Praxis mitmachen, was nur entspechende Tests feststellen können. Ironischerweise gibt es auf der Speicherseite da wohl weniger Probleme ...
... Sicherlich ist es sinnvoll, zur richtigen Ausnutzung des Leistungvorteils des FSB1066 ebenfalls auch den Speichertakt anzuheben, so daß dieser die Bandbreite des FSB1066 von 8 GB/sec matcht. Bei einem DualChannel DDR-Speicherinterface wären dies also 266 MHz Speichertakt aka DDR533, was die meisten der heutigen Retail-Mainboards wohl recht problemlos bewältigen dürften. Natürlich kann man auch DDR2-Speicher einsetzen, da die kommenden Mainboards bis zu DDR2/533 sogar offiziell unterstützen (auch diese ohne FSB1066-Support). Doch damit würde man letztlich auch wieder nicht das Maximum an Leistung aus der Technik herausholen, da DDR2-Speicher auf gleichem Takt ein gutes Stück langsamer als DDR1 ist.
Shortcuts: Korrektur zu den vorgestrigen News: Der PC-Bauer Alienware verkauft inzwischen auch in Deutschland, womit deren ALX-Technik also eigentlich auch irgendwann einmal hierzulande zu erstehen sein sollte. TweakPC berichten hingegen über den ersten CPU-Kühler mit 120mm Lüfter. Ein Roundup der LowCost-Grafikkarten, welche aber zumindestens noch mit 128 Bit Speicherinterface antreten, findet sich bei TweakTown. Und letztlich gibt es bei t-break noch ein kurzes Preview des i915 "Grantsdale" Chipsatzes, welches zwar keine Benchmarks enthält, aber zumindestens anscheinend offizielle Daten zu dessen exakten Spezifikationen.
News des 18. Mai 2004 |
Neues im Fall ComputerBase vs. ATi: Als erstes gab es ein allgemeines, wenn auch eher als inoffiziell einzuordnendes Statement von Richard Huddy, dem Chef der europäischen Developer Relations bei ATi, welches - doch recht freimütig - auf "Alle cheaten" lautet. Jenes Statement sagt aber eben auch aus, woher die neuen Filter-"Optimierungen" der X800-Serie seitens ATi letztlich kommen: Aus der Erkenntnis, daß nVidia seinerzeit sich an einigen Filter-"Optimierungen" versuchte - und sicherlich auch aus dem Punkt, daß diese bei der RV3x0-Serie jetzt über ein Jahr lang unerkannt geblieben sind ...
... Doch natürlich darf es nicht Sinn und Ziel der Weiterentwicklung sein, daß immer mehr "Optimierungen" in neue HighEnd-Chips eingebaut werden, nur weil die Konkurrenz ähnliches getan hat. Eventuell wäre es der bessere Weg, anstatt selber eigene "Optimierungen" zu realisieren, lieber die "Optimierungen" der Konkurrenz offenzulegen. Dies wäre zwar nicht die feine englische Art, aber würde zumindestens einen Optimierungs-Wettstreit verhindern - und funktioniert zudem nachweislich: Denn nVidia hat diesbezüglich seine Strategie ja schon geändert und bietet bei der NV40-Serie nun die Möglichkeit an, die eigenen "Optimierung" generell zu deaktivieren ...
... Und desweiteren gab es dann noch ein offizielles Statement von ATi, welches den (üblichen) Spruch von besserer Performance ohne den Verlust von Bildqualität bringt und damit die von der ComputerBase entdeckte Filter-"Optimierung" seitens ATi eindeutig bestätigt. Der Punkt, wonach nach dem Einfärben der MipMaps die "Optimierung" wieder entschwindet und ein voll-trilinearer Filter zu sehen ist, erklärt ATi damit, daß ihre "Optimierung" adaptiv arbeite, demzufolge bei großen Unterschieden zwischen den einzelnen MipMaps (wie es bei der Einfärbung auftritt) die mitlaufende "Optimierung" vom Treiber deaktiviert werden würde ...
... Dies soll demzufolge (laut ATi) keine Funktion sein, um die Hardware-Tester über die vorhandene "Optimierung" zu täuschen, sondern einfach in der Art und Weise des Funktionierens der ATi-"Optimierung" liegen. So zumindestens die offizielle ATi-Erklärung. Wir denken allerdings zu diesem Punkt, das hier seitens ATi noch weitere Erklärungen notwendig sind. Wir würden gern eine Situation in einem realen Spiel sehen, wo die ATi-"Optimierung" aufgrund dieser automatischen Erkennung des Unterschieds zwischen den MipMaps nicht greift. Denn sollte es sich herausstellen, daß es in realen Spielen nahezu keine solchen Situationen gibt, so würde sich die sogenannte Adaptivität wiederum nahezu auf diese Fälle beschränken, wo eingefärbte MipMaps im Spiel sind ...
... Unserer Meinung nach ist ATi also noch lange nicht aus der Diskussion heraus, ob man möglicherweise versuchte, die eigene "Optimierung" zu vertuschen. Das ATi-Statement stellt hierzu eben nur den Standpunkt der Kanadier dar - nicht weniger, aber auch nicht mehr. Denn richtig bezeichnend wird es, wenn man sich die Präsentationen zum Launch der X800-Serie ansieht, wo ATi regelrecht zum Vergleich der Filter-Qualitäten mit eingefärbten MipMaps auffordert, sich selbst die bestmögliche trilineare Filter-Qualität zuspricht und die Nutzung von "Filter-Tricks" (O-Ton ATi) als unakzeptabel nennt ...
... An dieser Stelle angekommen muß gefragt werden, wo da die Ehrlichkeit gegenüber den Hardware-Testern und Endkunden war?! Wenn man eigene "Optimierungen" mitlaufen lassen hat, welche mittels der von seinem selbst empfohlenen Tools nicht erkennbar sind und welche zudem die Ergebnisse der Tests dieser Tools maßgeblich beeinflußen, ist man geradezu in der Pflicht, dies entsprechend kundzutun. Die Alternative wäre, sich komplett aus der Diskussion um die Filter-Qualität herauszuhalten, was ATi beim Launch der X800-Serie jedoch nicht getan hat. Nun ist man unserer Meinung nach in der Bringpflicht, die entsprechenden PDFs zu ändern und sich bei den Hardware-Testern und Endkunden für diese Falschdarstellung und der daraus entstehenden Konsequenzen (in Form von fehlerhaften Artikeln mit fehlerhaften Aussagen zur Filterqualität bei ATi) zu entschuldigen ...
... Mit den ersten Statements, welche die ATi-"Optimierung" an sich eingestehen, ist es hier nicht getan. Es fehlt noch die Entschuldigung dafür, daß man den Hardware-Reviewern und damit den Endkunden regelrecht falsche technische Informationen zum Launch der X800-Serie zukommen ließ, sowie daß man sich seinerzeit mit den (inzwischen nachgewiesenen) falschen Federn bezüglich der besten Filterqualität schmückte. Wenn die ATi-"Optimierung" wirklich so wenig bis gar keine Bildqualität kostet, wie dies ATi aussagt, dann wird es immer weniger verständlich, wieso man sich nicht schon zum X800-Launch dazu offen bekennen konnte.
Nun haben in der Beratung der EU-Kommission doch und wider unseres Erwartens die Befürworter von Software-Patenten gesiegt (selbst Deutschland knickte diesbezüglich entgegen früherer Ankündigungen ein), womit zukünftig in der Europäischen Union unter gewissen Bedingungen auch Software patentierbar sein wird, wie der Heise Newsticker berichtet - womit unser entsprechender Artikel damit noch brand-aktueller wird. Zwar soll es angeblich Änderungen in letzter Sekunde gegeben haben, doch wie weit diese reichen, ist derzeit vollkommen unklar - die Aussagen der daran beteiligten Personen sind leider nicht mehr als Absichtserklärungen zur Beruhigung aller in diese Diskussion verwickelten Parteien, lassen aber nicht auf die viel wichtigere konkrete Umsetzung schließen ...
... Aus jetztiger Perspektive läßt sich allerdings erkennen, daß Software in der Europäischen Union nur dann patentierbar sein wird, wenn sie technische Features enthält. Daß diese technischen Features selber ebenfalls neu sein müssen, ist damit aber nicht gesagt. Hier kommt es auf die Praxis an, wie stark Software also in der Realität patentiert werden wird. Angesichts der diesbezüglichen Ansichten des Europäischen Patentamts, welche bisher schon (ohne wirkliche rechtliche Grundlage) ca. 30.000 Software-Patente genehmigt hat, ist hier wohl eher schwarz zu sehen. Passend hierzu auch ein schon älteres Statement von Microsoft-Mitbegründer Bill Gates, welches klar aussagt, daß Patente mitnichten dem Schutz vor Ideen-Nachahmern dienen, sondern vielmehr dem "Schutz" der großen vor den kleineren Firmen - soviel zum Thema "Innovations- und Wettbewerbsförderung" durch Software-Patente.
Shortcuts: Der Planet 3DNow! hat einen Bericht zum Richtfest der AMD Fab36 in Dresden. Ein Interview mit Tim Sweeney von Epic zur Unreal Engine 3 gibt es bei Beyond Unreal, welches unter anderem auch über die teils exorbitante Hardware-Anforderung dieser Engine Auskunft gibt. Und letztlich hat laut Golem Linus Torvalds nun endlich zugegeben, daß er wirklich nicht der Erfinder von Linux ist, wie eine von der immer auf der Suche nach der einzig gültigen Wahrheit befindlichen Firma Microsoft finanzierte Studie jetzt herausgefunden hatte.
News des 17. Mai 2004 |
Neuere Informationen zu den gestern genannten "Optimierungs"-Vorwürfen gegenüber ATi sind der entsprechenden Diskussion in unserem Forum zu entnehmen. Damit wird auch klarer, wo nun der Unterschied in der Bildqualität liegt. Offenbar setzt ATi anstatt des trilinearen Filters wie nVidia bei der GeForceFX-Serie einen brilinearen Filter an, sprich einen Mix aus trilinearer und bilinearer Filterung. Dieser Effekt ist in Standbildern nahezu nicht zu erkennen - demzufolge ist auch die Argumentation, daß die neue ATi-"Optimierung" keine Bildqualität vernichte, in dieser Form zumindestens nicht haltbar ...
... Ermittelt wurde dieser Effekt mittels Differenzbildern, welche einen generellen Unterschied genau an der Grenze zwischen zwei MipMaps erkennen liessen, worauf man eben seitens der ComputerBase auf einen brilinearen Filter auch bei ATi schloß. Im übrigen soll dieser brilineare Filter schon des längeren (unerkannt) auf RV3x0-Chips aktiv sein, und zwar wie bei der X800-Serie unabhängig davon, ob man über das Control Panel geht oder aber das Spiel alle Einstellungen treffen läßt. Sprich, selbst in der eigentlich als unantastbar angesehenen Applikation-Einstellung filtern RV3x0 und R420 anscheinend nur brilinear, die R3x0-Chips sind davon nicht betroffen ...
... Allerdings gibt es inzwischen auch schon durchaus griffige Gegen-Argumente: So wurde herausgefunden, daß es selbst bei einem bewußt auf "bilinear" gestellten Texturenfilter einen Performance-Unterschied zwischen der normalen Messung und der Messung mit eingefärbten MipMaps gibt. Damit kann es also nicht als sicher betrachtet werden, daß dieser Performance-Unterschied bei einer trilinearen Grundfilterung wirklich auf das Konto der brilinearen "Optimierung" anstatt des eingestellten trilinearen Filters geht. Natürlich ist auch beides möglich: Daß der brilineare Filter bei ATi am wirken ist, daß aber gleichzeitig auch eine Performance-Messung mit eingefärbten MipMaps Leistung kostet ...
... Insofern gibt es derzeit eine Menge an Argumenten, die für eine unlautere "Optimierung" seitens ATi sprechen, aber auch einige Gegen-Argumente, welche genauso nicht unbeachtet bleiben dürfen. Noch ist also nicht entschieden, ob diese Entdeckung wirklich als unerlaubte "Optimierung" aka Cheat anzusehen ist. Zumindestens scheint sie reichlich Performance zu bringen - unter dem eigentlich schon recht CPU-limitierten Unreal Tournament 2003 waren es zwischen 15 und 20 Prozent. Eine Aussage, wie sich diese "Optimierung" oder zumindestens der zweifelsfrei in den Benchmarks zwischen normaler Messung und Messung mit eingefärbten MipMaps festgestellte Performance-Unterschied in anderen Spiele verhält, ist dies natürlich nicht.
Bei Hard Tecs 4U wird über den kürzlich von nVidia aus der Taufe gehobenen MXM-Standard für Notebook-Grafikchips berichtet. Dieser freie Standard geht ein altes Problem von Notebook-Grafik an: Die nicht vorhandene Aufrüstfähigkeit, da fast ausschließlich auf dem Mainboard integrierte Grafikchips bei Notebooks zum Einsatz kommen. nVidia hat nun mittels MXM einen Standard spezifiziert, welcher ein an PCI Express angeschlossenes Grafik-Modul vorsieht, welches sowohl für Notebook-Hersteller als auch für den Endkunden austauschbar ist. Damit könnte mobile Grafik weiter an Bedeutung gewinnen, da mit MXM ein weiterer bisheriger Nachteil gegenüber Desktop-Grafikchips wegfällt.
Bei HomeLAN Fed hat man ein Interview mit Alienware zu deren gestern schon genannter DualGrafikkarten-Technik geführt. Daraus läßt sich unter anderem entnehmen, daß Alienware den Performance-Gewinn dieser Lösung auf 50 Prozent und mehr schätzt, was im üblichen Rahmen von DualGrafikkarten-Lösungen liegt. Entsprechende Komplett-Systeme will Alienware ab Juni 2004 ausliefern, einzelne Mainboards mit der ALX genannten Technologie soll es dagegen erst im dritten bis vierten Quartal geben. Leider verkauft Alienware derzeit nur in den Vereinigten Staaten, so daß das Herankommen an ALX-Technik sicherlich nicht einfach sein dürfte.
Weiterhin wäre noch die neueste abstruse Idee der Jugendschützer in Deutschland zu vermelden: Auch Suchmaschinen sollen zukünftig dem Jugendschutz unterworfen werden, wie der Heise Newsticker berichtet. Sprich: Entweder gibt es eine Suche nur noch nach einer sicheren ab18-Anmeldung - oder aber freies Suchen mit ausschließlich jugendfreien Suchergebnisse. Natürlich müssten die internationalen Teile der Suchmaschinen ihre deutschen Besucher dann per IP-Abfrage zu ihren speziell deutschen Angeboten weiterleiten (wie es Google.com jetzt schon tut), auf das keiner aus dem "deutschen Internet" auszubrechen vermag. Nicht umsonst sieht die Volksrepublik China in Deutschland einen engagierten Mitstreiter im "War on sauberes Internet" ;-).
Wie die Tagesschau berichtet, hat die EU-Kommission dann letztlich doch den Forderungen des amerikanischen "Heimatschutz"-Ministeriums nachgegeben hat und wird die Daten der europäischen Flugpassagiere (mit Reiseziel USA) künftig zu diesem weitergeben lassen. Und wer noch eine Motivation suchte, zur nächsten Europa-Wahl am 13. Juni zu gehen: Die Entscheidung des vom Bürger gewählten EU-Parlaments, daß diese Datenweitergabe gegen das Datenschutzrecht der EU verstoße und daher erst vom Europäischen Gerichtshofs zu prüfen sei, wurde von der (nicht vom Bürger gewählten) EU-Kommission einfach übergangen, wozu ihr leider nach den Regeln der EU die Möglichkeit zusteht.
Shortcuts: Laut dem Tech Report hat die Radeon X800 Pro inzwischen Japan erreicht, womit es zum Ende des Monats auch in unseren Breitengraden soweit sein sollte. Bei den x-bit Labs hat man den gestern schon genannten Radeon X800 Pro -> XT Hardware-Mod (und auch noch andere Wege) ausprobiert - allerdings ohne Erfolg. The Inquirer berichten über die Grundsteinlegung der Fab36 von AMD in Dresden, welche zukünftig einmal 65nm Prozessoren herstellen wird. Und letztlich hat die Virtual Zone - noch bevor die Karte überhaupt erhältlich ist - einen Spannungs-Mod für die Radeon X800 Pro anzubieten.