News-Archiv 26. April - 2. Mai 2004 (18. Kalenderwoche)
1./2. Mai 30. April 29. April 28. April 27. April 26. April
News des 1./2. Mai 2004 |
Über einen Artikel seitens DriverHeaven, welcher sich mit der Filterqualität der beiden Grafikchip-Entwickler beschäftigt und nVidia bei der GeForce 6800 /Ultra eher "unlautere Optimierungen" vorwirft, wurde in den letzten Tagen webweit und auch in unserem Forum heftig diskutiert. Allerdings wird - bei aller Liebe zu neuen Erkenntnissen in diesen Optimierungs-Fragen - häufig vergessen, daß der hierbei seitens DriverHeaven zum Vergleich eingesetzte Referenz-Rasterer von Microsoft eben nicht den verbindlichen Maßstab darstellt, was die Bildqualität angeht, und somit schlecht zu einem solchen Vergleich taugt ...
... Klar ist jedoch auch, daß nVidia beim NV40-Chip gegenüber den eigenen vorherigen Chips den isotropen Grundfilter etwas verändert hat, wie schließlich schon unserem NV40-Technikartikel zu entnehmen. Diese technische Änderung könnte dann durchaus für die aufgetretenen Unterschiede verantwortlich sein - da diese schließlich vor allem bei einem bilinearen Filter, wie ihn der 3DMark03 gern einsetzt, sichtbar sein sollten. Ob man das als Cheat werten möge, ist dabei aber eine andere Sache. Es ist wohl eher eine (wenn auch bewußte) Limitierung der Hardware, damit diese einen geringeren Rechenaufwand hat ...
... Selbiges hat ATi schon bei seinem winkelabhängigem anisotropen Filter gemacht - und dieses wurde und wird nicht als Cheat bezeichnet. Insofern verdient die neue, doch wohl wesentlich kleinere nVidia-Optimierung sicherlich nicht das Prädikat "Cheat". Schön ist sie trotzdem nicht, weil es bezüglich der Bildqualität eben doch noch ein wenig besser gehen könnte. Dies ist allerdings das befürchtete Resultat der Optimierung des einen Herstellers, welche den anderen Hersteller dazu bewegt, gleiches zu tun - womit sich beide Hersteller ergo einen Zweikampf um die größtmöglichen Optimierungen liefern und nicht um die bestmögliche Bildqualität.
Die EE Times berichtet vom langsamen Ende von RDRAM-Speicher für PC-Systeme (der RDRAM-Nachfolger XDR wird anscheinend in NextGen-Konsolen verbaut werden, womit die Firma Rambus weiterhin im Geschäft bleibt). Bekanntermaßen hatte der Chipsatz-Hersteller SiS im letzten Jahr noch den R659-Chipsatz für das vierte Quartal 2003 angekündigt, dieser sollte mit QuadChannel RDRAM-Interface und Unterstützung von PC1200-Speichern auf eine gigantische Bandbreite von 9 GB/sec kommen. Dies wäre zwar etwas Overkill gegenüber den Anforderungen eines Pentium 4 mit FSB800 von 6 GB/sec, aber SiS wollte mit diesem Chipsatz auch nur in den absoluten HighEnd-Markt - und vermutlich war der R659 eher nur ein reines Marketing-Projekt, um für Aufmerksamkeit zu sorgen und in den Benchmarks vor Intel zu stehen ...
... Interessanterweise wollte laut der EE Times der Mainboard-Hersteller Asus hier bei SiS mit auf dem Zug springen und ein ebensolches R659-Board herausbringen. Doch der R659 wurde letztlich nie wirklich verbaut, auch weil SiS den R659 offenbar zum Ende des letzten Jahres nicht hat liefern können ("The better timing was the end of last year, but we missed that window.") - und heutzutage nun steht der R659 ohne PCI Express Schnittstelle dar, womit kein Mainboard-Hersteller angesichts des nahenden Starts von PCI Express noch über ein HighEnd-Produkt ohne PCI Express nachdenken wird und auch SiS den Chipsatz aus diesem Grund letztlich abgehakt hat ...
... Ebenfalls sei noch seitens Asus die Aussage zu hören gewesen, daß die hohen Erwartungen bezüglich der Performance des R659 sich (in den Vorserien-Tests des Herstellers) nicht erfüllt hätten, was sicherlich genauso gegen das Konzept eines solch absoluten HighEnd-Produkts (mit auch noch den teuren PC1200-Speicherriegeln) gesprochen hat. Ob sich das Performance-Problem mit einem Nachfolger des R659 wird lösen lassen, ist nicht gewiss, zumindestens soll es laut der SiS-Roadmap eine R659-Variation namens R659FX mit PCI Express Support geben, womit schon erst einmal der eine Grund für das Scheitern des R659 ausgeräumt wäre. Ob SiS diese Pläne allerdings wirklich weiterverfolgen wird, steht derzeit eher in den Sternen. Genauso möglich ist es, daß SiS, nachdem schon der R658 nicht wirklich gut im Markt ankam und der R659 dann gar nicht mehr, seine RDRAM-Pläne gänzlich streicht.
Bei PC-Experience gibt es einen interessanten Artikel, welcher sich mit dem generellen Schliessen jener Windows-Sicherheitslücke beschäftigt, über welche die allseits beliebten Viren & Würmer im gewöhnlichen einfallen. Zuerst einmal spricht der Artikel auch Klartext, was das Zustandekommen dieser Sicherheitslücke betrifft: Die Sicherheitslücke besteht zwar unter TCP/IP, welches zwangsläufig für den Internet-Zugang benötigt wird, das eigentliche Einfallstor ist jedoch der DCOM-Dienst. Dieser hat seinen Zweck darin, über mehrere Computer in einem Netzwerk verteilte Anwendungen laufen zu lassen ...
... Nun ist dies aber eine Anwendung, welche für die wenigsten Standalone-Rechner und selbst die meisten Rechner in einem Heim-Netzwerk interessant sein dürfte, sondern eher etwas für Firmen und Organisationen ist. Schön wäre es nun, wenn man diesen Unsinns-Dienst in der Windows-Diensteverwaltung (Start/Einstellungen/Systemsteuerung/Verwaltung/Dienste ... weitere Hilfe zu der Dienste-Verwaltung gibt es hier) einfach ausknipsen könnte, doch dort steht dieser natürlich nicht drin. Leider versteckt Microsoft die Abschaltmöglichkeit für DCOM in den Tiefen des Systems, wobei der Artikel von PC-Experience hierzu letztlich den entscheidenden Hinweis gibt, um DCOM gänzlich abschalten und den Erfolg dieser Maßnahme auch austesten zu können.
Wie leider nicht anders zu erwarten, ist die neue EU-Urheberrechtsrichtsline ohne größere weitere Diskussion (und trotz daß es erheblichen Diskussionbedarf gäbe!) laut dem Heise Newsticker am Dienstag in Brüssel durchgewunken worden, womit sie alle notwendigen Instanzen durchlaufen hat und in Kraft getreten ist. Damit kommen auf die EU-Mitgliedsstaaten nach der schließlich erst vor wenigen Monaten durch geändertes EU-Recht notwendig gewordenen Anpassungen der entsprechenden nationalen Gesetze weitere Gesetzesänderungen das Urheberrecht betreffen zu ...
... Wichtigster Punkt der neuen EU-Urheberrechtsrichtline ist die Kriminalisierung von Urheberrechtsverstößen auch im "privaten" Rahmen (gewerblich begangene Urheberrechtsverstöße waren schon immer eine Straftat), und zwar auch unabhängig von der Höhe des dabei entstandenen Schadens. Ein zweiter wichtiger Punkt ist, daß Internet-Provider dazu verpflichtet werden, Daten über vermutliche Urheberrechts-Verletzer den Rechteinhabern zur Verfügung zu stellen, womit die Medienindustrie wie schon in den USA auch eigene Ermittlungen gegen vermutliche Raubkopierer starten kann. Die Einarbeitung in nationales Recht in Deutschland und Österreich (die Schweizer sind wieder einmal fein raus) wird einige Zeit in Anspruch nehmen, kann aber als sicher kommend eingebucht werden.
News des 30. April 2004 |
Laut Hartware sind die von selbiger Seite gemeldeten Taktfrequenzen der GeForce 6800 doch nicht gänzlich korrekt - nun gut, jetzt lassen wir uns einfach von einer offiziellen Meldung seitens nVidia überraschen. Selbige Meldung sagt im übrigen aus, daß es laut nVidia keine - zuletzt spekulativ vermutete - GeForce 6800 Pro mit 12 Pipelines und 350/500 MHz Taktraten geben wird. Inzwischen gibt es jedoch schon wieder eine neue Spekulation seitens der ComputerBase, wonach es eine GeForce 6800GT mit 16 Pipelines und 350/500 MHz Taktraten angeben soll. Was schlicht abzuwarten bleibt :-).
Bei den Elite Bastards hat man sich das neue ATi-Feature "Temporal Anti-Aliasing, welches eigentlich für die kommenden R420-Chips gedacht ist, auf einer Radeon 9800 Pro angesehen. Bei Temporal Anti-Aliasing wird für jedes neue Frame das Samplemuster (nicht die Sampleanzahl!) verändert, womit bei entsprechend hoher Framerate eine höhere Glättungswirkung ohne jeglichen weiteren Leistungseinbruch entstehen kann. Entscheidende Bedingung dafür ist aber in der Tat eine ausreichend hohe Framerate - wobei hier nicht die Rede von 30 fps ist, sondern eher von 50 fps und mehr ...
... Denn die veränderten Samplemuster (zumeist wird einfach nur ein um 90 Grad gedrehtes Samplemuster verwendet) bewirken vor allem bei Standbildern zumindestens technisch ein leicht schwimmendes Bild, weil durch das andere Samplemuster bei jedem neuen Frame auch ein anderes Glättungsergebnis ausgegeben wird. Im Klartext werden bei der Benutzung von zwei sich abwechselnden Samplemustern zwei verschiedene Bilder erzeugt, die immer wieder abwechselnd gezeigt werden. Damit dieser (wenn auch minimale Unterschied) dem Betrachter nicht auffällt, muß man entweder in Bewegung sein - oder aber die Framerate sollte so hoch sein, daß selbst die Hälfte dieser Framerate dem jeweiligen Betrachter absolut flüssig vorkommt ...
... Dann nämlich registriert das (träge) menschliche Auge den Unterschied zwischen den beiden Bildern nicht mehr, wohl aber die dadurch entstehende zusätzliche Glättungswirkung. Damit ist Temporal Anti-Aliasing keine wirklich gute Option bei relativ langsam laufenden Spielen. Idealerweise sollte die Framerate bei 50 fps und mehr liegen, denn dann wird kaum noch jemand den Unterschied der beiden Frames wahrnehmen. Dann jedoch ist durchaus ein guter Mehrgewinn an Bildqualität möglich, ohne das zusätzliche Leistung verbraten wird, wie dem vorgenannten Artikel der Elite Bastards zu entnehmen ist. In den kommenden Reviews zu den R420-Chip wird das Feature sicherlich noch ausführlicher behandelt werden.
Wie der Heise Newsticker vermeldet, sollen sich die Anstrengungen der Bundesprüfstelle für jugendgefährdende Medien (BPjM) in letzter Zeit und vor allem zukünftig auch auf das Internet richten. Inwiefern diese Aussage eine reale Grundlage hat, läßt sich schwer beurteilen - Fakt ist aber, daß die BPjM gemäß ihrer neuen Möglichkeiten mit den neuen Jugendschutzgesetzgebungen die Zügel zumindestens im Offline-Bereich maßgeblich angezogen hat. In erster Linie wirkt hier die Möglichkeit der BPjM, auch selbst aktiv zu werden und nicht wie früher die BPjS auf die Eingabe eines Jugendamtes bzw. anderer "berufener" Stelle warten zu müssen ...
... Daraus resultieren beispielsweise die Indizierungen von Demo-Versionen noch gar nicht releaster Spiele, während die BPjS seinerzeit mehr als zwei Jahre brauchte, um Unreal Tournament zu indizieren (ok, ein Extrem-Beispiel, nichts desto trotz hat sich die Zeit drastisch verkürzt, in welcher die BPjM heutzutage handelt). "Spannend" wird nun also die Frage, inwieweit die BPjM wirklich auch im Internet die moralischen Vorstellungen des deutschen Gesetzgebers durchzudrücken gedenkt. Es gab in der Vergangenheit hier schließlich auch schon im Spiele-Bereich einige Seiten, welche auf dem Index landeten - und die Befürchtung, daß der Gesetzestext irgendwann einmal absolut konsequent (aka selbst Namensnennung von indizierten Spiele adé) für jeden Fetzen deutschen Internets in Anwendung gebracht werden wird, schwebt nach wie vor als Damoklesschwert über allem ...
... Auf dem Punkt, daß es eigentlich irrsinnig ist, ein deutsches Gesetzwerk im internationalen Internet durchdrücken zu wollen, sollte sich allerdings keiner ausruhen - denn in solchen Kategorien denkt der Amtsschimmel leider überhaupt nicht. Und das auf internationaler Ebene ein Konsenz bezüglich des Jugendschutzes gefunden werden kann, ist zwar möglich, aber mit Sicherheit wird eine solche internationale Einigung kaum auf Basis des im internationalen Vergleich absolut einmalig an der Spitze stehenden deutschen Jugendschutz ausfallen. Deutschland müsste bei einer internationalen Einigung wohl vermutlich erheblich abspecken, was eine solche Einigung dann auch schon wieder mit hoher Chance platzen lassen würde ...
... Und während es also somit kaum jemals eine internationale Jugendschutzregelung geben wird, versuchen die deutschen Behörden aus dem Internet - und leider spricht dies keiner von den Zensoren & Politikern klar aus - irgendwie ein totales Kindernet zu machen, nämlich das auch wirklich alles vollkommen Kleinkind-kompatibel sein muß. Ein möglicherweise aus Jugendschutzgründen hehrer Gedanke, doch die Welt besteht nun einmal vorwiegend aus Erwachsenen (und weiterhin Jugendlichen, welche an die Welt der Erwachsenen herangeführt werden sollen), womit das Internet als Spiegel der realen Welt auch nicht nur auf Kleinkind-Themen beschränkt sein sollte (siehe dazu auch dieses wunderbare Gedicht aus dem Heise-Forum). Und für die fanatischen Kindernet-Vorantreiber - und um auf deren Linie zu bleiben - haben wir noch den Tip, die Feder aus der Hand und dafür besser eine Babyrassel in die selbige zu nehmen ;-).
Kurz in eigener Sache: 3DCenter zieht um - allerdings nur die Webseite selber und nicht das Forum, welches schon seit geraumer Zeit auf einem extra Server läuft. Angesichts der drei Server-Ausfälle am NV40-Launchtag und den kommenden Grafikchip-Launches wurde der neue Server (Celeron 2.6 GHz mit 1 GB RAM) jedoch langsam aber sicher fällig, auch wenn der alte Server (Celeron 900 MHz, 256 MB) zuvor bis eben auf den NV40-Launchtag noch jede Anforderung hatte meistern können. Der neue Server steht dabei schon, auch der Wechsel der Domains ist schon veranlaßt. Die de-Domains 3dcenter.de und 3d-center.de sollten dabei als erstes auf den neuen Server verweisen, was vermutlich schon am Sonnabend und spätestens am Sonntag der Fall sein sollte ...
... Die anderen Domains (3dcenter.org, 3d-center.org und 3d-center.net) werden allerdings wohl etwas länger benötigen. Für eine kurze Zeit werden wir sicherlich unser Angebot auf allen beiden Servern gleichzeitig anbieten oder aber von dem einen auf den anderen Server entsprechend umleiten, so daß es zu keinerlei Ausfällen der Erreichbarkeit kommen sollte. Wenn also alles gut läuft, wird keiner den Serverwechsel wirklich bemerken. Und falls alle Stricke reißen sollten, wird im Forum eine Notiz zu finden sein, wie 3DCenter zu erreichen ist, da das Forum - mittels eigenem Server - über den kompletten Zeitraum des Umzugs immer erreichbar sein wird.
Shortcuts: Bei der AMDZone hat die Performance von Windows XP mit Linux sowohl im 32- als auch 64-Bit-Modus auf der Demo von Unreal Tournament 2004 verglichen. Während die beiden 32bittigen Betriebssysteme dabei halbwegs gleiche Ergebnisse erzielten, lag das 64bittige Betriebssystem wieder einmal erheblich zurück. Hard Tecs 4U berichten über Athlon XP Prozessoren für den Sockel 754, welche nun schon im dritten Quartal antreten sollen. Dabei handelt es sich im eigentlichen um K8-Prozessoren, welche allerdings nur mit 256 kByte Level2 Cache ausgerüstet und der 64-Bit-Fähigkeiten (mittels Deaktivierung) beraubt sind. Und letztlich sei allen Far Cry Spielern hiermit ausdrücklich die "FarCry meets Doom III Demo-Map" (by Kai Moosmann) ans Herz gelegt.
News des 29. April 2004 |
Es gibt in unserem Forum auch andere Meinungen zu der Meldung vom Montag mit den Taktraten der GeForce 6800 von 375/350 MHz und unserer Einschätzung, daß diese recht optimal seien. Nun, technisch gesehen dürfte diese Einschätzung zutreffend sein, denn wenn man davon ausgeht, daß der NV40-Chip zumindestens gemäß unseren Messungen im Idealfall mit gleichen Taktungen für Chip und Speicher antreten sollte (sprich einem 1:1 Verhältnis), so ist dieses Verhältnis bei der GeForce 6800 unter Einrechnung deren nur 12 Pixel-Pipelines mit 1:1,25 besser als bei der GeForce 6800 Ultra mit 1:1,38 ...
... Dies soll natürlich nicht sagen, daß noch höhere Speichertakte der GeForce 6800 nicht weiterhelfen würden, aber ein höherer Chiptakt würde eine bessere Auswirkung haben als ein höherer Speichertakt - zumindestens in derzeitigen Spielen, rein theoretisch ist der NV40 sogar Bandbreiten-limitiert, wie unserem Technik-Artikel zu entnehmen. Absolut korrekt ist jedoch, daß die GeForce 6800 deutlich langsamer als die GeForce 6800 Ultra sein dürfte: Rechnet man die 375 MHz der 12 Pixel-Pipelines der GeForce 6800 in einen Takt bei 16 Pixel-Pipelines um, so lautet der Takt der GeForce 6800 im Vergleich zur GeForce 6800 Ultra 281/350 MHz, ergo 30 bzw. 36 Prozent weniger. Es wird interessant sein zu sehen, ob die GeForce 6800 damit die Werte einer GeForceFX 5950 Ultra noch erreichen kann, was ein ziemlich knappes Rennen werden dürfte.
Der erste Preis für "herausragende" Pressearbeit geht heute glasklar an AMD: Jene stritten noch auf der CeBIT vor etwas mehr als einem Monat alles ab, was in Richtung DualCore-Prozessoren ging bzw. verlegten dies weit auf eine eventuell mögliche Zukunft, doch inzwischen gibt nun selbst der CEO von AMD bei eWeek zu, daß AMD solcherart Prozessoren im nächsten Jahr bringen wird. Als Basis nimmt man dabei zwei K8-Cores, welche in einem Die gefertigt werden. Die Anbindung erfolgt unserer Meinung nach über die K8-interne Northbridge (das bei der Virtual Zone zu sehende offizielle Blockschaltbild ist diesbezüglich nicht wirklich hilfreich), welche schon bei den derzeitigen K8-Prozessoren Anschlußmöglichkeiten für zwei Prozessoren bietet ...
... Die Northbridge des ersten Prozessors müsste dann die Steuerung über den kompletten zweiten Prozessor übernehmen - was theoretisch auch bedeuten würde, daß als Speicherinterface des Gesamtprozessors weiterhin nur das Speicherinterface des ersten Prozessors agieren würde, die Speicherbandbreite dieses DualCore-Konstrukts also nicht auf das Doppelte eines Einzel-Prozessors steigt (zumindestens laut dieser unserer Theorie). Dies würde auch dazu passen, daß ein DualCore K8 weiterhin im gewöhnlichen Sockel 940 kommt - anbindungstechnisch agiert der DualCore K8 offenbar als nur ein Prozessor, wenn er sich auch unter Windows als zwei logische Prozessoren melden und auch so agieren dürfte ...
... Jetzt hört sich das alles erst einmal nicht unbedingt sinnig an: Zwar DualCore, aber nicht höhere Speicherbandbreite - warum also nicht ein echtes ZweiProzessor-System, denn dieses hätte jenen Performance-Vorteile? Der Clou an dieser Stelle ist wohl, daß ein echtes ZweiProzessor-System einen höheren Hardware-Aufwand in Form des deutlich teureren Mainboards mit zwei Prozessor-Sockeln und mindestens 4 Speicherslots (zweimal DualChannel Speicherinterface) neben dem eigentlichen Prozessor erfordert. Mit dem DualCore K8 geht man diesem Problem aus dem Weg, da nur ein Prozessor verbaut ist - nur das dieser eben die Leistung in Richtung (nicht gleich) wie ein ZweiProzessor-System bringt ...
... Daß AMD damit dann auch eine eigene MultiThreading-Technologie hätte, da unter Windows der DualCore K8 als zwei logische Prozessoren arbeitet, ist dann noch das Sahnehäubchen oben drauf. Nebenbei hat die AMD-Lösung gegenüber Intel´s HyperThreading erheblich Vorteile, da HyperThreading schließlich nur aus einem Prozessor mit verdoppelten Registern heraus arbeitet und demzufolge immer nur das an zusätzlicher Leistung bringen kann, was der erste logische Prozessor nicht ausnutzt. AMD hat beim DualCore K8 dagegen zwei physikalische Cores mit sogar jeweils eigenem 1 MB Level2 Cache, wird also in der Tat in die Nähe der Leistung von echten ZweiProzessor-Systemen kommen und damit zumindetens leistungsmäßig HyperThreading klar ausstechen ...
... Nebenbei gesagt ist HyperThreading dafür jedoch vom Silizium-Aufwand her deutlich einfacher zu realisieren als ein DualCore-Prozessor, insofern haben beide Techniken ihre Berechtigung. AMD wird den DualCore K8 wie gesagt irgendwann einmal nächstes Jahr bringen, zuerst anscheinend für die Opteron-Serie. Ob und wann es DualCore-Prozessorn auch einmal für die Athlon 64/FX Serie geben wird, ist dagegen derzeit noch komplett ungewiß. Es ist aber sicherlich nicht vermessen zu glauben, daß AMD - sollte diese Technologie Erfolg haben und für AMD wirtschaftlich sein - die DualCore-Technik nach einer gewissen Einführungsphase im Workstation-Markt danach auch in den Desktop-Markt bringen wird.
Wir hatten es seinerzeit nicht erwähnt, weil wir es für einen potentiellen April-Scherz hielten (eines der nachfolgend verlinkten Antec-Schreiben stammt zufällig vom 1. April diesen Jahres), doch dem ist nun ganz offensichtlich nicht so: Der taiwanesische Hersteller Antec macht laut dem Overclocker Cafe seinen Patent-Anspruch auf Lüfter mit LEDs geltend. Offensichtlich haben die Patentwächer in Taiwan, China und den USA (U.S. Patent No. 6,679,771) sich wieder einmal eine totale Auszeit genommen und eine allgemein verbreite Technologie demjenigen zugesprochen, welcher als erster an ihre Türen klopfte. In diesem Fall im übrigen zum Nachteil des Marktes, denn Antec will laut dieser Presseerklärung offenbar alle LED-Lüfter anderer Hersteller vom Markt genommen sehen ...
... Ob sich die Patente allerdings halten lassen, darf getrost bezweifelt werden. Antec mag der erste gewesen sein, welcher LED-Lüfter in Serie auf den Markt geworfen hat und auch der erste, welcher auf die Idee kam, sich dies zu patentieren lassen - doch Patente werden in der Regel ungültig, wenn nachgewiesen werden kann, daß diese Technik schon vor der Einreichung des Patents irgendwo in Benutzung war. Diesen Nachweis treten nun Bit-Tech an, welche diverse Artikel zitieren, die klar darlegen, daß in Modder-Kreise diese Idee schon im Jahre 2001 in die Tat umgesetzt wurde. Die Patente von Antec dürften somit hinfällig sein, da in den USA erst im April 2003 und in Taiwan sowie China im April 2002 eingereicht. Was nicht heißen mag, daß es jetzt nicht noch Jahre dauern wird, ehe der Amtsschimmel dies offiziell feststellt ;-)).
Shortcuts: Das nächste unsinnige Patent hat laut Golem Microsoft bekommen - für einen Doppelklick bei Handhelds. Selbige Seite berichtet auch über die Auslieferung des neuesten VIA-Prozessors in Form des VIA Epia MII12000 Mainboards mit C3 1.2 GHz Prozessor. Die x-bit Labs haben ein Roundup von Mainstream-Grafikkarten unter spezieller Beachtung derer Overclocking-Leistungen verfasst. Und letztlich sucht man laut Planet 3d Games bei Raven Software noch nach einem fähigen Grafiker, welcher an Quake 4 mitarbeiten soll.
News des 27. April 2004 |
Aus einem Interview mit Tony Tamasi von nVidia beim Tech Report läßt sich erfahren, daß nVidia den schnelleren der beiden 8x Anti-Aliasing Modi der GeForce 6800 /Ultra mit einem neueren Treiber freischalten will. Wie unserem entsprechenden Artikel zu entnehmen, setzt der normale 8x Modus auf 2x rotated grid Multisampling mit 2x2 ordered grid Supersampling, erreicht damit aber nur eine unterdurchschnittliche Performance, welche oftmals sogar geringer ist als diejenige des 6x sparsed Multisampling Anti-Aliasing einer Radeon 9800XT. Allerdings "entdeckten" wir im seinerzeitigen Review auch noch einen weiteren 8x Anti-Aliasing Modus der GeForce 6800 /Ultra, von uns provisorisch "reg18" genannt (nach dem benutzten Key in der Windows-Registry, nicht nach der Sampleanzahl) ...
... Zu diesem stimmt allerdings das in unserem Artikel derzeit zu sehende Samplemuster nicht ganz, real ist dieser reg18-Modus ein 4x rotated grid Multisampling mit 2x1 ordered grid Supersampling (Thx @ Xmas). Von der Glättungswirkung sollten beide 8x Modi nahezu identisch sein, der reg18-Modus ist natürlich sowohl theoretisch durch den höheren Multisampling-Anteil als auch praktisch wie in unserem NV40-Benchmarks nachgewiesen deutlich schneller als der offizielle 8x Modus der GeForce 6800 Ultra. Insofern wäre es eine gute Entscheidung von nVidia, diesen reg18-Modus ebenfalls offiziell mit im Treiber anzubieten. Abzuwarten bleibt nur, ob es diesen besseren 8x Anti-Aliasing Modus dann auch unter OpenGL geben wird, denn laut unseren Tests mit dem 60.72er Treiber stand jener reg18-Modus nur unter Direct3D zur Verfügung.
Auf der Game Developers Conference im März hat id Software Mastermind John Carmack laut der GameStar die interessante Aussage getätigt, wonach er in den kommenden Jahren mit dem Anstieg der Budgets für Spieleentwicklungen auf bis zu 100 Millionen Dollar rechnet. Zum Vergleich: Heutige Spiele-Titel haben zumeist ein Budget von ein paar Millionen Dollar/Euro, nur in Ausnahmefällen wie Half-Life 2 mit geschätzten 25 Millionen Dollar Entwicklungskosten geht es über die Marke von 10 Millionen Dollar/Euro. Alles darüber hinaus wird auch wirtschaftlich extrem riskant, weil bei diesen hohen Entwicklungskosten ein Verkaufserfolg dann zur absoluten Pflicht wird ...
... Insofern sind leichte Zweifel darüber angesagt, ob die Budgets für Spieleentwicklungen auch weiterhin so rapide ansteigen können wie bisher zu beobachten - denn die Spiele-Verkaufszahlen bzw. die Umsätze der Spiele-Industrie steigen zwar branchenweit, aber bei weitem nicht so rasant pro Spieletitel. Nichts desto trotz steht die Argumentation seitens John Carmack, wonach sich der Aufwand zukünftiger Spieleentwicklungen enorm vervielfachen wird, wenn die zukünftigen Spiele die Möglichkeiten der dann zur Verfügung stehenden Engines und Grafikchips auch wirklich ausnutzen wollen ...
... Man kann dieses Problem schließlich schon heute beobachten, wenn man sich den Abspann eines Spiels anschaut und dort die Anzahl derjenigen Personen zusammenzählt, welche für die eigentliche Programmierung des Spiels bzw. der Engine zuständig sind - und welche sich um Texturenerstellung, Level- und Charakterdesign sowie ähnliche die Spieloptik betreffende Aufgaben kümmern. Ob sich diese zukünftig weiter verschärfende Problematik nur über Mega-Budgets lösen lassen wird, bleibt aber abzuwarten. Man kann sicherlich genauso gut erwarten, daß sich ein extra Markt von Zulieferern für die Spieleentwicklung auftun wird. Ein erster Ansatz dazu besteht schließlich schon darin, daß viele Entwickler die Game-Engine nicht mehr selber entwicklen, sondern von anderen lizensieren.
Eine bisher noch absolut nicht beachtete Schwachstelle von Trusted Computing aka TCPA/TCG sowie Palladium/NGSCB spricht die Electronic Frontier Foundation laut dem Heise Newsticker an: Danach könnte Trusted Computing es den Herstellern von Spyware erheblich einfacher machen - sowie den Anwendern erheblich schwerer bis unmöglich, einmal eingefangene Spyware wieder loszuwerden. An dieser Stelle entlarvt sich Trusted Computing auch (wieder einmal) als eine Technologie, welche letztlich nicht dem Nutzer eine größere Kontrolle über seinen PC gibt, sondern diese Kontrolle vielmehr an die auf dem PC laufende Software überträgt ...
... An die Möglichkeit, daß dies die Verfasser von Schädlingsprogrammen - darunter neben Spyware auch Viren, Würmer und Backdoors - unter Umständen erheblich begünstigt, scheint dabei bisher keiner der Verfechter von Trusted Computing gekommen zu sein. Zwar verspricht Trusted Computing Schutz vor den Auswirkungen von Viren und Würmern (zumindestens so lange, bis deren Programmierer die ersten Schwachstellen in Trusted Computing entdeckt haben), doch die Funktionen von Backdoors und Spyware richten sich gewöhnlich nicht gegen die aktuellen Software-Installation, womit diese Programme von Trusted Computing letztlich gar nicht einmal als Schädlinge erkannt werden ...
... Dagegen macht aber das Vorhandensein von Trusted Computing sowohl die Erkennung als auch Entfernung von Backdoors und Spyware erheblich schwieriger, zumindestens wenn deren Programmierer die Möglichkeiten von Trusted Computing (des Schutzes der Software vor dem Anwender) entsprechend ausnutzen. Hier liegt unserer Meinung nach ein klarer Systemfehler von Trusted Computing vor, welches indirekte Schädlinge nicht erkennen kann und diese dann aber genauso wie alle andere Software vor dem Benutzer beschützen wird. Neben der von Electronic Frontier Foundation erwähnten Spyware könnte Trusted Computing somit für einen erheblichen Anstieg von mit Backdoors infizierten und (unerlaubt) Remote-gesteuerten Computern verantwortlich werden ...
... Hier spielt dann auch mit hinein, daß Microsoft immer mehr System-nahe Funktionen in supertoll ausschauende Visualisierungen verpackt, welche sich damit aber immer weiter vom eigentlichen Geschehen "unter der Haube" des Betriebssystems entfernen und somit die Erkennung von installierten Schädlingen oder Schädlings-Prozessoren erheblich erschwert. Zumindestens mit dem seitens der Hersteller bezüglich Trusted Computing vielbeschworenen Schlagwort "Sicherheit" hat dies nun gar nichts mehr zu tun - mehr Sicherheit bietet Trusted Computing allerhöchstens für die Hersteller, mitnichten aber für die (den ganzen Spuk bezahlenden) Endkunden.
Shortcuts: Ein Treiber-Test bei Dark Tweaker zeigt für den VIA-Chipsatztreiber 4.51 Pro Beta eine deutlich bessere Performance bei den neuen VIA-Chipsätzen als beim letzten offiziellen Treiber 4.51v. Den aktuellen Stand von 64-Bit auf dem Desktop haben t-break ausgetestet - mit dem Ergebnis, daß sich 64-Bit auf dem Desktop rein von der Performance her weiterhin noch nicht lohnt. TweakPC vermelden dagegen, daß Intel für seine kommenden Sockel 775 Chipsätze Grantsdale & Alderwood keine Windows 98/ME Treiber mehr anbieten wird. Und letztlich berichtet die Telepolis noch von der neuesten Idee der Nigeria-Connection - absolut lesenswert.
News des 26. April 2004 |
Von Hartware kommen Informationen zu den Taktraten der GeForce 6800. Wir hatten diese NV40-Ausführung mit nur 12 aktiven Pixel-Pipelines bisher auf 350/400 MHz geschätzt, real werden es nun 375/350 MHz - zum Vergleich, die GeForce 6800 Ultra taktet mit 400/550 MHz. Die Taktraten der GeForce 6800 erscheinen recht optimal, da der Chip aufgrund der geringeren Pipeline-Anzahl sowieso eher Chip-limitiert sein dürfte und ein höherer Speichertakt ergo nur noch geringe Effekte gehabt hätte. Somit können die Grafikkarten-Hersteller jedoch zu verhältnismäßig günstigen 2,8ns DDR-Speicher für die GeForce 6800 greifen, womit sich deren - für einen brandneuen Grafikchip im HighEnd-Bereich - relativ günstiger Preis von 299 $ bzw. 349 Euro überhaupt realisieren lassen dürfte.
Die Lieferbarkeit der GeForce 6800 /Ultra wird sich dagegen noch etwas weiter verzögern. nVidia hatte hierzu ursprünglich die Aussage getroffen, entsprechende Chips innerhalb von 45 Tage nach dem Launch am 14. April ausliefern zu wollen - wobei damit wohlgemerkt Chip-Lieferungen in Richtung Grafikkarten-Hersteller gemeint sind und keine fertigen Karten seitens jener Hersteller. Die Virtual Zone meldet nun hierzu, daß nVidia diesen Zeitrahmen bis zum äußersten ausschöpfen und erst zum Ende des Mai erste NV40-Chips ausliefern wird. Erste NV40-Grafikkarten sollen dann allerdings schon im frühen Juni den Markt erreichen, die Grafikkarten-Hersteller benötigen dann bis zu einem entgültigen Markteintritt offenbar nur noch recht wenig Zeit.
Bei Gamers Depot hat man verschiedene Spiele-Entwickler zu deren Meinung bezüglich Shader 3.0 befragt - mit durchaus unterschiedlichen Antworten: So zeigte sich Mark Davis von Novalogic recht begeistert von den Shadern 3.0 und geht auch davon aus, daß zum Ende des Jahres dafür mehr als nur eine Handvoll Spiele zur Verfügung stehen. Rowan Wyborn von Irrational (Tribes: Vengeance) zeigte sich dagegen von den Shadern 3.0 nicht wirklich überzeugt, da jeder mit diesen mögliche Effekt eben auch mit den Shadern 2.0 darstellbar ist. Deutlich positiver wurden die Shader 3.0 wieder von Andrey Khonich von Crytek, Tim Sweeny von Epic und Rick Johnson von Raven (Quake 4) gesehen, während Bart Kijanka von Gas Powered Games sich wiederum eher skeptisch äußerte.
Unser seinerzeitiger GeForceFX 5900 /Ultra -> 5950 Ultra Flash-Guide wurde zwar schon im Januar veröffentlicht, dennoch gibt es hierzu noch eine leider eher unerwünschte Spätfolge: Geflashte Karten auf den Marktplätzen dieser Welt, welche allerdings nicht als solche gekennzeichnet sind. Demzufolge wollen hiermit klarstellen, woran diese Karten zu unterscheiden sind, selbst wenn deren BIOS geflasht wurde: GeForceFX 5900 Karten gibt es zu 99 Prozent nur mit 128 MB - viel wichtiger ist aber, daß GeForceFX 5900 Ultra und 5950 Ultra Karten allesamt generell auf 256 MB Speicher setzen. Eine Karte mit 128 MB Grafikkarten-Speicher kann also niemals eine GeForceFX 5900 Ultra und 5950 Ultra sein ...
... Zwischen den beiden letztgenannten wird eine Unterscheidung allerdings schon schwieriger, da sich auch oftmals deren Boardlayout gleicht. Generell kann jedoch gesagt werden, daß die GeForceFX 5900 Ultra gewöhnlich mit 2,2 ns Speicher ankommt, während die GeForceFX 5950 Ultra immer mindestens 2,0 ns Speicher hat, woran die Karten dann doch zu unterscheiden sind. Zusätzlich sicher geht man, wenn man sich mit der Seriennummer der Karte, welche auf dem PCB eben jener zu finden sein dürfte, an den Hersteller wendet und diesen um Aufklärung bittet. Und nebenbei an diejenigen, welche gemoddete Karten auf eBay & Co. verkaufen: Es ist nichts falsches daran, gemoddete Hardware zu verkaufen ...
... Nur hat der Käufer das absolute Recht, vorher zu erfahren, was da gemoddet wurde und welches originale Produkt er letztlich in den Händen halt. Daß eine GeForceFX 5900 Ultra auch als GeForceFX 5950 Ultra stabil funktioniert, entbindet niemanden von dieser Informationspflicht - denn der Modder ist nicht der Hersteller der Karte und der Hersteller ist als einziger dazu berechtigt, irgendwelche Produktbezeichnungen zu vergeben bzw. zu ändern. Jegliche Nicht-Information des Käufers vor dem Kauf einer gemoddeten Hardware ist als Betrug haft- und strafbar - und kommt es in mehreren Fällen vor, gehen unsere Strafverfolger schon einmal gern von Absicht aus, womit das Ganze für den jeweiligen Verkäufer äußerst unangenehm werden kann.
Beim Planet 3DNow! war mal wieder ein Themenabend, bei welchem diesesmal Vertreter von VIA und S3 zu Gast waren. Auf der VIA-Seite die interessanteste Info ist die offizielle Bestätigung, daß der K8T800 Pro über einen funktionierenden AGP/PCI-Fix verfügen wird - ein Feature, welches derzeit allen Sockel 754/940 Chipsätzen noch fehlt (der neue nForce3 250/GB wird es auch haben). Auf der S3-Seite gab es die üblichen Durchhalte-Parolen ;-) ob der Lieferbarkeit von DeltaChrome-Grafikkarten, interessanter ist aber sicherlich eher dessen PCI Express Nachfolger GammaChrome. Zu diesem bestätigte sich im übrigen die Vermutung, daß es sich um einen Refresh-Chip des DeltaChrome handelt und nicht einfach nur um eine simple PCI Express Version, da der GammaChrome angeblich über verbesserte Features und Verbesserungen an der Pipeline nebst höheren Taktraten verfügen soll ...
... Da der DeltaChrome ziemlich exzellent mit höheren Taktraten skaliert, könnte ein anständig taktverbessertes GammaChrome-Modell durchaus vernünftig im Mainstream-Markt mitmischen - wenn es denn irgendwann auch ausgeliefert werden wird ;-)). Aufgrund des PCI Express Interfaces hat S3 beim GammaChrome wegen der Verspätung der ersten PCI Express Mainboard-Chipsätze noch einen Aufschub bis zur Mitte des Jahres. Danach wird sich dann herausstellen, wie ernst man es bei S3 mit dem Wiedereintritt in den Grafikkarten-Markt meint oder ob die S3-Chipdesigns nicht doch wieder nur bessere Vorlagen für integrierte Grafikchips der S3-Mutterfirma VIA sind.
Ebenfalls hat man sich beim Planet 3DNow! noch einmal mit dem kommenden Gehäuse-Standard BTX - in Ablösung des bisherigen Standards ATX - beschäftigt. Der neue Standard ist seitens Intel mehr als deutlich auf OEM- und Business-PCs ausgerichtet und bringt damit dem Retail-Markt eher genauso viele neuen Probleme ein, wie es alte Probleme löst. Zudem werden die Gestaltungsmöglichkeiten der Kühler- und Gehäuse-Hersteller erheblich eingeschränkt, womit diese mehr oder weniger gar dazu gezwungen werden, BTX zumindestens für den Retail-Markt etwas zu anzupassen. Momentan ist BTX allerdings noch eine entfernte Wolke am Horizont, erste Gehäuse und Mainboards wird es kaum vor Anfang 2005 geben. Und selbst dann kann es durchaus passieren, daß BTX womöglich vom Retail-Markt weitgehend ignoriert wird, weil es für individuelle PCs außerhalb des OEM-Standards einfach nicht geeignet erscheint.
Shortcuts: Für 3dfx-Anhänger und -Nostalgiker gibt es hier eine hübsche Galerie von diversen 3dfx-Produkten, darunter auch professionelle Grafikkarten von Quantum und natürlich die "obligatorischen" Voodoo 5-6000 Shots :-). In einem Artikel der x-bit Labs ist man einmal den umgekehrten Weg der sonstigen Overclocking-Artikel gegangen und hat bei verschiedenen ATi-Grafikchips die Chip- und Speicher-Spannungen heruntergesetzt, um diese somit trotz geringerer Lüfterspannung kühler (und damit leiser) als vorher betreiben zu können. Und letztlich hat man bei TtecX den gestern schon einmal erwähnten Overclocking- & Passive-Cooling-Artikel zum VIA C3-Prozessor noch um ein Kapitel zum FSB-Overclocking erweitert, nebenbei war der reguläre 1-GHz-Prozessor so auch auf stabile 1,3 GHz zu übertakten.