News-Archiv 30. Januar - 5. Februar 2006 (5. Kalenderwoche)
4./5. Februar 3. Februar 2. Februar 1. Februar 31. Januar 30. Januar
News des 4./5. Februar 2006 |
Die X-bit Labs haben sich mal wieder auf dem Feld des Stromverbrauchs aktueller Grafikkarten nützlich gemacht und diesbezüglich Verbrauchsmessungen zu den wichtigsten der momentan zu kaufenden Grafikkarten erstellt. Besonders beachtenswert ist dieser Artikel deshalb, weil die X-bit Labs als einzige Seite im Web Messungen des Stromverbrauchs allein der Grafikkarte selber zur Verfügung stellen, womit die Beurteilung dieser Ergebnisse auf einer wesentlich akkurateren Basis erfolgt als bei den sonst üblichen Messungen des Stromverbrauchs des kompletten PC-Systems (auch wenn diese dafür deutlich einfacher zu realisieren sind als der extra Mainboard-Umbau seitens der X-bit Labs) ...
... Vorab gilt trotzdem anzumerken, daß die Stromverbrauchsmessungen der X-bit Labs unserem Gefühl nach immer eher nur die untere Kante darstellen - unter gewissen Umständen sind also durchaus auch ein paar Prozent mehr Stromverbrauch möglich als die X-bit Labs angeben. Bestes Beispiel hierfür ist die GeForce 7800 GTX, welche von nVidia klar mit 100 Watt Stromverbrauch (unter Volllast) spezifiziert wurde, wo die X-bit Labs aber "nur" 80,7 Watt messen konnten. Der Unterschied könnte sich allerdings auch allein durch die Messmethodik ergeben: Während die X-bit Labs schlicht 3DMark06-Loops laufen liessen, benutzen die Hardware-Hersteller für solche Messungen teilweise extra Programme, welche die Hardware dann absolut vollständig auslasten - mehr, als es jede Anwendung im Normalfall jemals erreichen könnte ...
... Doch damit zu den eigentlichen Ergebnissen der Stromverbrauchs-Messungen seitens der X-bit Labs: Diese sehen ATI- und nVidia-Karten der jeweiligen Marktsegmente zum größten Teil in etwa gleichauf, nur im absoluten HighEnd-Segment ist der deutliche Mehrverbrauch der Radeon X1900 Serie auffallend: Während die GeForce 7800 GTX 512MB mit 94,7 Watt unter Vollast noch ganz gut dasteht, schiesst eine Radeon X1900 XTX mit satten 120,6 Watt den Vogel aber vollkommen ab. Mit diesen 25 Watt oder rund ein Viertel Verlustleistung mehr dürfte es für die Grafikkarten-Hersteller sicherlich nicht ganz so einfach sein, eine so geräuscharme Kühlung wie bei der nVidia-Karte hinzubekommen ...
... Auch muß man hier schon leise Bedenken bezüglich der kommenden 3D-Beschleuniger anmelden, denn für die nächste Zeit steht keine wirklich leistungsfähigere Fertigungstechnologie als die momentan für die Radeon X1900 Serie benutzte 90nm Fertigung an (die von ATI für einige kleinere Chips geplante 80nm Fertigung ist eher ein LowCost-Prozeß und nicht für HighEnd-Chips geeignet). Abseits der absoluten HighEnd-Grafikkarten geht es dann aber schnell in humanere Gefilde: So verbraucht eine GeForce 7800 GT nur noch 56,7 Watt unter Volllast und wird damit nicht umsonst von einigen Herstellern auch als rein passive Lösung aufgelegt. Bei dieser Wattage dürfte ungefähr die Grenze für passiv gekühlte Grafikkarten liegen, in welche dann auch noch Radeon X1800 XL, Radeon X800 XL und GTO sowie GeForce 6800 GS und kleiner hineinpassen ...
... Bei den Mainstream-Karten ist eventuell der relativ gesehen recht hohe Verbrauch der GeForce 6600 GT von 47,9 Watt unter Volllast überrraschend - zu viel für eine Karte mit nur 8 Pixel-Pipelines, ganz besonders da die 12-Pipelines-Karte GeForce 6800 (allerdings schon auf Basis des stromsparenden NV42-Chips) hier nur 38,8 Watt zieht und trotzdem klar über mehr Leistung verfügt. Von den LowCost-Lösungen wäre dagegen noch die S3 Chrome S27 zu erwähnen, welche auf das exakt gleiche Ergebnis (27,6 Watt) wie eine GeForce 6600 DDR2 kommt (ironischerweise auch im Idle-Modus: beide Karten liegen da bei 12,3 Watt), und damit etwas weniger Strom zieht als die ATI-Lösungen Radeon X700 Pro und Radeon X1300 Pro mit jeweils etwas über 30 Watt unter Vollast.
Einen recht interessanten Artikel hat der Spiegel zum Thema Kopierschutz & Copyright, wobei uns insbesondere die Ausführungen über die derzeit in Frankreich diskutierten Lösungen aufgefallen sind. Demnach hat gar gleich der Premierminister der Grande Nation den Vorschlag ins Feld geführt, dem Verbraucher künftig das zwingende Recht auf bis zu 5 Kopien von legal erworbener Software bzw. Medieninhalten einzuräumen. Zwar ist noch nicht ganz klar, ob diese 5 Kopien nur für den "Hausgebrauch" sind oder auch an Verwandte und Bekannte abgegeben werden dürfen, aber unabhängig davon würde man mit einer solchen Urheberrechtsgesetzgebung mit sämtlicher all zu restrektiver DRM-Software ein für alle mal Schluß machen - der immer weiter gehenden Aushöhlung elementarster Verbraucherrechte wäre somit eine gewisse Schranke gesetzt.
Shortcuts: Bei LostCircuits hat man sich die nVidia QuadroFX 4500 angesehen, welche die G70-Version für den Markt der professionellen Anwender darstellt. Bei Tom's Hardware Guide sowie den X-bit Labs gibt es hingegen weitere Artikel zu der Frage, ob 2 GB Speicher nun sinnvoll oder nicht sind: Ein zwingendes Argument pro 2 GB RAM wurde zwar bis dato (noch) nicht gefunden, aber es gibt inzwischen schon wieder ein paar mehr Anwendungsfälle, wo sich der größere Speicher dann doch auszahlt. TweakPC, Hardware-Infos, Allround-PC, das Hardware-Mag und die ComputerBase beschäftigen sich dagegen mit dem 3DMark06 bzw. der Performance aktueller Grafikkarten unter diesem neuen Benchmark ...
... Wie die X-Bit Labs vermelden, verfügen die Anfang der Woche hier genannten ASRock-Mainboards auf Basis von ULis M1697-Chipsatz laut einem nVidia-Sprecher über keinen offiziellen SLI-Support und damit wohl auch nicht über eine Unterstützung der nVidia-Treiber. Wieso ASRock auf der Produktseite eines der neuen Mainboards den SLI-Support aber dennoch explizit anführt, bleibt unklar. Der Spiegel schreibt ein wenig über Googles Selbstzensur in China, welches zwar bei den anderen Suchmaschinenanbietern ganz genauso gehandhabt wird, jedoch ausgerechnet zu Googles Firmenphilosophie ("Seid nicht böse") nicht passen will. Und letztendlich hat man sich bei Hard Tecs 4U noch mit Intels Viiv-Technologie beschäftigt.
News des 3. Februar 2006 |
Bei der ComputerBase gibt es eine Kolumne mit Titel "Abschied nehmen von AGP-Grafikkarten" - und auch wenn die GeForce 7800 GS hier noch einmal ein wenig neuen Wind in das Thema hineinbringt, hat die Kolumne in ihrer langfristigen Tendenz wohl durchaus recht. Für die Grafikchip-Entwickler und die Grafikkartenhersteller ist dies nicht einmal eine politische Frage, sondern nur eine des Marktvolumens: So sollen HighEnd AGP-Lösungen seit ungefähr Mitte des letzten Jahres rapide an Marktanteilen verloren haben (wobei ehrlicherweise in letzter Zeit sowieso keine HighEnd AGP-Grafikkarten mehr angeboten wurden) ...
... Und dies dürfte natürlich in erster Linie damit zusammenhängen, daß OEMs sehr viel schneller auf PCI Express umgeschwungen sind als der Retail-Markt. Zwar werden in Fernost auch jetzt noch ein erheblicher Anteil an OEM-Rechnern aus reinen Kostengründen mit AGP-Steckplatz verbaut, dort kommen dann aber auch wieder nur LowCost- oder allerhöchstens Mainstream-Lösungen zum Einsatz. Der Anteil an HighEnd-Rechnern mit AGP-Steckplatz dürfte aber schon zur Mitte des letzten Jahres gegen Null gesunken sein - daraus erklärt sich die Ablehnung der Hersteller, da die OEM-Absätze immer noch weit größer sind als die auf dem Retail-Markt getätigtem Umsätze ...
... Dennoch denken wir, daß sich hier die Zeit für eine weitergehende Betrachtung durchaus lohnt: Denn rechnet man den OEM-Markt mal heraus und schaut sich allein nur die Bedürfnisse des Retail-Marktes an, dürfte es durchaus Potential auch für echte HighEnd AGP-Lösungen geben. Die zum Launch der GeForce 7800 GS ausgelieferten Stückzahlen sind jedenfalls schon restlos vergriffen - und dabei ist die GeForce 7800 GS noch nicht einmal eine echte HighEnd-Lösung, kann also gewiss nicht mit den aktuellen PCIe-Spitzenmodellen konkurrieren. Es darf also durchaus die Frage gestellt werden: Ist der Markt für HighEnd AGP-Lösungen eventuell nur deswegen so klein, weil dieser faktisch nicht mehr beliefert wurde (letztes Spitzenmodell auf AGP war die Radeon X850 XT-PE, ab dem Frühjahr 2005 ausgeliefert)?
Hard Tecs 4U berichten ein wenig über die Speicherplanungen seitens Intel: Danach will der Prozessorenhersteller bereits im zweiten Halbjahr 2007 mit dem Umstieg auf DDR3-Speicher beginnen (hat technisch wenig mit GDDR3 zu tun, GDDR3 ist eine Zwischenentwicklung der Grafikchip-Hersteller aus GDDR2 heraus, während DDR3 ein echter neuer Standard ist). Allerdings will es Intel diesesmal nicht so dermaßen übers Knie brechen wie noch beim Umstieg von DDR1 auf DDR2, sondern es soll mindestens für ein Jahr eine Koexistenz von DDR2 und DDR3 geben - was wohl auch bedeuten mag, daß Intel in dieser Zeit mit seinen Chipsätzen beide Speicherstandards unterstützen wird ...
... Dies dürfte natürlich sicher auch daraus resultieren, daß 2007 DDR3-Speicher erst auf DDR3/800 in den Markt kommen wird - zum gleichen Zeitpunkt dürfte bereits DDR2/800 der absolute Standard im DDR2-Markt sein. Da es auf gleichen Taktraten zwischen DDR2 und DDR3 - wie schon zwischen DDR1 und DDR2 - keinen Performance-Vorteil gibt, lohnt DDR3 wohl erst dann, wenn dort wesentlich höhere Taktfrequenzen verfügbar werden - Taktfrequenzen, die DDR2 dann nicht mehr erreichen kann. Da DDR2 jetzt schon DDR2/1000 erreicht und damit in Richtung des nächsten offiziellen Standards von DDR3/1066 schielt, dürfte erst das 2008 herauskommende DDR3/1333 den wirklichen Durchbruch für DDR3-Speicher bringen ...
... Allerdings ist dies im eigentlichen nur die (geplante) Entwicklung auf der Speicherseite - ob sich die höheren Speichertakte auch in realer Mehrleistung auf den dann aktuellen Intel-Prozessoren umwandeln lassen, bestimmt immer noch in erster Linie die jeweilige FrontSideBus-Umsetzung dieser Prozessoren. Und diesbezüglich ist noch nichts genaues bekannt - es würde allerdings durchaus schon eines FSB2666 benötigen, um an DualChannel-Speichercontroller angebundenen DDR3/1333-Speicher wirklich vollständig auszunutzen. Mal schauen, wie Intel das regeln wird - AMD hat es da bekanntermaßen einfacher mit dem integrierten Speichercontroller: Der wird ab 2008 dann auch DDR3 unterstützen und dürfte damit die Vorteile von DDR3/1333 - und womöglich auch von höheren DDR3-Speicherarten - voll mitnehmen können.
Shortcuts: Bei den Hardware Secrets gibt es einen Überblick über alle vergangenen und aktuellen Xeon-Prozessoren. AnandTech haben sich mit dem Benchmark-Modus der Rolling Demo zu X3: Reunion beschäftigt. Allerdings gibt diese leider kaum die wirkliche Spielperformance wieder, da die Rolling Demo recht gut auf stärkere Grafikkarten reagiert, das Spiel selber jedoch in höchstem Maße CPU-limitiert ist (und zudem weit niedrigere Frameraten aufweist als die Rolling Demo). Und letzlich berichtet der Heise Newsticker noch kurz über die Marktanteile der Grafikchip-Entwickler im abgelaufenen Quartal. Sobald hierzu umfangreichere Zahlen vorliegen, werden wir dieses Thema noch einmal aufgreifen und die neuen Zahlen mit den archivierten Daten aus den vergangenen Quartalen vergleichen.
News des 2. Februar 2006 |
Über die GeForce 7800 GS ist lange gerätselt worden, nun ist sie offiziell: nVidia stellt mit dem heutigen Tag diese Karte für das untere HighEnd-Segment bzw. das obere Mainstream-Segment vor, welche auf dem G70-Chip basiert, aber mit nur 6 aktiven Geometrie- und 16 aktiven Pixel-Pipelines antritt (G70-Chip: 8/24). Interessanterweise wird die GeForce 7800 GS derzeit als reine AGP-Variante vermarktet - obwohl der Einsatz dieser Karte auch für PCI Express technisch genauso möglich wäre und nVidia angeblich auch schon eine Mini-Serie der GeForce 7800 GS für PCIe zu internen Zwecken aufgelegt hatte ...
... Mit der Vermarktung als reine AGP-Karte kann man aber eventuell auch Marketing-technisch besser bei der potentiellen AGP-Kundschaft punkten, welche in letzter Zeit nur noch LowCost- und Mainstream-Grafikkarten auf AGP angeboten bekam, aber keine Karte des HighEnd-Segments mehr. So gesehen ist die GeForce 7800 GS nur ausdrücklich im Sinne der aufrüstwilligen AGP-User zu begrüßen, auch wenn mancher sich eventuell sogar noch mehr als die derzeit angebotenen 16 Pixel-Pipelines gewünscht hätte. Dafür aber hat nVidia bei den Taktraten noch einmal etwas nachgelegt: Laut den bisherigen Gerüchten sollten es 350/500 MHz sein, nun sind es 375/600 MHz geworden ...
... Damit dürften sich auch Befürchtungen aus dem Weg räumen lassen, die GeForce 7800 GS würde die Performance bisheriger AGP-Lösungen gar nicht erreichen können. Was die neue nVidia-Karte leisten kann, ist den umfangreichen Testberichten des heutigen Tages zu entnehmen: Filtert man bei diesen nur die AGP-Lösungen heraus, so fällt allerdings auf, daß die GeForce 7800 GS nur knapp an die Radeon X850 XT-PE heranreicht, welche es teilweise eben auch auf AGP gibt. Die nVidia-eigenen Konkurrenten GeForce 6800 GT und Ultra werden zwar probemlos um 15 bzw. 10 Prozent geschlagen, aber es scheint fast so, als wäre es nVidia nicht geglückt, die wirklich schnellste AGP-Lösung im Markt vorzustellen ...
... Zumindestens läßt sich sicher sagen, daß die Performance der AGP-Grafikkarten nicht entscheidend gesteigert werden konnte - wer vorher schon eine HighEnd AGP-Lösung besaß, kommt mit der GeForce 7800 GS je nach vorhandener Karte rein von der Performance her gar nicht oder nicht entscheidend besser. Dies gilt allerdings wie gesagt nur rein auf die Performance bezogen: Gegenüber der GeForce 6800 Serie hat die GeForce 7800 GS immerhin einige kleine Verbesserungen beim Anti-Aliasing (Gamma-korrigiertes sowie Transparenz Anti-Aliasing), gegenüber den Radeon X800/X850 Serien immerhin den Support des Shader Models 3.0 vorzuweisen ...
... Somit dürfte die GeForce 7800 GS unter Berücksichtigung der außerhalb der reinen Performance liegenden Punkte insgesamt gesehen dann trotzdem die beste derzeit verfügbare Lösung für den AGP-User darstellen. Zumindestens, wer bis dato noch keine der früheren HighEnd-Karten für AGP besessen hat, kommt mit der GeForce 7800 GS sicherlich ganz gut weg, bevor dann mit der nächsten Grafikkarte der Wechsel auf PCI Express wohl unumgänglich werden wird. Der Preispunkt der GeForce 7800 GS liegt derzeit bei um die 300 Euro, Karten von Albatron, Club-3D, Connect3D, eVGA, MSI und PoV sollen in den nächsten Tagen lieferbar werden.
News des 1. Februar 2006 |
Laut einer Meldung der VR-Zone kommt der G70-Refreshchip nVidia G71 aka GeForce 7900 nun anscheinend in zwei Varianten: Eine GeForce 7900 GT mit 256 MB Grafikkartenspeicher sowie eine GeForce 7900 GTX mit 512 MB Grafikkartenspeicher. Irgendwelche Hinweise zu den Unterschieden zwischen diesen Karten gibt es noch nicht, aber bislang sind ja noch nicht einmal die technischen Daten des G71-Chips sicher geklärt (man vermutet 32 Pixel-Pipelines). Aber zumindestens lassen die "nur" 256 MB Grafikkartenspeicher der GeForce 7900 GT darauf schließen, daß mit dieser Karte nicht das absolute Top-Segment angepeilt werden soll ...
... Insofern könnte die Vermutung der VR-Zone, es handle sich bei der GeForce 7900 GT eventuell um einen Chip mit weniger freigeschalteten Pixel-Pipelines als dem G71-Chip Hardware-technisch zur Verfügung stehen, durchaus zutreffen. Die GeForce 7900 GTX bzw. der G71-Chip soll im übrigen am 9. März, dem Starttag der diesjähigen CeBIT vorgestellt werden, die GeForce 7900 GT soll dagegen zum 20. März wahrscheinlich zusammen mit der GeForce 7600 Serie das Licht der Welt erblicken. Informationen, ob die Produkte dann auch zeitnah zu ihren Launches in den Markt kommen, gibt es dagegen derzeit noch keine.
Dafür schreibt die VR-Zone noch ein paar Details zum nVidia G73 Grafikchip aka der GeForce 7600 Serie in Ablösung für die inzwischen altgediente GeForce 6600 Serie (NV43). So soll der G73-Chip Hardware-technisch über 12 Pixel-Pipelines verfügen, womit nVidia auch im Mainstream-Bereich die Architektur weiter verbreitern würde (NV43: 8 Pixel-Pipelines). Dies soll dann in einer GeForce 7600 GT mit noch unbekannten Taktraten resultieren, dazu kommt mit der GeForce 7600 GS eine abgespeckte Variante mit nur 8 freigeschalteten Pixel-Pipelines. Wie schon vorstehend erwähnt, wird der G73-Chip derzeit zum 20. März erwartet.
Wie Hard Tecs 4U berichten, ist es wieder einmal ASRock, welche erste Mainboards auf Basis des neuen M1697-Chipsatzes von ULi in den Markt bringen. Interessanterweise hat sich ASRock bei seinen M1697-Mainboards jedoch nicht für eine PCIe/AGP-Kombilösung wie noch beim eigenen M1695-Mainboard entschieden, sondern bringt mit den neuen Mainboards jeweils zwei Grafikkarten-Steckplätze für den SLI-Einsatz daher. Dabei handelt es sich jedoch anscheinend erstaunlicherweise um eine offizielle SLI-Lösung (da die Produktseite explizit SLI als "unterstützt" nennt), womit ASRock eines der seltenen Mainboards hätte, die SLI ohne nVidia-Chipsatz ermöglichen. Wahrscheinlich dürfte diese offizielle Unterstützung auch damit zusammenhängen, daß ULi vor kurzem von nVidia aufgekauft wurde ;).
neuer Artikel |
The Chronicles of Riddick: Escape from Butcher Bay Review
Vielen dürfte der Name "Riddick" wohl bereits ein Begriff sein. Denn nicht nur im Spiel, sondern auch im gleichnamigen Film "Riddick: Chroniken eines Kriegers" spielt Vin Diesel als Riddick die Hauptrolle im packenden Fluchtversuch aus dem Hochsicherheitsgefängnis "Butcher Bay", basierend im übrigen auf dem mit dem Überraschungserfolg "Pitch Black: Planet der Finsternis" kreierten Figur des "Riddick" ... zum Artikel
News des 30. Januar 2006 |
In den News des 14./15. Januar befindet sich zu unserem Leidwesen ein recht massiver Fehler: Wir hatten dort seinerzeit auf einen Artikel seitens Hardwareluxx verwiesen, welcher sich mit dem Thema nVidias SLI-AA vs. ATIs Super AA beschäftigte, u.a. auch mit Benchmarks dieser beiden Anti-Aliasing Arten gegeneinander. Wir hatten dort leider jedoch nicht aufgepasst, und den Vergleich nVidia vs. ATI fälschlicherweise unter dem Siegel GeForce 7800 GTX SLI vs. Radeon X1800 CrossFire verstanden. Allerdings hatten Hardwareluxx in diesem Artikel auf CrossFire-Seite keine Radeon X1800 Karten im CrossFire-Verbund verwendet, sondern nur zwei Radeon X850 XT-PE Karten im CrossFire-Verbund ...
... Insofern stimmen damit auch die von uns seinerzeit in unserer Berichterstattung getroffenen Aussage überhaupt nicht, wir möchten uns hiermit auch ausdrücklich für diesen Fehler entschuldigen. Mit dem vorgenannten Artikel läßt sich allein der Vergleich GeForce 6800 Ultra SLI gegen Radeon X850 XT-PE CrossFire antreten, welcher auch völlig anders ausgeht: Zumeist gewinnt hier die ATI-Lösung mit 10 bis 20 Prozent, nur in F.E.A.R. gewinnt die nVidia-Lösung deutlich mit teilweise 50 Prozent Vorsprung (bei allerdings klar zu niedrigen Frameraten unter 12xS bzw. 16xAA). Interessanterweise haben wir im Web kaum Resultate zum Thema GeForce 7800 GTX SLI vs. Radeon X1800 CrossFire gefunden, einzig im Radeon X1900 Launchartikel seitens Hot Hardware hat man sich um diesen Vergleich gekümmert ...
... Gemäß der dort gemessenen Werte gewinnt das Super AA eines Radeon X1800 XT CrossFire-Verbunds gegenüber einem GeForce 7800 GTX 256MB SLI-Verbund mit 15 Prozent unter 8xS/8xAA und satten 53 Prozent unter 12xS/16xAA (Note: es ist nicht ganz klar, ob Hot Hardware für diesen Test eine 256 oder 512 MB GeForce 7800 GTX benutzt haben - da aber in anderen Fällen die 512-MB-Edition immer extra gekennzeichnet war, gehen wir hier von ersterem aus). Dies wirft - um dies nochmals klar zu sagen - die Aussagen der vorgenannten News komplett um, ergo: ATI führt derzeit bei den SLI/CrossFire AA-Modi - zumindestens im Vergleich GeForce 7800 GTX 256MB vs. Radeon X1800 XT. Einen Vergleich von GeForce 7800 GTX 512MB im SLI-Verbund gegen Radeon X1900 im CrossFire-Verbund, welcher sich mit Super AA bzw. SLI-AA beschäftigt, haben wir bislang noch nicht entdecken können ...
... Zwei weitere Dinge lassen sich den Benchmarks von Hot Hardware noch entnehmen: Erstens ist das reguläre 8xS Anti-Aliasing von nVidia doch noch schneller als das 8x SLI-AA - was eigentlich nicht sein dürfte, denn bei 8x SLI-AA wird technisch nur Multisampling verwendet und das Supersampling wird allein durch eine (allerdings nicht besonders stark) verschobener Texturensampling-Position zwischen beiden Grafikkarten erzeugt. Hier liegen insofern noch Performance-Reserven versteckt, die nVidia schnellstmöglich herauskitzeln sollte. Und zweitens ergibt sich aus den Benchmarks ganz klar, daß man bei ATI jederzeit das 8xS (offiziell 10x) dem 8x Modus und das 12xS (offiziell 14x) dem 12x vorziehen sollte, da der Performance-Unterschied gering ist - man bei den jeweils höheren Modi eine bessere Texturenqualität also mehr oder weniger kostenlos dazubekommt.
Ganz nebenbei wollen wir hiermit noch eine bessere Benennung für die Super AA Modi von ATI vorschlagen: ATI nennt diese 8x, 10x, 12x und 14x Anti-Aliasing, was allerdings im Fall von 10x und 14x falsch ist, da die Texturensamples dieser Modi nicht extra zu zählen sind (ansonsten müsste man das 8x ja eigentlich 9x nennen). Gezählt werden üblicherweise ausschließlich die Anzahl der Subpixel, nicht die der Texturensamples. Insofern ist auch das offiziell so genannte 10x Super AA von ATI eigentlicherweise ein 8x Anti-Aliasing, das offiziell so genannte 14x Super AA eigentlicherweise ein 12x Anti-Aliasing. Da es diese Modi aber auch schon gibt, bietet sich zur besseren Unterscheidung ein Anhängsel an: Anstatt also 10x besser 8xS, anstatt 14x besser 12xS, wobei das "S" für den zusätzlichen Supersampling-Anteil steht. Dies wäre bezüglich der Zählweise korrekt und zudem (zumindestens innerhalb der von ATI angebotenen Modi) trotzdem noch eindeutig.
Shortcuts: Hard Tecs 4U berichten wieder von den neuen Intel-basierenden Macs und den Bestrebungen, Windows auf diesen Rechnern zum Laufen zu bringen, sowie ersten Performance-Tests der neuen iMacs. Die VR-Zone hat eine aktuelle Roadmap für Mobile-Grafikchips von ATI und nVidia. Die Angaben speziell für das zweite Halbjahr 2006 kommen uns allerdings ein wenig hochspekuliert vor, diese Daten sollte man nur unter starken Vorbehalten betrachten. Golem berichten vom neuen R0-Stepping der Pentium 4 Prozessoren, bei welchem u.a. auch die Taktfrequenz im Stromsparmodus gesenkt wurde: Anstatt bis auf 2.8 GHz geht es nun bis auf 2.4 GHz herunter. Und letztlich berichtet noch der Heise Newsticker, daß AMDs eigene Foren gehackt wurden und (kurzzeitig) diverse Schadsoftware verbreiteten.