News-Archiv 30. April - 6. Mai 2007 (18. Kalenderwoche)
5./6. Mai 4. Mai 3. Mai 2. Mai 1. Mai 30. April
News des 5./6. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Hard Tecs 4U berichten in zwei Meldungen ausführlich über die kommenden AMD-Prozessoren: Teil 1 und Teil 2, wobei insbesondere die Tabelle in der zweiten Meldung recht gelungen ist. Zuerst einmal läßt sich nun festschreiben, das die K10-basierenden Prozessoren für den Desktop-Einsatz mehrheitlich unter dem Verkaufsnamen "Phenom" in den Markt kommen werden, wobei die bisher schon verwendeten Anhängsel "X2" für DualCore- und "X4" für QuadCore-Modelle weiterhin benutzt werden. Im LowCost-Markt wird es allerdings auch K10-basierende Prozessoren unter dem Namen "Sempron" geben - wobei es sich hierbei ausschließlich um SingleCore-Modelle handeln wird ...
... Aber auch der Verkaufsname "Athlon" wird erst einmal noch weiterbestehen, da AMD unter diesem zukünftig K10-basierende Modelle ohne extra Level3-Cache vermarkten wird, allerdings ausschließlich DualCore- und keine QuadCore-Modelle. Allerdings könnten diese Prozessoren bei ansprechenden Taktfrequenzen durchaus interessant sein, da der Level3-Cache bei dem integrierten Speicherinterface der AMD-Prozessorne eigentlich für keinen großen Leistungssprung mehr stehen sollte. Daneben wohl die wichtigste neue Erkenntnis ist, daß AMD entgegen früherer Ankündigungen nun doch schon im dritten Quartal zum K10-Verkaufsstart nicht nur das Server-Segment, sondern mit "Phenom X4" und "Phenom FX" auch das Desktop-Segment beliefern wird ...
... Zwar wird es sich hierbei sicherlich nicht um für die meisten OEM-Hersteller erschwingliche CPUs handeln, allerdings könnte AMD mit diesen zumindestens erst einmal im Desktop HighEnd-Segment Flagge zeigen und eventuell einige Performance-Siege für das Renomee AMDs einfahren. Wichtig ist dies vor allem auch deshalb, weil Intel schließlich zum Jahreswechsel schon mit seinen 45nm Prozessoren drohen kann - und diesen den kommenden K10-Prozessoren vor allem mit deutlich höheren Taktraten das Leben wieder sehr schwer machen dürften. Daß AMD mit diesem unerwartet frühen Marktstart von K10-Prozessoren für den Desktop-Bereich (potentiell) mal wieder ein paar Monate die Performance-Führerschaft übernehmen sollte, kann für AMD und auch für den Gesamtmarkt nur gut sein, schließlich kommt AMD allein mit Preissenkungen nicht aus den aktuellen geschäftlichen Schwierigkeiten wieder heraus ...
... Nichts desto trotz muß klar sein, daß die für den breiten Markt interessanten K10-Prozessoren doch etwas später kommen: Der DualCore "Phenom X2" (mit Level3-Cache) tritt im vierten Quartal 2007 und der DualCore "Athlon 64 X2" (ohne Level3-Cache) im ersten Quartal 2008 an. Diese Prozessoren müssen eine überzeugende Performance, marktgerechte Preise und einen günstigen Herstellungspunkt für AMD haben, damit der Prozessorenbauer die zuletzt dunkelroten Zahlen wieder verlassen kann. Zudem gibt die Tabelle noch einen Ausblick auf die im nächsten Jahr dann folgenden 45nm-Prozessoren von AMD: Neben einem größeren Level3-Cache und der Unterstützung von DDR3-Speicher sollen diese auch einige architektonische Veränderungen enthalten.
Mal wieder ein Interview mit dem IT- und Wissenschaftsjournalisten Peter Welchering zum Thema der Online-Durchsuchung hat das Deutschlandradio geführt. Dabei wurden einige hochinteressante Informationen über die bisher in Deutschland schon gelaufenen bzw. versuchten Online-Durchsuchungen genannt, welche teilweise schon zum Schmunzeln sind. Denn offensichtlich sind die entsprechenden Behörden derzeit noch lange noch nicht so weit, um die bisher spekulativ genannten Verbreitungswege eines Bundestrojaners über manipulierte Downloads oder das direkte Hacken eines Computers zu realisieren. Vielmehr versuchte man es bisher dadurch, Überwachungsobjekten möglichst gezielt entsprechend manipulierte CD unterzuschieben ...
... Allerdings ging das mit dem "gezielt" natürlich schief und so landete die auf den CDs enthaltene Überwachungssoftware auch auf anderen Computern, welche dann ebenfalls dem Remote-Computer ihre Überwachungsergebnisse zu schicken versuchten. Damit war der Remote-Computer der ermittelnden Behörde dann überlastet und ging wie bei einem DDoS-Angriff schlicht in die Knie ;). Deswegen fand man auch eher Geschmack an dem zweiten Verbreitungsweg der Überwachungssoftware, welcher "schlicht" in einem gewöhnlichen Einbruch in die Räume des Überwachungsobjektes und der manuellen Installation der Überwachungssoftware auf den Ziel-Computer besteht. Unklar bleibt hier natürlich, wieso man bei einer solchen Gelegenheit nicht einfach gleich eine komplette Kopie der Festplatte angefertigt hat - sollte das die technischen Kenntnisse der entsprechenden Beamten überstiegen haben? ...
... Denn auf der anderen Seite wollte man in einem Fall mittels der Online-Durchsuchung per Internet eine komplette Festplatte mit 120 GB Daten übertragen. Dies dauert natürlich seine Zeit - und nach ca. zwei Wochen fielen diese Aktivitäten dann sogar dem Computerbenutzer auf, womit die heimliche Online-Durchsuchung enttarnt war. In einem anderen Fall scheiterte man noch früher: Da wurde der Bundestrojaner gleich beim Versuch der Einschleusung in den Zielrechner bemerkt, worauf sich der Computernutzer den Spaß machte, den Remote-Computer der ermittelnden Behörde mit Datenmüll zu füttern ;))). In der Summe sieht das ganze derzeit eher nach einer Episode von "Clever und Smart" aus als denn nach vorhandenem IT-Sachverstand. Auf der anderen Seite darf man die Kräfte pro der Online-Durchsuchung auch nicht unterschätzen, auch dort wird mit der Zeit hinzugelernt.
News des 4. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Seitens der Analysten von Jon Peddie Research gibt es mal wieder neue Zahlen zur Verteilung der Markanteile im Grafikchip-Markt im abgelaufenen ersten Quartal 2007. Frühere Zahlen sind unserem News-Archiv zu entnehmen: Q4/06, Q3/06 und Q2/06 + Q1/06. Von den im ersten Quartal 2006 verkauften 78,8 Millionen Grafikchips oder Mainboard-Chipsätzen mit integrierten Grafikchips entfielen von den Stückzahlen her 38,7 Prozent auf Intel (plus 1,3 Prozent zum Vorquartal), 28,5 Prozent auf nVidia (unverändert), 21,9 Prozent auf ATI (minus 1,1 Prozent), 6,4 Prozent auf VIA/S3 (minus 0,3 Prozent) und 4,3 Prozent auf SiS (minus 0,2 Prozent). Auf Matrox und andere Hersteller entfielen somit weiterhin nur wirklich unrelevante 0,2 Prozent Marktanteile - aber auch der Anteil der "Großen Drei" mit 89,1 Prozent (plus 0,2 Prozent) drückt solche Hersteller wie VIA/S3 und SiS immer mehr an die Wand ...
... Ziemlich interessant ist die Aufteilung nach Desktop- und Mobile-Grafikchips - weil es dort zu einem Verhältnis von 70:30 kommt, obwohl die Notebook-Verkäufe derzeit ja schon fast die Höhe der Desktop-Verkäufe erreicht haben. Der Desktop-Markt kann hier allerdings den Vorteil des Nachrüster-Marktes in die Waagschale werfen - welcher dann doch nicht ganz so klein ist, wie immer wieder beschworen. Innerhalb des Desktop-Marktes gibt es im übrigen eine Unterteilung in 39 Prozent extra Grafikkarten und 61 Prozent integrierte Lösungen, im Mobile-Segment liegt dieses Verhältnis bei 22 zu 78 Prozent und im Gesamtmarkt dementsprechend bei 34 zu 66 Prozent. Dies verdeutlicht nebenbei noch einmal die Stärke von Intel im Geschäft mit integrierten Grafiklösungen, da sich Intel seinen insgesamten Marktanteil von 38,7 Prozent ja vollumfänglich nur aus dem Markt der integrierten Lösungen holt ...
... Umgerechnet bedeutet dies, daß Intel in diesem Teilmarkt (egal ob Desktop- oder Mobile-Lösungen) einen Marktanteil von runden 58 Prozent hat, was ein nettes Nebenbei-Geschäft für den Prozessorenbauer sein sollte. Leider gibt es derzeit keine Zahlen über die Marktanteile der anderen Grafikchip-Entwickler rein bei den integrierten Lösungen. Man kann allerdings VIA auf runde 9 Prozent und SiS auf runde 6 Prozent schätzen, da beide Hersteller kaum noch extra Grafikchips vertreiben. Für ATI und nVidia würden dann im übrigen noch 27 Prozent zusammen übrigbleiben. Auch für den umgekehrten Fall gibt es (nach einiger Rechnerei) Zahlen: Bei den extra Grafikchips für Desktop und Mobile hat nVidia derzeit einen Marktanteil von runden 60 Prozent, ATI von runden 40 Prozent ...
... Dies ergab sich aus aus den entsprechenden Einzelzahlen zu Desktop- und Mobile-Segment: So lag nVidia im Desktop-Segment der extra Grafikchips mit 59,3 Prozent (plus 5,5 Prozent) so weit vorn wie seit Jahren nicht - wahrscheinlich wurde dieser Marktanteil zuletzt zu GeForce 1/2 Zeiten erreicht. ATI hingegen verlor auf 40,1 Prozent (minus 6,3 Prozent). Im Mobile-Segment der extra Grafikchips erreichte nVidia hingegen 60,3 Prozent (plus 1,2 Prozent), auch hier ATI fiel auf 39,7 Prozent (minus 1,2 Prozent). Damit hat nVidia im abgelaufenen ersten Quartal 2007 ca. 15,76 Millionen extra Grafikchips verkauft (12,62 Millionen Desktop und 3,14 Millionen Mobile), während es ATI immerhin noch auf ca. 10,59 Millionen verkaufter extra Grafikchps brachte (8,53 Millionen Desktop und 2,06 Millionen Mobile) ...
... Dabei ergibt die Verschiebung der Marktanteile zum letzten Quartal hin mal wieder ein Paradebeispiel dafür, wie eigentlich von den Stückzahlen her nicht wirklich bedeutende HighEnd-Grafikchips doch auch einen erheblichen Einfluß auf den Gesamtmarkt haben. Grob kann man hier sagen: Mittels des G80-Chips konnte nVidia sein Image wieder enorm steigern - und verkauft in Folge dessen auch mehr LowCost- und Mainstream-Grafikchips, selbst wenn das eine mit dem anderen erst einmal nicht zusammenzuhängen scheint. Für das derzeit laufende zweite Quartal ist ein ähnlicher Effekt zu erwarten, vielleicht sogar durch den Release und die Verfügbarkeit der GeForce 8500/8600 Grafikkarten sogar noch stärker als im ersten Quartal.
News des 3. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Laut der ComputerBase hat der Grafikkarten-Hersteller HIS am Mittwoch kurzzeitig bereits die Ankündigung und Spezifikationen der eigenen Radeon HD 2900 XT Grafikkarte auf der HIS-Webseite gehabt, Screenshots dieser inzwischen zurückgezogenen Webseiten befinden sich hier: Teil 1 und Teil 2. Wirklich neues gibt es mit den dort zu sehenden Daten und Marketing-Stichwörtern allerdings nicht, allenfalls bestätigen sich einige der vorher schon bekannten Details. Die Spalte mit den Taktraten hatte HIS allerdings erstaunlicherweise frei gelassen - ganz so, als ob ATI sich diesbezüglich noch nicht final festgelegt hätte.
Jedoch gibt es hierzu inzwischen halbwegs sichere Hinweise, wiederum stammend aus den vorgestern schon vermeldeten AMD-Folien. Die PC Games Hardware hat hierzu noch eine weitere Folien anzubieten, welcher die Chiptakte diverser kommender ATI-Grafikkarten zu entnehmen sind. So soll die Radeon HD 2900 XT auf R600-Basis (320 Shader-Einheiten, 16 Textureneinheiten und 512 Bit DDR Speicherinterface) mit 742 MHz Chiptakt antreten, der Speichertakt dieser Karte liegt gemäß anderen Quellen bei 800 MHz. Die allerdings nicht vor Juni nachfolgende Radeon HD 2900 XTX soll gemäß früherer Berichterstattung dann mit 800/1100 MHz antreten, was eigentlich doch auf einen vernünftigen Performance-Unterschied zwischen XT- und XTX-Version hindeuten würde ...
... Desweiteren soll die Radeon HD 2600 XT auf RV630-Basis (120 Shader-Einheiten, 8 Textureneinheiten und ein 128 Bit DDR Speicherinterface) mit gleich 800 MHz Chiptakt antreten, allerdings fehlt zu dieser Karte derzeit noch ein Speichertakt. Da der RV630-Chip aber nur über ein 128 Bit DDR Speicherinterface (wie die Konkurrenz in Form des G84-Chips der GeForce 8600 Serie) verfügt, ist hier ein ebenso hoher Speichertakt zu erwarten, um die negativen Auswirkungen dieses doch etwas kleinen Speicherinterfaces zu minimieren. Und letztlich soll die Radeon HD 2400 XT auf RV610-Basis (40 Shader-Einheiten, 4 Textureneinheiten und ein 128 Bit DDR Speicherinterface) auf 700 MHz antreten, was für eine LowCost-Lösung ausgesprochen viel ist - auch wenn man bedenkt, daß der Speichertakt dieser Karte gemäß früherer Berichterstattung ebenfalls bei 700 MHz liegen soll.
Noch ein paar Anmerkungen zur GeForce 8800 Ultra: Wie Golem ausführen, liegt der Stromhunger dieser Karte nur unmerklich höher als jener der GeForce 8800 GTX. So hat nVidia im Praxisbetrieb einen Stromverbrauch von 146 Watt bei der Ultra-Version vermessen, die GTX-Version liegt diesbezüglich gemäß früheren Meldungen bei ca. 140 Watt (was nebenbei die Messungen der X-bit Labs bestätigt, welche auf 132 Watt für die GeForce 8800 GTX kamen). Der maximale Verbrauch in speziellen, in der Praxis allerdings kaum zu erreichenden Stresstests liegt noch ähnlicher zusammen: 173 Watt für die GTX-Version und 175 Watt für die Ultra-Version. Davon abgesehen gibt es erste Listungen der neuen Karten, welche die 700-Euro-Preisvorstellung klar untermauern: Abgesehen von einer Listung mit offensichtlich irrtümlichen Preis gibt es derzeit keinerlei Händlerangebote unterhalb des europäischen Listenpreises von 699 Euro.
Fudzilla setzen mal wieder wilde Gerüchte zur Radeon HD 2900 XT in die Welt: Zuerst soll der Kühler der Karte laut Titel der Meldung gleich 100 Grad warm werden. Die genaue Meldung lautet aber eigentlich nur, daß im Praxistest der Kühler sehr warm wurde und das eine andere Quelle davon geredet hat, daß die Karte um die 100 Grad warm wird. Aller Vermutung sollte damit aber nur zum Ausdruck gebracht werden, daß einzelne Teile des Grafikchips unter Last bis zu 100 Grad warm werden können - was keine Besonderheit mehr darstellt, auch einige andere Grafikchips haben teilweise sehr hohe interne Temperaturen. Desweiteren wärmt man noch einmal die alte Meldung auf, wonach R600-Grafikkarten gleich 240 Watt Stromaufnahme unter 3D-Last haben sollen ...
... Hierbei ist unklar, wieso diese alte Meldung wieder hervorgekramt wird. Sicherlich gab es vor einigen Monaten einmal entsprechende Hinweise seitens ATI, allerdings wurde damals auch die Radeon HD 2600 XT als mit bis zu 128 Watt Stromaufnahme beschrieben - und diese Karte gibt es nun auch ohne extra Stromstecker, was auf einen Stromaufnahme von maximal 60 Watt schließen läßt. Insofern ist stärkstens anzunehmen, daß ATI die lange Verzögerung bis zum Launch des R600-Chips doch dafür ausgenutzt hat, auch bei diesem von den einstmals hohen Stromverbrauchs-Angaben herunterzukommen. In die gleiche Kerbe schlägt die Meldung, wonach ATI für die Radeon HD 2900 XT eine Netzteilanforderung von 750 Watt ausgeschrieben hätte - dies wäre dramatisch überhalb der GeForce 8800 GTX, für welche nVidia ein 450-Watt-Netzteil (mit 30A auf der 12V-Leitung) empfiehlt ...
... In einer weiteren Meldung wird die 750-Watt-Aussage dann sogar noch durch einen Screenshot eines AMD-Dokuments untermauert. Wie sich jedoch inzwischen herausgestellt hat, handelt es sich dabei um die ATI-Empfehlung für ein Radeon HD 2900 XT CrossFire-System mit einer QuadCore-CPU. Demzufolge bleibt anzunehmen, daß eine einzelne Radeon HD 2900 XT mit einer Netzteil-Anforderung ziemlich ähnlich der GeForce 8800 GTX zufrieden sein wird - sprich ein gutes Netzteil mit 450 bis 500 Watt. Wichtiger als eine hohe Insgesamtleistung dürfte hier aber sowieso wieder sein, wieviel Stromstärke das Netzteil auf der 12V-Leitung zur Verfügung stellt - aus welcher sich HighEnd-Grafikkarten vorwiegend speisen.
Seitens DailyTech berichtet man von einem neuen Bezeichnungsschema für die kommenden K10-basierenden Desktop-Prozessoren von AMD. Dabei würde sich AMD vom alten leistungsbasierenden Model Rating trennen und ähnlich Intel ein Bezeichnungsschema einführen, mit welchem sich die Prozessoren zwar je nach Leistung und Ausstattung erkennen lassen sollen, welches jedoch keine relative Performance zu einer Bezugsgröße mehr angibt. Bekannt sind derzeit allerdings nur die Bezeichnungen LE-1100 bis LE-1300 für den SingleCore "Sparta" und BE-2300 bis BE-2400 für den DualCore "Brisbane". Unklar ist hier allerdings noch, unter welchem Markennamen das ganze laufen wird: Entweder wird AMD den bisherigen Markennamen "Athlon" weiterführen - alternativ dazu soll es mit "Phenom" aber auch einen neuen Markennamen geben. Davon abgesehen dürften die vorgenannten Prozessoren vor allem auch deswegen interessant sein, weil sie nur eine Stromaufnahme von maximal 45 Watt (für die am höchsten getakteten Typen und mit Reserve) haben.
Nochmals DailyTech berichten zudem über AMDs Pläne zu DDR3-Speicher. Danach sollen 2008 erste Prozessoren mit integriertem DDR3-Speicherinterface erscheinen, DailyTech nennt hierzu die Cores "Deneb" "Deneb FX" für Mitte 2008. In beiden Fällen soll es sich um QuadCore-Modelle handeln, wobei "Deneb FX" wohl für den HighEnd-Bereich in Form des Athlon 64 FX vorgesehen scheint. Irgendwann zum Jahresende 2008 oder Jahresbeginn 2009 sollen dann drei weitere DDR3-unterstützende Cores nachfolgen: "Propus" und "Regus" als DualCore-Prozessoren und "Sargas" als SingleCore-Prozessor. Interessanterweise will AMD die Unterstützung von DDR3-Speicher auch gleich mit dem Umstieg auf die 45nm-Fertigung verbinden - DDR3-unterstützende Prozessoren von AMD wird es also nur unter 45nm geben. Zudem werden diese Prozessoren dann wohl auch nur die kommende AM3-Plattform unterstützen ...
... Dadurch daß der benutzte DDR3-Speicher sowieso neue Mainboards veraussetzt, wird diese Plattform (im Gegensatz zur kommenden AM2+ Plattform) auch nicht abwärtskompatibel sein können - für die DDR3-unterstützenden AMD-Prozessoren wird also in der Tat mal wieder ein genereller Systemumbau fällig. Unbekannt bleibt derzeit noch, wie hoch AMD bei der (offiziellen) Unterstützung von DDR3 gehen will - wovon allerdings sicherlich die Schlagkraft dieses Prozessoren-Updates abhängt. Unterhalb von DDR3/1333 lohnt es sich sicherlich kaum anzufangen - besser wäre natürlich gleich die offizielle Unterstützung von DDR3/1600, um den neuen Standard auch wirklich ausnutzen zu können. Und letztlich gibt diese Meldung auch einen Ausblick darauf, wann DDR3 wirklich interessant werden wird: Vor dem Erscheinen dieser AMD-Prozessoren nämlich eigentlich überhaupt nicht, da die aktuellen und kommenden Intel-Prozessoren (bei weitem) nicht über einen genügend hohen FSB verfügen, um die hohen Taktfrequenzen von DDR3-Speicher überhaupt ausnutzen zu können.
Shortcuts: Laut TweakPC gibt es schon erste Händler-Listungen zur Radeon HD 2900 XT, zwischen 366 und 387 Euro lauten hierbei die Preise. Sollte es sich nicht nur um Promotionaktionen der jeweiligen Onlineshops handeln, welche dann letztlich nie zu diesen Preisen liefern wollen (alles schon vorgekommen), könnte ATI mit diesen Preisen durchaus eine gute Konkurrenz zur GeForce 8800 GTS auf die Beine stellen. Nochmals TweakPC berichten zudem von ersten ab Werk übertakteten GeForce 8800 Ultra Grafikkarten: So dürfte ein Sparkle-Modell mit den Taktraten 650/1500/1125 MHz schon eher dem Ultra-Anspruch gerecht werden - wenn denn der (derzeit noch nicht bekannte) Preis nicht gleich noch einmal deutlich teurer ausfällt. Zudem sind laut der PC Games Hardware GeForce 8800 GTX und Ultra absolut gleich groß - entsprechende Meldungen, wonach die Ultra-Version noch einmal etwas größer sein (und damit Platzprobleme in einigen Gehäuse haben soll), müssen demnach falsch sein.
Und letztlich müssen wir uns noch für den Server-Ausfall der 3DCenter-Hauptseite entschuldigen. Prinzipiell unschuldig war hierbei unser Hoster Host Europe, die Schuld liegt (sogar doppelt) bei uns - genaueres ist diesem Foren-Posting zu entnehmen. Wir danken im übrigen jenen Webseiten, welche mit (unsererseits nicht forcierten) Meldungen darauf hingewiesen haben, daß die 3DCenter-Hauptseite down war, jedoch das 3DCenter-Forum weiterhin erreichbar ist (da es auf einem anderen Server liegt). Uns sind diesbezüglich dato entsprechende Meldungen von TweakPC, der ComputerBase, Golem und Hard Tecs 4U bekannt. Und nochmals: Wir bitten ausdrücklich um Entschuldigung für diesen Server-Ausfall. Dank gilt zudem unserem Hoster Host Europe dafür, den Server für die 3DCenter-Hauptseite sogar eine halbe Stunde vor dem offiziellen Arbeitsbeginn der zuständigen Techniker wieder online geschaltet zu haben.
News des 2. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie gemäß der umfangreichen Vorab-Berichterstattung im Prinzip schon bekannt, launcht nVidia mit dem zweiten Mai-Tag (bei Lieferbarkeit ab dem 15. Mai) seine GeForce 8800 Ultra - und stellt damit ATIs kommender Direct3D10-Klasse eine weitere, noch höhere Hürde entgegen, noch bevor diese überhaupt in den Markt gelangt. Allerdings sind die Steigerungen der Ultra-Version nicht wirklich weltbewegend: Wie vorher schon erwartet worden war, ändert sich an der zugrundeliegenden Technik absolut überhaupt nichts, sondern gibt es allein höhere Takraten: 612/1512/1080 MHz bei der GeForce 8800 Ultra bedeuten gegenüber den 575/1350/900 MHz der GTX-Version allerdings nur arg gemächliche Steigerungen von 6/12/20 Prozent, was kaum großartige Performancegewinne verspricht ...
... Und genau so sehen dann auch die zum Thema erschienenen ersten Artikel aus (Liste), welche im Schnitt der GeForce 8800 Ultra einen Performancevorsprung von 10 Prozent gegenüber der GeForce 8800 GTX geben. Dies gilt allerdings nur in Auflösungen ab 1280x1024, darunter gleichen sich die Leistungen der beiden Top-Karten von nVidia zu stark - sie sind schlicht schon zu schnell und kommen in Auflösungen bis 1024x768 zu oft in die Nähe des CPU-Limits (zumindestens in Timedemo-Messungen, welche die CPU geringer belasten als Savegame-Messungen bzw. das reale Spiel). Als Ablösung zur GeForce 8800 GTX ist die Ultra-Version somit keineswegs brauchbar, dafür ist der Leistungsunterschied deutlich zu gering. Offensichtlich scheint es sich um ein reines Prestige-Projekt von nVidia zu handeln, um ATI noch einmal viel deutlicher die derzeitigen Markt- bzw. Machtverhältnisse aufzuzeigen ...
... Denn zu einem europäischen Listenpreis von 699 Euro (in den USA gar satte 829 Dollar) ergibt sich gegenüber der derzeit für ca. 490 Euro zu bekommenden GeForce 8800 GTX kein gutes Preis/Leistungsverhältnis: Runden 40 Prozent Mehrpreis stehen wie gesagt nur 10 Prozent Mehrperformance gegenüber. Wirklich torpediert wird die GeForce 8800 Ultra allerdings von den schon im Markt befindlichen GeForce 8800 GTX Grafikkarten mit ab Werk höheren Taktraten: Interessant sind hier die "BFG GeForce 8800 GTX OC2" mit Taktraten von 626/1450/1000 MHz sowie die "XFX GeForce 8800 GTX XXX" mit Taktraten von 630/1400/1000 MHz. Dies trifft zwar beim Shader- sowie beim Speichertakt noch nicht ganz das Niveau der GeForce 8800 Ultra, doch dafür sind die beiden vorgenannten Karten schon für 550 Euro zu bekommen, was ein deutlich besseres Preis/Leistungsverhältnis als bei der GeForce 8800 Ultra bedeutet.
Der Heise Newsticker berichtet darüber, daß die Dienstanweisung zur Online-Durchsuchung womöglich auf einem Mißverständnis beruht: Der damals zuständige Staatssektretär sagte aus, daß es seinerzeit rein offiziell darum gegangen sei, "abgeschottete" Online-Foren ausspähen zu können - was im Sinne der (legalen) Telekommunikations-Überwachung sicherlich auch schon damals von den entsprechenden Gesetzen gedeckt wurde. Natürlich aber bedingt die technische Umsetzung dieses Vorhabens dennoch immer noch den Einbruch in den PC eines der Foren-Teilnehmer - aber eben nur aus dem einzigen Grund, um an die entsprechenden Zugangsdaten zu kommen, sprich hierbei würde es sich um eine Online-Durchsuchung mit extremer Zweckbindung handeln ...
... Allerdings scheint diese Zweckbindung wohl nicht in der bewußten Dienstanweisung vermerkt zu sein - insofern kann diese dann natürlich auch dazu ausgenutzt werden, einen mittels Bundestrojaner geknackten Computer auch gleich vollständig zu durchsuchen (wofür in diesem umfassenden Fall dann wieder die Rechtsgrundlage fehlt). Dem Staatssekretär war es nach eigenen Angaben allerdings nicht bewußt, was für Möglichkeiten er damit den Geheimdiensten an die Hand gab. Dies wirft aber durchaus die Frage auf, ob diejenigen (unbekannten) Ministerialbeamten oder/und Geheimdienstler, welche seinerzeit den Anstoß zu dieser Dienstanweisung gegeben haben, eventuell genauso blauäugig handelten - oder aber den Staatssekretär bewußt eine Dienstanweisung unterzeichnen lassen haben, welche deutlich mehr hergibt, als was man dem Unterzeichner offenlegen wollte.
News des 30. April / 1. Mai 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Mit der Zeit (und einigen Leaks) scheint sich nunmehr halbwegs zu klären, was sich hinter den (weiterhin für den 14. Mai angesetzten) neuen ATI-Chips verbirgt - vor allem in Bezug auf die Unterschiede zwischen den einzelnen Grafikchips. So wird der HighEnd-Chip R600 wohl mit 64 Shader-Einheiten (nach anderer Zählweise 320), 16 Textureneinheiten und 512 Bit DDR Speicherinterface antreten. Der Mainstream-Grafikchip RV630 soll dagegen 24 Shader-Einheiten (bzw. 120), 8 Textureneinheiten und ein 128 Bit DDR Speicherinterface haben, was diesem Chip (auf gleicher Taktraten) 33 Prozent der Shader-Leistung und 50 Prozent der Texturier-Leistung des HighEnd-Modells geben sollte - was dann schon wesentlich besser aussieht als dieselben Verhältnisse bei nVidias aktueller Mainstream-Klasse (27 bzw. 29 Prozent) ...
... Einzig und allein das 128 Bit Speicherinterface dürfte weiterhin ein gewisser Bremspunkt für den RV630-Chip darstellen, was sich allerdings vornehmlich nur unter höheren Auflösungen auswirken sollte. Bleibt man bei der Auflösung auf für Mainstream-Grafikchips gängigen 1280x1024, erscheint der RV630 doch als potenter als der G84 (GeForce 8600 Serie), da bei ATI der Abstand der Mainstream-Klasse zur HighEnd-Klasse rein von den technischen Daten her klar geringer ist. Ob der RV630 diesen theoretischen Vorteil auch in einem praktischen Leistungsvorteil gegenüber der GeForce 8600 Serie umsetzen kann, wird sich aber wohl erst am 14. Mai ergeben, die derzeitigen Vorab-Benchmarks beschäftigen sich eher denn mit den HighEnd-Modellen der Radeon HD 2900 Serie ...
... Neue Benchmarks dieser Karte gibt es hier zu erspähen - wobei die Quelle dieser Zahlen umstritten ist: Teilweise sieht das ganze wie ein Hersteller-eigenes Dokument aus, auf der anderen Seite wird die vorgenannte Grafikkarte auch teilweise mit "Radeon HD X2900 XT" etwas falsch bezeichnet. Prinzipiell sind diese Benchmarks zudem nicht überzubewerten, da die SLI-Messungen mit der GeForce 8800 GTS als viel zu schwach erscheinen, wie mit einem falschen Treiber aufgenommen (was wiederum durchaus in Richtung eines Hersteller-eigenen Dokuments deutet). Die prinzipielle Aussage dieser Zahlen wäre wenn dann aber diese, daß sich die Radeon HD 2900 XT primär mit der GeForce 8800 GTS herumschlagen wird - und nicht der GeForce 8800 GTX ...
... Dies soll sogar AMD/ATI auf der Presseveranstaltung in Tunis so gesagt haben, wie Fudzilla berichten. Preislich dürfte ATI die Radeon HD 2900 XT damit wohl auf 399 Dollar Listenpreis legen, was hierzulande aufgrund des konstant günstigen Dollarkurses wohl in Straßenpreisen von 360 bis 380 Euro resultieren sollte. Damit würde ATI sicherlich eine sowohl vom Preis als auch der Leistung her sehr vernünftige Konkurrenz zur GeForce 8800 GTS auf die Beine stellen können. Die GeForce 8800 GTX wird ATI allerdings wohl nur mit der erst später erscheinenden Radeon HD 2900 XTX angreifen können. Angeblich soll es hierbei ein neues Design dieser Karte geben, welche nicht mehr das Problem hat, nicht schneller die XT-Ausführung zu sein - Bilder hierzu sind hier zu finden ...
... Davon abgesehen finden sich auch immer genauere technische Daten zum R600-Chip ein, beispielsweise wie hier abgebildet. Zudem gibt es jede Menge Bruchstück-Informationen zur R600-Technik, welche mittels diverser geleakter AMD-Folien ihren Weg ins Netz fanden: Teil 1, Teil 2, Teil 3 und Teil 4. Diesen Folien fehlt natürlich oftmals die Erklärung, so daß man sich manchmal aus den Marketingnamen noch nichts zusammenreimen kann. Erwähnenswert ist sicherlich das neue "Custom Filter Anti-Aliasing" (CFAA), mit welchem ATI gegen nVidias neues "Coverage Sample Anti-Aliasing" (CSAA) antreten will. Hinter den hohen Sample-Angaben von CFAA verbirgt sich aber schlicht eine Technik, mittels welcher die Samples der umherliegenden Pixel mit für das Anti-Aliasing Verwendung finden - damit spart man enorm an Performance, weil diese Samples der umherliegenden Pixel ja sowieso schon berechnet werden ...
... Auf der anderen Seite bedeutet dies nichts anderes, als einen Blurfilter auf das gesamte Bild zu legen: Wenn Samples von fremden Pixeln zur Berechnung des Anti-Aliasings eingesetzt werden, werden nicht nur Polygonkanten geglättet, sondern auch Texturen - man verliert dort an Texturenschärfe und damit Bildqualität. Dabei ist diese Idee noch nicht einmal neu, nVidia hat schon des längeren einen entsprechenden Anti-Aliasing Modus namens "Quincunx" im Angebot. ATI will es nun aber bei CFAA deutlich besser machen - was bei den höheren CFAA-Modi eventuell sogar gelingen könnte: Dort liegen dann bereits acht "echte" (aus dem richtigen Pixel stammende) Samples vor, welche sich von den zusätzlichen, aus fremden Pixeln stammenden Samples nicht mehr so stark irritieren lassen dürften. Zudem will man die fremden Samples wohl anders gewichten als die "echten", um dem Quincunx-Effekt entgegenzuwirken ...
... Dennoch ist rein von der zugrundeliegenden Technik her ein gewisser Blureffekt nicht auszuschließen - ob man dies im Spielealltag sehen kann, müssen die kommenden Launch-Tests zeigen. Dort wird sich dann auch herausstellen, ob die Performance der Karten überhaupt ausreichend für diese neuen Anti-Aliasing Modi ist. Davon abgesehen gibt es noch ein paar aktuelle Bilder der kommenden ATI-Karten: Radeon HD 2900 XT sowie Radeon HD 2400/2600 Karten - wobei die Radeon HD 2400 auch schon als passiv gekühlte Version abgebildet wurde. Selbiges berichtet die Overclockers Workbench im übrigen auch zur Radeon HD 2600 XT - wenn diese Karte dann wirklich noch schneller als das nVidia-Gegenstück GeForce 8600 GTS ist, würde ATI zumindestens im Mainstream-Bereich deutlich punkten können.
Shortcuts: Hard Tecs 4U berichten von einem seltenen Stabilitätsproblem bei Intels Core 2 Duo Prozessoren, welches mit einem BIOS-Update bekämpft wird. Da Intel das Update bereits Anfang April an die Mainboard-Hersteller verschickt hat, sollten diese eigentlich ihre BIOS-Versionen inzwischen schon angepasst haben. TweakPC vermelden ein Gerücht zu einer schnelleren GeForce 8600 GTS mit einem 256 Bit DDR Speicherinterface. Allerdings wäre dies dann kaum noch eine "GeForce 8600 GTS", denn nVidia müsste hierfür den G84-Grafikchip verändern. Zudem läßt sich durchaus die Frage in den Raum stellen, ob ein größeres Speicherinterface dem G84-Chip angesichts dessen limitierter Hardware-Einheiten überhaupt etwas bringt - wenn dann müssten dem größeren Speicherinterface auch mehr Recheneinheiten zur Seite gestellt werden.