News-Archiv 24. - 30. September 2007 (39. Kalenderwoche)
29./30. September 28. September 27. September 26. September 25. September 24. September
News des 29./30. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die Virtual Zone bringt in mehreren Meldungen einige Informationen darüber, wie die Grafikchips der kommenden nVidia Refresh-Generation einzuordnen sind: No.1, No.2, No.3, No.4 und No.5. Danach läßt sich nunmehr mit einiger Sicherheit sagen, daß der am 5. oder 12. November anstehende G92-Chip ins Performance-Segment und keinesfalls in HighEnd-Segment gehört. Dafür spricht auch der Verkaufsname, welcher zuerst "GeForce 8700 GTS" und nunmehr "GeForce 8800 GT" lauten soll. Damit wird die Richtung klar vorgegeben, wonach sich der G92-Chip noch unter allen G80-Varianten inklusive auch der GeForce 8800 GTS einordnen muß. Nichts desto trotz dürfte zumindestens die GeForce 8800 GTS 320MB mit dem Erscheinen des G92-Chips auslaufen, denn diese liegt preislich doch zu nah: Die 256-MB-Ausführung der GeForce 8800 GT soll 199 Dollar kosten, die 512-MB-Ausführung 249 Dollar.
Damit dürfte klar sein, daß die GeForce 8800 GTS 640MB und vor allem die GeForce 8800 GTX und Ultra auch nach dem Launch des G92-Chips weiterhin ihre Berechtigung haben werden. Wenn man diese ablösen will, wird dafür eine neue HighEnd-Lösung (G90-Chip?) oder eben die oftmals prognostizierte DualChip-Grafikkarte auf G92-Basis benötigt. Der G92-Chip als Single-Auführung scheint dafür jedenfalls nicht geeignet - darauf deuten auch die anderen Daten wie die mit 9 Zoll nur maßvoll große Platine (genauso groß wie die GeForce 8800 GTS, aber kleiner als die GeForce 8800 GTX/Ultra) und der Umstand, daß die G92-Boards nur im SingleSlot-Design daherkommen sollen. Sollte sich die VR-Zone hier also nicht in allen diesen Detail-Angaben vollständig irren, geht der G92-Chip ab November ins Performance-Segment und dort in Konkurrenz zu ATIs RV670-Chip, welcher zum selben Zeitraum für dasselbe Marktsegment ansteht.
Gleichzeitig kristallisiert sich immer mehr heraus, daß der ebenfalls im November zu erwartende G98-Chip eine klare LowCost-Lösung darstellen wird. Darauf deutet der wirklich niedrige Launch-Listenpreis von 59 Dollar sowie das nur 64bittige Speicherinterface hin - sogar der G98-Vorgängerchip G86 (GeForce 8300/8400/8500) hat ein 128bittiges Speicherinterface zu bieten (was aber nur bei der GeForce 8500 GT ausgeführt wurde). Ob der G98-Chip damit also wirklich leistungsstärker wird als der G86-Chip, wäre noch zu bezweifeln - der Sinn besteht hier wohl weniger in mehr Leistung, als vielmehr sowohl Chip als auch die Platine günstiger herstellen zu können. Demzufolge dürfte es mit dem G98-Chip womöglich mehr Leistung als bei der GeForce 8400 GS geben, die GeForce 8500 GT mit 128bittigem Speicherinterface dürfte diesbezüglich aber kaum erreichbar sein.
Damit verabschiedet sich der G98-Chip allerdings auch schon wieder aus dem Blickpunkt, denn mit diesen technischen Daten sind entsprechende Boards kaum als Spiele-Grafikkarten zu empfehlen. Der G98-Chip ist ein klarer Konter für ATIs RV610-Chip (mit ebenfalls nur 64bittigem Speicherinterface) und dort besonders die Radeon HD 2400 Pro zu sehen, welche mit sehr niedrigen Performance-Werte antritt, aber eben auch wirklich niedrigen Herstellungskosten aufwarten kann. Dieser Kampf wird allerdings eher denn im OEM-Markt ausgefochten werden, wo sowohl G98 als auch RV610 bzw. der mit ATIs Refreshgeneration kommende Nachfolger RV620 hingehen werden. Weiterhin noch nicht sicher ist im übrigen der Support von PCI Express 2.0 und Direct3D 10.1 bei beiden neuen nVidia-Chips: Ersterer ist wohl wahrscheinlich überall mit dabei, weil von Grafikkkarten-Seite aus ziemlich einfach zu erreichen - beim G98-Chip wird PCI Express 2.0 auch explizit von der VR-Zone erwähnt.
Nicht so sicher ist dies hingegen bei Direct3D 10.1, welches zwar auch relativ einfach einem Grafikchip zufügbar sein soll, es bislang hierzu aber keine eindeutigen Meldungen bezüglich der kommenden neuen nVidia-Grafikchips gibt. Womöglich liegt hier ein Grund für die Zurückhaltung nVidias bezüglich eines echten HighEnd-Chips (G90) verborgen: Wenn der G92 angenommenerweise Direct3D 10.1 noch nicht unterstützt, könnte der Support für dieses Update der Direct3D10-API nun unbedingt noch dem G90-Chip hinzugefügt werden, womit sich dieser wie derzeit zu sehen etwas verzögert. Auch auf ATI bezogen könnte dieser Gedanke zutreffend sein, da auch dort schließlich die Refresh-Generation von einem Performance-Chip (RV670) und nicht von einem HighEnd-Chip (R680) eingeläutet werden wird. Allerdings gab es zumindestens zum RV670-Chip Meldungen, wonach dieser in der Tat bereits Direct3D 10.1 unterstützen soll - womit der vorstehend geäußerte Gedanke zwar erst einmal griffig erscheint, aber keineswegs perfekt zu allen verfügbaren Informationen passt.
Im Linkbereich sind heute einige Artikel und Reviews zu hochgetaktetem DDR3-Speicher zu finden (Liste der Artikel), besonders zu erwähnen sind hierbei die Artikel seitens Hard Tecs 4U, der ComputerBase und von den X-bit Labs. Dabei ist es durchaus erstaunlich und gleichzeitig bemerkenswert, wie schnell die Speicherindustrie den DDR3-Speicherstandard adaptiert und bezüglich der Taktfrequenzen als auch der Latenzen zu wirklich schlagkräftigen Angeboten geformt hat. Zu Zeiten des (auch nur vier Monate zurückliegenden) Starts von DDR3 hätte man sicherlich nicht vermutet, das jetzt schon DDR3/1800-Speicherriegel mit Latenzen von 7-7-7-20 zu bekommen sind - das ergibt eine Latenzzeit von gerade einmal 7,77ns und damit das Niveau von DDR2/800 auf CL3 (7,5ns). Damit hat DDR3-Speicher innerhalb kürzester Zeit die besten bei DDR2 verfügbaren Latenzzeiten eingeholt - und weitere Steigerungen können ja noch kommen.
Der hervorragenden Ausgangslage bei der reinen Technologie stehen allerdings weiterhin zwei mächtige Bremsklötze gegenüber. Denn zum einen benötigten (wie schon einmal ausgeführt) die aktuellen Intel-Prozessoren die sehr hohen Bandbreiten von schnell getaktetem DDR3-Speicher nicht bzw. können diese aufgrund ihres FSBs nicht umsetzen. Zwar gibt es hier und da noch gewisse Leistungsgewinne, wenn man sehr schnell getakteten DDR3-Speicher gegen die schnellsten DDR2-Taktstufen setzt, die wenigen Prozentpunkte in theoretischen Tests (und noch weniger in RealWorld-Benchmarks) sind natürlich angesichts des Taktratenvorteils von DDR3-Speicher von derzeit um die 50 Prozent eher denn ein Witz. Dabei ist DDR2-Übertakterspeicher sogar in der Lage, in hochtheoretischen Bandbreite-Messungen DDR3/1600 zu überflügeln - was nochmals deutlich darauf hinweist, daß das Problem nicht beim DDR3-Speicher, sondern vielmehr der FSB-Limitation der aktuellen Intel-Prozessoren liegt.
Und der andere Bremsklotz ist derzeit noch der deutlich zu hohe Preis für den ganzen Spaß. Nicht nur das DDR3-Speicher von Haus aus teurer ist, gerade die guten Module mit hohen Taktfrequenzen und trotzdem verhältnismäßig niedrigen Latenzen haben einen Preis jenseits von Gut und Böse. Dazu kommt noch der Umstand, daß DDR2-Speichermodule mit niedrigen Latenzen zwar auch ihren Mehrpreis kosten, sich dieser aber noch im Rahmen hält und man daher auch ohne großen finanziellen Aufwand DDR2/800 mit CL3 erstehen kann. Von diesem Maß an Effizienz ist DDR3-Speicher derzeit noch um einige Dimensionen entfernt, da nützt es auch nicht, daß man in den allermeisten Fällen die Benchmark-Diagramme anführt: Für die meistens unter einem halben Prozentpunkt liegenden Vorteile bei RealWorld-Benchmarks sind der drei- bis fünffache Preis einfach vollkommen übertrieben. Oder anders formuliert: An anderen Stellen im PC investiert kann man sicherlich deutlich mehr Leistung für den gleichen monetären Einsatz herausholen.
News des 28. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Ein Thread unseres Forums macht auf eine Falschbezeichnung aufmerksam, unter welcher eine Radeon HD 2600 Pro von Diamond derzeit durch die Gegend schwirrt. Danach wird diese Karte von einigen Online-Händlern als "Radeon HD 2900 Pro Viper 512MB" ausgegeben - der Preis von unter 100 Euro zeigt aber schon klar an, daß dies nicht passen kann. In den erweiteren Information wird dann aber oftmals der wirklich verbaute Grafikchip angegeben. Bei Diamond scheint der Fehler allerdings nicht zu liegen, denn auf deren Webseite existiert keine Radeon HD 2900 Pro, sondern nur eine Radeon HD 2600 Pro. Der Fehler scheint aber nicht nur bei den im Thread genannten Shops aufzutreten, auch eine einfache Preissuche nach einer "Radeon HD 2900 Pro" bringt einige Angebote zu Asus- und Diamond-Grafikkarten zu Tage, wo schon allein am Preis zu erkennen ist, daß dort keinesfalls dieser Grafikchip verbaut ist. Auch wenn der Fehler wahrscheinlich nicht bei den Grafikkarten-Herstellern liegt, sollten diese hier beser einschreiten und mit den Online-Händler reden, denn letztlich fällt es auch auf die Grafikkarten-Hersteller zurück, wenn Produkte derart falsch bzw. mißverständlich angeboten werden.
Wie die VR-Zone berichtet, soll ATIs RV670-Chip Mitte November offiziell vorgestellt werden, dies wäre dann wohl nur ein paar Tage nach dem Launch des G92-Chips von nVidia. Gemäß früheren Meldungen soll der RV670-Chip über den Support von Direct3D 10.1, PCI Express 2.0, 320 Shader-Einheiten (wie der R600-Chip) und ein 256 Bit DDR Speicherinterface verfügen sowie in 55nm gefertigt sein. Nachdem die Radeon HD 2900 Pro nunmehr aber doch ein 512bittiges Speicherinterface aufweisen kann, ist die Sache mit dem 256bittigen Speicherinterface beim RV670-Chip nicht mehr als so sicher zu betrachten: Die Radeon HD 2900 Pro mit einem 512bittigen Speicherinterface in den Markt zu lassen, wenn der (sogar etwas teurer angesetzte) Nachfolger dieser Karte nur mit einem 256bittigen Speicherinterface aufwarten kann, ist doch ein wenig unwahrscheinlich (wenn auch nicht unmöglich).
Durchaus möglich ist es an dieser Stelle, daß der RV670-Chip schlicht eine 55nm-Abwandlung des R600-Chips mit eben dem zusätzlichen Support von Direct3D 10.1 und PCI Express 2.0 ist - erstes sollte sich und zweiteres läßt sich relativ einfach realisieren. Dies würde auch die immer noch recht hohen Verlustleistungsangaben erklären: Die kleinere RV670-Variante "Revival" hat eine TPD von 104 Watt, die größere Variante "Gladiator" von 132 Watt. Gerade angesichts des Wechsels von der 80nm- auf die 55nm-Fertigung erscheint dies als viel und läßt im Umkehrschluß auf einen Grafikchip mit vielen Ausführungseinheiten an Board schließen - wie eben den R600-Chip mit 320 Shader-Einheiten und 512 Bit DDR Speicherinterface.
Aufgrund der Listenpreise von 229 bzw. 299 Dollar (vermutliche Straßenpreise bei ca. 205 bzw. 270 Euro) wird zudem klar, daß der RV670-Chip noch keine HighEnd-Lösung darstellt, sondern ein Grafikchip für das Performance-Segment zwischen Mainstream- und HighEnd-Segment ist. Dort dürfte der RV670 demzufolge in direkte Konkurrenz zum G92-Chip von nVidia gehen, welcher vermutlich ebenfalls "nur" für das Performance- und noch nicht für das absolute HighEnd-Segment gedacht ist. Bei beiden Grafikchip-Entwicklern fehlen allerdings derzeit weiterhin klare Anzeichen für die wirklichen HighEnd-Chips R680 und G90 - wobei zumindestens der R680-Chip von ATI in der Vergangenheit hier und da genannt wurde. Mittlerweile erscheint es fast so, als wollten ATI und nVidia ihre Refresh-Generation beiderseits mit den jeweiligen Performance-Grafikchips einläuten und die echten HighEnd-Lösungen erst später in den Markt schicken.
Beachtenswert an den Meldungen Mitte der Woche, daß auf fabrikneuen externen Maxtor-Festplatten Computerviren gefunden wurden, war nicht nur der offensichtliche Umstand, daß man eben auch fabrikneue Datenträger besser vor Benutzung auf Schadprogramme checkt, sondern vor allem auch die nur wenig fachgerechte Berichterstattung zu diesem Fall. So wurde mehr oder weniger durchgehend gemeldet, daß sich der Virus automatisch aktvieren würde, wenn das "externe Laufwerk an den PC angeschlossen wurde und der Anwender es mit einem Mausklick öffnet". Allem Anschein nach wurde diese Formulierung aus der Original-Meldung seitens Kaspersky übernommen. Aber auch dort - bei den selbsternannten Hütern der IT-Sicherheit - finden sich keine weiteren Anmerkungen zur exakten Funktionsweise der Infektion und möglichen Gegenmaßnahmen (außer natürlich, die Produkte von Kaspersky zu kaufen).
Dabei ist dieser Fall ziemlich einfach und auch die Schutzmaßnahmen sind problemlos zu realisieren: Offensichtlich startet sich die Virusinstallation über eine im Hauptverzeichnis der externen Festplatte liegende "autorun.inf", welche ihrerseits auch nur die Autostart-Funktion von Windows XP/Vista benutzt. Das Grundübel und gleichzeitig auch der Lösungsweg liegt hier schlicht bei dieser Autostart-Funktion - wer jene deaktiviert, kann eine ganze Festplatte voller Schadprogramme anstöpseln, da passiert rein gar nichts. Den Autostart mittels des Autostart-Dialogs zu unterbinden, hilft im übrigen im Fall von Schadprogrammen nichts, denn diesen reicht schließlich nur ein erfolgreicher Autostart. Wer diesbezüglich sichergehen will, muß den Autostart von Wechselfestplatten komplett deaktivieren - wie das geht, zeigt beispielsweise ein Artikel von PC-Experience.
Bedauernswert ist allerdings in diesem Zusammenhang, daß sich diese einfachen Hinweise weder bei Kaspersky noch bei denjenigen Webseiten, welche von Kaspersky abgeschrieben haben, finden lassen. Dabei ist die genaue Erläuterung des Infektionsweges hilfreich in vielerlei Fragen: Erstens einmal kann man damit feststellen, ob einen das Problem überhaupt betreffen kann. Und zweitens hilft es, um möglicherweise einfache Gegenmaßnahmen ergreifen zu können. Wenn man es hart betrachtet, ist im aktuellen Fall der Stil der Kaspersky-Newsmeldung samt ihrer vielerorts zu lesenden Kopien als "Panikmache" zu bewerten - weil das Sicherheitsproblem deutlich größer gemacht wurde als es ist und eine einfache (und wohl auch bekannte) Gegenmaßnahme nicht publiziert wurde. Gerade von Unternehmen aus der IT-Sicherheit ist da doch mehr zu erwarten - genauso aber auch von Webseiten, welche solcherart (sicherlich nützliche) Sicherheitswarnungen übernehmen und damit in die Welt verbreiten.
News des 27. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Gemäß der VR-Zone kommt mit der Radeon HD 2900 GT eine weitere Ausführung des R600-Chips am 8. Oktober für einen Listenpreis von 199 Dollar in den Markt. Gegenüber der Radeon HD 2900 Pro und der Radeon HD 2900 XT, welche nun ja nur die Taktraten trennen, soll die Radeon HD 2900 GT allerdings deutlich abgespeckt werden: Nur 240 anstatt 320 Shader-Einheiten und nur ein 256bittiges anstatt ein 512bittiges Speicherinterface. Zusammen mit Taktraten von 600/800 MHz läge man dann deutlich hinter der Rohleistung einer Radeon HD 2900 XT zurück: 61 Prozent bei der Shaderperformance und 48 Prozent bei der Speicherbandbreite. Im Vergleich zu Mainstream-Angeboten ist dies aber immer noch viel: Gegenüber der Radeon HD 2600 XT GDDR4 wären dies 50 Prozent mehr Shaderperformance und 45 Prozent mehr Speicherbandbreite.
Damit könnte die Radeon HD 2900 GT also gut den großen Raum zwischen Radeon HD 2600 XT GDDR4 (ca. 120 Euro) und Radeon HD 2900 Pro (ca. 220 Euro) füllen - angesichts des derzeitigen Dollar-Kurses dürfte sich der Listenpreis wohl in einen Straßenpreis von ca. 180 Euro transformieren. Ob die Radeon HD 2900 GT Sinn macht, können natürlich erst entsprechende Tests ergeben, aufgrund der starken Abspeckungen und des nicht gerade deutlichen Preisunterschieds zur Radeon HD 2900 Pro gibt es diesbezüglich jedoch leichte Zweifel anzumelden. Zudem soll der Radeon HD 2900 GT ein extrem kurzes Leben beschieden sein: Ende Oktober wird ATI keine R600-Chips für die Radeon HD 2900 GT/Pro/XT mehr ausliefern, so daß diese Grafikkarten zum Jahresende wohl schon aus dem Markt verschwunden sein dürften.
Hard Tecs 4U berichten über den Launch von nVidias neuen Mainboard-Chipsätzen mit integrierter Grafikeinheit für Intel-Prozessoren. Die Chipsätze GeForce 7050 + nForce 610i, GeForce 7100 + nForce 630i und GeForce 7150 + nForce 630i unterstützen generell alle aktuellen Intel-Prozessoren sowie die kommenden 45nm-Modelle der Core 2 Duo Serie. Die ersten beiden Chipsätze haben den Support für den FSB1333 und für Speicher bis (offiziell) DDR2/800, während der letztgenannte Chipsatz nur FSB1066 und (offiziell) DDR2/667 unterstützt. Ansonsten gibt es nur noch einen Taktunterschied bei den verbauten integrierten Grafikeinheiten auf GeForce7-Basis: 630, 600 und 500 MHz lauten die Taktraten - welche damit erstaunlicherweise teils deutlich über den Taktraten bei den AMD-Chipsätzen liegen, wo GeForce 7025 und 7050PV unioso nur auf 425 MHz takten.
In einer leicht wirr geschriebenen News gibt die VR-Zone einiges zu den HighEnd Mainboard-Chipsätzen für Intel-Prozessoren von nVidia und vor allem deren SLI-Fähigkeiten in Bezug auf Triple-SLI zum besten: So soll der aktuelle nForce 680i SLI durchaus schon Triple-SLI unterstützen können - dann allerdings mit einer Anbindung von nur x16/x16/x8, wobei der dritte Grafikkartenslot dann wahrscheinlich über die Southbridge angebunden wird. Der demnächst anstehende nForce 780i SLI wird dagegen eine x16/x16/x16-Konfiguration zugunsten von Triple-SLI unterstützen. Da aber auch hier die Anbindung des dritten Grafikkarten-Steckplatzes über die Southbridge erfolgt und diese auch bei diesem Chipsatz weiterhin nur PCI Express 1.1 unterstützt, wäre der nForce 780i SLI unter Triple-SLI nicht zusammen mit PCI Express 2.0 nutzbar.
Grafikkarten nach dem kommenden PCI Express 2.0 Standard sind in diesem Fall natürlich trotzdem unter Triple-SLI betreibbar, aber dann halt eben nur im PCI Express 1.1 Modus - was allerdings voraussichtlich derzeit wohl nur einen äußerst geringfügigen Unterschied ergeben sollte. Der PCI Express 2.0 Modus ist mit dem nForce 780i SLI dagegen nur mit einer oder zwei Grafikkarten möglich, denn nur die ersten beiden (an die Northbridge angebundenen) Grafikkarten-Steckplätze sind beim nForce 780i SLI hierfür ausgelegt. Die wirklich vollständige Lösung (mit einer x16/x16/x16-Konfiguration sowie drei PCI Express 2.0 Steckplätzen) wird wohl erst der derzeit nur unter seinem Codenamen C73XE bekannte Chipsatz bieten. Dieser soll im ersten Quartal gleichzeitig auch den Support des FSB1600 sowie bis zu (offiziell) DDR3/1600 bringen.
Wie WinFuture vermelden, hat ein deutscher Anwalt wegen der heimlichen Updates des Windows-Update-Dienstes Strafanzeige gegen Microsoft Deutschland gestellt. Grundlage hierfür ist der Paragraph 303a des Strafgesetzbuches, welcher Datenveränderung unter Strafe stellt (und mit bis zu zwei Jahren Freiheitsstrafe oder Geldstrafe bedroht). Der mit dieser Strafanzeige aufgezeigte Blickwinkel ist sehr interessant, da der angegebene Tatbestand erst einmal erfüllt zu sein scheint. Ob aus der Sache allerdings wirklich etwas wird, darf vorerst bezweifelt werden: Erst einmal ist nicht sicher, ob die Staatsanwalt der Sache überhaupt nachgehen wird - schließlich handelt es sich weder um einen Fall des Veränderns völlig fremder Daten (es wurden von Microsoft schließlich nur Microsoft-Dateien verändert), noch gab es eine böswillige Absicht.
Sollte es aber doch zu einer Anklage kommen, dürfte Microsoft wohl primär damit argumentieren, daß die Einstellung "will über Updates informiert werden" ein prinzipielles Interesse am Update-Dienst ausdrückt und daß es demzufolge für ein Update des Update-Dienstes (ohne welches in Zukunft diese vom Nutzer schließlich gewünschten Information über neue Updates nicht mehr möglich bzw. nicht vollständig wären) somit eine "mußmaßliche Einwilligung" des Nutzers gegeben hätte. Und letztlich könnte Microsoft bei einer drohenden Verurteilung immer noch sein hunderte Milliarden Dollar/Euro schweres Gewicht auf die Waage hiefen und über den Umweg der Politik zu einem für Microsoft akzeptablem Ergebnis kommen. Insofern ist eine Verurteilung eher unwahrscheinlich - wenn aber als Ergebnis des ganzen stehen würde, daß Microsoft künftig keine heimlichen Updates mehr vornimmt, sondern den Nutzer selbst auch über das Update des Update-Dienstes informiert, wäre eigentlich schon alles gewonnen.
News des 26. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
In einem ersten Test hat man sich bei TweakTown die Performance der Radeon HD 2900 Pro gegenüber der Radeon HD 2900 XT und der GeForce 8800 GTS 320MB angesehen. Dabei gab es nur positives von der neuen ATI-Karte für das Performance-Segment (zwischen Mainstream- und HighEnd-Segment gelegen) zu berichten: Die Karte lag meist nur ein paar Prozentpunkte hinter der Radeon HD 2900 XT, dafür aber fast in jedem Fall klar vor der (derzeit sogar etwas teureren) GeForce 8800 GTS 320MB. Zudem bedeuten die 512 MB Grafikkartenspeicher dieser Karte gegenüber dem Hauptkonkurrenten GeForce 8800 GTS 320MB auch noch einen langfristig wirkenden Vorteil. Nachteile gibt es allerdings bei der Lautstärke und dem Stromverbrauch zu verbuchen, hier liegt man deutlich gegenüber der GeForce 8800 GTS 320MB zurück.
Insbesondere der Stromverbrauch könnte sich als Spaßbremse im Zielsegment erweisen, da die 150 Watt TDP und geschätzt vielleicht 120 Watt realer Stromverbrauch gerade für Mainstream-PCs deutlich zu viel sein könnten - übliche Mainstream-Grafikkarten wie die Radeon HD 2600 XT oder die GeForce 8600 GTS verbrauchen gerade einmal 50 Watt und auf deutlich mehr sind viele OEM-PCs dann auch nicht ausgelegt. Bei der Radeon HD 2900 Pro ist also ein leistungsfähiges Netzteil mit viel Power auf der 12V-Leitung Pflicht - ganz so, als würde es sich hierbei um eine Karte des HighEnd-Segments handeln. Wenn die Einschränkungen Lautstärke und Stromverbrauch jedoch verkraftbar sind, dann hat ATI derzeit im Preisbereich von 200 bis 250 Euro das klar beste Angebot in der Hand.
The Inquirer haben einige neue Informationen zur kommenden nVidia Refresh-Generation, welche womöglich schon Direct3D 10.1 unterstützen und die aktuellen GeForce8-Grafikkarten (mit einiger Übergangszeit) beerben sollen. Als erstes wird dabei wieder der G92-Chip genannt, welcher zum 5. oder 12. November offiziell vorgestellt werden soll. Nach wie vor ist allerdings nicht sicher, in welche Richtung der G92 eigentlich gehen wird - vom Namen her ist es eher ein Chip für das Performance-Segment, oftmals wird der G92 allerdings als HighEnd-Lösung eingeordnet. Gerade die bekannten technischen Daten sprechen eher für erstere Variante. Das würde zwar immer noch reichen, um die GeForce 8800 Serie abzulösen, allerdings würde der G92-Chip die Performancelatte dann nicht noch höher setzen als bisher erreicht.
Möglicherweise hat nVidia also weiterhin noch einen G90-Chip für das "echte" HighEnd-Segment im Hintergrund - sofern der G92 auch auf den Namen "D8P" ("P" für Performance-Segment) hört, deutet das offensichtliche Vorhandensein eines "D8E"-Chips ("E" für Enthusiast- aka HighEnd-Segment) zusätzlich in diese Richtung. Alternativ könnte es aber auch sein, daß nVidia die echte HighEnd-Lösung über zwei G92-Chips auf einer Grafikkarte realisiert - womöglich hat man festgestellt, daß dies effektiver ist, womöglich gibt es Probleme beim G90-Chip, womöglich ist diese Variante aber auch einfach nur wirtschaftlicher herzustellen (ein extra G90-Chip für die geringen Stückzahlen des HighEnd-Segments lohnt eventuell nicht).
Daneben wird erneut der G98-Chip erwähnt, welcher vom Namen her in Richtung LowCost-Segment gehen sollte und damit in Ablöung des G86-Chips (GeForce 8300/8400/8500) - wogegen allerdings wieder der (vermutliche) zusätzliche Codename "D8M" spricht, denn dieser weist durch das "M" auf das Mainstream-Segment hin. Wie man sieht, ist derzeit alles noch recht unsicher, halbwegs bekannt sind nur die Release-Daten: Der G98-Chip soll ebenfalls noch im November antreten, während ein G96-Chip für das Mainstream-Segment als Ablösung des G84-Chips (GeForce 8600 Serie) im April nächsten Jahres zu erwarten ist. Allen genannten neuen Chips ist die 65nm Fertigung gemeinsam, ansonsten ist aber noch nichts sicheres dazu bekannt, wie sich diese kommenden Grafikchips technisch von ihren jeweiligen Vorgängermodellen unterscheiden werden.
Der Rabenhorst berichtet recht eingehend über den für 2009 geplanten neuen biometrischen und elektronischen Personalausweis, welcher gleichzeitig auch als Identitätsnachweis im Internet fungieren soll. Dazu wird der Personalausweis im Chipkarten-Format kommen und mit einer PIN-Nummer ausgestattet sein, um sich somit bei virtuellen Behördengängen oder aber Internet-Angeboten, welche eine Altersverifikation voraussetzen, ausweisen zu können. Diese Funktionalität hört sich durchaus sehr nützlich an, sollte sie zuverlässig und ohne Datenlecks funktionieren - auf der anderen Seite steht aber natürlich auch zu befürchten, daß nach der hundertprozentigen Durchsetzung dieser neuen Personalausweise bis zum Jahr 2020 dieses System in vielerlei Hinsicht mißbraucht werden könnte.
Denn eine eindeutige Identifizierung ist nicht nur für gewisse Angebote und Dienste im Internet sicherlich notwendig, sondern natürlich auch für alle anderen kommerziell betriebene Angebote aus Marketinggründen immer hochinteressant. Wo man jetzt für kostenlose Angebote noch mit der Angabe von Name und eMail-Adresse wegkommt, wird man dann "einfach" nach seinem Personalausweis und der PIN-Nummer gefragt - denn wenn jeder den Ausweis hat und aufgrund elektronischer Steuererklärung etc. der Umgang damit allgegegenwärtig ist, erscheint das wohl nicht mehr als große Hürde. Das Prinzip "wenn etwas da ist, wird es auch benutzt" würde hier zweifellos im Laufe der Zeit zuschlagen und ein identifikationsloses Surfen wohl unmöglich machen.
Der größere Widerstand gegenüber den neuen Personalweisen dürfte sich jedoch daran entzünden, daß diese nun wie die kommenden neuen Reisepässe zwei elektronisch gespeicherte Fingerabdrücke enthalten sollen. Und da im Gegensatz zum Reisepass der Personalausweis Pflicht für alle bundesdeutschen Staatsbürger ab 16 Jahren ist, wird Vater Staat somit im Jahr 2020 (wenn die letzten "alten" Personalausweise ungültig werden) die Fingerabdrücke der kompletten Bevölkerung (ab 16 Jahren) besitzen. Derzeit ist zwar geplant, daß auf diese Daten nur die lokale Polizeistelle des Wohnorts Zugriff nehmen kann - aber bis 2020 kann vieles passieren, oder wie es unser Bundesinnenminister zum Thema der Garantien gegenüber stückchenweiser Gesetzesverschärfungen so schön formuliert: "Ich bin mit Aussagen für die Ewigkeit sehr zurückhaltend." ;)
Hier dürfte sich sicherlich noch einiger Diskussionsstoff bis zum Jahr 2009 ergeben - und hoffentlich noch vor dem Jahr 2009, denn wenn etwas einmal beschlossen wurde, gibt es die offensichtliche Tendenz, daß ganze dann auch gegen alle Widerstände durchzusetzen und auszusitzen. Bestes Beispiel hierfür sind die ab diesen November kommenden neuen Reisepässe, für welche man Verbrecher-like antreten und zwei Fingerabdrücke abgeben darf. Wer sich nicht unbedingt derart behandeln lassen will, muß seinen neuen Reisepass noch vor November beantragen - und wenn möglich nicht unbedingt auf dem letzten Drücker, denn schon bei der letzten Passänderung hatten einige Meldeämter schon einige Wochen vorher nur noch Anträge für neue Pässe entgegengenommen. Ganz ohne Biometrie geht es aber auch hier nicht, denn selbst die aktuellen Reisepässe speichern ein elektronisches Passfoto und kommen mit einem RFID-Chip daher (welchen Paranoiker natürlich sofort nach Erhalt zerstören).
News des 25. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie Hard Tecs 4U berichten, scheint die Radeon HD 2900 Pro entgegen früherer ATI-Präsentationen nun doch mit einem vollwertigen 512 Bit DDR-Speicherinterface anzutreten. Da der Speichertakt nun unwesentlich (800 zu 828 MHz) unterhalb dem der Radeon HD 2900 XT liegt und auch der Chiptakt bei 600 zu 742 MHz nur 19 Prozent unterhalb dieser Karte rangiert, würde die Radeon HD 2900 Pro so natürlich zu einem noch interessanterem Produkt werden. Aufgrund der nur geringen Rückstände bei Chip- wie Speicherleistung (19 bzw. 3,5 Prozent) ist die Radeon HD 2900 Pro kaum 15 Prozent hinter der Radeon HD 2900 XT einzuschätzen, was bei einem Preisunterschied von runden 55 Prozent weniger doch erheblich für die Radeon HD 2900 Pro sprechen würde.
Zudem ist aufgrund des nur minimalen Rückstandes bei der Speicherbandbreite zu erwarten, daß die Radeon HD 2900 Pro insbesondere bei höheren Auflösungen und höheren Anti-Aliasing Modi immer näher an die Radeon HD 2900 XT heranrücken sollte - im Idealfall könnten hier nur noch 5 Prozent Leistungsunterschied herauskommen. Damit dürfte die Radeon HD 2900 Pro - gerade weil sie auch gleich mit 512 MB Speicher ausgeliefert wird - gerade gegenüber der GeForce 8800 GTS 320MB doch sehr gute Karten haben. Unklar ist allerdings, wieso ATI dieses faktische Juwel so spät bringt und dann auch noch bewußt klein hält. Wir können uns allenfalls vorstellen, daß die kommende und im gleichen Preisbereich anzusiedelnde Performance-Grafikkarten auf Basis des RV670-Chips mit ihren 256bittigen Speicherinterfaces nicht von diesem sehr schlagkräftigen Angebot behindert werden sollen, so daß die Radeon HD 2900 Pro derzeit ohne großes Aufsehen und eben nur in limitierter Stückzahl in den Markt gelangen wird.
Bei der Overclockers Workbench und TweakTown sind erste Tests von Serien-Mainboards auf Basis von Intels X38 HighEnd Mainboard-Chipsatz online gegangen. Gegenüber dem P35-Chipsatz bringt der X38 in erster Linie den Support zweier elektrisch mit x16 angebundener PCI Express 2.0 Steckplätze mit sich - der P35-Chipsatz unterstützt "nur" PCI Express 1.1 und bindet zwei Grafikkarten-Steckplätze auch nur mit einmal x16 und einmal x4 an. Daneben soll der X38 durch erweitere Overclocking-Funktionen punkten - wobei Intel hier wohl nichts revolutionär neues bieten, sondern schlicht gegenüber anderen Chipsatz-Anbietern nachziehen dürfte. Bei den regulären Performancemessungen ergaben sich auch erst einmal keine beachtenswerten Unterschiede zwischen X38- und P35-Chipsatz, hier sind beide in im Rahmen der Meßungenauigkeiten gleich schnell.
Dies ändert sich allerdings bei Grafikkarten-Messungen im CrossFire-Modus mit zwei Grafikkarten: Unter den gleichen Benchmarks, wo vorher noch Gleichstand bei nur einer Grafikkarte herrschte, legte der X38-Chipsatz mit zwei Grafikkarten gleich einmal um 10 Prozent zu. Am PCI Express 2.0 Protokoll kann das nicht liegen, dann jenes wird bei den aktuellen PCI Express 1.x Grafikkarten noch nicht genutzt. Allerdings dürfte die zu eher den HighEnd-Ansprüchen von CrossFire passende Anbindung der Grafikkartensteckplätze mit jeweils x16 beim X38-Chipsatz der Grund für diese Leistungsdifferenz sein. Dies zeigt gleichzeitig, daß auf Intel-Mainboards bisher einiges vom Leistungspotential von CrossFire verschenkt wurde, wenn vom Mainboard-Hersteller die offensichtlich eher ungünstige Anbindung einmal x16 und einmal x4 gewählt wurde. Mittels extra Chip auf dem Mainboard ist natürlich auch eine Aufsplittung der einen x16-Verbindung in zweimal x8 möglich - allerdings kostet das Geld und widerspricht erklärtermaßen dem Zehntelcent-Sparttrieb der Mainboard-Hersteller ;)
Der Heise Newsticker berichtet über einen groben Sicherheitsbug unter Windows Vista, welches im Gegensatz zu Windows XP die Rechts-nach-Links-Schreibung auch in Dateinamen zuläßt. Damit lassen sich unter dem neuen Betriebssystem ausführbare Dateien perfekt als Bild- oder Textdatei tarnen, was wohl innerhalb kürzester Zeit von der Schädlings-Mafia für ihre Schädlingsspam-Attacken benutzt werden (und auch zum Erfolg führen) wird. Microsoft ist hier sicherlich gut damit beraten, so schnell wie möglich einen Hotfix für diese Problematik zur Verfügung zu stellen. Die allgemeine Sicherheitswarnung des Heise Newstickers, daß man zwar sowieso besser keine Dateien aus unsicherer Quelle öffnet, weil auch Bilder und Dokumente Schädlinge enthalten können, stimmt zwar technisch, mittels dieser Lücke werden aber auch Schädlinge in (natürlich nur falsch gelabelten) Textdateien möglich - und letztere stehen bisher nicht im Ruf, Schädlinge enthalten zu können.
Der ORF berichtet über die Planungen des European Telecommunications Standards Institute (ETSI) zu einer einheitlichen Norm fürs Data Mining von Strafverfolgern und Geheimdiensten in den mittels der Vorratsdatenspeicherung erworbenen Daten - europaweit versteht sich. Die im Herbst zur Abstimmung im Bundestag anstehende gesetzliche Pflicht zur Vorratsdatenspeicherung rückt damit unversehens in das Licht, zur Rasterfahndung unbescholtener Bürger mißbraucht werden zu können. Besondere Brisanz entwickelt die Angelegenheit noch dadurch, daß auf die mittels der Vorratsdatenspeicherung erhobenen Daten bekannterweise mindestens auch die anderen EU-Staaten sowie die USA Zugriff haben sollen, die gesetzlichen Einschränkungen zugunsten des Datenschutzes in Deutschland aber natürlich im Ausland wirkungslos sind.
neuer Artikel |
Grafikkarten-Treiber: CPU-Last und DualCore-Optimierung
Wenn es um die Leistungsteigerungen von Mehrkern-Prozessoren bei Computerspielen geht, hängt dies sicherlich in erster Linie von den Spieleentwicklern ab und wie stark sich jene diesem Thema gewidmet haben. Einen gewissen Einfluß hat aber gerade im Spielebereich immer noch die Grafikkarte bzw. deren Treiber: Auch hier liegt einiges an Optimierungspotential zugunsten von Mehrkern-Prozessoren vor. Mit unserem Artikel gehen wir der Frage nach, wie sich die aktuelle und die vorhergehende Grafikkarten-Generation von ATI und nVidia in diesem Punkt schlägt - und ob einer der Grafikchip-Entwickler eventuell eine bessere DualCore-Optimierung vorzuweisen hat als der andere ... zum Artikel
News des 24. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Beim Guru3D hat man sich die Grafikkarten-Performance unter World in Conflict angesehen, einem weiteren Titel mit DirectX9- und Direct3D10-Renderpfaden. Auf den Unterschied zwischen DirectX9 und Direct3D10 ging man allerdings nicht ein, anscheinend gibt es hierzu nichts wesentliches zu berichten. Dafür verlangt das Spiel selbst absoluten HighEnd-Grafikkarten einiges ab: So erreichte eine GeForce 8800 Ultra unter der höchstmöglichen Bildqualität ("Very High") inklusive 4x Anti-Aliasing keine 40 fps unter 1280x1024, bei höheren Auflösungen geht es selbst für diese Grafikkarte in Richtung zu geringer Frameraten für ein flüssiges Spiel. Gerade für die aktuelle Mainstream-Generation ist die höchstmögliche Bildqualität nicht zu leisten, hier empfiehlt sich die "Medium"-Bildqualität - welche dann allerdings per Game-default ohne Anti-Aliasing abläuft.
Unter dieser Medium-Bildqualität erreichen dann auch die Grafikkarten der aktuellen Mainstream-Generation (GeForce 8600 Serie und Radeon HD 2600 Serie) vernünftige Frameraten, wenn denn die Auflösung nicht zu hoch angesetzt ist. Besser schneiden da wieder einmal die Grafikkarten der letzten Performance- und HighEnd-Generation (GeForce 7900 Serie, Radeon X1800/X1900 Serien) ab, welche teils deutlich vor der aktuellen Mainstream-Generation liegen. Auffallend an den Tests der Medium-Bildqualität ist zudem, daß hier die ATI-Grafikkarten durchgehend vorn liegen (die Radeon HD 2900 XT gar in zwei von drei Tests vor der GeForce 8800 Ultra), während in den Tests unter der Very-High-Bildqualität die Radeon HD 2900 XT wieder deutlich hinter der GeForce 8800 GTX und damit im Rahmen der Erwartungen liegt.
Wie der Heise Newsticker neben Informationen zu den (allerdings nicht wirklich außergewöhnlichen) Übertaktungsfunktionen der Intel-Chipsätze P35 und X38 berichtet, hat Intels X38 Chipsatz eine beachtliche Verlustleistung von 36,5 Watt, während sich der P35-Chipsatz nur 16 Watt genehmigt. Der Heise Newsticker macht hier die beiden vom X38-Chipsatz unterstützten PCI Express 2.0 Grafikkarten-Steckplätze als Übeltäter aus, wobei es dennoch verwunderlich wäre, wenn diese alleine für eine mehr als Verdopplung des Energieverbrauchs stehen sollten. In jedem Fall sollten die Chipsatz-Hersteller langsam aber sicher auch einmal bei den Mainboard-Chipsätzen an stromsparende Designs und natürlich auch weitere Stromspar-Modi denken, denn im konkreten Fall könnte es vorkommen, daß der X38 Mainboard-Chipsatz mehr Saft schluckt als manch kleiner Intel-Prozessor.
Gemäß Silicon.de hat Microsoft sein (allerdings schon einige Monate existierendes) Downgrade-Programm zugunsten von Windows XP nunmehr offiziell gemacht. Damit dürften die PC-Hersteller bei Unternehmens- und Ultimate-Versionen von Windows Vista eine kostenlose Downgrade-Option auf Windows XP anbieten - allerdings nur noch dieses Jahr, denn ab nächstem Jahr will Microsoft anscheinend nur noch Windows Vista verkaufen. Beides deutet darauf hin, daß der Absatz von Windows Vista trotz aller PR-Beteuerungen lange nicht so gut läuft wie gedacht - und daß vor allem im Unternehmensbereich weiterhin eine rege Nachfrage nach Windows XP existiert.
Wie der Spiegel ausführt, soll der OLPC bzw. der 100-Dollar-Laptop (welcher inzwischen 200 Dollar kostet) nunmehr auch in Nordamerika vertrieben werden. Der Preis liegt dann zwar bei 399 Dollar - wofür allerdings zwei Laptops erstanden werden, wovon einer (kostenlos) einem Kind in der Dritten Welt zukommt. Selbst wenn dies womöglich nur dazu dient, die nominell noch fehlenden zwei Millionen Bestellungen bis zum Start der Massenproduktion zusammenzubekommen, scheint die Idee griffig zu sein, da das Interesse an dem OLPC auch in der westlichen Welt existiert und die Verbindung mit einer Spende zudem deutlich dem Gedanken dieses Projekts entspricht. Nach derzeitigen Informationen wird es dieses Angebot allerdings nur in den USA und Kanada geben, spätestens über eBay dürften die Geräte dann aber auch in der Alten Welt verfügbar werden.