News-Archiv 10. - 16. September 2007 (37. Kalenderwoche)
15./16. September 14. September 13. September 12. September 11. September 10. September
News des 15./16. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
WinFuture berichten von Einschränkungen unter Crysis für Besitzer von DirectX9-Grafikkarten. Neben dem Unterschied in der Grafikqualität zwischen DirectX9- und Direct3D10-Variante des Spiels ergibt sich aber auch die Einschränkung, daß der Multiplayer-Part auf getrennten Servern je nach vorhandener Grafikkarte stattfinden wird: Auf DirectX9-Servern werden alle Spieler teilnehmen können (die Besitzer einer Direct3D10-Grafikkarte natürlich nur im DirectX9-Modus), während auf speziellen Direct3D10-Servern nur die Besitzer entsprechender Grafikkarten Zutritt haben werden. Diese durchaus ungewöhnliche Einschränkung ergibt sich anscheinend aus dem sehr unterschiedlichen Physik-Modell bei beiden Render-Pfaden: Dieses ermöglicht unter Direct3D10 neben einer besseren Grafik wohl auch diverse zusätzliche Gameplay-Elemente, welche dann unter DirectX9 nicht mehr abbildbar sind. Der Direct3D10-Multiplayer-Part von Crysis stellt somit nicht einfach nur eine bessere Grafikqualität zur Verfügung, sondern ist vielmehr eine extra Modifikation mit zusätzlichen Gameplay-Elementen.
Bei Legion Hardware hat man sich mit der Grafikkarten-Performance unter Medal of Honor: Airborne anhand der Demo des Spiels beschäftigt. In diesem ebenfalls auf der Unreal Engine 3 basierendem Spiel scheinen wieder die neuen ATI-Karten ein paar Vorteile zu haben: So schlägt die Radeon HD 2900 XT die GeForce 8800 GTS klar unter DirectX9 (und liegt nahe der GeForce 8800 GTX), unter dem Direct3D10-Modus des Spiels wird dann sogar eine GeForce 8800 GTX knapp überflügelt. Ähnliches ist von den Mainstream-Karten zu berichten: Hier liegt sowohl unter DirectX9 als auch Direct3D10 eine Radeon HD 2600 XT etwas vor einer GeForce 8600 GTS, die GeForce 8600 GT wird von der ATI-Karte klar distanziert. Dabei bestraft Medal of Honor: Airborne die Nutzung des Direct3D10-Modus untypischerweise nicht mit einem Performanceverlust - dafür waren aber auch keine Verbesserungen bei der Optik sichtbar.
Laut Golem arbeitet Microsoft an Technologien, mit welchen Multiplayer-Partien auch mit sehr hoher Anzahl an Spielern ermöglicht werden sollen. Hierbei will man weit über das hinausgehen können, was bisher möglich war: Microsoft spricht von tausenden Spielern, welche gleichzeitig in derselben Spielwelt gegeneinander antreten können sollen. Derzeit ist solches bei weitem noch nicht möglich, für größere Spielerzahlen behilft man sich derzeit mit diversen Tricks. So finden die allermeisten großen Online-Spiele nicht auf einem Server statt, sondern in sich abgeteilt auf mehreren bis vielen Servern. Bei Shooter-Spielen ist dies auch für jeden offensichtlich, bei Rollenspielen eher weniger, weil dort ja eine einheitliche Spielwelt existiert. Nichts desto trotz findet auch dort eine Aufteilung der Spieler auf mehrere Server statt, faktisch handelt es sich damit eigentlich auch dort um jeweils unterschiedliche Spielwelten.
Eine gewisse Ausnahme stellt hier Eve Online dar, wo in der Tat alle Spieler auf demselben Server-Cluster spielen. Ein Spieler in Eve Online kann also in der Tat mit allen weltweit derzeit spielenden Eve-Nutzern agieren und kommunizieren, weil diese allesamt wirklich in derselben Spielwelt agieren. Das Problem bei so vielen Leuten auf einem Server ist aber nicht nur die Höhe der dafür benötigten Serverleistung, sondern auch, daß man theoretisch alle Positionsdaten aller Spieler zu jedem einzelnen Spieler schicken müsste. Die Datenmenge ist für einen einzelnen Spieler gering (aus seligen Quake II Zeiten: ca. ein drittel bis ein halbes Kilobyte/sec pro Spieler), im Fall von Eve Online bei derzeit um die 25.000 gleichzeitig online befindlichen Spielern wären das aber mehrere Megabyte/sec, was das Spiel nur für extreme HighSpeed-Zugänge spielbar machen würde. Bei Eve Online behilft man sich schlicht damit, daß die Spieler natürlich immer in dem ca. 5000 Sonnensysteme großem Universum verstreut sind und man selbst im Maximalfall nur die Daten dieser Mitspieler benötigt, welche im selben Sonnensystem unterwegs sind wie der Spieler selber.
Und ganz ähnlich ist nun der Ansatz von Microsoft: Er zielt auf eine Reduktion der Datenmenge durch Ausblendung aktuell unbenötigter Informationen ab. Dabei macht man sich zunutzen, daß in einer großen Spielwelt mit mehreren tausenden Spielern diese natürlich nicht an ein und derselben Stelle versammelt sind, sondern das die Spielwelt in einem solchen Fall groß genug ist, damit sich die Spieler weit genug verstreuen können. Und natürlich werden keine Daten über Mitspieler benötigt, welche derzeit nicht sichtbar sind - sei es, wenn diese außer Sichtweit sind oder verdeckt durch Gegenstände. Allerdings will Microsoft offenbar noch deutlich aggressiver vorgehen als bei diesen offensichtlichen Einsparungen: So arbeitet man an Methoden, um Mitspieler zu erkennen, an welcher der Spieler derzeit weniger interessiert sein soll(te) und welche demzufolge auch mit weniger Aktualisierungen pro Sekunden auskommen können.
Um in einem solchen Fall ruckelige Bewegungen dieser Mitspieler zu verhindern, soll zudem eine K.I. die Bewegungen des Mitspielern in dieser Zeit vorhersagen, wo sich das Spiel die Positionsaktualisierung spart. Hierbei handelt es sich natürlich nicht um Zeiträume von Sekunden, sondern deutlich unterhalb einer Sekunde, vermutlich im Zehntelsekundenbereich. Nichts desto trotz dürfte letztgenannte Methode insbesondere Profispielern nicht gefallen, denn es ist doch zu bezweifeln, ob ein Computer zuverlässig "relevante" und "nicht relevante" Mitspieler auseinanderhalten kann. Allerdings wären damit letztlich auch wirklich große Gefechte möglich - man spricht von 1000 Spielern, für welche man mit 1 MBit/sec als Upload-Rate auskommen würde. Die Positionsdaten werden hierbei nicht zentral vom Server bezogen, sondern per P2P zwischen den einzelnen Spielern ausgetauscht.
Letzteres könnte sich nebenbei noch als vorteilhaft bezüglich der Ping-Zeiten erweisen - aber natürlich dürfte es den Microsoft-Forschern hierbei auch darum gegangen sein, die Kosten für die Anbindung eines hierfür benötigten sehr großen Spiele-Servers zu mindern. Momentan ist das ganze allerdings erst nur im Bereich von Forschung und ersten Experimenten, benutzbare Resultate dürften noch einige Zeit auf sich warten lassen. Nichts desto trotz ist die Arbeit an dieser Thematik immer zu begrüssen, könnten sich auf dieser Basis doch neue Spielideen oder gar völlig neue Spielkonzepte entwickeln. Und ganz nebenbei läßt sich ein Teil dieser Arbeit sogar noch als Anticheat-Maßnahme gebrauchen: Denn dort wo die Positionsdaten von nicht sichtbaren Spielern gar nicht erst versandt werden, kann ein Wallhack einen hinter einem Gegenstand oder einer Wand befindlichen Spieler auch nicht mehr anzeigen ;).
News des 14. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Ein Thread unseres Forums beschäftigt sich mit einem Frameraten-Problem unter SLI. Grob gesagt geht es darum, daß SLI-Gespanne in üblichen Benchmarks bei den dort ermittelten Durchschnitts-Frameraten zwar ihre 50 bis 80 Prozent Mehrperformance erbringen, im realen Spielalltag es aber auftreten kann, daß die Framerate teilweise extrem schwankend ist: Im Durchschnitt werden dann zwar weiterhin (beispielhaft) 30 fps erzeugt, durch die Schwankungen der Framerate fühlen sich diese 30 fps aber eher wie 20 fps an. Im Forums-Thread konnte hierzu durchaus nachgewiesen werden, daß es Fälle gibt, wo eine 30-fps-Framerate dadurch erzeugt wird, daß immer ein langsam erzeugtes Bild (10 fps) einem schnell erzeugtem Bild (50 fps) folgt.
Im Durchschnitt ergibt das immer noch 30 fps, aber im realen Spiel wirkt das klar unruhig. Anscheinend existiert das Problem aber nur auf GeForce8-Karten im SLI-Modus, die GeForce7-Serie sowie auch die Radeon HD 2900 XT unter CrossFire konnten inzwischen ausgeschlossen werden. Und natürlich ist dieser Effekt nur im Bereich von ca. 30 fps wahrnehmbar - wird es weniger, ruckelt es sowieso, wird es mehr, ist es nicht mehr sichtbar, weil zu schnell. Generell ist es wahrscheinlich, daß es sich hierbei um ein reines Treiber-Problem handelt, welches also lösbar ist. Eine mögliche Erklärung, warum dies so passiert, liefert im übrigen dieses Posting: Danach synchronisieren sich die beiden GPUs bei SLI nicht perfekt bzw. es fehlt dem Treiber an einer Einstellung, welche die vielen bei mehreren Grafikchips gleichzeitig erzeugten Bilder besser koordinieren kann.
Bei Phoronix hat man sich sowohl die Performance der Radeon HD 2400 Pro als auch die der Radeon HD 2600 Pro unter Linux angesehen. Beide Karten performen mit dem neuen Linux-Treiber von ATI ziemlich ansprechend, der Vergleich zur GeForce 8500 GT und GeForce 8600 GT geht dabei in etwa so aus, wie auch die Relationen unter Windows aussehen. Allenfalls auffallend ist, daß die Radeon HD 2400 Pro regelmäßig klar hinter der Radeon X1300 Pro zurückliegt - was jetzt aber nicht an Linux hängt, sondern eigentlich nur ausdrückt, wie tief ATI die Radeon HD 2400 Pro im Markt ansiedelt (und dabei war ja auch die Radeon X1300 Pro ihrerseits nur eine LowCost-Lösung).
Wie Hard Tecs 4U in Berufung auf AMD-offizielle Dokumente berichten, besitzt der Speichercontroller der K10-basierenden Prozessoren bereits den Support für DDR3-Speicher. Bisher war zum Thema DDR3 auf AMD-Prozessoren bekannt, daß AMD dies mittels der nächstes Jahr anstehenden 45nm-Prozessoren ermöglichen wird. Dabei dürfte es wohl auch bleiben - man wird dazu halt nur nicht mehr die Prozessoren bzw. das integrierte Speicherinterface umdesignen müssen, sondern das kann der originale K10-Kern schon. Nichts desto trotz wird es bei den Prozessoren eine klare Trennlinie geben: K10-Prozessoren im Sockel AM2+ bieten nur Support für DDR2-Speicher, erst die K10-Prozessoren im Sockel AM3 bieten dann den Support sowohl für DDR2 als auch DDR3.
Der Heise Newsticker berichtet hierzu aber auch gleich von einigen Einschränkungen des K10-Speichercontrollers: So wird DDR3-Speicher derzeit offiziell nur bis DDR3/1333 ermöglicht. Natürlich dürften äquivalent zu den aktuellen AMD-Prozessoren auch höhere Speichertaktraten möglich sein (auch ohne das man deswegen den Prozessor selber übertakten muß), allerdings bedeutet dies auf der anderen Seite, daß Komplett-PCs wohl nicht mit mehr als DDR3/1333 ausgeliefert werden, da sich OEM-Hersteller üblicherweise strikt an die Hersteller-Spezifikationen halten. Gut möglich allerdings, daß AMD bei den 45nm-Prozessoren (wo DDR3 schließlich erstmals bei AMD zum Einsatz kommen soll) den Speichercontroller inzwischen schon wieder überarbeitet hat und dann auch offiziellen Support für DDR3/1600 bieten kann.
Gleichfalls gibt es einige Einschränkungen, sofern man die neue Möglichkeit des K10-Kerns, offiziell DDR2/1066 ansteuern zu können, nutzen will. So sind unter DDR2/1066 offiziell wieder nur zwei DualRank (DualSide) Speicher möglich (Erklärung zu Single- und DualRank), zudem kann der Speicher unter diesem Takt dann nur noch mit einer Command Rate von 2T angesteuert werden. Daneben wurde auch die bekannte Einschränkung der K8-Prozessoren beibehalten, daß unter DDR2/800 ebenfalls nur eine Command Rate von 2T möglich ist. Aber auch hier gilt wieder: Alle diese Einschränkungen sind rein offizieller Natur und geben damit eigentlich nur wieder, wie Komplett-Systeme (maximal) aussehen werden. In der Praxis kann und wird mehr möglich sein - was dann aber eben immer von der Klasse der verwendeten Komponenten und natürlich auch ein wenig vom Faktor Glück abhängt.
Einen weiteren Test zur Performance des Level2-Caches bei Intels Core 2 Duo Prozessor gibt es bei Nordic Hardware. Dazu wurden Core 2 Duo Prozessoren mit 2 und 4 MB Level2 Cache sowie ein Pentium E mit Core 2 Duo Kern und 1 MB Level2 Cache zum Test eingeladen und auf gleiche Werte bezüglich Taktfrequenz und FSB-Takt gebracht. Der technische Unterschied zwischen diesen Prozessoren lag dann also nur noch bei der Größe und der Anbindung des Level2-Caches. Bei der Performance zeigten sich eher nur geringe Unterschiede zwischen den verschiedenen Cache-Größen/Anbindungen, auch war keine besondere Tendenz auszumachen, ob der Abstand zwischen 1 und 2 MB größer oder kleiner ist als der Abstand zwischen 2 und 4 MB. Beachtenswert ist allenfalls, daß ausgerechnet die Spiele mit am stärksten auf den Cache-Unterschied reagierten: Hier ermittelten Nordic Hardware jeweils 9 Prozent Performancegewinn beim Sprung von 1 auf 2 MB und beim Sprung von 2 auf 4 MB Level2 Cache.
Shortcuts: Gemäß Hard Tecs 4U könnte es nun doch noch einen Intel-offiziellen X48 Mainboard-Chipsatz geben. Dieser würde als Unterschied zum jetzt in den Markt kommenden X38-Chipsatz den offiziellen Support für DDR3/1600-Speicher anbieten - was die kommenden X38-Mainboards zumindestens im Overclocking-Betrieb aber auch leisten können. Golem berichtet über den Umstand, daß Windows Update in einem speziellen Fall den Benutzer nicht rückfragt, ob dieser ein heruntergeladenes Update installieren will - und zwar bei Updates für Windows Update selber. Das Problem wird hier aber weniger bei der technischen Seite gesehen, sondern eher darin, daß wenn der Benutzer die Option "Nachfragen vor Installation" auswählt, man normalerweise annimmt, daß dies dann eben auch für wirklich alles gilt.
Wie nochmals Golem vermelden, hat Google die AGB seines OnlineOffice-Dienstes "Text & Tabellen" nach wie vor nicht geändert, womit die kürzliche Beteuerung, man wolle die sich in diesen AGB erteilte Nutzungslizenz auf von Benutzern eingestellte Dokumente nicht ausnutzen, eher unter das Stichwort "PR-Maßnahme" fällt (einmal abgesehen davon, daß diese Beteuerung rechtlich sowieso nicht bindend ist). Und letztlich berichtet der Heise Newsticker noch davon, daß sich Akademie.de endlich gegen die Abmahnung der GEZ wehrt und dazu negative Feststellungsklage erhoben hat. Die Meldung wirft auch Licht auf einen speziellen Punkt der GEZ-Abmahnung, wo seitens der GEZ schlicht eine andere Rechtsauffassung von Akademie.de abgemahnt wurde - womit generell ausgedrückt wird, daß in GEZ-Angelegenheiten wohl allein nur die Rechtsauffassung der GEZ bindend sein soll ;).
News des 13. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Fudzilla berichten ein wenig zur Radeon HD 2900 Pro, welche unter der Bezeichnung "Radeon HD 2900 XL" schon seit dem R600-Launch als (durchaus berechtigtes) Gerücht durch die Welt geistert. Danach soll die Radeon HD 2900 Pro zum Listenpreis von 249 Dollar in den Markt gehen und von der Performance her zwischen GeForce 8600 GTS und GeForce 8800 GTS liegen - also genau dort, wo bisher eine sehr große Leistungslücke existiert. Allerdings ist zu vermuten, daß der Listenpreis so nicht haltbar sein wird, da zu diesem Preis bereits GeForce 8800 GTS Karten mit 320 MB Speicher erhältlich sind - vermutlich dürfte eher ein Straßenpreis von um die 200 Euro herauskommen. Allerdings streuen Fudzilla noch das Gerücht, ATI wolle die Radeon HD 2900 Pro ohne größeres Aufhebens in den Markt bringen. Derzeit wäre dies eher weniger erklärlich, denn sollte das Endprodukt die 200-Euro-Marke halten können, wäre es genau das, worauf der Mainstream-Markt seit Monaten gewartet hat.
Und das dann zum Jahreswechsel bereits wieder neue Produkte anstehen, dürfte kein Argument sein - denn eine solche Konstellation hat bisher noch keinen Hersteller daran gehindert, aktuelle Produkte zu verkaufen. Die Radeon HD 2900 Pro soll jedenfalls noch diesen Monat zu erwarten sein - was angesichts eines entsprechenden Eintrags im aktuellen ATI-Treiber durchaus passen könnte. Wie die ComputerBase diesbezüglich ausführt, nennt der neue Treiber auch noch die DualChip Radeon HD 2600 XT unter dem Namen "HD 2600 X2" sowie eine bislang noch nicht bekannte Radeon HD 2350. Da eine Notierung der kommenden Refresh-Generation schon in diesem Treiber eher unwahrscheinlich ist, scheint es sich hierbei wohl um eine weitere LowCost-Variante des RV610-Grafikchips (Radeon HD 2400 Serie) zu handeln - wobei durchaus die Frage in den Raum gestellt werden kann, was man an einer Radeon HD 2400 Pro überhaupt noch abspecken kann ;).
Die Overclockers Workbench berichten darüber, daß AMDs kommende K10-basierende Desktop-Prozessoren auf AM2+ Mainboards offiziell mit DDR2/1066-Speicher betrieben werden, während dieselben Prozessoren auf den bisherigen AM2-Plattformen dann wiederum offiziell nur mit DDR2/800 laufen. Inoffiziell ist der DDR2/1066-Betrieb (und mehr) auf den bisherigen AM2-Plattformen natürlich schon lange möglich, durch die Integration des Speichercontrollers in die CPU seit den K8-Prozessoren sind diesen wie bekannt keine Grenzen bezüglich des Speichersupports innerhalb der richtigen Speichersorte (DDR2) gesetzt. Nichts desto trotz wird sich hier ein gewisser Unterschied zwischen AM2 und AM2+ Systemen ergeben: Die beim PC-Händler und den großen Märkten kaufbaren Komplettsysteme werden nur im Fall einer AM2+ Plattform per default mit einem Speichertakt von DDR2/1066 antreten.
Auf der anderen Seite wirft dieser Fall auch gleich nochmal ein Licht auf den Umstand, daß AMDs neue Prozessoren-Architektur nach wie vor mit den vorhandenen AM2-Mainboards kompatibel ist, zur perfekten Unterstützung nur ein entsprechendes BIOS-Update notwendig ist. Dies gilt sogar für die Server-Modelle - wobei dort die Aufrüstung bereits bestehender Systeme mit neuen Prozessoren doch eher selten ist, meist wird im Serverbereich gleich komplett neu gekauft. Aber auch in diesem Fall freut es die Systemintegratoren, daß man mit den K10-Prozessoren keine so umfangreichen Kompatibilitäts-Tests anstellen muß, wie wenn es zu diesen neuen Prozessoren auch noch (zwingend) neue Mainboards gegeben hätte.
Aber vor allem im Retail-Segment des Desktop-Marktes hat AMD mit dieser Aufrüstfreundlichkeit einen klaren, wenn auch selten beachteten Vorteil anzubieten: Zwar erscheint es inzwischen so, daß auch Intels kommende 45nm-Prozessoren nicht nur auf der aktuellen 3er Chipsatz-Generation von Intel laufen werden können, aber wenn, dann wird dieser Support der neuen Prozessoren auch auf älteren Mainboards durch die einzelnen Mainboard-Hersteller geregelt werden - und nicht direkt durch Intel. Das sich AMD hinstellen und verkünden kann, daß die K10-Prozessorenriege problemlos auf jedem bisherigen AM2-Board läuft, ist nun einmal ein klarer Wettbewerbsvorteil zugunsten von AMD.
Beim Tech Report hat man sich die Flashspeicher-Festplatte SATA25 von Super Talent mit einem Volumen von immerhin 128 GB angesehen. In den Performance-Tests liegt diese neue Generation an Flashspeicher-Festplatten nun nicht mehr hinter herkömmlichen Festplatten bei der Schreibe- und Leseleistung zurück, allerdings dürfte für die allermeisten Anwender der primäre Vorteil der überdimensional niedrigen Zugriffszeiten kaum den Nachteil des nach wie vor ebenso überdimensionalen Preises von 4600 Dollar pro 128-GB-Flashspeicher-Festplatte wettmachen. Wie der Tech Report mittels seiner Benchmarks jedoch herausfand, scheint die Leistungscharakteristik von Flashspeicher-Festplatten speziell größeren Webservern extrem entgegenzukommen, welche sich somit eventuell gewaltige (und damit teure) RAM-Ausbaustufen sparen können.
Der Heise Newsticker berichtet darüber, welches Ausmaß die Strafanzeigen der Contentindustrie gegenüber Filesharern haben und welche Probleme bei diesen Fällen auftreten. So ergibt sich erst einmal die geschätzte Zahl von bislang 200.000 Strafanzeigen der Contentindustrie gegenüber Filesharern - auf der anderen Seite enden 97 Prozent dieser Fälle von staatlicher Seite aus mit Verfahrenseinstellung. Wie inzwischen allgemein bekannt sein dürfte, stört das die Contentindustrie aber so lange nicht, wie sie den Staat als billigen Dienstleister bei der Ermittlung von Realnamen zu den vorliegenden IP-Adressen mißbrauchen kann ;). Hier haben sich in der hohen Anzahl der bisherigen Fälle aber auch schon einige Probleme ergeben: Dies geht von Nutzern offener WLAN-Netze bis hin zu dem Umstand, daß auch Provider schon mal eine IP-Adresse falsch zuordnen. Insbesondere letztgenannter Punkt sollte aufschrecken, denn dies bedeutet letztendlich, daß auch völlig Unschuldige in den "Genuß" strafrechtlicher Ermittlungen kommen können - und dabei wäre eine Verfolgung von Urheberechtsdelikten sicherlich noch das harmloseste, was einem hierbei einfallen kann.
Shortcuts: Golem berichten über den Hersteller Bitmicro, dessen Flashspeicher-Festplatten eine Speicherkapazität von bis zu 416 GB erreichen sollen. Allerdings scheinen diese Produkte für den militärischen bzw. industriellen Einsatz entwickelt zu sein, was sie nochmals teurer gegenüber normalen Flashspeicher-Festplatten machen dürfte - einmal abgesehen davon, daß der Hersteller bisher noch überhaup keine Preise nannte, was zumeist sowieso kein besonders gutes Zeichen ist. Die MadShrimps haben sich mit dem ASRock 4Core 1333-eSATA2 R5.0 eines der ersten Mainboards mit Intels LowCost-Chipsatz P31 angesehen. Dieser Chipsatz unterstützt als Unterschied zum P35 offiziell keine QuadCore-Prozessoren (inoffiziell geht es natürlich trotzdem) und keinen DDR3-Speicher, wobei insbesondere letzteres deutlich verschmerzbar ist. Die Performance ist auf üblichem Niveau, nur beim Übertakten scheint der P31 nicht ganz so gut wie manche P35-Modelle zu sein, welche meistens doch auf deutlich mehr als 366 MHz FSB kommen können.
News des 12. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Die DigiTimes berichtet zu den LowCost- und Mainstream-Chips von ATIs Refreshgeneration: So sollen im Januar 2008 die Grafikchips RV620 (LowCost) und RV635 (Mainstream) antreten, um dann die bisherigen Grafikchips RV615 (Radeon HD 2400 Serie) und RV630 (Radeon HD 2600 Serie) abzulösen. Beiden Chips gemeinsam ist der 55nm Fertigungsprozeß, höhere mögliche Taktraten als die derzeit im Markt befindlichen Vorgänger und der Support von PCI Express 2.0 sowie Direct3D 10.1 - letzteres deutet immer stärker in die Richtung, daß die komplette Refreshgeneration von ATI und nVidia dieses Update von Direct3D10 beherrschen wird. Wie auch schon bei den aktuellen Radeon HD 2400/2600 Karten wird es jeweils zwei Ausführungen der neuen Grafikchips geben, Pro und XT betitelt. Als Namen für die neuen Grafikkarten machen inzwischen "Radeon HD 2500" und "Radeon HD 2650" die Runde, dies scheinen allerdings reine Spekulationen zu sein, da die DigiTimes diese Namen nicht erwähnt.
Einen ersten Test zu Intels mittlerweile reichlich gehypten X38-Chipsatz haben Bit-Tech in Form des Gigabyte GA-X38T-DQ6 anzubieten. Primär bietet der X38 den offiziellen Support für DDR3/1333 (was inoffiziell natürlich auch P35-Boards beherrschen) sowie zwei PCI Express x16 Grafikkarten-Slots mit der Unterstützung von CrossFire und PCI Express 2.0 - wobei letzteres im Test von Bit-Tech erstaunlicherweise nicht erwähnt wurde. Daneben will Intel den X38 mit umfangreichen Overclocking-Möglichkeiten ausrüsten, was wohl der interessanteste Punkt für den Retail-Markt sein dürfte. Denn von der Performance her sind - im unübertakteten Zustand - natürlich keine Wunderdinge zu erwarten, mit dem benutzten Vorserien-BIOS kommt der X38-Chipsatz laut den Messungen von Bit-Tech derzeit gerade so auf das Niveau des P35-Chipsatzes.
WinFuture berichten von einer fortlaufenden Analyse zum Verbreitungsgrad der einzelnen Betriebssysteme seitens Market Share, womit sich der zunehmende Anteil von Windows Vista bei der installierten Basis gut belegen läßt. Natürlich muß zu diesen Zahlen einschränkenderweise dazugesagt werden, daß hierbei nur Computer mit Internet-Anschluß ausgewertet werden, weil die Zahlen schließlich direkt im Internet erhoben werden. Offen bleibt auch, wo genau gemessen wurde - sprich, ob weltweit oder nur für Nordamerika ermittelt wurde. Im Zweifelsfall geben die Zahlen also eher über die installierte Basis bei zumeist privaten Internetnutzern in der westlichen Welt Auskunft, was dann doch nur eine (wenn auch große und wichtige) Teilmenge aller Computer darstellt.
Nichts desto trotz ergeben sich interessante Aussagen zur Verbreitung von Windows Vista gerade im Kernbereich der Zielgruppe: So legte das neue Betriebssystem in den Monaten direkt nach dem Start jeweils um ein Prozent pro Monat zu, ab dem Sommer sind es nun aber nur noch ungefähr drei Viertel Prozent pro Monat. Dies ergibt für das Jahresende eine Prognose von 9 bis 10 Prozent Verbreitungsgrad - was sich nicht schlecht für ein Jahr anhört, aber letztlich klar zu wenig ist, um in absehbarer Zeit die Marktführerschaft zu übernehmen. Die von Windows XP innerhalb von fünf Jahren nach Launch vorgelegten 85 Prozent Verbreitungsgrad sind damit jedenfalls kaum erreichbar, für Windows Vista ist auf Basis der aktuellen Wachstumsraten noch nicht einmal ein Verbreitungsgrad von 50 Prozent im selben Zeitraum zu prognostizieren. Auf der anderen Seite dürfte es sowieso kaum mehr möglich sein, so einen hohen Verbreitungsgrad wie Windows XP zu erreichen.
Denn zum einen war Windows XP wirklich sehr lange ohne einen Nachfolger auf dem Markt, zum anderen hatten die direkten Vorgänger deutliche Nachteile. Windows Vista muß nun mit recht wenigen sofort griffigen Verbesserungen gegen ein sehr ausgereiften und technisch noch lange nicht zurückhängendes Produkt antreten. Somit wird die Softwarewelt wohl noch einige Jahre mit einer stattlichen Anzahl an laufenden Windows XP Installationen rechnen müssen - einfach, weil es in vielen Anwendungsfällen keinen Sinn macht, upzugraden. Wahrscheinlich wird erst der Nachfolger von Windows Vista wirklich das Ende von Windows XP als Massenprodukt einläuten. Für die Lebenszeit von Windows Vista (vor dem nächsten Microsoft-Betriebssystem) ist dagegen angesichts dieser Zahlen eher davon auszugehen, daß Windows XP und Vista nur zusammen den Markt beherrschen werden, wobei für den größten Teil dieses Zeitraums weiterhin Windows XP als führendes Betriebssystem bei der installierten Basis zu erwarten ist.
Shortcuts: Gemäß der VR-Zone stellt der nVidia G98-Chip wieder "nur" die Ablösung des LowCost-Chips G86 (GeForce 8300/8400/8500) dar, nachdem letzte Woche gegenteilige Informationen den G98-Chip dem Mainstream-Segment zugeordnet hatten. Wie Hard Tecs 4U berichten, will AMD noch vor Jahresende die Taktraten der K10-basierenden Opteron-Prozessoren auf 2.5 GHz erhöhen. Mit diesem 25prozentigen Taktsprung dürfte man Intel einiges zu knabbern geben, da AMD mit den K10-basierenden Modellen im Serverbereich schließlich schon jetzt ganz gut dasteht. Ebenfalls noch vor Jahresende soll gemäß Fudzilla zudem der erste Phenom FX für den Desktop-Bereich antreten, welcher allerdings nur eine Taktfrequenz von 2.2 bis 2.4 GHz haben soll. Und letztlich tragen Hard Tecs 4U zu AMDs neuer ACP-Angabe noch nach, daß AMD zukünftig nur noch diese nennen und damit gegen Intels TDP-Angaben vergleichen will. Was natürlich einen höchst unfairen und unseriösen Vergleich ergibt, Intel allerdings wohl womöglich sogar kurzfristig zu eigenen ACP-Angaben animieren wird.
News des 11. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Zum gestrigen Start von AMDs K10-Prozessorenarchitektur wären noch einige Nachträge zu erwähnen: Erstens einmal enthalten AMDs neue Prozessoren nun endlich auch einige Hardware-unterstützte Virtualisierungs-Funktionen. Dies, was bisher unter dem Codenamen "Pacifica" bekannt war, läuft nun unter "Secure Virtual Machine Architecture" (SVMA) und beinhaltet allerdings auch die TCPA/TCG-nahe Sicherheits-Technologie "Presidio" (bei Intel mit "LaGrande" vergleichbar), mittels welcher primär die mittels Pacifica möglichen virtuellen Maschinen abgesichert werden sollen. AMD scheint hier beide früher einzeln geführten Technologien nunmehr zusammen unter dem Begriff SVMA zu führen, womit Prozessoren mit Pacifica wohl automatisch immer Presidio mit an Board haben. Inwiefern AMD SVMA allerdings auch bei den Desktop-Prozessoren freischalten wird, ist derzeit sowieso noch nicht bekannt.
Der entsprechenden Berichterstattung von Hard Tecs 4U ist zudem zu entnehmen, daß AMD mittels "Average CPU Power" (ACP) eine weitere Maßeinheit für den Energiehunger von Prozessoren eingeführt hat. Im Gegensatz zur bisher üblichen TDP-Angabe, welche den Maximalverbrauch unter den ungünstigsten Bedingungen zuzüglich eines Sicherheitszuschlags darstellt und zudem auch von der Idee her weniger den Stromverbrauch des Prozessors illustrieren als vielmehr eine Konstruktionshilfe für Mainboard- und Kühler-Hersteller darstellen soll, will AMD mittels ACP ausdrücken, was ein Prozessor normalerweise unter Last verbraucht. Derzeit liegen die ACP-Angaben für die K10-basierenden Serer-Prozessoren ca. 15 bis 20 Prozent unter den jeweiligen TDP-Angaben.
Problematischerweise "gruppiert" AMD aber auch wieder die ACP-Angaben, sprich taktunterschiedliche Prozessoren weisen denselben ACP-Wert aus. Was bei den TDP-Angaben noch Sinn macht, weil so die Mainboard- und Kühler-Hersteller nicht auf jeden Prozessor einzeln eingehen müssen, sondern sich auf eben diese Gruppen konzentrieren können, macht natürlich bei einer Angabe wie der ACP wenig Sinn: Wenn hier wirklich der übliche Stromverbrauch des Prozessors unter Last angegeben wird, dann ist dieser natürlich für jeden Prozessor verschieden. Hier wäre AMD gut beraten, zukünftig ACP-Angaben für jeden Prozessor extra herauszugeben. Dies könnte im besten Fall mittelfristig dann sogar Intel dazu animieren, ähnliche Angaben zu publizieren.
Damit könnte dann auch der eher unseriöse Wettstreit der Prozessorenbauer auf Basis der TDP-Angaben unterbleiben, denn die TDPs werden von AMD wie Intel jeweils sehr unterschiedlich definiert (üblicherweise sind die Lasttests von Intel nicht so hart wie die von AMD, dafür gibt Intel aber inzwischen deutlich mehr Spielraum hinzu) und sind damit keineswegs zwischen diesen beiden Herstellern vergleichbar. Und letztlich hat AMD nun noch etwas genaueres zum Zeitpunkt des Launches der ersten K10-basierenden Desktop-Modelle gesagt: Im Dezember sollen diese antreten. Wie breit das AMD-Angebot dann sein wird, ist damit natürlich noch nicht gesagt. Nach wie vor stehen hier frühere Aussagen im Raum, wonach AMD dieses Jahr nur die überteuerten Phenom-FX-Prozessoren in den Markt entlassen wird und die Masse der K10-basiernden Desktop-Modelle dann erst im ersten Quartal 2008 kommt.
Ähnlich eines Artikels von letzter Woche haben sich DriverHeaven mit der Frage beschäftigt, ob man sich bei einer GeForce 8600 GT besser eine höher getaktete Version oder eine Ausführung mit mehr Speicher zulegt. Zum Einsatz kamen hier zwei Karten von Gainward: Zuerst einmal die "Bliss 8600GT 1024MB Edition", welche mit den sehr ungewöhnlichen Taktraten von 594/1458/500 MHz antritt - dies ist bei Chip- und Shader-Takt mehr als der default einer GeForce 8600 GT (540/1190/700 MHz), beim Speichertakt allerdings deutlich weniger als diese. Die andere Karte ist die "Bliss 8600GT Goes Like Hell Edition" mit standardmäßigen 256 MB Speicher und Taktraten von 621/1458/900 MHz. Aufgrund dieses enormen Unterschieds beim Speichertakt (500 zu 900 MHz) ist der Ausgang dieses Duells natürlich vorhersehbar, da helfen erstgenannter Karte ihre 1024 MB Grafikkartenspeicher überhaupt nicht mehr.
Diese liegt fast überall klar zurück, wobei wir aufgrund der hohen Differenz beim Speichertakt durchaus sogar etwas größere Performance-Unterschiede erwartet hätten. Entweder spielt hier der Mehrspeicher doch noch eine gewisse Rolle oder aber die GeForce 8600 GT ist mit ihrer Speicherbandbreite gut bedient und kann den höheren Speichertakt gar nicht wirklich ausnutzen - womit der Unterschied beim Speichertakt zwischen beiden Karten nicht mehr so ins Gewicht fällt. Eine Ausnahme gibt es allerdings: Unter Call of Juarez im Direct3D10-Test zieht die 1024-MB-Karte der takthöheren 256-MB-Karte klar davon - und dies selbst unter der Auflösung von 1024x768 sowie ohne Anti-Aliasing. Nichts desto trotz erscheint in der Summe die "Bliss 8600GT 1024MB Edition" von Gainward mit ihrem unter default liegendem Speichertakt als etwas seltsame Konstruktion und ist auch in diesem Fall die Karte mit den höheren Taktraten der Karte mit dem größerem Grafikkartenspeicher vorzuziehen.
News des 10. September 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Mit dem ersten Tag der neuen Woche hat AMD nun endlich die ersten Prozessoren aus seiner nun schon seit einiger Zeit mit Spannung erwarteten K10-Architektur vorgestellt. Wie vorher schon klar war, macht AMD hierbei den Anfang mit den K10-basierenden Opteron-Prozessoren für den Server-Einsatz, die K10-basierenden Phenom-X2/X4/FX-Prozessoren für den Desktop-Einsatz werden wohl erst kurz vor Jahresende offiziell vorgestellt werden. Trotzdem ist der heutige Launch angesichts einer neuen bzw. zumindestens upgedateten Prozessoren-Architektur doch als ziemlich ruhig zu bezeichnen, faktisch finden sich derzeit nur die Testberichte seitens AnandTech, des tecChannels und des Tech Reports ein.
Dies erscheint dann selbst unter dem Vorzeichen, daß es sich erst einmal "nur" um Server-Prozessoren handelt, doch als etwas wenig. Auch die bislang vorhandenen Artikel sind wohl unter gehörigem Zeitdruck entstanden und demenentsprechend noch etwas dünn, insofern lohnt für den heutigen Tage wohl noch keine tiefere Betrachtung des Themas, da einfach noch zu viele Informationen fehlen. Genaueres kann man derzeit faktisch nur zur Performance der neuen K10-basierenden Server-Prozessoren sagen: Und da steht AMD wieder einmal recht gut da, ganz besonders dann, wenn es um möglichst viele Kerne im System geht. Denn dann greift die nach wie vor überlegene Anbindung der Prozessoren ans System und vor allem den Speicher gegenüber dem Intel-Modell, welches trotz leistungsfähiger Core-Prozessorenarchitektur immer noch auf das altherkömmliche FrontSideBus-Modell setzt.
Allerdings hat Intel dem auch in Zukunft nicht viel entgegenzusetzen: Die etwas höhere Pro/MHz-Leistung der kommenden 45nm-Prozessoren sowie deren mögliche höhere Taktraten werden es kaum herausreißen können, Intel hat hier durch das Anbindungs-Modell per FSB einen generellen Nachteil, welcher nicht so einfach auszugleichen ist. Zudem dürften auch von AMD noch höhere Taktraten zu erwarten sein, schließlich wurden die K10-basierenden Opteron-Prozessoren heute gerade einmal mit einer maximalen Taktfrequenz von 2.0 GHz vorgestellt. Selbst bei einer eher konservativen Strategie sollten hier doch Taktfrequenzen von 2.5 bis 2.8 GHz in den nächsten Monaten erreichbar sein.
Diese ziemlich positiven Aussagen zu den K10-basierenden Server-Prozessoren lassen sich jedoch leider nicht so einfach für die K10-basierenden Desktop-Modelle übernehmen. Denn im Desktop-Bereich hat der Hauptvorteil der AMD-Prozessoren mittels der sehr performant gelösten Anbindung ans System zwar auch sein Gewicht, schlägt sich aber bei weitem nicht so deutlich auf die Benchmark-Ergebnisse wieder wie im Server-Bereich. Im Desktop-Segment muß AMD viel eher mit hohen Taktraten und starker Pro/MHz-Leistung kommen - und fällt das eine nur eher mittelmäßig aus, muß das andere dann dafür um so stärker sein. Und genau hier sind einige Probleme für AMD zu sehen: Denn die Pro/MHz-Leistung der K10-Architektur im Deskto-Bereich ist nicht so deutlich über der der K8-Architektur, wie man sich das hätte wünschen können.
Diesbezüglich haben AnandTech einen ersten Test angetreten, welcher dem K10 im Desktop-Bereich eine um gut 15 Prozent höhere Pro/MHz-Leistung bescheinigt. Dies ist auf den ersten Blick nicht schlecht, auf den zweiten Blick jedoch angesichts des vormals existierenden Rückstandes bei der Pro/MHz-Leistung (gewöhnlich 20 Prozent, unter Spielen sogar 32 Prozent) und zuzüglich des Taktraten-Rückstandes von AMD bei den K10-Prozessoren sicherlich nicht ausreichend. Sicherlich ist es noch zu früh für endgültige Einschätzungen, die dann erst beim offiziellen Start der K10-basierenden Desktop-Prozessoren zu treffen sein werden - aber der Vorausblick sagt, daß wohl zu dieser guten Steigerung der Pro/MHz-Leistung bei der K10-Architektur trotzdem hohe Taktfrequenzen braucht, um mit Intel im Desktop-Bereich konkurrieren zu können.
Eine Kolumne auf GameCaptain geht die Frage an, wieso die Spiele-Hersteller oftmals die Konsolen-Spieler für Spielerweiterungen wie MapPacks bezahlen lassen, während die PC-Gamer den gleichen Content kostenlos erhalten. Dabei stellt die Frage unserer Meinung nach durchaus auch schon wieder einen Teil der Antwort dar: Spielekonsolen sind als unfreie Systemen nun einmal bewußt darauf angelegt, den Nutzer in eine Abhängigkeit vom Anbieter zu bringen, womit sich dieser dann eben solche Sachen wie bezahlte Zusatzcontent leisten kann. Auf dem PC wäre dies nicht möglich bzw. funktioniert nur in absoluten Ausnahmefällen. Interessant ist hier eigentlich nur, daß dieser Punkt nun endlich einmal hochkocht - dabei war diese Entwicklung jedoch von Anfang an abzusehen.
Die verschiedenen Spielekonsolen sind bei den Spieleentwicklern eben nicht nur deswegen beliebt, weil man eine eindeutige Hardware-Basis hat, sondern vor allem auch deswegen, weil man auf diesen den Nutzer deutlich besser im Griff hat (und damit auch mehr Geld aus diesen herausholen kann). Woraus sich automatisch auch ergibt, daß der PC als Spieleplattform wohl niemals total gegenüber den Spielekonsolen verlieren wird, egal wieviel an Multimedia- und Internet-Fähigkeiten in diesen noch hereingepresst werden wird. Zudem sind derzeit die bei Spielekonsolen möglichen Einschränkungen noch nicht im Ansatz ausgeschöpft - und wenn es die Konsolenanbieter hier übertreiben, könnte sich sogar eine deutliche Bewegung wieder hin zum PC ergeben. Wer die (weitgehende) Freiheit einer Plattform schätzt, wird jedenfalls mit Konsolen langfristig sicherlich nicht glücklich werden können.
Welche Maßnahmen zur Überwachung der Online-Kommunikation schon jetzt und damit noch vor der Online-Durchsuchung existieren, hat die Zeit aufgelistet. Als relevanten Unterschied zur Online-Durchsuchung handelt es sich dabei ausschließlich um Maßnahmen, welche Kommunikation belauschen, wohingegen die Online-Durchsuchung primär zur Durchsuchung von Festplatten aus der Ferne gedacht ist. Damit ist jedoch auch der Name "Online-Durchsuchung" eigentlich unpassend, da dieser suggeriert, es würden hierbei Online-Aktivitäten und damit in dem Sinne öffentliche Aktivitäten (im Internet) überwacht. Es ist bekanntermaßen bei der Online-Durchsuchung jedoch das Gegenteil der Fall, es soll hierbei Zugriff auf persönliche Daten, die eben nicht im Internet stehen, genommen werden. In diesem Sinne wäre damit der Begriff "Remote-Durchsuchung" möglicherweise treffender.