News-Archiv 20. - 26. August 2007 (34. Kalenderwoche)
25./26. August 24. August 23. August 22. August 21. August 20. August
News des 25./26. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie die PC Games Hardware berichtet, scheint sich nun auch nVidia vom bisherigen Quad-SLI abzuwenden und zukünftig eher auf "Triple-SLI", also SLI mit drei Grafikkarten, zu setzen. Bei ATI gibt es schon des längeren Anzeichen für eine ähnliche Vorgehensweise, die von der PC Games Hardware zugunsten von Triple-SLI genannten Argumente dürften schließlich auch auf Triple-CrossFire zutreffen. Zu diesen Gründen wäre zudem noch ein nicht ganz unwesentlicher hinzuzufügen: Die Effizienz von Quad-SLI war (gab es schließlich nur bei GeForce 7900/7950 GX2) nie wirklich gut - und dies obwohl jenes Quad-SLI noch nicht einmal auf den schnellsten seinerzeit verfügbaren Chips (GeForce 7900 GTX), sondern auf einer klar taktschwächeren Variante (GeForce 7900 GT) basierte.
Doch selbst damit erreichte Quad-SLI seinerzeit erst einmal nur einen durchschnittlichen Performancegewinn gegenüber "normalem" SLI von 40 bis 50 Prozent, während jenes für gewöhnlich über 70 Prozent Performancegewinn gegenüber (gleichartigen) einzelnen Karten abliefert. Hätte man seinerzeit Quad-SLI gleich auf Basis von GeForce 7900 GTX Chips ermöglicht, wäre der Performancegewinn wohl noch schlechter ausgefallen, da einfach zu viele Spiele dann in CPU-Limits laufen, zudem dürfte der Verwaltungsaufwand und der Verschnitt wegen doppelten Berechnungen mit jeder weiteren Karte einfach zu groß werden. Es ist durchaus zu vermuten, daß die Effizienz von drei Karten hier noch ein gutes Stück besser ausfällt, die hohen Anschaffungskosten sich hier also viel eher in Performance umsetzen lassen als bei gleich vier Karten.
Davon abgesehen dürften beide Grafikchip-Entwickler generell die Absicht vorantreiben, nach "normalem" SLI bzw. CrossFire diese MultiGrafikkarten-Technologien nun auch in der Triple-Ausführung wirklich im kaufkraftstarken Retail-Markt zu positionieren. Und das geht nur, wenn im Markt erst einmal eine breite Basis an entsprechenden Mainboards vorhanden ist, welche mehrere DualSlot-Grafikkarten tragen können. Da rein vom Platz her jedoch innerhalb der ATX-Norm keine vier DualSlot-Grafikkarten auf einem Mainboard möglich sind (passt ja auch in kein normales ATX-Gehäuse mehr herein), erscheint dieses Umschwenken auf maximal drei Grafikkarten nur zu logisch. Dies bedeutet natürlich nicht, daß sich beide Grafikchip-Entwickler demnächst größere Umsätze von Triple-SLI/CrossFire erwarten, allerdings dürfte diese Technologie ATI und nVidia schon allein wegen des technologischen und leistungsmäßigen Wettstreits untereinander sehr wichtig sein.
Davon abgesehen sind beide Unternehmen natürlich auch im Markt der Mainboard-Chipsätze aktiv und benötigen dort auch ständig neue Features. Demzufolge wäre es nicht verwunderlich, wenn in absehbarer Zeit der Markt mit Triple-SLI/CrossFire-fähigen Mainboards überschwemmt wird, egal ob die Käufer dieses Feature dann nutzen oder nicht (genauso wie man derzeit oftmals SLI-Boards kauft, weil es nicht deutlich mehr kostet und es einfach gut ist, die Option zu haben). Auch die Mainboard-Hersteller dürften hierbei begeistert mitspielen, ermöglichen drei Grafikkartensteckplätze doch eher hochpreisige Boards - und der mit den drei Grafikkarten-Steckplätzen einhergehende Verlust an weiteren Steckplätzen zudem den Verbau der von den Mainboard-Hersteller bekannterweise innig geliebten integrierten Komponenten begünstigt ;).
Über neuen Ärger um das Videoportal YouTube berichtet der Spiegel. Danach will der Zentralrat der Juden Strafanzeige gegen das Portal stellen, weil dort Videos mit rechtsextremen Inhalten trotz Abmahnungen und Indizierungen seitens Jugendschutz.net nicht aus dem Portfolio genommen wurden. Jetzt einmal völlig abgesehen der politischen Komponente, welche nicht unser Thema sein soll, stößt dieser Fall vor allem auch die Problematik der Anwendbarkeit von nationaler Gerichtsbarkeit im Internet erneut an: Denn natürlich ist das Vorgehen von YouTube in Deutschland klar strafbar - das eigentliche Problem liegt aber darin, daß YouTube in den USA problemlos verklagbar wäre, würde man die bewußten Videos gleich gänzlich vom Server nehmen.
Denn dort wird wie bekannt die Meinungsfreiheit sehr weit ausgelegt - was wohl YouTube auch dazu bewogen haben dürfte, den entsprechenden Paragraphen der eigenen Nutzungsbedingungen, welcher Videos mit rassistischem und/oder volksverhetzendem Inhalt eigentlich generell verbietet, nicht wirklich zur Anwendung zu bringen (wenn dann müsste YouTube wohl alle politischen Inhalte verbieten, ein selektives Verbot dürfte in den USA immer gegen die dort geltende Meinungsfreit verstossen). Im aktuellen Streitfall befindet sich YouTube somit zwischen allen Fronten: Das Beibehalten der bewußten Videos ist in Deutschland strafbar, das Herunternehmen wird in den USA vermutlich nicht anders gesehen werden. Klar ist, daß man sich derzeit einfach erst einmal auf den Standpunkt der eigenen Herkunft stellt - der liegt in den USA und somit wird man im Zweifelsfall US-Recht vorziehen.
Dies könnte aber letztlich hierzulande zu einer völligen Eskalation des Konflikts führen - auch weil es hier nicht mehr um eine "Jugendgefährdung" geht, sondern um Straftatbestände (wobei es nebenbei zur Beurteilung dieses Falls völlig egal ist, wie man zu diesem Punkten des Strafgesetzbuches steht), und staatlichen Stellen in Deutschland dann eben doch ein paar mehr Druckmittel haben als in Fällen der Zivilgerichtsbarkeit. So muß YouTube auch damit rechnen, im schlimmsten Fall mit einem totalen Bann in Deutschland belegt zu werden - der Aussperrung per (wenn auch umgehbarer) DNS-Sperre. Wird die vorgenannte Strafanzeige weiterverfolgt, wird sich YouTube, welche bisher alle Amtsschreiben aus Deutschland ignoriert haben, doch irgendwie bewegen müssen.
Eine eventuelle Kompromißmöglichkeit wäre beispielsweise die Ausblendung bestimmter Videos für Nutzer aus dem bundesdeutschen IP-Adressraum - was zwar auch (mittels Proxy-Server) überlistbar ist, aber doch die deutschen Behörden zufriedenstellen sollte. Allerdings dürfte sich YouTube sicherlich gegen eine solche Lösung sträuben, bedeutet sie doch, daß ein US-Unternehmen ohne geschäftliche Aktivitäten in Deutschland plötzlich deutsches Recht umsetzen muß - welches zudem noch gegen US-Recht (zumindestens für US-Bürger) steht. Auch dürfte man hier bei YouTube sicherlich den Einstieg in die nationalstaatliche Zensur sehen: Wenn die Bundesrepublik Deutschland Listen mit unliebsamen Videos verschicken darf, werden dies andere Staaten sicherlich genauso wollen.
Somit besteht durchaus die Gefahr, daß ein mögliches bundesdeutsche Vorpreschen in diesem Fall für YouTube den Anfang der nationalstaatlichen Zensur markiert - und daß dann für andere Staaten nicht nur (wenn überhaupt) Videos mit rechtsextremen Inhalten gesperrt werden dürften, sollte klar sein. Hier liegt dann das grundsätzliche Problem jeder Zensur im Internet: Zensieren wir in (unserer Meinung nach) berechtigten Fällen, wird dies für andere die wohlfeile Begründung darstellen, es uns gleichzutun - daß es einen erheblichen Unterschied in der Breite und der Qualität der Zensur zwischen den verschiedenen Staaten gibt, gilt dann nur noch als schwaches Argument. Genau diese Punkte muß man jedoch mit beachten, wenn man nach Zensur für dieses oder jenes im Internet schreit - der Schaden andernorts könnte deutlich größer sein als der geringfügige Nutzen für unsere doch eher gefestigte Gesellschaft.
News des 24. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Hartware berichten über die Anstregungen der Hersteller Asus und MSI bezüglich deren Gehäuse für externe Grafikkarten. Seitens Asus wurde das unter dem Namen "XG Station" bekannte Projekt allerdings inzwischen wieder verworfen, da in den Grafikkarten-Treibern von nVidia keine Unterstützung für externe Grafikkarten unter Windows Vista mehr vorgesehen ist. Ob dies jetzt am Unwillen von nVidia hängt oder eher eine technische Limitierung von Windows Vista darstellt (Kopierschutzfunktionalität?), ist bislang nicht bekannt. Demzufolge ist auch unklar, wie MSI dieses Problem mit seinem bislang "Luxium" genannten Projekt lösen will, welches auf der Games Convention unter dem Namen "Notebook Station" gezeigt wurde. Allerdings wird es diese auch erst im nächsten Jahr geben, angeblich wartet man wohl auf eine bessere Anschlußtechnologie als den auf PCI Express x1 limitierten ExpressCard-Slot.
Nach dem Test eines Penryn-basierenden QuadCore-Prozessors Anfang des Monats haben AnandTech nun gleiches für ein DualCore-Modell anzubieten. Verglichen wurde dabei wieder auf 2.33 GHz (scheint der Standard bei den von Intel eigentlich nur an ausgewählte OEMs herausgegebenen Testsystemen zu sein) gegen einen aktuellen Core 2 Duo Prozessor auf gleichem Takt und FSB-Taktung. Dabei kam im Schnitt der Messungen ein 5prozentiger Vorteil für die neue Architektur heraus, was dann doch etwas weniger ist als beim vorgenannten ersten Test, zudem zeigte sich bei AnandTech auch kein besonderer Effekt unter Spielen. Angesichts der schon berichteten Zurückhaltung von Intel bei den Taktraten zum Penryn-Launch öffnet sich hier also durchaus eine gewisse Flanke für AMDs K10-basierende Prozessoren.
Denn schließlich dürften die Penryn-Prozessoren mit (wie gesagt zum Launch) 5 Prozent mehr Takt und 5 Prozent mehr Pro/MHz-Leistung zumindestens aus Performance-Sicht nicht gerade der große Straßenfeger werden. Auf der anderen Seite scheint Intel mit der Penryn-Architekur und deren 45nm-Fertigung nochmals einige Wunder bei der Verlustleistung vollbracht zu haben - unter Last erreichten AnandTech satte 29 Watt weniger Leistungsaufnahme mit dem Penryn-basierenden Prozessor gegenüber einem aktuellen Core 2 Duo, welcher wie bekannt ja eigentlich auch nicht viel Saft zieht. Auch beim Übertakten zeigte das Penryn-Sample durchaus schon gute Ansätze: 3.22 GHz ohne Spannungszugabe deuten auf einiges an Potential, wobei die derzeit von Intel verteilten Samples gerade bei den maximal erreichbaren Taktraten sicherlich noch ein gutes Stück von der Serienfertigung entfernt sein dürften.
Fudzilla berichten von einem in Japan verfügbaren PCI Express x1 zu x16 Adapter, mit welchem man also aus einem PCI Express x1 Steckplatz einen PCI Express x16 Steckplatz machen kann. Interessant dürfte das ganze allerdings nur im Ausnahmefall sein, denn abgesehen von mechanischen Probleme mit dem zu hoch angesetztem Slotblech (der Adapter bringt schließlich noch seine eigene Höhe mit sich) ändert sich durch diesen Adapter natürlich nichts an der MultiGrafikkarten-Fähigkeit eines Mainboard-Chipsatzes. Zudem ist insbesondere bei Grafikkarten von einem elektrische Anschluß über einen x1-Steckplatz abzuraten, denn dessen Datentransferrate (ungefähr wie AGPx1) ist einfach zu langsam und limitiert damit die Grafikkarte. Somit ist ein solcher Adapter eigentlich nur für Fälle interessant, wo eine Steckkarte verbaut werden soll, welche zwar als x16-Karte ausgeführt ist, die höhere Bandbreite dieser Anbindung aber nicht wirklich benötigt - da dürfte die Auswahl doch arg begrenzt sein ;).
Wie der Heise Newsticker ausführt, hat die GEZ im gestern berichteten Streitfall mit Akademie.de angeblich ein gewisses Einlenken gezeigt - und bringt sich damit unserer Meinung nach noch stärker in die Bredouille. Denn die Aussage der GEZ, es bei diesem Fall zu belassen und nicht die hunderttausenden anderen "fälschlichen" Namensnennungen der GEZ-Begrifflichkeiten im Internet ebenfalls per Abmahnung zu "korrigieren", läßt faktisch nur den Schluß zu, daß hier eben nur Akademie.de angegangen wurde - weil deren Seiten mit Hilfestellungen für GEZ-Geschädigte der GEZ nicht in den Kram passen. Folgt man diesem Schluß, hätte die GEZ das Mittel der Abmahnung wissentlich mißbräuchlich zur Verhinderung von Kritik (und damit der Meinungsfreiheit) eingesetzt.
Hieraus könnte man durchaus auf eine automatische Ungültigkeit der Abmahnung plädieren, da der Abmahner (GEZ) offensichtlich nicht wirklich am Inhalt der Abmahnung (der Unterlassung gewisser Begriffe) interessiert ist. Es ist Akademie.de um so mehr anzuraten, die Abmahnung der GEZ demonstrativ in der Luft zu zerreißen und die ganze Sache vor Gericht auszufechten - sofern die GEZ überhaupt so weit gehen will. Denn aufgrund des in kurzer Zeit doch erheblichen Medienechos dürfte die GEZ sowieso viel eher den Schwanz vor einem Verfahren einziehen. Nicht unwahrscheinlich ist hier die Variante, daß die GEZ über kurz oder lang von ARD/ZDF oder irgendwelchen Regierungsstellen zurückgepfiffen wird, denn das, was die GEZ eigentlich verhindern wollte (das negative Image für die GEZ), würde mit einem Gerichtsverfahren nur zementiert werden ;).
GameCaptain berichten über den neuesten "Killerspiele"-Beitrag seitens Frontal 21, inklusive auch eines Links zu YouTube mit einem entsprechenden Mitschnitt. Inhaltlich gibt es nichts neues und langsam ist es auch ermüdend, immer wieder neu gegen diese offenbar Argument-resistenten Falschdarstellungen anzureden. Schade ist in diesem Zusammenhang wiederum erneut nur, daß in Deutschland keine schlagkräftige Lobby der Computerspieler existiert: Denn wenn das ZDF derart journalistisch abgrundtief schlecht recherchierte Beiträge zu einer x-beliebigen anderen Industrie verbrochen hätte, würde der Gebührenzahler zusätzlich zu den (nicht verdienten) Gehältern der Macher auch noch für Schadensersatzsummen in Millionen-Höhe aufkommen müssen, welche jener x-beliebigen anderen Industrie mit fliegenden Fahnen vor Gericht zugesprochen würden.
Gemäß des Heise Newstickers spricht das Bundesinnenministerium nun wieder von einem Verbreitungsweg des Bundestrojaners über das Anhängen an eine eMail. Aus der Formulierung "kann je nach Einzelfall ein geeignetes Mittel darstellen" ist allerdings eher zu schließen, daß man - wie früher schon angedeutet - für jeden Fall eine Einzelanalyse vornehmen und dann das jeweils passende Mittel einsetzen wird, um den Bundestrojaner an den Mann (oder die Frau) zu bringen. Bei als technisch unversiert einzuschätzenden Zielpersonen kann dies sicherlich über den Trojaner per eMail erfolgen - will man allerdings wirklich die schweren Jungs fangen, um die es (angeblich) immer geht, dürfte dies jedoch eher die Ausnahme bleiben und man eher zu "handfesteren" Methoden greifen.
News des 23. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Fudzilla berichten über die bahnbrechende Neuigkeit, daß die aktuellen ATI-Grafikchips RV610 (Radeon HD 2400 Serie), RV630 (Radeon HD 2600 Serie) und R600 (Radeon HD 2900 XT) bereits prinzipiell kompatibel mit PCI Express 2.0 sind, es fehle hier nur ein BIOS-Update. Wirklich neu ist das allerdings nicht, denn ATI hatte dies schon vor längerem ausgedrückt, zudem scheint die Kompatibiliät zu PCI Express 2.0 wohl generell weniger an den Grafikchips zu liegen, sondern eher eine Sache des Mainboard-Chipsatzes sowie des Mainboards selber zu sein. Insofern dürften alle aktuellen Grafikchips problemlos auf PCI Express 2.0 umsetzbar sein, womöglich gilt dies sogar auch noch für ältere Grafikchips. Ein besonderer Gewinn aus dieser Aufwärtskompatibilität dürfte sich jedoch kaum ergeben, da derzeit die meisten Anwendungen im Consumer-Bereich noch nicht einmal PCI Express 1.x ausnutzen.
Der Heise Newsticker berichtet über den Stand der eigentlich mit der vPro-Plattform seitens Intel geplanten Sicherheitsoffensive für im Firmen-Netzwerk stehende PCs. Wie bekannt gibt es hier die Idee, zwei Betriebssysteme auf einem PC laufen zu lassen: Zum einen ein Betriebssystem für den Anwender und zum anderen eines für den Administrator, mit welchem dieser Patches einspielen und die Kompromitierung des Anwender-Betriebssystems sowie des Firmen-Netzwerks verhindern bzw. bekämpfen kann, ohne selbst so einfach angegriffen werden zu können. Wir hatten hier schon letzte Woche über eine entsprechende Zusammenarbeit von Intel und Symantec berichtet, laut dem Heise Newsticker existiert diese Zusammenarbeit allerdings schon des längeren.
Ein konkretes Produkt scheiterte bislang allerdings an Lizenzproblemen mit dem eigentlich als Betriebssystem für die Sicherheitslösung geplanten Windows CE. Um dem abzuhelfen, will man die Sicherheitsanwendungen nunmehr auf ein OpenSource-Betriebssystem portieren, womit wohl irgendeine Linux-Variante gemeint sein dürfte. Was man mit einem lachenden und einem weinenden Auge sehen kann: Zum einen wird es nun noch bis mindestens Mitte 2008 dauern, ehe Symantec mit seiner Sicherheitslösung für vPro fertig sein wird. Und zum anderen ist die Benutzung eines OpenSource-Betriebssystem für eine derart kritische Sicherheits-Infrastruktur generell die bessere Lösung - einmal abgesehen von der leicht ironischen Note, daß sich Microsoft hier offensichtlich freiwillig von einem potentiellen Zukunftsmarkt ausschließt.
Beste Chancen für die "Frechheit des Jahres" hat sich die GEZ "erarbeitet", indem man die Webseite Akademie.de dafür abmahnt, die allgemein gebräuchlichen Begriffe "GEZ-Gebühren", "PC-Gebühr", "Gebührenfahnder", "GEZ-Anmeldung" oder "GEZ-Abmeldung" zu verwenden. Begründet wird dies damit, daß diese Begriffe technisch falsch sind (die GEZ bezieht sich hiermit auf die offiziellen Bezeichnung, die allerdings kaum jemand so kennt) und daß die Nennung der "falschen Begriffe" nur dazu dienen würde, "ein negatives Image der GEZ hervorzurufen". Was spätestens durch die genannte Abmahnung erreicht sein dürfte ;). Wie sich Akademie.de demgegenüber verhalten wird, ist noch nicht ganz klar, für den Moment informiert man nur über das Thema und hat jenen Teil der Webseite, welcher sich (kritisch) mit der GEZ beschäftigt, gleich ganz vom Netz genommen.
Dabei wäre Akademie.de durchaus ein gewisser Konfrontationskurs anzuraten, um die Sache vor Gericht auszufechten und zu gewinnen. Die Chancen hierfür sind nämlich als ziemlich hoch einzuschätzen, denn die GEZ hat eigentlich überhaupt nichts vorzuweisen: Als faktische Behörde ist sie kein Wettbewerber am Markt und kann sich demzufolge auch nicht auf die entsprechenden Paragraphen der Wettbewerbsgesetzgebung beziehen, wonach Schmähungen und Falschdarstellungen zwischen Wettbewerbern nicht zulässig sind. Damit würde man noch nicht einmal prüfen müssen, ob die von Akademie genutzten Begriffe überhaupt den von der GEZ behauptete Tatbestand erfüllen. Im Fall des Falles dürften diese aber wahrscheinlich ebenfalls vor Gericht nicht durchkommen - schließlich werden diese Begriffe allgemein genutzt, womit sich ziemlich eindeutig ergibt, daß diese Begriffe "Meinung" und nicht "Schmähung" darstellen.
Gulli berichten über die neueste Piraterie-Studie der Contentindustrie, wonach der Musikindustrie im Jahr angeblich 12,5 Milliarden Dollar durch Piraterie verloren gehen würden und 71.000 Jobs nicht geschaffen werden könnten. Neben der seitens Gulli angemerkten kleinen Ironie, daß ja wenigstens die Jobs der Studien-Macher gesichert sein dürften, ist aber sicher noch folgender Punkt interessant: Wie kann eine nur mittelgroße Industrie im Jahr mit 12,5 Milliarden Dollar Einnahmenverlust überhaupt durchkommen? Jede andere Industrie in dieser Größenordnung würde mit großem Knall zusammenbrechen und danach Jahre des schmerzhaften Wideraufbaus benötigen. Daß solches bei der Musikindustrie nicht im Ansatz zu beobachten ist, kann wohl nur bedeuten, daß das Geschäft dieser Industrie nicht wirklich koscher verläuft - hier also ein deutliches Anzeichen auf die Ausschaltung des allgemein anerkannten Korrektivs in einer Marktwirtschaft (dem Markt) vorliegt ;).
Shortcuts: Die gestern genannten Daten zum RV670-Chip lassen sich nunmehr durch diese Tabelle im Prinzip als sicher bestätigen. Hard Tecs 4U haben mit AMD darüber gesprochen, daß die Top-Prozessoren von AMD immer noch in 90nm gefertigt werden. Als Grund hierfür gab AMD Kostengründe für die entsprechende Umstellung auf 65nm an - und inzwischen dürfte man die 65nm-Ressourcen sowieso eher für die K10-basierenden Prozessoren zurückhalten. Gemäß der Infoweek will Festplatten-Hersteller Seagate sich künftig auch dem Thema (reiner) Flashspeicher-Festplatten widmen. Was sicherlich nicht verkehrt ist, dürften doch Flashspeicher-Festplatten aufgrund des Preisverfalls von Flashspeicher in den kommenden Jahren aus ihrem derzeitigen Nischendasein herauswachsen, selbst wenn gewöhnliche Festplatten mittelfristig immer noch günstiger sein sollen.
Im Forum von 2K Games wird ein von einem User erstellter Patch angeboten, mittels welchem sich BioShock auch auf Shader 2.0 Grafikkarten (Radeon 9500 bis X850, GeForceFX) spielen lassen soll. Die PC Games Hardware hat sich hingegen nochmals genauer mit den Unterschieden zwischen DirectX9- und Direct3D10-Version von BioShock beschäftigt - und dann doch noch etwas gefunden ;). Währenddessen hat Gabe Newel von Valve laut dem Heise Newsticker die Entscheidung seitens Microsoft, Direct3D10 nur für Windows Vista zu ermöglichen, als Fehler bezeichnet. Und in der Tat bedeutet dies für die Spieleentwickler ein langes Warten darauf, bis sich Direct3D10 bei der installierten Basis durchsetzen wird. Und letztlich noch eine Korrektur zu den gestrigen News: Der dort erwähnte Core 2 Extreme X7900 ist natürlich ein DualCore-Modell. QuadCores im Notebook gibt es zwar bereits in Form eines sehr teuren Eurocom-Notebooks, hierbei werden allerdings gewöhnliche Desktop-Prozessoren verwendet, der Kühlaufwand hierfür dürfte also nicht gerade gering sein.
News des 22. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
The Inquirer berichten genaueres zum nVidia G92-Chip. Danach soll dieser in 65nm gefertigte Chip für das untere HighEnd-Segment auf Taktfrequenzen von 800 MHz und mehr kommen - was angesichts der Fertigung und wahrscheinlich etwas weniger Hardware-Einheiten als beim G80-Chip (GeForce 8800 Serie) nicht unwahrscheinlich ist. Zudem sollen G92-Boards wohl gleich konsequent mit DisplayPort-Anschlüssen ausgerüstet werden, um entsprechenden Anforderungen von OEM-Seite her (Dell) entsprechen zu können. Bezüglich des Supports von Direct3D 10.1 ist man sich bei The Inquirer noch nicht ganz sicher, hier könnte es weiterhin bei Direct3D10 bleiben - was natürlich für einen reinen Refresh-Chip der G8x-Serie auch keinen Beinbruch darstellen würde, zumal ATIs Direct3D-10.1-Lösung auch erst im Frühjahr ansteht (R7xx-Serie). Interessanterweise redet man zudem von einer Ultra-Version, welche erst dann releast werden soll, wenn sich ATI mit dem R680 offenbart hat - hier könnte es sich durchaus um den G90-Chip handeln.
Laut einer Information der VR-Zone soll der ATI R680-Chip ebenfalls auf Taktraten von über 800 MHz kommen - was aber auch benötigt werden wird, schließlich soll die Anzahl der Shader-Einheiten gegenüber dem R600-Chip nicht steigen. Eventuell tut ATI hier ja noch etwas an der Anzahl der Textureneinheiten, einer klaren Schwachstelle des aktuellen R600-Designs. Zudem sagt die VR-Zone aus, der R680 würde gar schon Direct3D 10.1 unterstützen - was aber vorerst unter starken Vorbehalten zu sehen ist, die Unterstützung für Direct3D 10.1 wurde bisher erst der R7xx-Generation zugeschrieben. Wie nVidias G92-Chip ist der R680-Chip zum Jahresende 2007 oder ganz am Anfang des Jahres 2008 zu erwarten.
Eine weitere Meldung der VR-Zone dreht sich um den ATI RV670-Chip, welcher zeitgleich mit dem R680-Chip antretend für das untere HighEnd- bzw. Performance-Segment gedacht ist. Danach soll der RV670 über ein 256 Bit DDR Speicherinterface verfügen, was schon bekannt war - und zudem über 320 Shader-Einheiten, soviel wie beim R600-Chip. Dies beißt sich allerdings etwas mit den Angaben zum R680-Chip von der gleichen Quelle, denn daß RV670 und R680 die gleiche Anzahl an Shader-Einheiten haben sollen, ist reichlich unwahrscheinlich - eine der beiden Angaben dürfte demzufolge nicht stimmen. Davon abgesehen soll der RV670-Chip unter dem Verkaufsnamen Radeon HD 2950 Pro in zwei taktunterschiedlichen Varianten den Markt erreichen: 750/900 MHz und 825/1200 MHz, letzteres mittels GDDR4-Speicher erreicht.
Leider wieder einmal einen Fehlschlag bezüglich der Direct3D10-Fähigkeiten ist bei dem mit viel Vorschusslorbeeren bedachten BioShock zu verzeichnen: Laut der PC Games Hardware erzeugt der DirectX9-Renderpfad des Spiels die gleiche Bildqualität wie der Direct3D10-Renderpfad, die ComputerBase spricht wenigstens noch von kleinen Unterschieden. Allerdings kostet dieser geringe Unterschied laut den Benchmarks der ComputerBase sowie denen der AMDZone sogar noch etwas Performance - ein Vorzeige-Beispiel für Direct3D10 scheint BioShock kaum zu werden. Was jetzt nichts gegen Direct3D10 an sich sagen soll, aber doch ausdrückt, daß die Durchsetzung von Direct3D10 auf der Spiele-Seite wohl länger dauern könnte als bisher angenommen.
Genaueres zu den Zufallsfunktionen des kürzlich schon erwähnten Shooters "Borderlands" hat der Heise Newsticker: Danach soll es eine enorme Vielzahl an Waffen geben (angeblich 500.000, wobei diese sehr hohe Zahl wohl nur durch sehr geringe Unterschiede zustandekommen kann) und sich zudem die Gegner auch jedesmals entsprechend anders verhalten (wird allerdings auch schon seit Jahren von den Spieleentwicklern versprochen), allerdings keine veränderlichen Levels. Über veränderliche Missionen, Gegenstände und Spielcharakter-Anpassungen, wie noch am Wochenanfang notiert, berichtete der Heise Newsticker nichts. Für den Erfolg des Zufallsprinzips in diesem Spiel wird natürlich ausschließlich der reale Spieleindruck relevant sein, nicht die technischen Ansetzungen.
Der Fall des Berliner Soziologen Andrej H., welcher unter Terrorismus-Verdacht kürzlich festgenommen wurde, köchelt nun schon seit einigen Tagen vor sich hin. Von Anfang an war dabei klar, daß die Vorwürfe der Staatsanwaltschaft unhaltbar waren, die unter äußerst fadenscheinigen Mutmaßungen der Ermittler konstruierte angebliche Mitgliedschaft in einer terroristischen Vereinigung sich als klar falsch herausgestellt hat. Laut dem Heise Newsticker wird dem auch international beachteten Fall nun noch die Krone aufgesetzt durch die Information, wie die Ermittler auf ihre Schlüsse gekommen sind: Danach hat eine einfache Google-Suche nach bestimmten, auch von einer (angeblich) terroristischen Gruppe benutzten Stichworten ausgereicht, um den Soziologen ins Visier der Ermittler zu bringen.
Wenngleich letzteres noch nicht sträflich ist, so ist die darauffolgende einjährige Überwachung inklusive Lauschangriff und kürzliche Festnahme wohl das eigentliche Ärgernis: Offensichtlich sind hier Teilen (?) von Staatsanwaltschaft und Polizei jegliches Maß verloren- und über all der Terrorhysterie der Kontakt zur Realität abhandengekommen. Für den Normalbürger muß hieraus leider die Lehre gezogen werden, daß man über strittige Themen im Internet eigentlich nur noch streng unter Wahrung der Anonymität schreiben kann. Ansonsten sollte man sich jederzeit dessen bewußt sein, daß übervorsichtige Ermittler keinerlei Probleme haben, selbst für noch so geringfügige Ansätze gleich die größtmöglichen Ermittlungsmethoden einzusetzen.
Shortcuts: Laut Hard Tecs 4U hat AMD auf der Games Convention sein Demo-System mit K10-basierendem QuadCore-Prozessor auf 3.0 GHz nochmals präsentiert. Intel zeigte hingegen laut nochmals Hard Tecs 4U seinen Mobile-Prozessor Core 2 Extreme X7900, welcher in Gaming-Notebooks verbaut werden soll. Normalerweise ist dieser Prozessor aufgrund eines freien Multiplikators und einer TDP von nur 44 Watt (bei immerhin 2.8 GHz und DualCore) eigentlich sehr interessant, zu einem Preis von 851 Dollar allerdings auch klar zu teuer. Von Fudzilla kommt die Information, daß gemäß Intel-Spezifikationen Grafikkarten-Kühler nicht mehr als 480 Gramm wiegen dürfen, was damit all zu aufwendige Kühlkonstruktionen und insbesondere die Verwendung schwerer Materialien wie Kupfer doch limitiert.
Laut der VR-Zone sind die abgespeckten R600-Lösungen Radeon HD 2900 GT und Pro im Zeitrahmen September/Oktober zu erwarten. Bei ExtremeMhz hat man sich die Overclocking-Fähigkeiten des Core 2 Quad Q6600 im G0-Stepping angesehen. Dabei erreichte dieser per default nur auf 2.4 GHz antretende Prozessor aus dem Stand heraus 3.4 GHz, mit Spannungszugabe und Wasserkühlung waren auch 4.0 GHz möglich - dies will Intel mit den Penryn-Prozessoren regulär erst im Laufe des nächsten Jahres erreichen. Das Daten-Chaos berichtet über einen weiteren Verbreitsweg des Bundestrojaners: Einfach an die Installations-CD eine ISPs anhängen und in den Briefkasten des Verdächtigen einwerfen. Was allerdings nicht einfach nur eine Idee darstellt, sondern wirklich so vorgekommen sein soll ;). Und letztlich noch zwei Korrekturen vorangegangener News: Der Anfang der Woche erwähnte Core 2 Duo E4600 hat natürlich schon 2.4 GHz Takt, nicht 2.2 GHz. Und gleichzeitig nennt Intel sein GPGPU-Projekt "Larrabee" mit zweimal "r" - und nicht "Larabee".
News des 21. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Laut dem Heise Newsticker hat Intel eine vollständig auf Raytracing basierende Computerspiel-Engine entwickelt und auf der Games Convention Developer Conference demonstriert. Dabei lieferte ein PC mit zwei QuadCore-Prozessoren eine Framerate von 127 fps ab, leider fehlt derzeit noch jegliche Aussagen zur erreichten Bildqualität der Intel-Engine. Entscheidender Punkt ist allerdings eher, daß Intel diese Engine den Spieleentwicklern wohl kostenlos zur Verfügung stellen wird und man ab 2009 mit dem Entwicklunsstart erster darauf basierender Spiele rechnet. Dies bedeutet, daß Intel sich in der Tat zukünftig stärker im Grafikgeschäft einbringen will - wenn das auch nicht unbedingt bedeuten muß, daß man dafür Grafikkarten zu verkaufen gedenkt.
Vielmehr ist der Ansatz von Intel als primär Prozessor-basiert zu betrachten, Intel redete hier sogar recht klar gegen gewöhnliche Grafikkarten als Raytracing-Beschleuniger. Denkbar ist natürlich trotzdem, daß Intel diese Raytracing-Engine mit dem eigenen GPGPU-Projekt "Larrabee" verbindet: Im Normalfall sollte die CPU reichen, für höhere Frameraten sowie die Zuschaltung von Zusatzeffekten wie Anti-Aliasing kommt dann die Grafikkarte in Zusammenarbeit mit der CPU zum Einsatz. Aber wie gesagt könnte diese Raytracing-Engine in erster Linie einen Angriff auf die Grafikkarten selber bedeuten: Sollte sich Raytracing über die CPU durchsetzen, würden zumindestens im LowCost- und Mainstream-Bereich extra Grafikkarten überflüssig.
Allerdings dürfte bis dahin noch jede Menge Zeit vergehen, Intel rechnet ja selber mit ersten entsprechenden Spielen nicht vor 2010. Hinzu kommt, daß sich dieses schließlich gänzlich andere Modell nicht so schnell durchsetzen lassen wird: Viele Spieleentwickler dürften wohl erst einmal abwarten, wie die ersten Ergebnisse sowohl bezüglich der Bildqualität der Spiele als auch bezüglich des Verkaufserfolgs ausfallen. Wie sich das Thema entwickeln wird, ist also noch lange nicht klar, womöglich handelt es sich hier nur um den ersten Schritt auf einem sehr langjährigen Weg. Daß es einen Punkt gibt, wo die gleiche Bildqualität mittels Raytracing mit weniger Hardware-Power erreichbar ist als mit gewöhnlicher Rasterizer-Grafik, ist zumindestens in der Theorie komplett klar - nur wann dieser Zeitpunkt kommt, läßt sich schwerlich voraussagen.
HardSpell berichten über den Start der Massenproduktion von GDDR5-Speicher bei den Speicherchip-Herstellern Samsung und Qimonda zum Anfang des Jahres 2008. Damit könnte dieser ebenso wie GDDR4 prinzipiell auf der DDR3-Technologie basierende Speicher bereits bei ATIs R7xx-Generation zum Einsatz kommen. Generell ist von GDDR5 eine schnelle Ablösung von GDDR4 zu erwarten, da GDDR4 die Erwartungen der Hersteller in Bezug auf eine geringe Leistungsaufnahme nicht hat erfüllen können und demzufolge derzeit auch nur bei wenigen Grafikkarten zum Einsatz kommt. GDDR3 hingegen dürfte allerdings - wie schon in einer Samsung-Roadmap zu entnehmen - noch mittelfristig im Markt als günstige Lösung für den LowCost-Bereich verbleiben.
Hard Tecs 4U berichten über ein sehr sparsames Mainboard seitens VIA, welches ausgestattet mit 512 MB Speicher, Festplatte, DVD-Player und VIA-Prozessor im Idle-Zustand insgesamt nur 24 Watt verbraucht. Obwohl dies schon eine recht griffige Größe darstellt, ist doch zu vermuten, daß der Hauptteil dieser Leistung an den VIA-Prozessor geht und weniger das Mainboard dafür verantwortlich ist. Interessanter für den Massenmarkt - und in diesem bislang sträflich fehlend - wären aber eher einmal Mainboards für gewöhnliche Desktop-Prozessoren, welche über eigene Stromsparfunktionalitäten verfügen. Gerade angesichts von einigen Desktop-Prozessoren, die selbst unter Last nur 20 bis 30 Watt (Leistungsmessungen von AMD-Prozessoren bzw. Intel-Prozessoren) verbrauchen, sind die 20 Watt Stromverbrauch einiger Mainboard-Chipsätze inzwischen viel zu hoch.
In den USA kommt es laut Gulli zu einem neuen interessanten Fall beim Thema "Urheberrechte & Kopierschutz". Danach hat der Nutzer einer Software zur Generierung von Gutscheinen herausgefunden, daß es durch das Löschen von Einträgen in der Windows-Registry möglich ist, der Software vorzugaukeln, es wäre noch keine Gutscheine gedruckt - worauf der Nutzer dann beliebig viele Gutscheine erzeugen konnte. Als er sich bei dem Anbieter der Software mit diesem Problem meldete, wurde er ironischerweise wegen der angeblichen Umgehung eines Kopierschutzes verklagt - was vor Gericht die Frage aufwerfen wird, wie weit gefaßt der Begriff des "Kopierschutzes" laut dem entsprechenden US-Gesetz DCMA nun wirklich ist. In Deutschland gilt theoretisch das Prinzip, daß der Kopierschutz "wirksam" sein muß, ehe dessen Umgehung einen Gesetzesbruch darstellt - in der Praxis ist das "wirksam" allerdings nirgendwo definiert.
Shortcuts: Bei PC Perspective hat man sich die Unterschiede angesehen, welche bei Ghost Recon: Advanced Warfighter 2 zugunsten der Physikbeschleuniger-Karte PhysX von Ageia eingebaut wurden. In den normalen Levels ist die Differenz wiederum recht gering, während das Spezial-Level "Ageia Island" (ohne PhysX nicht darstellbar) dann deutlich zeigt, was in den PhysX-Karten stecken kann. Passend zu der (allerdings auch nicht mehr neuen) Drohung von Crytek, im Fall eines "Killerspiele"-Verbots in Deutschland samt Arbeitsplätzen und Millionenumsatzes ins Ausland abzuwandern, hat das ZDF - gestützt natürlich durch unsere satten Gebührengelder - erneut zugeschagen und die Ergebnisse der jüngsten Studie des Kriminologischen Forschungsinstituts Niedersachsens (KFN) zu einer weiteren TV-Sendung zum Thema "Killerspiele" verwurstet - völlig egal der Zweifelhaftigkeit dieser Studie bzw. des KFNs allgemein.
News des 20. August 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Seitens HKEPC und der PC Games Hardware gibt es erste Tests zum Athlon 64 X2 6400+, dem derzeit schnellsten Desktop-Prozessor von AMD mit immerhin 3.2 GHz Takt. Trotz der Takterhöhung hat es AMD natürlich trotzdem schwierig, gegenüber Intel zu bestehen, allerdings ist der Abstand nun nicht mehr so deutlich wie teilweise noch in der Vergangenheit. Vielmehr kann AMD mit dem Athlon 64 X2 6400+ immerhin die Performance des Core 2 Duo E6750 (2.66 GHz) erreichen - welcher wenigstens der zweitschnellste DualCore-Prozessor von Intel für das Desktop-Segment ist. Unter Spielen liegt das AMD-Modell allerdings abweichend zum Rest der Benchmarks auch gegenüber dem E6750 zurück, hier kommt man nur auf das Niveau eines Core 2 Duo E6550 (2.33 GHz).
The Inquirer deuten ein wenig durch die Blume an, die für das Ende des Jahres 2008 anstehende neue Nehalem-Prozessorenarchitektur seitens Intel könnte im Desktop-Segment nicht auf den integrierten Speichercontoller CSI (Common System Interface) setzen, sondern wieder auf einen externen Speichercontroller im Mainboard-Chipsatz. Dies schließt man daraus, daß Intel die entsprechenden Mainboard-Chipsätze doch wieder mit einem Speichercontroller ausrüsten will und aus der geringeren Anzahl an Pins bei den Sockeln für die Desktop-Prozessoren. Nichts desto trotz steht diese Vermutung auf eher tönernen Füßen, denn erstes würde Intel mit einer solchen Vorgehensweise Performance verlieren und zum anderen müsste der Prozessor dann extra noch ein FrontSideBus-Interface tragen, um mit dem Mainboard-Chipsatz zu kommunizieren.
Dabei lassen sich die von The Inquirer genannten Anhaltspunkte auch anders erklären: Das extra Speicherinterfaces im Mainboard-Chipsatz ist natürlich für die integrierte Grafiklösung gedacht, welche ihren Speicherzugriff schließlich schlecht über den Umweg der CPU erledigen kann. Und die geringere Anzahl an Pins der Desktop-Sockel erklärt sich daraus, daß Intel wie schon verlautbart das integrierte Speicherinterface der Nehalem-Architektur je nach Einsatzzweck beschneiden wird: Während den Server-Modellen sowie den Extreme-Modellen des Desktop-Segments (haben denselben Sockel) die vollen drei Channels des Speicherinterfaces zur Verfügung stehen werden, ist es gut möglich, daß die gewöhnlichen Desktop-Modelle nur zwei Channels bekommen, womit auch automatisch ein gewisser (seitens der Prozessorenbauer angestrebter) Performance-Unterschied zwischen diesen Prozessoren herrschen würde.
Seitens Intel gibt es nun endlich einen Treiber für den GMA X3000 Grafikchip der G965 Mainboard-Chipsätze, welcher Hardware T&L sowie Vertex Shading beherrscht und damit endlich alle (?) Features dieses Grafikchips ausnutzen sollte - rund ein Jahr nach dem Release des entsprechenden Mainboard-Chipsatzes wird es auch endlich Zeit. Auf der anderen Seite zeichnet sich mit dem neuen integierten Grafikchip GMA X3500 im G35 Mainboard-Chipsatz ein ähnliches Drama ab, da dessen Direct3D10-Fähigkeiten sich erst mit einem Treiberupdate im Jahr 2008 erschließen lassen sollen. Es ist wirklich erstaunlich, wie nachlässig Intel über einen so langen Zeitraum bei den Treibern für die integrierten Grafikchips ist - und wie wenig das den Markt interessiert, wo die entsprechenden Chipsätze und Mainboards trotzdem verbaut und verkauft werden. Dies kann faktisch nur bedeuten, daß (außer Hardware-Testern) niemand mit diesen integrierten Grafikchips wirklich ein Spielchen wagt.
Womit sich wiederum die Frage in den Raum stellt, wieso sich all die Entwickler dieser integrierten Grafikchips bei der Performance und vor allem den Transistoren-fressenden Features (Intel zuerst mit einem ersten unified Shader Grafikchip aka GMA X3000, jetzt mit einem ersten Direct3D10-Grafikchip aka GMA X3500) so zu übertrumpfen versuchen. Wenn es egal ist, daß der klar größte Anbieter von integrierten Grafikchips bei seinem letztjährigen Spitzenprodukt über ein Jahr unvollständige Treiber hatte und dasselbe nun beim diesjährigen Spitzenprodukt wiederum droht, dann ist die 3D-Performance und 3D-Featurepalette bei den integrierten Grafikchips offensichtlich völlig egal. Womit den Entwicklern dementsprechend einfachere Chips zu geringeren Kosten anzuraten sind, alternativ könnte man ja mehr Wert auf gute Alltagstauglichkeit bezüglich Video-Dekodierung und einer besseren 2D-Bildqualität legen - letzteres wäre primär dadurch zu lösen, daß die Mainboard-Hersteller endlich einmal auch für integrierte Grafikchips digitale Ausgänge zur Verfügung stellen.
Golem berichten über eine Idee seitens HP, Dokumente weltweit ausdruckbar zu machen. Dazu sollen diese Dokumente auf öffentlich verfügbaren Druckern mit Internetanschluß gedruckt werden, die Steuerung erfolgt über das Handy des Dokumenten-Besitzers. Prinzipiell hört sich das nicht einmal verkehrt an, allerdings bestehen arge Bedenken ob der Sicherheit eines solchen Systems, wenn es über Handys koordiniert wird. Auf aktuellen Handys laufen immer mehr ausgewachsene und dementsprechend komplizierte Betriebssysteme, ohne aber das die Hersteller besondere Anstrengungen bezüglich der Software-Sicherheit unternehmen. Daß Handys nicht schon längst massenhaft von Schädlingssoftware okkupiert sind, hängt noch an der relativen Neuheit dieser Entwicklung - und daran, daß auf diesen bislang nicht viel zu holen gibt. Je mehr interessante Dienste aber auf Handys verfügbar werden (ganz besonders bei Internet-fähigen Handys), desto drängender werden Sicherheitsfragen auch auf diesen Geräten.
Mal wieder die "Revolution" im Spielebereich verspricht Gearbox für ihren neuen Shooter "Borderlands". Dieser soll eine fast endlose Zahl an Variationen von Missionen, Umgebungen, Feinden, Gegenständen und Spielcharakter-Anpassungen generieren können, womit die Langzeitmotivation und der Wiederspielwert gestärkt werden soll. Wie genau dieses Zufallssystem ausgeführt ist, bleibt allerdings momentan im unklaren. Frühere Versuche beispielsweise bei Soldier of Fortune II gingen eher daneben - in jenem Fall handelte es sich allerdings nur um ein Zusatzfeature, welches für das eigentliche Spiel ohne Bedeutung war. Sollte Gearbox hier mehr wollen (nämlich die Einbindung eines Zufallssystems ins normale Spiel), dann steigen natürlich auch die Anforderungen - und die Skepsis, ob dies denn mit einem sinnvollen Ergebnis realisierbar sein wird.
Auf der anderen Seite ist auch klar, daß Zufallssysteme sowie irgendwann einmal Einzug in die Spielgestaltung nehmen werden. Insbesondere bei Online-Shootern dürfte dies den nächsten logischen Evolutionsschritt darstellen, schließlich bringt eine jedesmal minimal abgeänderte Map den unschätzbaren Vorteil mit sich, daß man sich nicht mehr stoisch auf jeden Milimeter einer Map einstellen kann, sondern (wie in der Realität) mit Grundkenntnissen der jeweiligen Map ausgerüstet auf die konkret vorgefundene Umgebung jedesmal neu einstellen muß. Ob die Zeit dafür inzwischen reif ist, bleibt aber noch abzuwarten, schließlich sind die technischen Anforderungen hierfür (on-the-fly-Generierung einer zufälligen, aber immer noch sinnvollen Map, bei Online-Spielen zusätzlich Übertragung an alle Mitspieler ohne größere Download-Verzögerung) nicht gerade gering.
Shortcuts: Bei der Overclockers Workbench gibt es ein erstes Preview zu nVidias MCP73 Mainboard-Chipsatz mit integrierter Grafiklösung für Intel-Prozessoren, welcher als Verkaufsnamen dann wohl "GeForce 7050" tragen wird. Die Performance liegt ziemlich exakt gleichauf zu Intels GMA X3000 im G965 Mainboard-Chipsatz, womit nVidia bei passendem Preis Intel durchaus Marktanteile auf dem sehr großen Markt von Mainboard-Chipsätzen für Intel-Prozessoren abjagen könnte. Gemäß Reg Hardware wird Intel zum Ende dieser Woche den Pentium E2180 mit 2.0 GHz vorstellen und in exakt zwei Monaten den Core 2 Duo E4600 mit 2.4 GHz. Beide LowCost-Prozessoren zeichnen sich durch (gemessen am Preis) guten Leistungen aus und sind zudem aufgrund des FSB800 für alle Fälle interessant, wo das eigene Mainboard keinen höheren FrontSideBus zuläßt.