News-Archiv 15. - 21. Januar 2007 (3. Kalenderwoche)
20./21. Januar 19. Januar 18. Januar 17. Januar 16. Januar 15. Januar
News des 20./21. Januar 2007 |
In ihrer üblichen blumigen Sprache beschreiben The Inquirer die vier sich aus dem R600-Chip wahrscheinlich ergebenden Grafikchip-Varianten. Den Anfang macht hier eine Radeon X2800 XTX (ob ATI diese Grafikkarten-Serie wirklich Radeon X2800 nennt, ist noch nicht heraus, nehmen wir aber einfach einmal an), welche über den größten Speicherausbau (1 GB) sowie die höchsten Taktfrequenzen der Serie verfügen wird (beim Speichertakt bis zu 1200 MHz GDDR4), gleichzeitig aber auch mit 30cm Länge eine deutliche Übergröße aufweist. Die bisherige Berichterstattung zu diesem Fall sagte aus, daß ATI auch gleichartige Karten in geringerer Baugröße (23cm) fertigen wird, laut The Inquirer wird die XTX-Ausführung aber ausschließlich in diesen Abmaßen daherkommen ...
... Dies läßt natürlich Raum für Spekulationen, daß diese Karte zu den von ATI angesetzten Taktfrequenzen wirklich eine solche große Platinen benötigt, um zum einen genügend Platz für die ganzen Stromwandler zu haben und zum anderen die entstehenden Abwärme ausreichend auf drt Platine zu verteilen, sprich: Die höchste Ausführung des R600-Chips könnte durchaus ein extremer Stromfresser sein, dessen Taktfrequenzen zudem "hart auf Kante" gebaut sind. Zudem dürfte natürlich klar sein, daß eine solche Grafikkarte, welche in Abmessungen dann mit der einstigen GeForce 7900 GX2 vergleichbar ist, nicht in jedem Gehäuse Platz finden dürfte - wenn ATI die XTX-Ausführung alleinig in dieser Bauform veröffentlicht, könnten also einige Interessenten glatt außen vor bleiben ...
... Die drei anderen Ausführungen des R600-Chips sollen dann allerdings auf standardmäßige Platinen mit einer Baulänge von 23cm passen - was zwar immer noch sehr groß ist, im Vergleich zu anderen heutigen HighEnd-Karten allerdings inzwischen auch wieder als normal angesehen werden muß. Die zweithöchste Variante wird dann eine Radeon X2800 XT sein, welche es in Ausführungen mit 512 MB und 1 GB GDDR4 geben wird und primär wohl etwas niedrigere Taktfrequenzen gegenüber der XTX-Version aufweisen wird - wie auch schon auf aktuellen XT- und XTX-Karten seitens ATI. Noch weiter darunter gibt es die Radeon X2800 XL, zu welcher The Inquirer jedoch nichts genaues sagen konnte ...
... Schaut man sich allerdings die ATI-Historie bezüglich Grafikkarten mit dem Suffix "XL" an, so ist darunter eine deutlich niedriger getaktete Variante mit wahrscheinlich auch nur 512 MB Grafikkartenspeicher zu erwarten - womöglich gar auch in Varianten mit nur 256 MB Speicher. Und als kleinste der vier R600-Ausführungen soll dann noch die Radeon X2800 GT daherkommen, auch zu dieser liegen derzeit keine Daten vor. Wiederum abgeleitet von der bisherigen Benutzung des "GT"-Suffixes durch ATI kann man aber annehmen, daß es sich hierbei um eine R600-Variante mit deaktivierten Hardware-Einheiten handelt. Zudem dürften die Taktfrequenzen ebenfalls entsprechend niedrig sein, beim Speicher wird es hier beispielsweise nur GDDR3 geben ...
... Bezüglich der Kühllösungen sprechen The Inquirer davon, daß ATI bei den R600-Varianten "auch" eine SingleSlot-Lösung entwickelt hat, führen das jedoch nicht genauer aus. Zu vermuten steht diesbezüglich, daß die größeren Karten XT und XTX ausschließlich als DualSlot-Lösung zu haben sein werden, eine SingleSlot-Lösung wäre wohl für die XL denkbar - kommt aber eventuell auch nur bei der GT. Sollten diese Angaben prinzipiell stimmen, würde ATI mit einem doch recht breiten Angebot an R600-Varianten in den Markt gehen - was aber sicherlich auch dem derzeitigen Vorsprung von nVidia bezüglich Direct3D10-Beschleunigern geschuldet ist. Damit wird ATI aber vom Start weg nicht nur das HighEnd-Segment, sondern zumindestens auch das obere Mainstream-Segment mit bedienen können, da eine Radeon X2800 GT sicherlich nicht mehr als 300 Dollar Listenpreis wert sein dürfte.
neuer Artikel |
Vor mehr als sechs Jahren, am 15. Dezember 2000, endete eine Ära: Der Pionier gefilterter Polygonbeschleunigung am PC schloss seine Pforten. Hauptkonkurrent nVidia übernahm 3dfx mitsamt aller Patente und Technologien für 112 Millionen Dollar. Aus, Schluss, vorbei - ein schwarzer Tag für die bis dahin große Community. Doch eines blieb zu klären: Hätte der Abschied auch mit einem Knall vonstatten gehen können?
Dieser Artikel widmet sich der Beantwortung eben dieser Frage. Gegenstand der Betrachtung ist die schnellste Grafikkarte der Voodoo5-Serie, ein Relikt längst vergangener Tage. Die Rede ist natürlich von der Voodoo5 6000 AGP, dem nie offiziell erschienenen Meisterstück der 3dfx-Entwicklung ... zum Artikel
News des 19. Januar 2007 |
Wie Hard Tecs 4U berichten, will Intel seine aggressive Preispolitik im LowCost- und Mainstream-Segment auch 2007 fortsetzen, wonach schon bis zum dritten Quartal die Dual- und QuadCore-Modelle 80 Prozent des Umsatzes ausmachen sollen. Gleichzeitig sollen die Prozessoren der älteren Netburst-Architektur über das Jahr hinweg aus dem Angebot und dann auch aus den Lägern verschwinden - garniert natürlich vorher mit entsprechenden Preisnachlässen. Die bisher schon erfolgten haben letztlich aber auch dazu geführt, daß bei Intel der durchschnittliche Prozessorenpreis von einstmals 180 bis 200 Dollar auf nun nur noch 100 bis 120 Dollar gefallen ist, was sich dann letztlich auch in den jüngsten Geschäftszahlen niederschlägt ...
... Allerdings bleibt es fraglich, ob die hohen Durchschnittspreise der Vergangenheit für Intel jemals wieder zu erreichen sind: Erstens einmal ist (im Vergleich zu vor 10 Jahren) mit AMD ein nunmehr ernsthafter Konkurrent erwachsen, der selbst wenn er derzeit im HighEnd-Segment nicht wirklich mit Intel konkurrieren kann, in den anderen Marktsegmenten Intel dennoch immer Umsatz und vor allem Margen wegnimmt. Und zum anderen passt sich die Preisentwicklung letztlich auch den Leistungsanforderungen der Kundschaft an: Und da ist es nun einmal so, daß für die meisten Computer-Nutzer ein Prozessor der niedrigeren Preissegmente komplett ausreichend ist - insbesondere die Core 2 Duo Serie ist ja so potent, daß auch das allerkleinste Modell schon für erstklassige Leistungen steht. Insofern wird sich Intel wohl darauf einstellen müssen, daß die Prozessorenpreise auch unabhängig der Konkurrenz von AMD auch langfristig nicht so einfach nach oben zu reissen sein werden.
Den eher sehr seltenen Vergleich vom AMD Sempron und Intel Celeron D im absoluten LowCost-Segment haben Hardware Secrets angetreten. Natürlich geht AMD in diesen Vergleich mit einem gewissen Vorteil, basieren doch die aktuellen Semprons bereits auf der Athlon 64 Linie, während bei den aktuellen Celerons immer noch die Netburst-Architektur des Pentium 4 ihr Unwesen treibt. Somit überrascht es nicht besonders, wenn der Sempron 3000+ (1.8 GHz) dem Celeron D 331 (2.66 GHz) in fast allen Benchmarks weit überlegen ist: Derzeit ist AMD für dieses Preissegment die klar bessere Wahl, wird Intel erst dann wieder angreifen können, wenn man im zweiten Quartal die bei den Core 2 Duo Prozessoren benutzte Architektur auch in Celeron-Gefilde überträgt.
Intel bietet neuerdings eine Ice Storm Fighters Game Technology Demo zum Download an, mittels welcher man sich vom Vorteil von QuadCore-Prozessoren unter Spielen überzeugen lassen kann. Allerdings handelt es sich hierbei nicht um die Demo eines real irgendwann erscheinenden Spiels, sondern nur um eine seitens Futuremark extra für Intel erstellte Software. Wie hoch der Nutzen von QuadCore-Prozessoren also selbst bei auf diese Prozessoren angepasster realer Software ist, läßt sich also auch mit dieser Technologie-Demo nicht vorhersagen. Davon abgesehen wären sicherlich Erfolgsmeldungen bezüglich zukünftiger auf QuadCore-Prozessoren angepasster Game-Engines hilfreicher, um QuadCore auch als Spiele-Prozessor positionieren können. Die Technolgie-Demo selber ist leider nur eine Demonstration dessen, was (maximal) möglich wäre - und nicht dessen, was der QuadCore-Käufer an verfügbarer Software zu erwarten hat.
Wie Gulli berichten, sollen nach Vorstellungen der International Federation of the Phonographic Industry (IFPI) künftig die Internet Service Provider gegen die Tauschbörsen-Fans unter ihren Kunden selbstätig (in Form von Kündigungen) vorgehen. Bislang wehren sich die Provider noch tapfer gegen solcherart Ansinnen - auch weil eine Einzelkontrolle nicht möglich ist und man wenn dann nur Tauschbörsen generell aus dem eigenem Leistungsangebot ausschließen müsste (was aber technisch letztlich immer umgehbar ist). Es bleibt nur zu hoffen, daß die Provider hier in ihrer Abwehrhaltung standhaft bleiben: Denn rein rechtlich hat die IFPI keine Chance mit ihrer Idee, aber man kann die Provider durchaus mit millionenschweren Klagen bedrohen - und die Provider sind auch nur Wirtschaftsunternehmen und entscheiden sich somit letztlich immer für diesen Weg, welcher die geringsten Kosten verursacht.
Shortcuts: Auch wenn es breit berichtet wird, ist es eine Fehlmeldung: Die Gesetzesinitiative des US-Bundesstaates New York bezüglich "Killerspielen" sagt nicht aus, daß erst Personen ab 31 Jahren solcherart Spiele erstehen sollen dürfen, sondern schlicht nur, daß für erkennbar unter-30-Jährige die Abgabe nur nach Altersnachweis erfolgen darf. Hiermit handelt es sich also nur um eine Durchsetzung der bestehenden Altersfreigaben, an den Altersfreigaben selber ändert sich aber nichts. Wie der Heise Newsticker berichtet, gibt es den (eh schon seiten AMD nicht offiziell vermarkteten) Athlon 64 X2 3600+ nun gleich doppelt: Einmal in der bisherigen Ausführung mit 2.0 GHz Takt und 2x256 kByte Level2 Cache und neuerdings auch mit 1.9 GHz Takt und 2x512 kByte Level2 Cache, wobei letztere Variante wohl gleich in 65nm daherkommt.
News des 18. Januar 2007 |
Die DigiTimes berichtet von steigenden Bestellungen seitens ATI und nVidia beim jeweils wichtigsten Produktionspartner der beiden Grafikchip-Entwickler, dem taiwanesischen Halbleiter-Hersteller TSMC. Aus diesen Angaben läßt sich auch ziemlich verläßlich (weiterer ungeplante Verzögerungen ausgenommen) erkennen, wann die kommenden Direct3D10-Grafikchips denn nun wirklich den Markt erreichen werden: Den Anfang wird wohl der R600 HighEnd-Chip von ATI (möglicherweise Radeon X2800) mit einem Verkaufsstart im März machen. Dann sollen allerdings erst im Juni die nVidia-Chips G84 (LowCost, GeForce 8300) und G86 (Mainstream, GeForce 8600) nachfolgen, selbst wenn diese schon im April vorgestellt und auf der CeBIT im März erstmalig gezeigt werden würden ...
... Im Juli sollen darauf dann die ATI-Counterparts folgen: RV610 für den LowCost-Markt (teilweise auch R610 genannt, womöglich Radeon X2300) und RV630 für den Mainstream-Markt (teilweise auch R630 genannt, womöglich Radeon X2600). Bislang nur fehlend in dieser Aufstellung ist der für das Frühjahr/Sommer geplante Refresh des G80-Chips - wobei es hier durchaus möglich ist, daß nVidia den eigentlichen Refreshchip erst viel später im Jahr bringt und sich im Frühjahr als Antwort auf den R600-Chip von ATI einfach mit einer höher getaktete GeForce 8800 (GeForce 8900?) begnügt. Eine solche neue Variation des G80-Chips wäre dann in etwa demselben Zeitrahmen wie der R600-Chip zu erwarten: Der Launch dürfte kurz nach dem des R600-Chips erfolgen (nVidia muß natürlich dessen finale Taktfrequenzen abwarten), die Auslieferung könnte dann schon im April starten.
Das gestern erwähnte Bundle von AMD-Prozessoren und ATI-Grafikkarten beim US-amerikanischen Online-Händler Newegg ist laut Hard Tecs 4U eine Fehlmeldung seitens The Inquirer - zumindestens wenn es darum geht, daß dies etwas besonderes darstellen soll. Denn zwar bietet Newegg entsprechende Bundles an, dies jedoch aber auch in anderen Herstellerkombinationen - wie AMD-Prozessor und nVidia-Grafikkarte. Insofern scheint es sich um Aktionsangebote rein von Newsegg zu handeln, ein Mitwirken von AMD/ATI ist hier nicht zu sehen. Wie gestern schon angeklungen, ist solches seitens AMD eher nur im OEM-Markt zu erwarten - dort könnte es allerdings wirklich zu Bundle-Angeboten von Prozessor, Mainboard-Chipsatz und Grafikchip kommen.
Wie der Tech Report berichtet, hat der seitens Intel auf dem letzten IDF angekündigte Prototyp eines 80-Core-Prozessor nur eine Verlustleistung von 100 Watt und eine Fläche nur minimal größer als der eines aktuellen QuadCore-Prozessors. Beides könnte zwar zum Teil auch dem Umstand von geringeren Taktfrequenzen als in der (zukünftigen) Serienversion sowie eines möglicherweise geringeren Anteils an Level2-Cache an der Die-Fläche geschuldet sein, generell wird jedoch damit die Entwicklungsrichtung klar, welche Intel für die langfristige Zukunft (ca. 10 Jahre) anstrebt: Die Anzahl der Kerne wird dann wirklich dem Begriff "MultiCore" gerecht, dafür werden die einzelnen Kerne aber für sich nicht mehr so komplex sein wie heute noch ...
... Schließlich handelt es sich bei heutigen Dual- und QuadCore-Prozessoren noch um Modelle, welche einfach aus der Verdopplung bzw. Vervierfachung von SingleCore-Prozessoren entstanden sind und oftmals software-technisch auch noch als SingleCore-Prozessoren arbeiten müssen. Mit diesem Ansatz sind natürlich keine echten MultiCore-Prozessoren machbar, dies würde nur in ineffizienten und damit unökonomischen Transistorenmonstern resultieren. Dies verspricht erst mit entsprechend angepasster Software erfolgreich zu sein - weshalb Intel einen solchen Prozessor schließlich auch erst runde 10 Jahre in der Zukunft sieht. Sollte die Software-Seite jedoch stehen, können die einzelnen Cores wirklich schrumpfen, während dann die Anzahl derer steigt ...
... Dies dürfte in erster Linie Entwicklungskosten sparen: Solcherart Prozessoren dürften dann mehr und mehr heutigen Grafikchips ähneln, deren riesige Transistorenmengen schließlich auch nur machbar sind, weil bei den Grafikchips die meisten Hardware-Einheiten in vielfacher Ausfertigung vorhanden sind (aber nur einmal entwickelt werden müssen). Zudem dürfte man mittels solcher MultiCore-Prozessoren auch gleichzeitig die den ersten MultiCore-Prozessoren nachfolgende Entwicklung anstossen, welche sich derzeit schon schwach am Horizont abzeichnet: MultiCore-Prozessoren mit differenzierenden Kernen für verschiedene Aufgabengebiete. Zu einem in vielleicht 15 Jahren verkauften Prozessor könnten dann 100 Standard-Kerne sowie 30 Kerne für Spezialaufgaben wie Audio/Video-De/Komprimierung, Verschlüsselung, Standard-Grafikausgabe, Standard-Soundausgabe, ZIP-Beschleunigung oder ähnlichem gehören.
Wie u.a. Hard Tecs 4U berichtet, hat die Gesellschaft für musikalische Aufführungs- und mechanische Vervielfältigungsrechte (GEMA) gegenüber dem Download-Dienst Rapidshare einen juristischen Teilsieg errungen. Allerdings geht es der GEMA letztlich nicht um die Einstellung oder Vollkontrolle dieses Dienstes, vielmehr will man zukünftig an diesem Mitverdienen - wie schon kürzlich auch die europäischen Verwertungsgesellschaften ähnliche Ansinnen gegenüber YouToube & Co. anbrachten. Sollten sich die Verwertungsgesellschaften mit ihren Vorhaben durchsetzen und die genannten Dienste zum Abschluß entsprechender Verträge drängen können, würde dies allerdings auch bedeuten, daß jene vollständig legalisiert würden - da sich die Verwertungsgesellschaften ausschließlich mit dem Eintreiben von Beträgen resultierend aus mittels des Rechts auf Privatkopie entstandener legaler Kopien beschäftigen.
News des 17. Januar 2007 |
Einen sehr umfangreichen Artikel zur GeForce 8800 GTS und GTX haben Hard Tecs 4U abgeliefert. Interessant sind an diesem vor allem einige eher selten anzutreffende Einzeltests: So ergab eine Messung zwischen den Filterstufen "Quality" und "High Quality" auf der GeForce 8800 GTX eine Leistungsdifferenz von kaum wertbaren 0,6 Prozent. Dies dürfte natürlich auch damit zusammenhängen, daß die genannten Filtermodi auf dem G80-Chip eine andere Bildqualität erzeugen als bei den G7x-basierenden Grafikkarten - so erreicht der "Quality" Modus auf einer G80-Grafikkarte knapp dieselbe Bildqualität wie der "High Quality" Modus auf einer G7x-Grafikkarte ...
... Sehr interessant sind dann die Ausführungen zum Overclocking des G80-Chips: Danach basieren die beim Übertakten "springenden" Takte des G80-Chips auf einem festeingestellten Basis-Takt von 27 MHz, welcher dann nur mit ganzzahligen Multiplikatoren und Teilern erhöht werden kann. So ergibt sich der Chiptakt der GeForce 8800 GTX aus der Rechnung "27 MHz * 64/3 = 576 MHz". Damit wird natürlich auch erklärt, wieso MegaHertz-genaues Übertakten beim G80-Chip nicht möglich ist - der Chip sucht sich immer zur eingestellten Taktfrequenz den jeweils nächstliegenden (gemäß der internen Rechnung) herstellbaren Wert. Ähnlich reagiert zudem der Shader-Takt, welcher sich (mit den aktuellen Treibern) im Verhältnis von 1:2,3 an den Chiptakt bindet.
Ein paar Benchmark-Werte der Gainward GeForce 7800 GS "Goes Like Hell" AGP mit GeForce 7900 GT Grafikchip gegen die neue Radeon X1950 Pro auf AGP findet man in der letzten PC Games Hardware - oder alternativ in unserem Forum. Im Gegensatz zu dem dort gesagten muß allerdings darauf hingewiesen werden, daß diese Gainward-Karte trotz des GeForce 7900 GT Grafikchips nur über 20 aktive Rendering-Pipelines verfügt - nur die Gainward Bliss GeForce 7800 GS+ besitzt die vollen freigeschalteten 24 Rendering-Pipelines. Nichts desto trotz weisen die Benchmarks der PC Games Hardware klar in die Richtung, daß die Radeon X1950 Pro die bessere Wahl auch gegenüber der 24-Pipelines-Karte ist - und letztlich ist die Radeon X1950 Pro auch noch deutlich günstiger zu bekommen als die mittlerweile etwas überteuerten Gainward-Karten.
Gemäß Hard Tecs 4U wird das AMD Fusion Projekt erst Ende 2009 käuflich zu erwerben sein, womit es sich gegenüber dem bisher geplanten Start von Ende 2008 um ein glattes Jahr verschiebt. Hinter Fusion verbirgt sich die Integration von CPU und Grafikchip auf einem Trägermaterial - hierzu wurde nochmals betont, daß dies keinen Ersatz für HighEnd-Lösungen darstellen soll, sondern hauptsächlich für den Einsatz in Notebooks gedacht ist. Davon abgesehen könnte diese Verschiebung Intel wohl noch am meisten gefallen, hat man somit doch ausreichend Zeit gewonnen, die eigenen diesbezüglichen Anstrengungen (insbesondere beim Ausbau der eigenen Grafikchip-Kapazitäten) in ein entsprechendes Konkurrenzprodukt zu AMDs Fusion umsetzen zu können.
Laut The Inquirer gibt es in den Vereinigten Staaten beim bekannten Online-Händler Newegg erste Bundle-Angebote aus AMD-Prozessor und ATI-Grafikkarte, welche insgesamt billiger als die Einzelkomponenten sein sollen. Dies kommt etwas unerwartet, weil solche Angebote zuerst einmal nur im OEM-Markt zu erwarten sind (und dort womöglich auch schon existieren), wo sich auch die größten Vorteile für beide Seiten aus einer solchen Angebotsstruktur ergeben. Für den Retail-Markt sollte dies allerdings deutlich schwieriger zu realisieren sein, weil dort schließlich nicht AMD als Hersteller des Grafikchips auftreten kann, sondern die Grafikkarten-Hersteller als eigenständige Marktteilnehmer. Insofern bleibt stark abzuwarten, ob sich das ganze nicht doch eher als kurzfristige Aktion herausstellt - im Zweifelsfall dürfte ein solches Geschäftsverhalten sowieso noch die Wettbewerbshüter interessieren.
Gemäß der VR-Zone werden die kommenden Intel-Chipsätze der Bearlake-Familie die Pentium 4/D Prozessoren teilweise trotzdem unterstützen, wenngleich nur inoffiziell. Das zugrundeliegende Problem ist dabei schlicht, daß Intel wegen der sparsamen Core 2 Duo Prozessoren die Verlustleistung für die Mainboard-Richtlinien für die Bearlake-Chipsätze nicht mehr so hoch spezifizieren muß, womit die stromfressenden Pentium 4/D Prozessoren Spezifikations-technisch automatisch draußen bleiben. Die Chipsätze P35 und G35 werden allerdings auch Prozessoren mit einer TDP von 105 Watt tragen können, worunter die meisten der alten Pentium 4/D Modelle passen - der Chipsatz X38 soll sogar mit Prozessoren mit einer TDP von 130 Watt zurechtkommen. Daneben können die Mainboard-Hersteller diese Spezifikationen natürlich auch übererfüllen, womit das Betreiben eines Pentium 4/D auf einem Bearlake-Mainboard zwar eine gewisse vorherige Rechere-Arbeit voraussetzt, aber doch prinzipiell möglich sein wird.
Shortcuts: Bei Phoronix hat man sich die Bildqualität von ATI- und nVidia-Grafikkarten unter Spielen sowie der Filmwiedergabe speziell unter Linux angesehen. Wie bei ähnlichen Tests unter den Microsoft-Betriebssystemen ergaben sich dabei in der Summe eher nur minimale Unterschiede. Gar fein ironisches weis der Heise Newsticker über eine von der Filmindustrie gesponsorten Webseiten gegen "Internet-Piraterie" zu berichten: Danach wurden dort regelmäßig komplette News-Beiträge anderer Webseiten (teilweise ohne Quellangaben) weiterverbreitet, während man auf entsprechende Mahnungen der Urheber bislang überhaupt nicht reagiert (wenn das Otto Normalsurfer macht, wird es unangenehm und zudem sehr teuer). Und letztlich gibt es bei der Telepolis eine Aufstellung, welche der deutschen Flatrate-Anbieter das seinerzeitige Urteil zum Datenschutz bei Flatrate-Verbindungen umgesetzt und dementsprechend die Verbindungsdaten ihrer Kunden umgehend löschen.
News des 16. Januar 2007 |
Gemäß dem CES-Bericht von AnandTech werden die kommenden Direct3D10-Grafikchips von nVidia wiederum ganz anders beschrieben als gestern noch berichtet: Danach soll nicht der G86, sondern der G84-Chip die GeForce 8600 Serie für das Mainstream-Segment bilden, während der G86-Chip in einer GeForce 8500 Serie resultieren soll. In den Markt kommen sollen diese zudem nicht gleich zur CeBIT (selbst wenn da dort vorgestellt werden werden), sondern erst im April/Mai. Hard Tecs 4U fügen hier zudem an, daß nVidia bei TSMC zusätzliche Wafer für Chips der GeForce 88xx Serien geordert hat - und da die Wafer für 80nm Grafikchips sind (der G80 ist weiterhin in 90nm), deuten sich hiermit die LowCost- und Mainstream-Ausführungen des G80 für das Frühjahr nochmals an.
Wie u.a. der Heise Newsticker vermeldet, hat das Herstellerkonsortium PCI-SIG nun die finale Spezifikation für die zweite Auflage von PCI Express herausgegeben. Generell bringt PCI Express 2.0 in erster Linie eine verdoppelte Bandbreite bei gleicher Anzahl an PCI Express Lanes, wohl über die Verdopplung des PCIe-Taktes realisiert. Da derzeit aber schon zwischen PCI Express x8 und x16 außerhalb von SLI/CrossFire-Kombinationen mit HighEnd-Karten kein Leistungsunterschied besteht, dürfte dieser Vorteil für einige Zeit nur rein theoretischer Natur bleiben. Viel wichtiger ist somit, daß PCI Express 2.0 abwärtskompatibel zu PCI Express 1.x ist - beide Komponenten lassen sich problemlos miteinander verwenden ...
... Die Vorteile von PCI Express 2.0 gibt es natürlich nur dann, wenn beide Komponenten (Grafikkarte & Mainboard) nach dem neuerem Standard gebaut wurden. Bei den Mainboard-Chipsätzen dürfte Intel mit dem X38 der Bearlake-Familie den Vorreiter geben, welcher für das dritte Quartal zu erwarten ist. Wie die anderen Chipsatz-Hersteller zu PCI Express 2.0 stehen, ist noch nicht bekannt, aber zum Ende des Jahres hin dürften auch von diesen entsprechende Mainboard-Chipsätze zu erwarten sein. Völlig unklar sind dagegen noch die Planungen der Grafikchip-Entwickler zu diesem Thema: Wir vermuten allerdings, daß diese die wenigste Arbeit mit PCI Express 2.0 haben werden und irgendwann zur Mitte des Jahres alle neu erscheinenden Grafikchips ohen großes Aufsehen auf PCI Express 2.0 fähigen Boards ausgeliefert werden ...
... Davon abgesehen noch zu ein paar Nebenpunkten: PCI Express 2.0 erlaubt das dynamische Abschalten einzelner PCI Express Lanes, was zu Stromsparzwecken auf mobilen Geräten interessant erscheint - schließlich muß für eine reine 2D-Darstellung genausowenig der Grafikchip im 3D-Betrieb wie das PCI Express Interface auf voller Leistung laufen. Die maximale Leistungsaufnahme wurde dagegen auf 300 Watt hinaufgesetzt, wobei über den Grafikkartenslot weiterhin maximal 75 Watt zur Verfügung stehen müssen. Es bleibt trotzdem zu hoffen, daß die Grafikkarten-Hersteller diese Spezifikation bei Consumer-Grafikkarten nicht unbedingt ausnutzen werden. Als fehlend muß dagegen die eigentlich angekündigte Spezifikation für PCI Express Steckverbindungen gemeldet werden - allerdings könnte die auch mit einer Spezial-Spezifikation nachgeliefert werden, da derzeit erst einmal nur die "PCI Express Base 2.0 Specification" veröffentlich wurde.
Laut WinFuture will Dell mit einem neuen Service punkten: Beim Kauf eines neuen PCs sollen die Daten vom alten PC auf den neuen PC überspielt werden können. Dabei will Dell zwei generelle Wege anbieten: Erstens einmal kann man diesen Vorgang komplett Dell selber überlassen - dies setzt natürlich voraus, daß man die eigenen Daten überhaupt erst einmal zu Dell bekommt und natürlich genauso, daß man Dell bezüglich des Datenschutzes absolut sicher vertraut ;)). Für diejenigen, welche letzteres nicht tun, will Dell auch die Möglichkeit anbieten, den Datentransfer nach Erhalt des neuen Rechners selber zu erledigen: Vermutlich handelt es sich dabei schlicht um eine entsprechende Software, welche Daten von einem auf den anderen PC kopiert (was jedoch auch schon wieder eine funktionierende Verbindung beider Recher voraussetzt, was nicht jeder Computernutzer so einfach hinbekommen dürfte) ...
... Insgesamt gesehen richtet sich dieses Angebot natürlich eher an den unerfahrenen Computernutzer, welcher sich in diesem Punkt nicht alleine weiterzuhelfen weiss. Da der Anteil jener Nutzer jedoch relativ hoch ist, könnte Dell mit diesem Service durchaus punkten. Wunder wird dieser Service allerdings nicht vollbringen können, denn letztlich können hier nur Daten und nicht Programme transferiert werden, letztere benötigen in den meisten Fällen eine Installation bzw. eine Verankerung im Betriebssystem, um funktionieren zu können. An dieser Stelle angekommen wird im übrigen klar, daß Microsoft bei seinen Windows-Betriebssystemen seit Jahren eine Möglichkeit vermissen läßt, welche eigentlich absolut naheliegend wäre: Das Weiterbenutzen einer "alten" Windows-Installation unter komplett neuer Hardware ...
... Sprich: Einfach die "alte" Festplatte mit dem laufenden alten Betriebssysstem, allen installierten Programmen und allen kleinen manuellen Tweaks und benutzerbezogenen Settings in den neuen Rechner einbauen, im BIOS den Laufwerken unabhängig der konkreten IDE/SATA-Verdrahtung die richtigen Laufwerksbuchstaben zuweisen - und dann mit dem neuen PC nach Installation aller Treiber für die neue Hardware weiterarbeiten, als sei nichts gewesen. Dies mag sicherlich nicht der Weg sein für Anwender, welche ihre Systemen schon nach einem halben Jahr hoffnungslos zugemüllt haben. Gut gepflegte Systeme muß man aber nicht ständig neu aufsetzen - und bei diesen ist es arg ärgerlich, wenn nur nach dem Austausch des Mainboards plötzlich das Betriebssystem neu aufgesetzt und (viel zeitaufwendiger!) alle Programme neu installiert werden müssen, obwohl hierfür softwareseitig kein Anlaß besteht. Wenn Microsoft auf der Suche nach potentiellen neuen Features für künftige Betriebssysteme ist: Hier ist eines.
Wie nochmals der Heise Newsticker berichtet, versucht die US-Filmindustrie nun über neue Methoden an den IP-Adressen von Filesharern zu kommen. Danach stellt man selber Torrents mit attraktiv klingenden Namen ins Netz und erhält so über die Zugriffe auf diese Torrent die IP-Adressen von am File interessierten Usern. Unklar ist allerdings, welche konkrete Rechtsverletzung die Filmindustrie dann den ertappten Usern vorwerfen will: Im Download befindet sich wohl eine falsche Datei, so daß eine Urheberrechtsverletzung nicht stattgefunden hat - und allein daraus, daß der User sich einen Torrent mit vermeintlich urheberrechtlich geschütztem Inhalt herausgesucht hat, läßt sich keine Rechtsverletzung konstruieren. Vielmehr könnte es eher umgedreht gehen: Das massenweise Anzeigen von Usern wegen Vergehen, die nach eigenem Wissensstand nicht begangen wurden, dürfte selber Anlaß für eine Gegenklage (oder gar Strafverfolgung) geben.
News des 15. Januar 2007 |
Bei der chinesischen Seite Bear Eyes (maschinelle Übersetzung ins englische) finden sich erste Daten zu den kommenden LowCost- und Mainstream-Grafikkarten nach Direct3D10 seitens nVidia. So kommen für das Mainstream-Segment die Grafikkarten GeForce 8600 GT und GeForce 8600 Ultra, beide basierend auf dem 300 Millionen Transistoren schweren G86-Chip in 80nm. Die GeForce 8600 Ultra soll dabei 64 Shader-Einheiten, Taktraten von 500/700 MHz und ein 256bittiges Speicherinterface erhalten und mit 179 Dollar Listenpreis sogar relativ wenig kosten (was noch stark abzuwarten bleibt). Die kleinere Lösung GeForce 8600 GT besitzt dagegen nur 48 Shader-Einheiten (und 16 deaktivierte, da der Chip derselbe ist), zum gleichen 256bittigen Speicherinterface allerdings mit 350/600 MHz die deutlich niedrigeren Taktraten und soll für 149 Dollar in den Markt gehen ...
... Im LowCost-Bereich soll dagegen der 80nm G84-Chip mit vermutlich 170 Millionen Transistoren (die original angegebenen "1,7 Milliarden" dürften wohl ein Schreib- oder Übermittlungsfehler sein) in den Grafikkarten GeForce 8300 GS und GeForce 8300 GT resultieren. Letztgenannte verfügt dabei über 32 Shader-Einheiten, Taktraten von 500/600 MHz und ein 128bittiges Speicherinterface. Die GeForce 8300 GS ist dann wieder Hardware-mäßig etwas abgespeckt: Anstatt 32 sind es nur 24 (aktive) Shader-Einheiten, dazu gibt es Taktraten von 500/500 MHz und wieder ein 128bittiges Speicherinterface. Preismäßig soll die GeForce 8300 Serie dann je nach Speicherausstattung zwischen 69 und 99 Dollar angeboten werden. Anzumerken sei hier natürlich, daß sich aus der Nennung der Anzahl der Shader-Einheiten noch keine Performance-Prognose gerade im Vergleich zu den bisherigen DirectX9-Grafikkarten ziehen läßt ...
... Schließlich fehlen hier noch alle Angaben zu den Textureneinheiten und ROPs - und natürlich sind die Shader-Einheiten der G8x-Serie ganz anders aufgebaut als beispielsweise bei den GeForce7 oder Radeon X1000 Serien. Die vorgenannte Anzahl der Shader-Einheiten der GeForce 8300/8600 Grafikkarten lassen somit nur eine ungefähre Einordnung gegenüber der GeForce 8800 GTS (96 Shader-Einheiten) und GeForce 8800 GTX (128 Shader-Einheiten) zu. Generell lassen sich die Angaben von Bear Eyes natürlich derzeit sowieso nicht verifizieren, sind jene also vorerst mit einiger Vorsicht zu betrachten. PS: Daneben spekuliert Bear Eyes noch über einen G81-Chip in 65nm - womit der Refresh-Chip zur GeForce 8800 GTS/GTX Serie natürlich erheblich an Taktspielraum gewinnen würde. Ob nVidia und TSMC dies allerdings bis zum Frühsommer (dem angepeilten Start des G80-Refreshs) hinbekommen, ist nicht sicher, so daß dieser G80-Refreshchip womöglich auch "nur" in der 80nm Fertigung daherkommen wird.
Wie der Gamesmarkt berichtet, kommt seitens der Europäischen Union ein Vorstoß zu einer Harmonisierung der Jugendschutzregelungen der EU-Mitgliedsstaaten. Allerdings sollen dabei nicht die Jugendfreigaben europaweit harmonisiert werden, was insbesondere die Jugendfreigaben in Deutschland etwas entschärfen würde, welche weltweit als die (mit Abstand) strengsten gelten. Vielmehr soll dieser Teil der Jugendschutzgesetzgebung weiterhin nationalem Recht unterstehen, die angestrebte europäische Harmonisierung bezieht sich hingegen allein auf die zwingende Verbindlichkeit der (weiterhin national ausgesprochenen) Jugendfreigaben. Sprich: Sowohl die Alterskontrollen durch die Händler als auch der Strafenkatalog gegen die Händler bei Mißachtung jener Alterskontrollen sollen harmonisiert werden ...
... Dies dürfte dann auch zur Folge haben, daß das Bestellen von Spielen im Ausland für deutsche Spieler - genauso wie in Deutschland - nur noch nach erbrachtem Altersnachweis möglich ist (womit die Schweiz als Bezugsland interessant werden dürfte, da jene nicht EU-Mitglied ist). Allerdings wird wohl (zumindestens vorerst) der Unterschied in den Jugendfreigaben bestehen bleiben: Ein in Großbritannien ab 16 und in Deutschland ab 18 freigegebenes Spiel dürfte sich von einem 16jährigem Deutschen dann weiterhin in Großbritannien bestellen lassen. Dies gilt natürlich nur so lange bis jemand in Brüssel auf die Idee kommt, den britischen Händlern bei einer Bestellung aus Deutschland die Ausführung deutscher Jugendschutzvorschriften aufzubürden, was anhand des erbrachten Altersnachweise (und damit auch Nationalitätsnachweises) rein theoretisch problemlos möglich wäre.
Der Heise Newsticker berichtet wieder einmal über die Massenstrafanzeigen gegen angebliche Filesharer durch die Logistep AG. Interessant hierbei ist die Aussage, daß aufgrund der schieren Anzahl an bis dato abgegebenen Strafanzeigen die bundesdeutschen Staatsanwaltschaften die Schotten mehr und mehr dichtmachen - sprich nur noch die schweren Fällen verfolgen, um nicht unter der Masse an Bagatelldelikten zu ersticken. Dies soll inzwischen sogar so weit gehen, "dass nur noch in den seltensten Fällen die Chance auf ein Urteil besteht" - womit die Logistep AG (und hinter ihr die Musikindustrie) kräftigst an dem Ast gesägt haben, auf welchem sie selber sitzen ;).