News-Archiv 1. - 7. Januar 2007 (1. Kalenderwoche)
6./7. Januar 5. Januar 4. Januar 3. Januar 2. Januar 1. Januar
News des 6./7. Januar 2007 |
Gemäß Bit-Tech wird ATI nochmals eine letzte neue Grafikkarte auf Basis der DirectX9-Technologie in den Markt bringen, die 12-Pipelines-Karte Radeon X1950 GT. Diese basiert auf dem schon für die Radeon X1950 Pro verwendetem RV570-Chip (ATI gibt für die Radeon X1950 GT zwar den "RV570LE" an, benutzt diesen LE-Suffix intern aber gern nur zur Abgrenzung taktniedrigerer Versionen, nicht für die Kennzeichnung eigenständiger Chips), mit allerdings etwas niedrigeren Taktraten von 500/600 MHz (Radeon X1950 Pro: 575/690 MHz) wird sie sich aber etwas unterhalb der Radeon X1950 Pro einreihen müssen. Damit dürfte ATI primär die Lücke zur 8-Pipelines-Karte Radeon X1650 XT schließen - zudem kann man so natürlich auch RV570-Chips verkaufen, welche die für die Radeon X1950 Pro notwendigen Taktfrequenzen nicht schaffen.
Im Blog von Unnecessary hat man sich mit den Betriebssystemplänen von Microsoft nach Windows Vista beschäftigt. Als erstes wäre da ein Windows Vista RC2 mit Codenamen "Fiji" zu nennen, welches im nächsten Jahr antreten soll. Fiji soll primär viele Features enthalten, welche es nicht mehr in das erste Windows Vista geschafft haben, darunter das neue Dateisystem WinFS sowie auch die "Sicherheitstechnologie" NGSCB, früher bekannt unter dem Namen Palladium. Ein regelrecht neues Betriebssystem soll dagegen mit "Vienna" (bisher: Blackcomb) auf den Weg gebracht werden, zu einem bislang aber noch nicht bekannten Termin (angepeilt dürfte hierfür 2009/2010 sein, mit den üblichen Microsoft-Verspätungen könnte es aber durchaus später werden) ...
... Mit diesem wird Microsoft erstens einmal die Eingabemethode radikal ändern: Nicht mehr mit der Maus hangelt man sich durch (dann gestrichene) Startmenüs und Taskbars, sondern die Spracheingabe wird zum default-Standard erhoben. Das Bedienen des Betriebssystems mittels Maus und Tastatur dürfte sicherlich noch genauso möglich sein, aber generell wird wohl alles primär auf eine Steuerung per Spracheingabe ausgerichtet sein. Der zweite wichtige Punkt wird eine erneuerte Version von NTFS und WinFS sein, womit Microsoft die Virtualisierungs-Ideen aus Windows Vista auf die Spitze treiben wird: Das Dateimanagement wird dann komplett in die Hände der jeweiligen Anwendung gelegt, welche die sie unterstützenden Dateien automatisch indiziert und ordnet ...
... Dies schließt dann auch eine entsprechend angepasste Suchfunktion ein - denn wenn das Betriebssystem bzw. die Anwendungen entscheidet, wo die Dateien liegen, wird selbst der erfahrene Anwender zum Suchenden auf dem eigenen System. Genau hier liegt aber auch ein großer Kritikpunkt an dieser Entwicklung: Genauso wie die Dateiverwaltung dem Betriebssystem und den Anwendungen zufällt, wird sie dem Anwender entzogen. Und nicht jeder dürfte davon begeistert sein, seine über lange Zeit aufgebaute Systemordnung zugunsten des Microsoft-Einheitsbreis aufgeben zu müssen - wobei über allem sogar bezweifelt werden darf, daß jene unerfahrenen Computernutzer, auf welche diese Entwicklung schließlich zielt, wirklich damit zurechtkommen werden ...
... Und die letzte entscheidende Änderung von Vienna wird die sehr klare Ausrichtung auf "managed code" sein. Anwendung mit "non-managed code" werden unter Vienna dann nur noch in einer Sandbox laufen können - worunter der Hauptteil der heute existierenden Software fallen dürfte. In wie weit es allerdings ein Nachteil ist, "nur" in einer Sandbox laufen zu dürfen, bleibt abzuwarten, schließlich bedeutet diese Methode immer einen Sicherheitsgewinn und der Performanceverlust dürfte sich wohl arg in Grenzen halten. Vielmehr ergeht eher die Frage, wieso aus Sicherheitserwägungen heraus nicht gleich alle Anwendungen in Sandboxen laufen - aber damit könnte Microsoft natürlich nicht mehr die eigenen, auf .NET basierenden Programmierkunstwerke als "sicher" ausgeben ;). In der Summe plant Microsoft für Vienna also wiederum einschneidende Veränderungen - ob es so lange wie bei Windows Vista bis zur letztlich nur teilweisen Fertigstellung benötigt, wird die Zeit zeigen müssen.
News des 5. Januar 2007 |
Wenn wir die gestern vorgestellte Idee der externen Notebook-Grafikkarte einmal weiterspinnen wollen, so wäre jene sicherlich auch für den Desktop-Markt umsetzbar und würde dort angenommen werden. Da AMD und Intel uns trotz immens steigender Prozessorleistungen schließlich immer noch davon überzeugen können, ständig neue und bessere Prozessoren für die mehr oder weniger gleichen Tätigkeiten zu kaufen, sind die meisten der heutigen PCs durchaus mit einer ansprechenden Prozessorenpower für den Spieleeinsatz ausgerüstet - selbst wenn sie schon ein, zwei Jahre alt sind. Bei Grafikkarten sind dagegen zwei Jahre wirklich schon uralt, der Markt dreht sich hier noch bedeutend schneller als bei den Prozessoren. Insofern war und ist es immer sinnvoller, zwischen den PC-Käufen ab und zu einmal die Grafikkarte aufzurüsten, anstatt ständig neue Komplett-PCs kaufen zu müssen ...
... Nachteiligerweise zwingt einen aber häufig einmal die geplante Anschaffung einer neuen Grafikkarte doch zum Kauf eines komplett neuen PCs oder aber zumindestens zum Auswechseln vieler Komponenten: Da wäre zum einen der Umstieg von AGP auf PCI Express in der Spezifikation 1.x und der für Mitte diesen Jahres drohende Umstieg auf PCI Express in der Spezifikation 2.0, zum anderen aber auch der ständig steigende Leistungsbedarf neuerer Grafikkarten, welche die Netzteil-Nenngrößen in mittlerweile atemberaubende Höhen getrieben haben. All dies wäre einfach umgehbar durch die Auslagerung der Grafikkarte aus dem PC-Gehäuse: Dann müssen weder neue Mainboards für neue Interface-Technologien gekauft werden noch neue PC-Netzteile für den gestiegenen Leistungsbedarf nur der neue Grafikkarte. Vielmehr würde dies alles im extra Grafikkarten-Gehäuse liegen - neue Technologien und Leistungsgrößen würde man dann ausschließlich bezüglich der Grafikkarte zukaufen, was aber nicht mehr das generelle PC-System verändern würde ...
... Natürlich müsste garantiert werden, daß die Anschlußtechnik sowohl beständig als auch performant ist. Aber eine externe PCI Express Verbindung (PCI Express 1.x erlaubt eine Leitungslänge zwischen Mainboard-Chipsatz und Grafikchip von immerhin einem halben Meter) mit x16 Performance ist faktisch jetzt schon herstellbar, während mit PCI Express 2.0 sogar Kabelverbindung bis zu 10 Meter möglich werden sollen. Natürlich aber müssten hier in erster Linie die Mainboard-Hersteller mitziehen und wertvolle PCI Express Lanes für einen externen Steckplatz opfern, welche von den meisten Anwendern sicherlich zuerst einmal nicht genutzt werden wird. Aber eventuell gibt es zum Jahresende ja erste Modelle von HighEnd-Platinen, welche über ein solches Feature verfügen - und damit den Weg frei machen würden für die Trennung von Grafikkarte und Desktop-PC.
Hard Tecs 4U berichten von neuen SingleCore-Prozessoren seitens AMD. Der Prozessorenhersteller wird mit diesen zwar keine höheren Taktfrequenzen als bisher (Athlon 64 4000+ mit 2.6 GHz) anbieten, die neuen SingleCore-Modelle für Athlon 64 (Januar) und Sempron (zweites Quartal) werden aber schon in 65nm gefertigt werden, was durch die geringere Verlustleistung (beim Athlon 64 in 65nm offiziell 45 Watt, real wohl noch ein gutes Stück darunter) die Eignung für MiniPCs erhöht, wo aufgrund des geringen Platzbedarfs keine große Kühlung verbaut werden kann oder aber aufgrund des gewünschten PC-Standorts nicht verbaut werden soll. Zudem ergibt sich natürlich auch die Chance, daß die 65nm Modelle eine höhere Übertaktungseignung aufweisen als ihre 90nm Kollegen.
Passend hierzu kommen neue Informationen über weitere Prozessoren nach der Core-2-Architektur seitens Intel von HKEPC, welche hierzu auch den Teil einer Intel-Roadmap veröffentlichen: Danach will Intel im dritten Quartal mit dem Conroe-L einen neuen Einstiegsprozessor kreiieren, welcher bei nur 35 Watt Leistungsaufnahme liegen soll. Als Verkaufsname kommt dabei wieder der schon langjährig bewährte Brandname "Celeron" zum Einsatz - unklar ist derzeit aber noch, ob der Conroe-L Core nun einen oder zwei Kerne hat. Angesichts der Leistungsaufnahme und daß dieser in vorgenannter Roadmap in einer Linie mit den einkernigen Pentium 4 und Celeron D Prozessoren steht, tippen wir allerdings eher auf nur einen Kern.
Shortcuts: Gemäß Golem arbeitet Asus auch an einer Version seiner XG Station, welche mit MXM-Modulen zurechtkommt. Damit könnte das System insgesamt deutlich kleiner werden, allerdings würde sich die Auswahl dann auf Notebook-Grafikchips beschränken und wäre auch nicht mehr Bastler-tauglich, da MXM-Module nach wie vor nicht im Einzelhandel zu bekommen sind. Laut dem Tech Report gibt es Berichte, wonach der demnächst anstehende Core 2 Quad Q6600 nicht für 851 Dollar, sondern für 531 Dollar an den Start gehen soll. Damit würde Intel das Thema QuadCore natürlich (und unabhängig von der Software-Situation) massiv puschen, denn im Vergleich zum Core 2 Duo E6700 würde man zum gleichen Preis auf nur 266 MHz Takt verzichten, dafür aber zwei Cores hinzubekommen. Und letztlich berichtet die VR-Zone von einem kommenden GDDR4-Speicher seitens Samsung mit einem physikalischen Takt von satten 2000 MHz. Wann Samsung diesen Speicher allerdings (zu einem bezahlbaren Preis) fertigen kann, ist derzeit noch nicht bekannt.
News des 4. Januar 2007 |
Der Heise Newsticker berichtet über ein hochinteressantes Produkt seitens Asus namens "XG Station", mit welchem man Notebooks mit ExpressCard-Anschluß eine extra Grafikkarte verpassen kann. Diese extra Grafikkkarte kommt dabei in einem extra Gehäuse mit eigener Stromversorgung her und wird mittels ExpressCard (nicht aber PCCard!) mit dem PC verbunden. Der Vorteil dieser Lösung ist, daß sich Notebooks dadurch mit fast beliebigen Grafikkarten nachrüsten lassen: Asus will das extra Gehäuse zum einen mit vorinstallierter GeForce 7900 GS ausliefern, andererseits aber auch in einer Version ohne Grafikkarte, womit sich alle Modelle, die zum installierten Netzteil passen, installieren lassen dürften ...
... Allerdings hat das System natürlich auch seine Nachteile: Erstens läuft die Anbindung über den ExpressCard-Anschluß naturgemäß nur mit PCI Express x1, ergo einer Bandbreite ungefähr mit AGPx1 vergleichbar. Und dies dürfte doch einige Leistungseinbußen nach sich ziehen, vor allem je schneller die eingesetzte Grafikkarte ist. Zwar besteht nach wie vor kein wirklicher Performance-Unterschied zwischen AGPx4 und AGPx8 (oder gar PCI Express x16), bei den kleineren AGP-Größen sollte es jedoch gewisse Unterschiede im Rahmen von 10 bis 15 Prozent geben. Genauer läßt sich dies derzeit leider nicht sagen, da die letzten Tests zum Thema AGPx1 (bezogen auf die IT-Welt) wahre Äonen zurückliegen und damit für heutige Spiele nicht mehr aussagekräftig sind ...
... Und der Nachteil Nummer zwei wäre, daß sich mit einem solchen System natürlich nur externe Monitore ansteuern lassen, nicht aber das Notebook-eigene Display. Sicherlich ist in vielen Fällen ein extra Monitor sowieso wünschenswert, aber jener kostet dann eben auch noch einmal extra Geld. Für den generellen Ersatz einer etwas zu leistungsschwachen integrierten Notebook-Grafiklösung ist jenes System also weniger geeignet - vielmehr eher dafür, um das ansonsten im mobilen Einsatz genutzte Notebook dann in den eigenen vier Wänden zur Gaming-Station zu machen. Es bliebe zwar noch abzuwarten, wieviel Asus für die im zweiten Quartal erwartete XG Station zu verlangen gedenkt, aber bei einem maßvollen Preis wäre dem Markterfolg wohl kaum etwas im Wege.
Hartware berichten von zwei weiteren Herstellern, welche ab Werk übertakteten GeForce 8800 Grafikkarten in den Markt bringen werden: Erstens einmal wird Sparkle eine "Calibre P880 OC" mit GeForce 8800 GTS Chip und 560/860 MHz (default sind 500/800 MHz) sowie eine "Calibre P880+ OC" mit GeForce 8800 GTX Chip und 630/980 MHz (default sind hier 575/900 MHz) bringen, und zweitens kommen von eVGA eine "e-GeForce 8800 GTS KO w/ ACS³" mit 580/850 MHz sowie eine "e-GeForce 8800 GTX KO w/ ACS³" mit 626/1000 MHz. Beide Hersteller reihen sich damit von den Taktfrequenzen her in denselben Rahmen ein, in welchem schon die anderen Übertakter-Hersteller Gainward und XFX liegen - wobei uns nach wie vor ein absolut überzeugendes Angebot fehlt, das Taktfrequenzen bietet, welche nicht auch mit Standardkarten in ähnlicher Form erreichbar sind.
Shortcuts: Wie Golem berichten, ist die Antwort des Filmstudios Warner Bros. auf den Formatkampf zwischen HD-DVD und Blu-Ray weder ein weiteres neues Format noch ein MultiFormat-Player - sondern schlicht eine MultiFormat-Disk, welche mit beiden Player-Typen zusammenfunktionieren soll. Der Heise Newsticker berichtet hingegen über den prognostizierten Boom des Massenspeicher-Marktes: Im Zeitraum der nächsten sechs Jahre soll sich die Kapazität neu ausgelieferter Massenspeicher glatt verachtfachen, gedankt vor allem den HD-Filmformaten und der deutlichen Zunahme an elektronischer Archivierung. Laut der PC Games Hardware will der Speichermodulhersteller Patriot auf der CES ein DDR2-Modul mit dem sagenhaften Takt von 1302 MegaHertz demonstrieren. Für das erst Mitte des Jahres anstehende DDR3 wird es damit bereits jetzt eng, denn die anfänglich geplanten DDR3-Taktstufen DDR3/1066 und DDR3/1333 würden dann wohl auch unter DDR2 zur Verfügung stehen - und DDR3/1667 ist eigentlich erst für das Jahr 2008 geplant ...
... Laut dem Planet 3DNow! sollte der Athlon 64 X2 6000+ mit 3.0 GHz Takt in Kürze erscheinen, da jener bei einem Distributor schon gelistet wird. Wie früher schon kurz erwähnt, handelt es sich bei diesem Prozessor um den verkappten Athlon 64 FX-64, welcher durch die Athlon 64 FX-7x Serie nun nicht mehr unter diesem Namen in den Markt kommen wird, sondern schlicht der "normalen" Athlon 64 X2" Serie zugeschlagen wurde. Und nochmals Golem berichten vom Marktstart des "Solid State Drives" von SanDisk, einer Flashspeicher-Festplatte mit 32 GB Kapazität. Diese kommt im für Notebooks interessanten 1,8-Zoll-Format daher und soll zur erst einmal in diesem Markt an OEMs abgesetzt werden. Später soll mit dieser Flashspeicher-Festplatte aber auch der Retailmarkt angepeilt werden - nachdem der derzeitig noch etwas überzogene Preis von 600 Dollar entsprechend gesunken ist.
News des 3. Januar 2007 |
Zum am Wochenstart bereits ausführlich erwähnten R600-Test von Level505 wären noch drei Punkte zu ergänzen: Erstens einmal ist die in den dort verbreiteten R600-Spezifikationen verbreitete Eignung des R600-Chip für ein sogenanntes "GPU clustering", sprich das parallele Betreiben einer Vielzahl an R600-Chips, nichts wirklich besonderes, sofern es sich allein auf den Chip selber bezieht. ATIs und nVidias Grafikchips sind schon einige Generationen lang fähig, auch in sehr breiten MultiChip-Konfigurationen arbeiten zu können. Dieses Feature war und ist jedoch in erster Linie für professionelle Beschleuniger für Spezialzwecke gedacht, nicht für den Consumer-Markt ...
... Denn in diesem verhindert spätestens die Baubreite heutiger Mainboards und Gehäuse den Einsatz von mehr als vier Grafikkarten auf einem Mainboard - und selbst das ist bislang noch nicht versucht worden, bisherige 4-Chip-Konfigurationen bestanden immer aus zwei DualChip-Grafikkarten. Etwas anderes wäre es natürlich, wenn ATI diese Eigenschaft gleich den R600-Grafikboards mitgibt - was aber etwas unwahrscheinlich ist, da bei vier Grafikchips im normalen Consumer-PC Schluß sein dürfte, so lange nicht generell andere Technologien für die Unterbringung und Stromversorgung dieser gefunden werden. Zweitens soll Level505 soll eine R600-Grafikkarte eine Leistungsaufnahme von satten 230 Watt haben - wobei hierfür keine extra Leistungsmessungen angestellt wurden, diese Angaben also somit in dieser Form von ATI stammen müsste ...
... In jedem Fall wäre dies schon allerhand, sollte diese Angabe zutreffen: Selbst die bisherigen Leistungsfresser Radeon X1950 XTX und GeForce 8800 GTX bleiben noch unterhalb der Grenze von 150 Watt Leistungsbedarf, 230 Watt wären demzufolge ein neuer "Meilenstein" - wenngleich sicherlich in die falsche Richtung hin. Ob ATI den R600-Käufern zukünftig kulanterweise gleich ein neues Netzteil mit beilegt ;), ist damit noch nicht gesagt, da der gesamte Test von Level505 wie schon erwähnt derzeit nicht verifiziert werden kann. Was gleichzeitig auch das Stichwort für die dritte und letzte Anmerkung gibt: Hardware-Aktuell listen einige Punkte auf, welche die Zweifel an der Glaubwürdigkeit dieses Tests noch weiter erhöhen - umgedreht stellen die vorgebrachten Einwände aber trotzdem immer noch keine Gewissheit her, daß der Test von Level505 nun zweifelsfrei erfunden wurde ;).
Die PC Games Hardware hat einen Weg gefunden, das klassische Control Panel bei GeForce8-Grafikkarten freizuschalten: Dazu lädt man sich eine Datei mit Einträgen für die Windows-Registry und führt diese aus - den Download kann man entweder bei der PCGH oder auch in unserem Forum bekommen. Womöglich wird mit diesen Registry-Einträgen aber nicht primär das klassische Control Panel bei der GeForce8 freigeschaltet, sondern vielmehr das klassische Control Panel bei allen nVidia-Grafikkarten bei den nVidia-Treibern mit einer 95er oder höheren Versionsnummer. Diese (derzeit zumeist inoffiziellen) Treiber bieten das klassische Control Panel für alle nVidia-Grafikkarten auch nicht mehr alternativ wie bei den Treibern von 90.xx bis 94.xx an und stellen somit die (letzte) Vorbereitung von nVidia für den Übergang zum neuen Control Panel dar.
Bei der FiringSquad hat man sich die PowerColor Radeon X1950 Pro auf AGP angesehen und mit älteren AGP-Grafikkarten sowie auch der PCIe-Ausführung derselben Grafikkarte verglichen. Dabei konnte die PCIe-Ausführung durchaus hier und da ein paar Vorteile für sich verbuchen, in der Spitze sogar bis zu 10 Prozent. In der Summe der Benchmarks relativiert sich dies dann allerdings wieder, dort liegt die PCIe-Ausführung nur noch eher unrelevante 3,5 Prozent vor der AGP-Ausführung. Diese Differenz dürfte dabei allerdings weniger über das PCIe-Interface als vielmehr über die unterschiedlichen verwendeten Plattformen gebildet werden: So lief die AGP-Karte auf einem "alten" nForce3-Chipsatz mit DDR400-Speicher, während die PCIe-Karte einen nForce 590 SLI Chipsatz mit DDR2/800 als Unterbau hatte ...
... Dies dürfte wohl allein schon ausreichen, um den durchschnittlichen Performance-Unterschied zwischen AGP- und PCIe-Karte zu erklären - die Spitzenwerte dürften dann allerdings trotzdem durch das PCIe-Interface verursacht werden. Davon abgesehen stellte sich die PowerColor-Karte natürlich wieder allen anderen AGP-Lösungen als weit überlegen dar: Jeweils runde 40 Prozent Vorsprung vor einer Radeon X850 XT-PE sowie einer GeForce 7800 GS deuten wiederum in die Richtung, daß mittels der Radeon X1950 Pro auch die Gainward GeForce 7800 GS+ mit GeForce 7900 GT Grafikchip geschlagen werden kann - wenn nicht schon bei der reinen Performance, dann zumindestens beim Preis/Leistungsverhältnis, da die Radeon X1950 Pro auf AGP derzeit schon zu Zwei/Drittel des Preises der Gainward GeForce 7800 GS+ angeboten wird.
News des 2. Januar 2007 |
Auch LostCircuits haben sich die Sapphire Radeon X1950 Pro auf AGP angesehen, welche als letztes ATI-Angebot für den alten AGP-Bus den Markt der AGP-Grafikkarten zu einem vertretbaren Preispunkt noch einmal (wohl letztmalig) neu zu beleben versucht. Interessant ist hierbei der direkte Vergleich der PCIe- gegen die AGP-Ausführung der Radeon X1950 Pro unter Far Cry, welcher sogar einige Vorteile des mit 512 MB Grafikkartenspeicher ausgestattetem AGP-Modells gegenüber dem PCIe-Modell mit seinem standardmäßigen 256 MB Speicher aufzeigt. Womit wohl bewiesen wäre, daß ein Mehr an Grafikkartenspeicher auf jeden Fall den derzeit immer noch nur theoretischen Vorteil des PCIe-Interfaces aufwiegen bzw. gar überflügeln kann.
Der Heise Newsticker weist nochmals auf die ab 1. Januar geltende Gebührenpflicht für "internetfähige PCs" hin - wobei dies Privathaushalte mit mindestens einem angemeldeten Radio nicht betrifft, da dann der internetfähige PC unter die Zweitgeräteklausel fallen würde. Davon abgesehen gestaltet es sich äußerst schwierig, eine aktuelle Version des Rundfunkgebührenstaatsvertrages zu bekommen, welche auch klar Bezug auf jene "internetfähigen PCs" nimmt. Selbst die GEZ himself gibt hier nur eine Version von 2004 zum besten, welche die "neuartigen Rundfunkempfangsgeräte" zwar nennt, gleichzeitig jedoch die bekannte und am 31. Dezember 2006 ausgelaufene Ausnahmeregelung enthält ...
... Womöglich gibt es aber auch gar keinen regelrecht neuen Rundfunkgebührenstaatsvertrag und wurde somit einfach nur die alte Version erfüllt, indem die Ausnahmeregelung ausgelaufen ist. In diesem Fall fehlt uns jedoch eine klare Definition der die "neuartigen Rundfunkempfangsgeräte" - und ohne diese ist schwerlich ein Gebührenanspruch zu erheben. Doch selbst wenn darunter in der Tat jeden prinzipiell internetfähigen Rechner (das Wort "PC" wird nicht benutzt, so daß auch Server oder Terminals gemeint sein können) fallen sollte, gelten immer noch die allgemeinen Definitionen bezüglich "Rundfunkempfangsgeräten": Und diese beziehen sich erstens klar auf Geräte für Hör- und Sehempfang, was alle "Rechner" ohne der Möglichkeit von Tonwiedergabe (da die Gebührenhöhe der von Radios entspricht) ausschließen würde ...
... Und zweitens gilt generell, daß ein Gerät erst dann als "zum Empfang bereitgehalten" gilt, wenn damit "ohne besonderen zusätzlichen technischen Aufwand" Rundfunkdarbietungen empfangen werden können. Sobald der bewußte Rechner jedoch über keinerlei Hardware für Tonwiedergabe oder/und Internetverbindung verfügt, kann dieser nicht als "zum Empfang bereitgehalten" gelten. Gleiches könnte selbst in diesem Fall zutreffen, wo zwar die Hardware vorhanden ist, eine (technisch mögliche) Internetverbindung jedoch nicht genutzt wird: Dann hätte man zwar keinen zusätzlichen technischen, jedoch einen zusätzlichen monetären Aufwand. Und es wäre doch ziemlich befremdlich, wenn Rundfunkgebühren dann auch auf klare Offline-Rechner verlangt werden würden ...
... In der Summe wären jedoch unseres Erachtens nach alle Rechner ohne Internetverbindung sowie alle Rechner ohne der Hardware für Tonwiedergabe (dies verlangt auch entsprechende Boxen) und Internetverbindung (eine WLAN-Lösung dürfte hier wohl nicht ausreichend sein, da entsprechende Netze nicht überall verfügbar sind) nicht gebührenpflichtig, womit u.a. Webserver und Bankterminals, aber auch Office-Rechner ohne Soundwiedergabe aus der Gebührenpflicht fallen sollten. Sicher ist diese Auslegung natürlich überhaupt nicht, fehlt derzeit schon allein die Bestätigung, daß vorverlinkter Rundfunkgebührenstaatsvertrag überhaupt die derzeit gültige Version darstellt. Aber wahrscheinlich werden sowieso die Gerichte entscheiden müssen, wie genau die Bestimmungen nun auszulegen sind - wobei vor allem auch zu klären sein wird, ob Geräte mit einem anderem Primärzweck als dem Rundfunkempfang überhaupt einfach so als generelle Rundfunkempfänger umgedeutet werden dürfen.
Shortcuts: Hard Tecs 4U vermelden das nahende Ende des Pentium M, welchen Intel zur Mitte des Jahres letztmalig ausliefern wird. Der Pentium M war ursprünglich nur als Notebook-Prozessor konzipiert, nach dem Umschwung von Intel weg von immer nur höheren Taktfrequenzen und hin zu mehr Pro/MHz-Leistung bildeten die Abkömmlinge des Pentium M jedoch die Basis für die aktuelle Core 2 Architektur von Intel. Golem berichten hingegen noch einmal zum Brennstoffzellen-Akku von Samsung: Zusätzlich zum großen Modell mit einem Monat Laufzeit soll es auch noch eine handlichere Größe mit immerhin 15 Stunden Laufzeit geben. Allerdings wird die Marktreife beider Modelle erst für Ende 2007 erwartet. Gemäß The Inquirer soll sich ATIs R600-Chip weiter verschieben, der Launch soll angeblich nunmehr gar erst Anfang März stattfinden ...
... Laut der ComputerBase hat Intel ein StartUp übernommen, welches eine Grafikchip-Verbindungstechnologie für bis zu vier Grafikchips entwickelt hat. Interessant wird dieser Zukauf vor allem dadurch, daß diese Technologie eigentlich nur im HighEnd- und Workstation-Segment benötigt werden würde, sicherlich aber nicht bei den von Intel bislang hergestellten LowCost- und integrierten Grafikchips. Und letztlich noch einmal zum Thema Chip-Diebstahl: Gemäß The Star wechselten im November in Malaysia nach einem organisiertem Raubzug gar Prozessoren und Mainboards im Wert von über 12 Millionen Dollar den Besitzer. Manchmal hat es dann eben doch Nachteile, in Fernost zu produzieren (Intel) - während ein solcher Vorfall in Deutschland (AMD) eher undenkbar wäre.
News des 1. Januar 2007 |
Die koreanische Webseite Level505 hat (in englisch) einen ersten Test zum ATI R600 Grafikchip anzubieten. Ob dieser Test jedoch echt ist, läßt sich derzeit nicht ermitteln - allerdings sehen die Aufmachung und auch die Ergebnisse nicht unbedingt nach einem Fake aus. Folgt man den Ausführungen von Level505, so handelt es sich beim R600 grob um einen Grafikchip mit 64 4-way unified Shader-Einheiten, 32 Textureneinheiten, 16 ROPs und 512 Bit GDDR3/GDDR4-Speicherinterface (anscheinend 16fach unterteilt). Ob die Shaderleistung des R600 größer oder kleiner ist als beim G80-Chip, läßt sich damit natürlich noch nicht sagen, dies hängt maßgeblich vom Aufbau und damit der Power der Shadereinheiten ab, weniger von deren Anzahl ...
... Zumindestens beim Speicherinterface dürfte ATI mit dem R600-Chip jedoch an nVidia vorbeiziehen, hat nVidia hier derzeit doch "nur" maximal 384 Bit und eine nur sechsfache Unterteilung anzubieten. Jenes R600-Speicherinterface soll im übrigen anfänglich nur GDDR3-Speicher auf 900 MHz anbinden, während dann im März eine weitere R600-Variante mit GDDR4-Speicher und einem Speichertakt von 1100 MHz folgen soll. Hiermit scheint ATI anscheinend auffangen zu wollen, daß nVidia schon im späten Frühjahr einen Refresh des G80-Chips (mit wohl gesteigerten Taktfrequenzen) in den Markt bringen will. Nicht ernsthaft betrachtet werden muß im übrigen der Hinweis auf DirectX 10.1 in den Chip-Spezifikationen: Wie in unserem Forum ausgeführt, ist DirectX 10.1 derzeit noch nicht spezifiziert, ein hierfür kompatibler Grafikchip also momentan schwerlich zu bauen ...
... Bei den von Level505 angestellten Benchmarks (unter 1600x1200, 4x AA und 16xAF) liegt dann die R600-Karte immerhin 18 Prozent vor einer GeForce 8800 GTX - was man zum jetzigen Zeitpunkt sicherlich nicht als entgültiges Urteil nehmen sollte, andererseits aber durchaus den Erwartungen entspricht: Denn ATI dürfte natürlich anstreben, im Bereich von über 10, besser über 15 Prozent vor der GeForce 8800 GTX zu liegen, wenn man schon erst einige Monate nach dieser in den Markt kommt. Ob ATI dieses Vorhaben jedoch letztlich gelingt, hängt natürlich maßgeblich von den endgültigen Taktfrequenzen ab, mit jenen können sich diese (wie gesagt derzeit nicht bestätigbaren) Ergebnisse durchaus noch verändern.
Bei The Inquirer hat man sich die Spiele-Performance von Windows Vista unter verschiedenen Speicherausstattungen angesehen. Die dabei angestellten Tests ergaben, daß das neue Betriebssystem schon allein aus Performancesicht mit nur 512 MB Speicherausbau nicht glücklich werden wird, es verliert hier gegenüber 1024 MB Speicher stattliche 20 bis 40 Prozent an Performance unter Spielen - und dies selbst unter eigentlich klar Grafikkarten-limitierten Auflösungen wie 2048x1536 samt AA/AF. Überhalb von 1024 MB Speicherausbau bewegt sich dann allerdings bezüglich der Spieleperformance kaum noch etwas, lohnt sich der Mehrspeicher nur wegen der Spieleperformance sicherlich nicht. Unterhalb jene 1024 MB RAM-Speicher sollte man jedoch bei Windows Vista gar nicht gehen, während sich 2048 MB nicht wegen der puren Spieleperformance, aber vor allem wegen kürzerer Ladezeiten empfehlen.
Shortcuts: In Taiwan haben Diebe laut Hard Tecs 4U den Speicherchiphersteller Hynix um eine Lasterladung DDR400-Speicherchips erleichtert. Dabei wurde der Laster krimi-mäßig in einen Unfall verwickelt und dann unter Waffenandrohung (Machete!) die Ladung entwendet ;)). Computerchips aller Art sind immer wieder beliebte Beute in den fernöstlichen Herstellungsländern, da sie bei geringem Platzbedarf beträchtliche Werte darstellen können. Gulli berichten hingegen von einem Vortrag auf der 23C3, wonach der Anonymisierungsdienst Tor nicht ganz so sicher ist, wie ursprünglich angenommen: Bei einer stundenlangen Beobachtung ließen sich anhand der exakten Rechnerzeit als auch individueller CPU-Temperaturschwankungen einzelne Rechner trotzdem wiedererkennen.