News-Archiv 17. - 23. April 2006 (16. Kalenderwoche)
22./23. April 21. April 20. April 19. April 18. April 17. April
neuer Artikel |
Celeron M vs. Pentium M & Athlon 64
Der Pentium M an sich ist schon ein Phänomen. Eine neue CPU-Familie entspringt "nahezu" aus dem Nichts und wird in kürzester Zeit zu Intels Prestigeträger - zumindest in den Herzen vieler User. Doch was macht diesen Prozessor nun so schnell? Wo kommt er her und wie geht es weiter? Was taugt der Celeron M? ... zum Artikel
News des 22./23. April 2006 |
Gemäß einer bei HKEPC aufgetauchten Roadmap setzt Intel weitere Anstrengungen daran, DualCore-Prozessoren in den Massenmarkt zu bringen. Dazu soll es im dritten Quartal zwei minimal abgespeckte Versionen bereits bestehender DualCore-Prozessoren geben: Pentium D 915 und 925 mit 2.8 bzw. 3.0 GHz Takt. Der Unterschied zu den regulären Modellen 920 und 930 (ebenfalls 2.8 bzw. 3.0 GHz Takt) besteht dabei allein in der bei 915/925 fehlenden Virtualisierungstechnologie VT, was für die meisten Home-Anwender klar verschmerzbar ist, sofern es einen besseren Preis gibt. Was zu erwarten wäre, die Modelle 915 und 925 eigenen sich vorzüglich für den Einbau in preisgünstige OEM-Rechner - eben für die weitere Vorantreibung des Themas DualCore auf dem Massenmarkt. PS: Die vorgelinkte Roadmap enthält daneben auch die kompletten Daten der kommenden Prozessoren auch Basis der Core-Architektur.
Wie der Tech Report berichtet, plant Samsung den Start der Massenfertigung von DDR3-Speicher für das zweite Halbjahr 2006. DDR3-Speicher wird ähnlich wie DDR2-Speicher die eigentlichen Speicherzellen niedriger takten als den I/O-Teil des Speicherchips: Bei DDR2 sind es die Hälfte des Nominaltaktes, bei DDR3 werden es anscheinend nur noch ein Viertel davon sein. Damit sollte klar sein, daß DDR3 ebenso wie DDR2 auf gleichem Takt nicht schneller sein kann als der jeweilige Vorgänger, sondern sogar minimal langsamer sein dürfte. Der Vorteil dieses Aufbaus liegt vielmehr darin, daß somit die Speicherzellen weit weniger Strom ziehen und demzufolge der gesamte Speicherchip deutlich höher getaktet werden kann ...
... Der aus dem niedrigeren Speichertakt der reinen Speicherzellen resultierende Performanceverlust ist dagegen eher vernachlässigbar, sobald DDR3-Speicher mit deutlich höheren Taktraten als DDR2 in den Markt kommt. Zum offiziellen Launch von DDR3 - seitens Intel für Anfang 2007 angesetzt - wird es wohl DDR3/800 und DDR3/1066 geben, was allerdings ehrlicherweise nicht den großen Performance-Schub wird bringen können, denn schließlich gibt es beide Speichersorten schon jetzt in DDR2-Bauform (die gleiche Problematik wie beim Wechsel von DDR1 auf DDR2). Erst mit den wohl erst 2008 antretenden Speichern DDR3/1333 und DDR3/1667 wird sich DDR3 eine echte Daseinsberechtigung erkämpfen können. Kleine Ausnahme: Für Mobile bzw. besonders kleine Geräte eignet sich DDR3 wegen des niedrigeren Stromverbrauchs auch schon vom Start weg.
Shortcuts: Hard Tecs 4U berichten ein wenig zu nVidias kommenden Mainboard-Chipsatz nForce5 mit Codenamen "Tritium". Die X-bit Labs vermelden hingegen, das auch die kommenden Mainstream Mainboard-Chipsätze seitens Intel Support für MultiGrafikkarten-Technologien bieten werden, nicht wie bisher nur die HighEnd-Lösungen. Ob es allerdings zu mehr als dem Support von ATIs CrossFire reicht, darf bezweifelt werden, nVidia möchte bekannterweise SLI nur auf den eigenen Plattformen sehen. Wie Sapphire bekanntgibt, wird man die bisher unter dem Verkaufsnamen "Blizzard" geführte wassergekühlte Sonderedition der Radeon X1900 XTX in "Toxic" umbennenen. Grund dafür sind "Bedenken" des gleichnamige Spieleentwickler Blizzard gegenüber der ursprünglichen Namenswahl ...
... Bei WinFuture gibt es einen guten Artikel zum Thema Dateiverschlüsselung, welcher die verschiedenen Möglichkeiten ausleuchtet und auch einige entsprechende Programme vorstellt. Gemäß der ComputerBase waren GeForce 7900 GX2 Grafikkarten, welche zum Aufbau eines Quad-SLI-Systems Verwendung finden, für kurze Zeit einzeln verfügbar, sind aber nunmehr nur noch - bestimmungsgemäß - zusammen mit Komplettsystemen erhältlich. Wie hier berichtet, arbeitet nVidia aber angeblich an einer weiteren Ausführung dieser Grafikkarte, die man dann eventuell auch in den Retail-Markt entlassen will. Und letztlich hat in unserem Forum ein 3DCenter-Mitarbeiter einen Artikel verfasst, welcher zwar nicht wirklich viel mit Computertechnik zu tun hat, sondern viel mehr mit TV-Technik, der aber nichts desto trotz absolut lesenswerten Stoff zum Thema "PAL-Signale und die Möglichkeiten von Bild-Schärfung" enthält.
News des 21. April 2006 |
Bei den Hardware-Infos hat man sich in einem sicherlich höchst spekulativen Artikel der Frage gewidmet, was denn nun von den kommenden Direct3D10-Chips ATI R600 und nVidia G80 zu erwarten sei, Teile des Artikels basierend zudem auf einer Meldung seitens der VR-Zone zum R600. Letztgenannte Meldung bringt allerdings auch keine echten Informationen, sondern ist eher "laut gedacht". Somit sind die von Hardware-Infos veröffentlichen "Daten" äußerst vorsichtig zu nehmen - es handelt sich hierbei nicht um Informations-basiertes Wissen, sondern eben Annahmen. Und leider ist zu R600 und G80 derzeit noch viel zu wenig bekannt, als daß man wirklich schon genauere Annahmen über Chip- und Speichertaktraten treffen könnte ...
... Auch in Frage der Pipeline-Anzahl gibt es bis dato keinerlei feste Informationen - die Annahme, ATI und nVidia würden hier wieder kräftig drauflegen, ist zwar sicherlich die Möglichkeit mit der größten Wahrscheinlichkeit, aber derzeit sollte man solche Vermutungen besser noch nicht in konkreten Zahlen formulieren. Sicher ist derzeit eben nur, daß beides Direct3D10-Chips sein werden und ATI hier den Ansatz der "unified shader" aus dem R500-Chip weiterverfolgen wird, während nVidia die "unified shader" wohl nur Software- und nicht Hardware-seitig bieten wird. Und in der Zeit-Frage gehen wir dann völlig unkonform mit Hardware-Infos: Alle vorliegenden Halb-Informationen deuten darauf hin, daß ATIs R600 schon zum Herbst fertig sein wird - auch wenn sich ATI dann aus Markt-taktischen Gründen womöglich Zeit mit dem Launch lassen könnte.
Beim französischen PCinpact wird dagegen von angeblich demnächst anstehenden neuen AGP-Grafikkarten berichtet. Danach will nVidia angeblich die GeForce 7600 GT und - man höre und staune - auch noch die GeForce 7900 GT auf AGP auflegen. Insbesondere letztgenannte wäre ein nettes (und wohl auch letztes Bonbon) für die bis jetzt noch eisernen AGP-User, läßt sich die Performance einer GeForce 7900 GT doch durchaus mit der einer GeForce 7800 GTX vergleichen - und die war vor wenigen Monaten noch nVidias Top-Modell. Ob es allerdings zu diesen neuen AGP-Karten kommt, ist damit noch nicht gesagt, derzeit fehlt jede Bestätigung seitens nVidia und falsche Gerüchte hierzu gab es in letzter Zeit schon genug.
Shortcuts: Wie der Planet 3DNow! berichtet, hat Microsoft bestätigt, daß sich die 3D-Oberfläche AeroGlass von Windows Vista erst nach einer Echtheitsprüfung aktivieren lasse. Laut dem Heise Newsticker fliegt derzeit das Gerücht umher, AMD würde seine Sockel-AM2-Prozessoren nicht am 6. Juni, sondern schon zwei Wochen früher gegen Ende Mai bringen. Ein lesenswertes, weil kritisches Review zu Gigabytes i-RAM gibt es bei Kaltmacher. Interessant ist u.a. die Bemerkung, das die Sache nur richtig stabil bei der Bestückung mit nur zwei Speicherriegeln funktionierte. Die Webseite plastk:net beschäftigt sich mit "Ultra High-Resolution Gaming" und bietet als Demonstration dessen ein paar Videos von Quake III Arena unter der irren Auflösung von 10240x3072 (mit immer noch spielbaren Frameraten!) an.
News des 20. April 2006 |
Wie The Inquirer behaupten, besitzt der ATI R580 Grafikchip (Radeon X1900 Serie) wie sein Vorgängers R520 (Radeon X1800 Serie) erstaunlicherweise keine HDCP-Eignung, wären also keine HDCP-fähigen Grafikkarten innerhalb der Radeon X1800/X1900 Serien möglich. HDCP-geeignet sind dagegen laut The Inquirer die ATI-Chips RV515 (Radeon X1300 Serie) und RV530 (Radeon X1600 Serie). Allerdings reicht allein die Chip-seitige Eignung noch nicht für eine HDCP-Kompatibilität aus: Es wird zusätzlich auf dem Grafikboard ein spezieller HDCP-Chip sowie ein HDMI-Ausgang benötigt, welche beide Geld kosten und damit nur bei einigen speziellen Grafikkarten von Sapphire und GeCube verbaut werden. Allerdings ist nicht sicher, inwiefern die Informationen von The Inquirer korrekt sind - bisher ging man eigentlich davon aus, daß bei ATI alles seit der Radeon 9700 Pro (R300) Chip-seitig prinzipiell HDCP-geeignet sei.
Laut der GameZone hat das Spiel "Condemned: Criminal Origins" Probleme mit FAT32-Festplatten. Grund dafür ist, daß das Spiel eine 7 GB große Datei auf die Festplatte "brennen" will, das ältere Dateisystem FAT32 aber nur Dateigrößen bis maximal 4 GB unterstützt - erst das neuere NFTS-Dateisystem kann hier deutlich mehr (bis zu 16 ExaByte). Ob es allerdings ein Geniestreich der Entwickler war, eine große 7-GB-Datei zu verwenden anstatt zweier 3,5 GB großer Dateien, darf arg bezweifelt werden, denn allein durch diese Unachtsamkeit werden nunmehr FAT32-Systeme ausgesperrt. Zwar gilt NTFS (Windows 2000/XP) allgemein als das bessere, weil moderne Dateisystem, unter gewissen Umständen hat FAT32 (Windows 95/98/ME) jedoch seine Vorteile: Beispielsweise kann man auf DOS- oder Linux-Ebene an einem nicht mehr startenden Windows noch herumdoktern, sofern das Dateisystem FAT32 ist - bei NTFS ist dies nicht mehr möglich. Die meisten Profi-Funktionen von NTFS (Verschlüsselung, Komprimierung, Quotierung) werden dagegen von Heim-Anwendern sowieso nicht genutzt.
Gemäß Hard Tecs 4U hat Philips in den Vereinigten Staaten ein Patent zugesprochen bekommen, mit welchem man das Umschalten in Werbepausen am TV-Gerät verhindern will. Gleichfalls soll bei aufgenommenen Sendungen ein "Vorspulen" unterbunden werden können. Funktionieren tut das natürlich nur mit der entsprechenden Hardware-Basis namens Multimedia Home Platform (MHP) - ohne ein TV-Gerät mit MHP läuft die Idee von Philips glatt ins Leere (zumindestens bis zu diesem Punkt, wo uns die TV-Sender dazu zwingen, nur noch Geräte mit MHP einzusetzen). Wobei MHP natürlich in erster Linie für andere Dinge (interaktive Spielereien) gedacht ist und sich somit hervorragend als Zusatznutzen für den TV-Zuseher verkaufen läßt - das damit auch die Philips-Idee umgesetzt wird, braucht man ja nicht zu erwähnen :) ...
... Allerdings wollen wir Philips hier an dieser Stelle nicht komplett Unrecht tun, denn einen interessanten Aspekt hat die Idee dann doch: Die Möglichkeit, eben mittels MHP die laufenden Sendung des Free-TVs gegen Entgeld zu einer Pay-TV-Sendung zu machen. MHP kann hier zwar nur die technische Basis (durch den vorhandenen Rückkanal) stellen und es würde noch ein (Länder-spezifisches) Abrechnungssystem benötigt werden, doch wenn diese Anfangsprobleme einmal gelöst sind, wäre dieses "wahlweise" Pay-TV (bei angemessenen Preisen) möglicherweise eine interessante Bereicherung. Philips selber hat im übrigen betont, daß man derzeit nicht plane, das Patent in konkreten Produkten umzusetzen. Wofür die Zeit sicherlich auch noch nicht reif ist: Ein idealer Zeitpunkt wäre, wenn wir bereits alle schon MHP-Fernseher haben und uns demzufolge nicht mehr wehren könnten ;-).
Shortcuts: Der Heise Newsticker berichtet über den nun endlich gelaufenen Start von HD-DVD in den Vereinigten Staaten. Allerdings ist bei weitem nicht alles Gold, was da glänzt - die Anfangsprobleme von einer Minute Bootzeit beim Player sowie der geringen Anzahl an vorhandenen Inhalte deuten klar darauf hin, daß die ganze Angelegenheit wohl noch etwas Reifezeit benötigt. Bei DailyTech hat man Informationen über die seitens nVidia geplanten Mainboard-Chipsätze der nächsten Zeit. Gemäß PCinpact ändert ATI den Namen des "Radeon Xpress 200 CrossFire" Chipsatzes in "CrossFire Xpress 1600". Die normalen Xpress-200-Chipsätze dürften davon aber nicht betroffen sein, da sie keine CrossFire-Eignung aufweisen. Leider ihre Pforten schließen wird unsere Partnerseite 3DChips. Immerhin 7 Jahre fand (und findet man immer noch) auf 3DChips eine kompentente Berichterstattung über professionelle Grafikbeschleuniger inklusive eigener sehr umfangreicher Tests.
News des 18. April 2006 |
In unserem Forum ist ein Teil einer ursprünglich von HKEPC verbreiteten Präsentation seitens ATI zu sehen, welche sich um die kommenden Mainstream-Grafikchips RV560 und RV570 dreht - womit zumindestens deren Existenz nach den vielen nur als Gerücht verfügbaren Informationen der letzten Zeit erst einmal als bestätigt angesehen werden kann. Weiterhin kann nunmehr der 80nm Fertigungsprozeß für beide Chips als gesichert angesehen werden. Erste Samples soll es im übrigen schon im Mai geben, die Massenfertigung ist dann für Juli/August vorgesehen, womit der Markteintritt entsprechender Grafikkarten wohl im August, womöglich aber auch erst im September erfolgen wird ...
... Weitere bisher noch nicht bekannte Informationen zu RV560 und RV570 liefert die ATI-Präsentation dann leider nicht mehr. Wie bekannt schreiben die X-Bit Labs dem RV570-Chip 12 Rendering-Pipeline, 36 Pixelshader-Einheiten und ein 256bittiges DDR-Speicherinterface zu, was schon sehr nahe am HighEnd-Segment wäre. Man kann nun gern vermuten, daß der RV560 womöglich über 8 Rendering-Pipeline, 24 Pixelshader-Einheiten und ein 128bittiges DDR-Speicherinterface verfügen wird - momentan ist das natürlich nur eine bessere Spekulation. Sicher ist derzeit nur, daß für RV560 und RV570 das R580-Modell übernommen wird: Also drei Pixelshader-Einheiten pro Rendering-Pipeline.
Hard Tecs 4U berichten von der nun offiziellen Vorstellung der neuen Mobile-Grafikchips seitens nVidia: GeForce Go 7900 GS und GTX. Mit der aktuellen Situation im HighEnd-Segment der Mobile-Lösungen hatten wir uns hier bereits beschäftigt, nachzutragen wäre zu den dort getroffenen Aussagen noch eine Korrektur der Verlustleistungs-Angaben zu den neuen nVidia-Chips: Bei der GeForce Go 7900 GTX sind es laut nVidia 45 Watt (vermutlich zusammen mit dem passenden Speicher angegeben), bei der GeForce Go 7900 GS dagegen nur noch 20 Watt. Damit wird auch automatisch klar, welcher Chip eher für DTRs (Desktop Replacment) und welcher eher für "echte" mobile Geräte geeignet ist.
Ein im wahrsten Sinn des Wortes "cooles" Ding ist in unserem Forum zu sehen: Ein komplett ohne Kühler laufender Prozessor - und zwar nicht von VIA, sondern von Intel. Möglich ist dies mit den LV/ULV-Typen des Pentium M (LV = Low Voltage, ULV = Ultra Low Voltage), da diese mit deutlich weniger Spannung betrieben werden als die regulären Pentium M Prozessoren und somit auch deutlich weniger Verlustleistung aufweisen (regulär: bis 31W, LV = 10W, ULV = 5W). Nachteiligerweise gibt es die LV/ULV-Typen nur mit geringeren Taktfrequenzen (bis maximal 1.6 GHz) und zudem mit gehörigem Preisaufschlag gegenüber den regulären Modellen - für spezielle Anwendungsfälle kann sich das aber lohnen. Beispielsweise sind Notebooks mit 8-9 Stunden Batterielaufzeit fast immer auf Basis von LV/ULV-Prozessoren gegebaut.
Den komplett anderen Weg ist man dagegen bei MadShrimps gegangen: "Maßloses" Pentium M Overclocking unter Zuhilfenahme einer Kühlung mit flüssigem Stickstoff :). Damit erreichte man ausgehend von einem Pentium M 780 mit default 2.26 GHz satte 3.87 GHz Takt, was laut Golem gemäß des CPU-Benchmarks Super PI in einer Performance ähnlich der eines Pentium Extreme Edition auf 6.6 GHz resultierte. Dabei dürfte hier sogar der interessanteste Punkt sein, das beim Pentium 4 und dessen Abkömmlingen (Pentium D, Pentium Extreme Edition) 6 GHz und mehr als Serienprodukt und ohne weiterer Die-Shrinks als ziemlich unrealisierbar erscheinen, die Pentium M bzw. die nachfolgende Core-Architektur jedoch im Laufe der Zeit wahrscheinlich jene 3.87 GHz erreichen kann.
News des 17. April 2006 |
MKVTech scheinen den ersten unabhängigen Testbericht zur GeForce 7900 GX2 zu haben, der Quad-SLI Grafikkarte seitens nVidia (auf der 7900GX2 sind zwei G71-Grafikchips, Quad-SLI wird dann mittels zweier solcher Grafikkarten erreicht). Zwar benutzte man als Benchmarks allein nur die letzten 3DMarks, allerdings bestätigen die Ergebnisse auch so schon unsere vorherigen Befürchtigungen in ziemlich eindeutiger Art und Weise: Quad-SLI ist - auf Basis der GeForce 7900 GX2 nicht so viel schneller als gewöhnliches SLI (auf Basis der GeForce 7900 GTX). Der Grund hierfür dürfte primär in den recht gemächlichen Taktraten der GeForce 7900 GX2 von 500/600 MHz liegen (gemäß der ersten Ankündigungen sollten es noch 500/500 MHz sein, hier hat nVidia anscheinend die Spezifikationen nachträglich noch verändert), eine GeForce 7900 GTX geht aber immerhin mit 650/800 MHz ans Werk ...
... Dies resultiert dann darin, daß ein Quad-SLI-Gespann aus zwei GeForce 7900 GX2 Karten (mit vier G71-Chips) unter 2560x1600 mit 4x Anti-Aliasing samt 8x ansitropen Filter, also einem äußerst Grafikkarten-forderndem Setting, nur recht magere Zugewinne gegenüber einem SLI-Gespann aus zwei GeForce 7900 GTX Karten verbuchen kann: Unter dem 3DMark03 sind es wenigstens noch 28 Prozent, unter dem 3DMark05 dagegen glatt gar nichts und unter dem 3DMark06 dann wieder 16 Prozent. Vor dem Kauf eines Quad-SLI-Systems sollte man also unbedingt noch weitere (bis dahin hoffentlich erscheinende) Testberichte konsultieren und sich keinesfalls von der puren Anzahl der Grafikchips blenden lassen, denn eine weitere Leistungsverdopplung gegenüber dem regulären SLI findet durch das momentane Quad-SLI nicht statt.
Als Gegenbeispiel für den 256MB vs. 512MB Test unter Oblivion hat die ComputerBase einen solchen Test mit entsprechenden Radeon X1800 XT Karten unter verschiedenen Spielen angestellt. Die Radeon X1800 XT ist diesbezüglich besonders interessant, gibt es diese Karte doch ganz regulär mit 256 und mit 512 MB Grafikkartenspeicher - und das alles sogar noch auf denselben Taktraten. In diesem Test zeigte sich der Mehrspeicher wieder von seiner performanten Seite: Um 10 Prozent unter 1280x1024 bzw. 13 Prozent unter 1600x1200 (jeweils mit 4xAA samt 16xAF) ging die Framerate bei der 512-MB-Karte gegenüber der 256-MB-Karte nach oben ...
... Allerdings wird dieser Durchschnitt sicherlich auch durch die drastischen Unterschiede unter Call of Duty 2 maßgeblich vorangetrieben: Dort sind es gleich 52 bzw. 72 Prozent, welche die 512-MB-Ausführung schneller ist. Die ComputerBase vermutet an dieser Stelle schlechtere Speichertimings seitens ATI, um die 256-MB-Version künstlich auszubremsen und damit eine Differenz zur 512-MB-Version zu schaffen. Dies halten wir allerdings für stark unwahrscheinlich: Erstens läßt sich damit der große Unterschied bei Call of Duty 2 kaum erklären und zweitens liegt die Speicherbestückung normalerweise im Aufgabenbereich des Grafikkarten-Herstellers, der Grafikchip-Entwickler hat hier nur noch bei den default-Taktraten ein Mitspracherecht ...
... Man muß eher konstatieren, daß die Frage 256 vs. 512 MB Grafikkartenspeicher eben je nach Spiel zu sehr unterschiedlichen Ergebnissen führen kann: Unter Oblivion ergab sich keine nenneswerte Differenz, bei den Tests der ComputerBase reagierte aber mehr als die Hälfte des Testfeldes mit 10 Prozent oder mehr Performancegewinn für die 512-MB-Version. Da man mit einiger Sicherheit davon ausgehen kann, das sich dieses Verhältnis pro 512 MB mit den in Zukunft erscheinenden Spielen noch verstärken wird, schwingt das Pendel bei den HighEnd-Grafikkarten schon jetzt recht klar in Richtung von 512-MB-Lösungen: Schlecht natürlich für die GeForce 7900 GT, welche eine sehr ausgewogene Lösung im unteren HighEnd-Bereich ist, aber eben doch (per default) nur 256 MB Speicher bietet.
Ein eher zweifelhaftes Angebot hat Grafikkarten- und Mainboard-Hersteller Asus in sein Programm aufgenomen: Eine GeForce 6800 mit nur 128bittigem Speicherinterface, "N6800/TD/512M" genannt. Die GeForce 6800 auf Basis der nVidia-Chips NV41, NV42 oder NV40 (NV41 und NV42 mit 12 Pipelines, NV40 mit 16 Pipelines, wovon 4 deaktiviert sind) haben eigentlich ein 256bittiges DDR-Speicherinterface und wurden bisher auch generell so ausgeliefert: Alles, was mit GeForce 68xx anfängt, sollte ein 256bittiges Interface haben. In diesem Fall ist es aber nicht so, diese spezielle Asus-Karte sollte somit stark unter regulären GeForce 6800 Karten zurückhängen und eher auf dem Niveau von GeForce 6600 GT Karten laufen. Der bei der Asus-Karte verbaute große 512-MB-Speicher erscheint in diesem Zusammenhang als besonders nutzlos - es handelt sich hier mehr um eine klassische Lösung für OEM-PCs, wo mittels großem Speicher Leistung vorgegaukelt wird, die in der Realität dann aber nicht vorhanden ist.