News-Archiv 11. - 17. September 2006 (37. Kalenderwoche)
16./17. September 15. September 14. September 13. September 12. September 11. September
News des 16./17. September 2006 |
Bei Tom's Hardware Guide ist man der Frage nachgegangen, wie schnell SLI auf einem nicht-nVidia-Mainboard läuft. Chipsatz-Hersteller ULi hatte bekanntermaßen kurz vor seiner Übernahme durch (ausgerechnet) nVidia ein Tool herausgebracht, mit welcher die Verbauer von ULi-Chipsätzen ihren Mainboards zu SLI-Fähigkeiten verhelfen konnten. nVidia hat dies seinerzeit natürlich gar nicht gern gesehen und so war jenes Tool auch nur sehr kurze Zeit offiziell erhältlich. Aber einmal ins Internet ausgesetzte Dinge sind bekanntlich höchst schwer wieder aus diesem tilgen und so geistern diverse SLI-Patches bzw. gehackte Treiber auch weiterhin durch die Weiten des Netzes. Die THG hat sich dabei eines solchen SLI-Patches bedient, welcher allerdings die Einschränkung hat, nur bis zur nVidia-Treiberversion 81.98 zu funktionieren - was insbesondere deswegen, daß nVidia in den neueren Treibern einiges für SLI getan hat, doch ein gewichtiges Gegenargument darstellt ...
... Der Testgegner wurde zudem nicht wirklich optimal ausgewählt, denn gegen das Epox EP-9U1697 GLI Mainboard mit ULi M1697 mit zwei Stück auf PCIe x8 laufenden Grafikkarten-Steckplätzen trat mit dem Abit AN8 32X ein nVidia nForce4 SLI X16 basierendes Mainboard an, welches seine beiden Grafikkarten-Steckplätze jeweils mit PCIe x16 betreibt. Andererseits ergab sich jedoch sowieso nur ein Performance-Unterschied von 0,7 Prozent zugunsten des Abit-Mainboards, womit bewiesen wäre, daß SLI zweifellos auch performant auf nicht-nVidia-Mainboards funktionieren kann. Natürlich wird nVidia auch zukünftig SLI regulär nur auf den eigenen Mainboard-Chipsätzen zulassen, muß man sich damit - wie natürlich auch bei Mainboards mit ATI-Chipsätzen - weiterhin schon beim Kauf des Mainboards festlegen, welche DualGrafikkarten-Technologie später einmal eingesetzt werden kann - und welche nicht.
AnandTech haben anhand des ASRock 775Dual-VSTA Mainboards, welches sowohl DDR1- als auch DDR2-Speicher unterstützt, sich der Frage zugewandt, ob der Core 2 Duo Prozessor auch mit DDR1-Speicher anständig schnell läuft. Dazu wurden Tests mit DDR333 und DDR400 gegen DDR2/533 und DDR2/667 angestrengt, wobei insbesondere die Messungen mit DDR1-Speicher auf ziemlich niedrigen Timings liefen. Interessanterweise kann dabei DDR1-Speicher durchaus das Leistungsniveau von teils deutlich schneller getaktetem DDR2-Speicher erreichen: Zumindestens der DDR400-Speicher auf 2-3-2-7 war eigentlich immer so schnell wie der DDR2/667-Speicher auf 4-3-4-10. Sich nach ganz vorne schob sich allerdings der DDR2/533-Speicher, welcher ebenfalls (relativ gesehen) mit 3-3-3-8) recht niedrige Timings hat ...
... Allerdings läßt sich dieser Erfolg trotzdem nicht vollständig mit den besseren Latenzen erklären: Schließlich liegt die absolute CAS-Latenz bei DDR2/667 unter CAS4 mit 83ns (Speichertakt aka 333,3 MHz bei DDR2/667 durch CAS-Latenz von 4) immer noch niedriger als bei DDR2/533 unter CAS3: Dort sind es 88ns. Des Rätsels Lösung liegt wohl eher im Verhältnis Bustakt zu Speichertakt, welches bei DDR2/533 eine synchrone 1:1-Ratio bildet (FSB1066 = 266 MHz Bustakt x 4 Datenpakete pro Takt, DDR2/533 = 266 MHz Speichertakt x 2 Datenpakete pro Takt). Bei allen anderen Speichertakten kommen unsynchrone Verhältnisse zwischen Bustakt und Speichertakt heraus, welches zumindestens auf früheren Prozessoren erfahrungsgemäß immer etwas an Performance kostet. Scheinbar trifft dieses auch auf den Core 2 Duo zu - wobei das letzte Wort in dieser Sache noch nicht gesprochen ist ...
... Dafür fehlt dem AnandTech-Artikel erstens ein Test von DDR2/800 - um zu klären, ob dieser Speicher auf anständigen Timings nicht eventuell doch schneller ist. Und zweitens ist zu konstatieren, daß die Ergebnisse des AnandTech-Artikels zumindestens beim DDR2-Speicher doch sehr konträr gegen früheren Artikel laufen, welche allesamt eher höheren Speichertakten eine leistungssteigernde Wirkung zugesprochen haben. Dies schmälert auch etwas die eigentliche Aussage des Anand-Tech-Artikels, wonach man auch beim neuen Core 2 Duo Prozessor mit DDR400 auf niedrigen Timings auf eine konkurrenzfähige Performance kommen kann: Um wirklich sicher zu gehen, müsste man dieses mal gegen ein bekanntes Spitzen-Mainboard (womöglich ist das benutzte ASRock-Mainboard speziell auf DDR1 optimiert und liefert auf DDR2 relativ gesehen eine unterdurchschnittliche Leistung?) mit DDR2/800 gegentesten.
Gulli berichten über die Deutsche Nationalbibliothek, welche neben in Printform verbreiteten Schriften nun auch das deutschsprachige Internet archivieren will - und zwar vollständig. Von der Sache ist dies erst einmal eine begrüssenswerte Idee, schließlich soll es nachfolgenden Generationen somit ermöglicht werden, sich ein möglichst genaues Bild ihrer Vorgängergenerationen zu machen. Hochinteressant ist jedoch, was die Deutsche Nationalbibliothek alles archivieren will: Dazu gehören nämlich nicht nur Artikel und sonstige Meldungen von mehr oder weniger professionellen Internet-Pulikationen, sondern auch private Homepages, Weblogs und Foren, sogar passwortgeschützte Bereiche von Internet-Seiten (und für 36 Euro Jahresbeitrag kann man diese dann bei der Deutschen Nationalbibiliothek in Leipzig und Frankfurt einsehen) ...
... Aktuell existiert jedoch noch keine Regelung, wie man die Archivierung dieser Punkte technisch und organisatorisch lösen will. Laut der Süddeutschen Zeitung will man im ersten Schritt der Internet-Archivierung erst einmal nur Publikationen sammeln, welche eine Entsprechung im Printbereich haben - was auch organisatorisch einfach zu lösen ist, da man hier mit den schließlich bereits bekannten Verlagen zusammenarbeiten kann. Wie die Anforderung zur Archivierung freier bzw. privater Internetseiten aussehen soll, ist dagegen noch komplett ungeklärt. Doch wie die Wikipedia hierzu anmerkt, dürfte die Deutsche Nationalbibliothek diese sowieso erst zu Archivierung anfordern, wenn hierfür eine technische Lösung zur Verfügung steht, besteht momentan also noch kein Handlungsbedarf seitens deutscher Webseitenbetreiber ...
... Wenn jedoch eines Tages jene bereits angekündigte "Pflichtablieferungsverordnung" steht, kommt auch auf private Blogger und Homepagebetreiber die für Printmedien geltende Bringpflicht gegenüber der Deutschen Nationalbibliothek zum tragen: Nicht die Deutsche Nationalbibliothek kümmert sich um die Einsammlung der Inhalte, sondern diese müssen die Webseitenbetreiber selbsttätig binnen einer Woche bei der Deutschen Nationalbibliothek abliefern - ansonsten droht Ordnungsstrafe bis zu zehntausend Euro. Zwar existiert bei der Deutschen Nationalbibliothek auch die Idee einer (zukünftigen) Suchmaschine, die selbsttätig das Internet nach deutschen Webseiten absucht und diese archiviert, beim gegebenen Auftrag der vollständigen Speicherung aller deutschen Publikationen scheint die Realisierung einer solchen automatischen Archivierung jedoch ungleich schwerer als beim Archive.org, welches schließlich nur ausgewählte Seiten zeitweise und selektiv speichert.
News des 15. September 2006 |
Bei GamePC ist man den interessanten Test eines Xeon 5160 gegen einen Core 2 Extreme X6800 angegangen. Sind im gewöhnlichen Intels Xeon-Prozessoren für den Server- und Workstation-Einsatz um 20 bis 30 Prozent teurer als gleichgetaktete Desktop-Modelle, so stellt der Xeon 5160 hier die seltene Ausnahme dar: Denn jener Prozessor kostet mit 851 Dollar Listenpreis weniger als der X6800 mit 999 Dollar Listenpreis - und bietet mit 3.0 vs. 2.93 GHz sowohl die höhere CPU-Taktfrequenz als auch mit FSB1333 vs. FSB1066 den höheren Bustakt. Rein von den technischen Daten her ist der Xeon 5160 damit klar vorzuziehen - allerdings kommen beim Aufbau eines Xeon-Systems dann eben auch höhere Kosten für entsprechende Server-Mainboards sowie teureren Speicher in Form von FB-DIMM hinzu, dürfte das Gesamtsystem beim Xeon 5160 dann doch teurer sein als beim Core 2 Extreme X6800 ...
... GamePC ermittelten jedenfalls bei ihren verwendeten Testsystemen mit 1900 vs. 1775 Dollar einen kleinen Preisvorsprung für den X6800 - wobei diese Differenz angesichts der höheren Taktfrequenz sowie des höheren FrontSidBus des Xeon 5160 schon wieder verträglich erscheint. Schließlich sollte dieser dadurch auch höhere Leistungen erreichen können. Hier allerdings enttäuscht der Xeon 5160 im speziellen und die gesamte Xeon-Phalanx im allgemeinen: So liegen zwischen Xeon 5160 und Core 2 Extreme X6800 ganze 7 Prozent Differenz - allerdings zugunsten des Desktop-Prozessors. Hierbei schlagen insbesondere jene Benchmarks zugunsten des Core 2 Extreme aus, welche erheblich auf die Speicherperformance reagieren - deutlichst zu sehen beim Kompressionsbenchmark von 7-Zip, bei welchem der X6800 um satte 50 Prozent schneller ist ...
... Bei gleichgetakteten Prozessoren wird das Bild noch ungünstiger für die Xeon-Prozessoren: Zwischen Xeon 5150 und Core 2 Duo E6700 mit jeweils 2.67 GHz Takt (aber wieder einem Vorteil des Xeon-Prozessors beim FSB) liegen dann schon ganze 10 Prozent - natürlich wieder zugunsten des Core 2 Duo Prozessors. Die Idee, für HighEnd-Projekte eventuell den Xeon 5160 anstatt des Core 2 Duo X6800 anzusetzen, scheint damit - zumindestens derzeit - ausgeträumt zu sein. Wie GamePC selber ausführen, scheint hier wohl der FB-DIMM Speicher schuld an diesen Performance-Resultaten zu haben: Dieser Speicher ist zwar hervorragend für Speicherkonfigurationen mit sehr viel Speicher geeignet, kostet aber aufgrund eines integrierten Speichercontrollers, der alle Abrufe des Chipsatzes abfängt und nochmals umsetzt, eben auch Leistung. Die Xeon-Prozessoren werden damit nicht langsam, sie sind nach wie vor erste Wahl für den Server-Einsatz - aber von der reinen Performance her ist die Desktop-Lösung Core 2 Duo/Extreme dann eben doch schneller.
Bei Tom's Hardware Guide hat man dagegen einen ersten Vorab-Test zu Intels QuadCore-Prozessor Kentsfield für den Desktop-Einsatz anzubieten. Dieser Prozessor soll nun schon ab November diesen Jahres in den Markt kommen, dort aber aller Wahrscheinlichkeit nur im Rahmen der Core 2 Extreme Linie erhältlich sein, sprich mit einem Preispunkt von 1000 Dollar gewürzt sein. Wie schon bekannt, stellt der Kentsfield-Core faktisch "nur" die Zusammenlegung zweier Conroe-Cores auf einem Die dar: Im Prinzip zwei DualCore-Prozessoren mit auch zwei Level2 Caches (Core 1 und 2 teilen sich einen dieser Caches, Core 3 und 4 den anderen), nur eben in einem Gehäuse und sich einen FrontSideBus teilend ...
... Diese Lösung dürfte aber sicherlich nur von mittelfristiger Dauer sein, den spätestens mit der Einführung der 45nm Fertigung wird Intel auch QuadCore-Prozessoren bringen, wo alle vier Kerne auch zusammen hergestellt werden und sich dann auch nur noch einen Level2 Cache teilen. Bezüglich der Performance macht dies im übrigen keinen wirklichen Unterschied - da zählt eher, ob aktuelle Software überhaupt noch Nutzen aus der nochmaligen Verdopplung der Kerne ziehen kann. Doch gemäß der Benchmarks der THG läßt sich hier klar Entwarnung geben: Jene Benchmarks, welche bisher schon auf DualCore-Prozessoren gut reagiert haben (zumeist Audio/Video-Bereich, Bildbearbeitung u.ä.), zeigen auch mit dem QuadCore-Prozessor erhebliche Leistungsgewinne - teilweise hängt dort auch ein 2.0 GHz QuadCore-Prozessor den Core 2 Extreme X6800 mit "nur" zwei Kernen und aber 2.93 GHz Takt ab ...
... Nur jene Anwendungen, welche bisher schon bei DualCore-Prozessoren nur geringfügige oder gar keine Leistungsgewinne gegenüber SingleCore-Prozessen zeigten (primär Spiele), konnten dann mit den QuadCore-Modellen nicht mehr viel anfangen - was aber zu erwarten war. Dabei war allerdings sogar ein geringfügig gegenlaufender Effekt zu beobachten: Spiele, die unter DualCore-Prozessoren noch geringfügige Leistungsgewinne zeigten, brauchten unter QuadCore-Prozessoren teilweise sogar minimal mehr Takt, um auf die gleichen Leistungen wie bei einem DualCore-Prozessor zu kommen. Insgesamt gibt dies natürlich jenen Meinungen Auftrieb, welche sagen, daß die jetzigen DualCore-Optimierungen von Spielen sich auf geringfügige Dinge wie die Auslagerung der Grafikchip-Verwaltung auf den zweiten Core beschränken - die Software aber nicht wirklich auf Dual- oder gar MultiCore-Prozessoren ausgelegt ist. Doch je näher das Thema QuadCore rückt, um so mehr benötigen AMD und Intel Antworten auf die Frage, was der Gamer von solchen CPUs haben soll.
Shortcuts: Gemäß The Inquirer sollen zukünftig CDs und DVDs gleich mit RFID-Chips ausgestattet werden. Prinzipiell sollen diese natürlich dem Kopierschutz dienen - wie das aber genau vonstatten gehen soll, ist noch unklar. Deutlicher ist dagegen eine weitere Meldung der gleichen Seite, welche als Starttermin für die kommenden RV560- und RV570-basierenden ATI-Grafikkarten Radeon X1650 XT bzw. Radeon X1950 Pro den 17. Oktober angibt. Und letztlich berichtet der Heise Newsticker von einem speziellen Dell-Mainboard auf Basis von Intels 5000X Server-Chipsatz, welches allerdings SLI ermöglicht. Jener Intel-Chipsatz hat aber weiterhin keine offizielle Freigabe für SLI, diese Freigabe ist anscheinend nur auf jenes spezielle Dell-Mainboard beschränkt.
News des 14. September 2006 |
Wie erwartet hielt der donnerstägliche 14. September den "wahren" Launch der nVidia GeForce 7950 GT für uns bereit, die bisher erschienenen Artikel zu dieser Karte sind hier aufgelistet. Wirkliche Überraschungen halten diese allerdings nicht bereit, schließlich handelt es sich bei der GeForce 7950 GT um eine Karte mit derselben technischen Grundlage wie GeForce 7900 GT und GTX und mit Taktraten, die ziemlich in der Mitte der beiden genannten älteren G71-basierenden Grafikkarten liegen. Und genauso verhält sich die GeForce 7950 GT dann auch in den Benchmarks: Man liegt zumeist in der Mitte zwischen GeForce 7900 GT und GTX, mit der Tendenz durchaus zur GeForce 7900 GTX ...
... Interessanter ist hier schon der Vergleich zur Radeon X1900 XT 512MB, da jene Karte ebenso wie die neue nVidia-Lösung schon für knapp unter 300 Euro angeboten wird. Allerdings wurde exakt diese Karte nur recht selten mitgetestet, so daß wir uns hier mehrheitlich auf die Ausführungen von AnandTech und der FiringSquad verlassen müssen: Danach liegt die genannte ATI-Karte aber weiterhin ca. 16 Prozent vor der neuen nVidia-Karte. Dies läßt sich jedoch ganz rational dadurch erklären, daß die Radeon X1900 XT bei Chip- und Speichertakt nur 4 bzw. 7 Prozent hinter der Radeon X1900 XTX zurückliegt (und damit fast deren Performance erreicht), während die GeForce 7950 GT mit diesbezüglich 18 bzw. 14 Prozent doch deutlicher hinter der GeForce 7900 GTX rangiert ...
... Zu gute halten kann man der GeForce 7950 GT in diesem Vergleich zur Radeon X1900 XT 512MB allerdings, daß die neue nVidia-Karte in unseren Breitengraden dann eben doch schon etwas günstiger angeboten wird als die ATI-Karte: So kann man die GeForce 7950 GT derzeit für ab 260 Euro erstehen, die Radeon X1900 XT 512MB ist dagegen erst ab 290 Euro zu bekommen. Insofern scheint Platz für beide Grafikkarten vorhanden zu sein, der Performance-Unterschied zugunsten von ATI wird hier durch den Preisunterschied zugunsten von nVidia wieder ausgeglichen. Im übrigen tritt in der Tat das ein, was wir vergangene Woche schon spekulierten: Die GeForce 7900 GT wird mit dem Erscheinen der GeForce 7950 GT eingestellt, die entsprechenden Angebote zur GeForce 7900 GT sollen sogar recht bald vom Markt verschwinden.
Wie die VR-Zone vermeldet, setzt nVidia unerwarteterweise nun auch auf Chartered als Produktionspartner, welcher einige Serien des GeForce 7100 GS Grafikchips für nVidia herstellen soll. Bislang läßt nVidia eigentlich grundsätzlich beim weltgrößten Auftragsfertiger TSMC herstellen, dessen größter Konkurrent UMC wurde von nVidia (im Gegensatz zu ATI) nur selten mit Aufträgen bedacht. Charted erlangte in jüngster Zeit einige Aufmerksamkeit durch die Auftragsfertigung einiger AMD-Prozessoren, da die AMD-eigenen Werke komplett ausgelastet sind. Nebenbei: Zur GeForce 7100 GS ist derzeit noch immer nicht klar, ob unsere Annahme, daß es sich hierbei um eine Karte auf Basis des NV44-Chips handelt, wirklich richtig ist. Zumindestens gab es aber hierzu bis dato keine widersprechenden Informationen oder Aussagen.
Shortcuts: Wie das NGOHQ ausführt, plant nVidia offenbar mit der GeForce 7300 GT eine weitere neue Grafikkarte auch in AGP-Bauform anzubieten - wenngleich es sich hierbei leider wiederum nur um eine Lösung für das Mainstream-Segment handelt, welches also AGP-User mit ehemaligen HighEnd-AGP-Lösungen im Einsatz nicht hinter dem Ofen hervorlocken dürfte. The Inquirer stellen dagegen die Behauptung auf, ATIs R600 Direct3D10-Chip würde sich ins nächste Jahr hinein verspäten. Eine exakte Begründung hierzu wird allerdings nicht gegeben, so daß nicht klar ist, ob diese Meldung eine handfeste Grundlage hat oder einfach nur laut von The Inquirer gedacht ist.
neuer Artikel |
nVidia GeForce 7900 GT/GTX Review
Der G71-Chip wurde zwar bereits im März mitsamt der Grafikkarten GeForce 7900 GT und GeForce 7900 GTX vorgestellt, doch bislang fehlte zu diesen noch unser entsprechendes Review, welches wir hiermit - sehr spät, aber trotzdem - nachliefern wollen. Dabei haben wir uns bei diesem Artikel primär dem Zweikampf Radeon X1900 XTX versus GeForce 7900 GTX gewidmet, welcher auch nach den jüngsten Preissenkungen und Produktneuvorstellungen immer noch aktuell ist. Nicht unerwähnt bleiben soll, daß unser Artikel als Grundlage aller Messungen nicht die allgemeinüblichen Timedemos verwendet, sondern ausschließlich auf die der Praxis klar näheren Savegames zur Performance-Ermittlung setzt ... zum Artikel
News des 13. September 2006 |
DailyTech haben weitere Informationen zur ungefähr Mitte Oktober als Konkurrent zur GeForce 7900 GS anstehenden ATI Radeon X1950 Pro auf Basis des RV570-Chips. Danach lauten die endgültigen Taktfrequenzen nun 580/700 MHz - was verschmerzbare 20 MHz Chiptakt unterhalb der früher seitens ATI genannten Taktraten dieser Karte liegt. Interessant ist zudem die Information, daß diesen Karten eine interne CrossFire-Verbindung beiliegen wird: Denn wie schon bekannt, sollen die RV560- und RV570-basierenden Grafikkarten ganz offiziell CrossFire auch ohne extra CrossFire-Masterkarte und ohne CrossFire-Kabel ermöglichen, was zwar zum einen einfacher erscheint, zum anderen aber die Frage aufwarf, wieviel Leistung man mittels der Datenübertragung ohne CrossFire-Kabel und damit über PCI Express verliert ...
... Diese Sorge scheint nun unbegründet zu sein, denn faktisch kommt doch wieder so etwas wie ein CrossFire-Kabel zum Einsatz - wenn auch nicht am Monitorausgang der Karte, sondern "nur" zwischen den beiden Karten - durchaus vergleichbar mit nVidias SLI-Bridge. Ähnlich wie bei den nVidia-Grafikkarten will ATI diese CrossFire-Bridge bei allen entsprechenden Grafikkarten generell beilegen, so daß der sofortige oder nachträgliche Umstieg auf ein CrossFire-System problemloser als bisher vonstatten gehen dürfte. Gleichzeitig ist mit der Markteinführung dieser CrossFire-Bridge auch zu erwarten, daß ATI jenes System auch auf alle nachfolgenden Grafikchips und -karten umlegen wird, die CrossFire-Kabelei sowie die entsprechenden CrossFire-Masterkarten dürften also mittelfristig der Vergangenheit angehören.
Laut The Inquirer soll nVidias G80-Chip nach einer gewissen Verzögerung durch einen (aus unbekannten Gründen) erforderlich gewordenen Respin nunmehr Ende des November fertig sein und dann offiziell vorgestellt werden. Gleichzeitig will man von einigen Grafikkartenherstellern in Erfahrung gebracht haben, daß der Chip gar ein extra Grafikkarten-Netzteil benötigen soll. Dies mag sich zwar erst einmal seltsam anhören, ist aber angesichts der immer weiter in die Höhe schiessenden Leistungsanforderungen von HighEnd-Grafikkarten möglicherweise sogar der bessere Weg, als den Konsumenten immer wieder zum Kauf neuer und noch leistungsstärkerer PC-Netzteile zu zwingen.
Hard Tecs 4U haben eine Nachlese zur Games Convention 2006 anzubieten, bei welcher schließlich alle für das Retail-Geschäft wichtigen Hardware-Hersteller ebenfalls zugegegen waren und ihre neuesten und teilweise kommenden Produkte zeigten. Ein deutlich zweifelhaftes Highlight stellte dabei der Stand der schweizer Logistep AG dar, bekannt für die Massen-Strafanzeigen gegen deutsche Tauschbörsianer, welche sich offen damit brüsteten, die zehntausendste außergerichtliche "Einigung" erreicht zu haben - zugunsten natürlich der Logistep-Klienten und auf Basis von Logisteps sowohl rein technisch als auch moralisch durchaus fragwürdig zu nennender "Ermittlungen".
Wie der Heise Newsticker in drei Meldungen berichtet - No.1, No.2 und No.3 - scheint es nun endgültig zur GEZ-Gebühr für internet-fähige PCs in der zuletzt angedachten Form zu kommen: Die Gebühr gilt in derselben Höhe wie für Radio-Geräte (5,52 Euro pro Monat) und fällt zudem bei angemeldetem TV- oder Radio-Gerät automatisch unter die Zweitgeräte-Klausel. Für die meisten Privathaushalte dürfte sich also nichts ändern bzw. keine Gebührenerhöhung anstehen, dagegen werden die bisher in der Wirtschaft genutzten PCs mit Internetanschluß plötzlich gebührenpflichtig, obwohl bei diesen die zweckentfremdete Anwendung als Radiogerät zumeist gar vom Arbeitgeber untersagt ist. Vollends (w)irrig wird die neue Gebühr, wenn man bedenkt, daß ARD & Co. mit dieser vergleichsweise lächerliche 20 Millionen Euro einnehmen werden, welche angesichts der Gesamthöhe an GEZ-Einnahmen von jährlich 7 Milliarden Euro nur ein Tropfen auf den heißen Stein ist, welcher absolut nichts an der allgemeinen Finanzsituation der öffentlich-rechtlichen Sender ändert.
Shortcuts: Wie Hard Tecs 4U berichten, gibt es nun sogar eine AMD-offizielle Bestätigung bezüglich des Erscheinens von 65nm AMD-Prozessoren noch im Oktober diesen Jahres. Gleichzeitig wurde aber auch klargestellt, daß AMD zu diesem Zeitpunkt nur Opteron-Prozessoren in 65nm ausliefern wird, für den Desktop-Bereich kommt die 65nm Fertigung erst einige Monate später (ohne das man hierzu genauer wurde). Der Heise Newssticker berichtet hingegen von "emissionsfreien" VIA-Prozessoren, wo VIA den "Kohlendioxid-Ausstoß, den die Leistungsaufnahme dieser Prozessoren indirekt verursacht, durch Gegenmaßnahmen wie die Pflanzung von Bäumen kompensieren lassen" will ;)). Das Konzept hört sich zwar generell positiv an, hat laut dem Heise Newsticker aber durchaus auch seine Macken. Und letztlich hat der TechSpot noch den Test einer Radeon X1300 in PCI-Bauform (nicht PCI Express) seitens VisionTek anzubieten: Für die wenigen Systeme, wo dieses so benötigt wird, dürfte dies sicherlich sehr interessant sein, gibt es doch kaum noch neue PCI-Grafikkarten.
News des 12. September 2006 |
Gemäß der X-bit Labs wird der Brandname "ATI" wie zu erwarten auch für die kommenden Grafikchips der spätestens ab dem neuen Jahr gemeinsamen Firma AMD/ATI weiterverwendet werden. Ebenfalls unter diesem Siegel werden die noch ausgelieferten Mainboard-Chipsätze für Intel-Prozessoren laufen - wobei sich dieses spätestens ab Mitte nächsten Jahres automatisch erledigen dürfte, wenn ATI keine Buslizenz für den dann höheren FrontSideBus der Intel-Prozessoren mehr hat. Die Mainboard-Chipsätze für AMD-Prozessoren werden allerdings zukünftig unter dem Logo "AMD" in den Markt gehen. Was natürlich zu erwarten war: Denn zum einen sind Prozessor und Mainboard-Chipsatz aus derselben Hand (selbst wenn der Unterschied speziell in diesem Fall nur beim Namen liegt) immer ein hoher psychologischer Vorteil am Endkunden-Markt ...
... Und zum anderen steht die Chipsatz-Sparte technologisch natürlich der Prozessoren-Sparte von AMD klar näher als der Grafikchip-Sparte von ATI, dürfte hier wohl nicht nur eine reine Umbenennung des Produkts stattfinden, sondern wohl auch arbeits- und organisationstechnisch die Chipsatz-Sparte von ATI der Prozessoren-Sparte von AMD deutlich näher gebracht werden - ob nun als Untersparte der Prozessoren-Abteilung oder aber als weiterhin eigene Sparte mit jedoch starker Anbindung an die Prozessoren-Abteilung. Denn ohne eine solche starke Verknüpfung des Prozessoren- und des Chipsatz-Business wird AMD kaum die schließlich schon geplanten Synergien auf diesem Produktfeld erzielen können. Da im übrigen auch die Multimedia-Produkte von ATI künfig unter dem Brandname "AMD" auftreten werden, wird der Brandname "ATI" langfristig jedoch nur bei Grafikchips weiterexistieren.
Wie Hexus berichten, scheint Intel nun selber nicht mehr auf das Gehäuse- und Mainboard-Format BTX setzen zu wollen und hat demzufolge den wichtigen Mainboard- und Gehäuseherstellern verkündet, daß man ab nächstem Jahr BTX nicht mehr eigenaktiv unterstützen werde. Dabei bedeutet dies (noch?) nicht die völlige Abkehr vom BTX-Standard, denn wenn große OEMs weiterhin BTX-PCs bauen wollen oder aber noch Support für bereits gebaute Serien wünschen, wird Intel dies weiterhin gewährleisten. Die Ankündigung von Intel ist somit vielmehr eher als Hinweis an die Mainboard- und Gehäuseherstellern zu sehen, daß Intel langfristig nicht mehr auf BTX setzen wird und jene Hersteller somit nicht großartig Geld in entsprechende BTX-Neuentwicklungen setzen sollten ...
... Und so gesehen ist es dann doch wieder eine bedeutsame Aussage, speziell für die Mainboard- und Gehäusehersteller sogar eine regelrecht markterschütterende: Denn bislang hatte Intel trotz des sehr schleppenden Starts von BTX immer noch betont, über den Umweg der Durchsetzung im OEM-Markt langfristig BTX auch in den Gesamtmarkt bringen zu wollen. Gerade das kommende Jahr war ursprünglich dazu auserkoren, BTX langsam breitflächiger einsetzen, 2008 wollte man dann mit BTX schon in der Mehrheit gegenüber ATX sein. Dieses wird nun zweifellos nicht geschehen, denn ohne dem (nunmehr aufgekündigten) Support durch Intel werden die Mainboard- und Gehäusehersteller natürlich kaum noch neue BTX-Produkte entwickeln und fertigen - es sei denn für einen konkreten Auftrag durch einen PC-Bauer bzw. OEM-Hersteller ...
... Auslöser für diesen Schritt seitens Intel dürfte natürlich primär die klar veränderte Ausgangslage sein: BTX wurde seinerzeit konzipiert, um den geplanten Netburst-basierenden Prozessoren mit bis zu 150 Watt Verlustleistung eine vernünftige Kühlung selbst bei billigen OEM-Produkten geben zu können - und konnte diese Anforderung auch durchaus erfüllen. Inzwischen ist Intel jedoch weit weggekommen von solchen Verlustleistungen - und selbst die wohl sogar schon bald anstehenden QuadCore-Prozessoren mit bis zu 130 Watt TDP (was nicht bedeutet, daß die Verlustleistung unter regulärem Einsatz so hoch ist) werden hier nur kurzfristig wieder in eine ähnliche Richtung gehen, denn schon in der zweiten Jahreshäfte 2007 dürfte Intel auf die nochmals kleinere 45nm Fertigung wechseln ...
... Generell dürfte gegen BTX aber auch der Einwand stehen, daß dieses einfach zu stark auf eine gute Prozessorenkühlung ausgelegt ist, die anderen Systemkomponenten diesbezüglich aber eher vernachlässigt werden. Gerade für HighEnd-Grafikkarten ist BTX eher ungünstig - was im eigentlich geradezu nach einer neuen Gehäusenorm schreit, welche dann auch mehr Wert auf die bestmögliche Kühlung von Grafikkarte, (wegen der Ausfallsicherheit nicht zu vergessen) Festplatten und anderen Komponenten legt. Schließlich war die grundsätzliche Idee, das mittlerweile in die Jahre gekommende ATX abzulösen, sicherlich nicht verkehrt - nur eben mit BTX zu (Intel-)einseitig und letztlich nicht flexibel genug auf die sich ständig ändernden Anforderungen des Marktes gelöst.
Shortcuts: Nachdem die letzten Gerüchte eher nicht für AMDs 65nm Fertigungsprozeß sprachen, könnte es nach neuen Informationen nun möglicherweise gar schon in diesem Oktober so weit sein, wie Hard Tecs 4U vermelden. Dagegen mußte Intel gemäß nochmals Hard Tecs 4U vor der EU-Untersuchung zu Intels wettbewerbsrechtlichen Verstößen zugeben, den Media Markt unter Druck gesetzt zu haben, keine Produkte von Drittanbietern ins Programm aufzunehmen. In gewissem Sinne wusste das eigentlich jeder schon vorher, doch durch das Eingeständnis seitens Intel wird es für den größten Halbleiterhersteller der Welt nunmehr nicht mehr so einfach sein, den schönen Schein zu wahren. Laut Golem wird das Skype-Handy von Netgear nun ab Oktober ausgeliefert werden, wobei jenes zum Preis von 249 Euro wohl anfänglich eher nur für Vieltelefonierer interessant erscheint. Und letztlich berichten DailyTech noch über den Einstieg von Foxconn ins Grafikkarten-Geschäft. Der taiwanesische Hersteller liefert in unseren Gefilden bislang allein Mainboards aus, ist aber als Auftragshersteller für andere PC-Bauer schon des längerem eine große Nummer im Computergeschäft.
News des 11. September 2006 |
Wie Beyond3D berichten, soll ATIs Radeon X1900 GT demnächst mit geringfügig anderen Taktraten antreten: Von 575 MHz Chiptakt geht es auf 512 MHz herunter, dagegen steigt der Speichertakt von 600 auf 660 MHz. In der Summe dürfte die zweite Auflage der Radeon X1900 GT damit in etwa gleich schnell wie die erste sein, Sinn macht diese Überarbeitung wohl nur für ATI, da hiermit auch R580-Chips für die zweite Revision der Radeon X1900 GT Verwendung finden können, die beim Takttest nach der Produktion nur 512 MHz Chiptakt und nicht 575 MHz geschafft haben. Für den Endkunden wird es - sollte es diese zweite Revision der Radeon X1900 GT wirklich geben - natürlich nicht einfacher: Denn wenn neben den neuen sich teilweise kaum unterscheidenden Lösungen die Grafikchip-Entwickler auch noch mit zwei Revisionen derselben Karte anfangen zu operieren, wird es langsam aber sicher ziemlich verwirrend.
Bei ATI gibt es einen online ausführbaren Test, welcher angibt, ob der eigene PC gemäß der Microsoft-Vorgaben Vista-ready ist. Dabei hat man es sich natürlich nicht nehmen lassen, ausschließlich ATI-Produkte als "empfohlen" bzw. als "Optimum" darzustellen, sprich: Selbst wenn eine andere Grafikkarte die entsprechenden Einzeltests vollständig besteht, bekommt man in der Gesamtwertung nur ein "durchgefallen" samt der Empfehlung, doch besser auf eine ATI-Grafikkarte zu wechseln ;)). Anzumerken wäre, daß der Test je nach benutztem Browser ein ActiveX Control bzw. ein Java-Applet installiert, welches man nach Beendigung des Tests durchaus wieder entfernen kann: Dazu sucht man unter Start / Einstellungen / Systemsteuerung / Software einfach nach dem Eintrag "System Requirements Labs" und desinstalliert diesen.
Bei AnandTech hat man sich die PhysX-Performance im Online-Spiel "City of Villains" angesegen. Interessanterweise zeigt das Spiel - als große Ausnahme zu bisherigen PhysX-Tests - erhebliche Performancegewinne mit einer PhysX-Karte, teilweise kann man auf das doppelte der Performance kommen. Allerdings führen AnandTech auch aus, daß es diesen sehr großen Performance-Unterschied nur dann gibt, wenn man im Spiel die höchstmögliche Physik-Stufe wählt. Bei einem nur geringfügig niedrigerem Physik-Level - welches dann nicht einmal in einem wirklich sichtbarem Bildqualitätsunterschied resultiert - liegt die Performance mit PhysX-Karte dann schon wieder gleichauf der Performance ohne PhysX-Karte, zumindestens wenn man eine schnelle DualCore-CPU benutzt.
Der Heise Newsticker berichtet von einem aktuellen Gerichtsurteil, wonach diejenigen Personen, welche (zumeist nichtsahnend) von Phishern dazu benutzt werden, um an das ergaunerte Geld zu kommen, letztlich auf der Schadenssumme vollständig sitzenbleiben und nicht anführen können, im Endeffekt selbst betrogen worden zu sein. Davon abgesehen droht im Extremfall sogar noch eine strafrechtliche Ermittlung wegen Geldwäsche - insofern sollte man einen großen Bogen um (zumeist per eMail hereinflatterende) Angebote machen, wonach man nur durch Geldtransfers mal eben so einen schnellen Euro verdienen kann.
Shortcuts: Die X-bit Labs bringen eine neue Begründung für die derzeit arg verzögerte Auslieferung der neuen ATI-Chipsätze für Intel-Prozessoren ins Spiel: Danach soll Intel höchstselbst Druck auf die Mainboard-Hersteller ausüben, keine ATI-Chipsätze für Intel-Prozessoren mehr zu verbauen. Laut Hard Tecs 4U soll dagegen Intels erster QuadCore-Prozessor für den Desktop-Markt mit dem Kentsfield-Core nun bereits im November diesen Jahres erscheinen - wenngleich für diesen natürlich ein horrender Preis erwartet wird. Und letztlich gibt es von den X-bit Labs noch einen Artikel, welcher sich mit Geräuschbelastung und Stromverbrauch einiger aktueller Grafikkarten beschäftigt. Interessant sind in diesem wie üblich die Strommessungen nur der Grafikkarte selber - welche zudem nicht nur unter Vollast, sondern auch im Idle- und im 2D-Modus ausgemessen wurden.