News-Archiv 24. - 30. April 2006 (17. Kalenderwoche)
29./30. April 28. April 27. April 26. April 25. April 24. April
News des 29./30. April 2006 |
nVidia hat sich gegenüber dem von NGOHQ verbreiteten SLI Patch nicht wesentlich begeistert gezeigt und dessen Herunternahme von der Webseite gefordert, welcher Aufforderung NGOHQ auch nachkam. Die Begründung liegt natürlich im Copyright von nVidia, wobei man sich über diesen Fall sicherlich streiten kann, schließlich stammte der Original-Patch nicht von nVidia, sondern von ASRock und war dort eine ganz offiziell veröffentlichte Datei, um auf den ULi-basierenden Mainboards von ASRock die SLI-Funktionalität zu ermöglichen. Sicherlich kann man die klare Linie von nVidia in diesem Fall (SLI nur mit nVidia-SLI-Mainboards) mit dem geschäftlichen Interesse von nVidia begründen, dagegen steht aber generell die (zweifellos berechtigte) Forderung des Marktes nach größtmöglicher Interoperabilität.
Das war aber noch nicht alles: Am 17. April berichteten wir über den ersten Quad-SLI Testbericht seitens MKVTech, bei welchem Quad-SLI allerdings nicht besonders wegkam. Interessanterweise haben MKVTech diesen Artikel nun auf Bitte von nVidia entfernt - hier waren wohl nicht nur uns die Ergebnisse von Quad-SLI zu niedrig ;). Zwar kann man anführen, daß die aktuellen Treiber bezüglich Quad-SLI womöglich noch nicht ausgereift genug für eine abschließende Leistungsbewertung sind, allerdings werden Quad-SLI Systeme in den Vereinigten Staaten schon seit Anfang April angeboten und verkauft - und wer im Markt steht, muß sich auch dem Performance-Vergleich stellen ...
... Insofern dürfte es interessant sein zu sehen, wie nVidia auf einen neuerlichen Quad-SLI Testbericht seitens techPowerUp! reagiert ;). Hierbei wurde das Quad-SLI System einem bis auf die Grafiklösung identischem CrossFire-System mit einer Radeon X1900 XTX und einer Radeon X1900 CrossFire gegenübergestellt (eine etwas ungünstige Kombination, da erstere mit 650/775 und zweitere nur mit 625/725 MHz taktet, sinnvoller ist hier die Kombination Radeon X1900 XT + Radeon X1900 CrossFire), als Prozessor kam dabei ein Athlon 64 FX-60 mit 2.6 GHz zum Einsatz. Leider konzentriert sich der Testbericht von techPowerUp! zu stark auf die Auflösung von 2560x1600 - in der Auflösung von 1024x768 wurden alle Tests etwas realitätsfremd nur ohne Anti-Aliasing und ohne anisotropen Filter vorgenommen ...
... Somit kann der Test von techPowerUp! nur eine Aussage dazu treffen, was Quad-SLI gegen CrossFire unter der superhohen Widescreen-Auflösung von 2560x1600 (samt 4xAA und 16xAF) bringt: Dies mag sicherlich ein Einsatzgebiet sein, für welches Quad-SLI wie gemacht erscheint, nichts desto trotz wird nicht jeder Quad-SLI Anwender diese Auflösung nutzen können, sondern sind sicher auch Messungen unter 1280x1024 und 1600x1200 relevant - wenn die CPU zu stark limitiert, dann eben mit höheren Anti-Aliasing Modi wie dem sehr leistungsfressenden 8xS. Davon ganz abgesehen präsentierte sich Quad-SLI aber auch unter der superhohen Auflösung von 2560x1600 nicht als besonders performant: Gegenüber dem CrossFire-System waren es in den Spieletests gerade einmal lächerliche ein Prozent Mehrleistung ...
... Wenn man bedenkt, daß das Quad-SLI System hier immerhin 4 Grafikchips zum Einsatz bringen durfte und zudem auf dieser hohen Auflösung CPU-Limitierungen auch eher unwahrscheinlich sind, ist das Ergebnis wahrlich kein Ruhmesblatt für Quad-SLI - CrossFire schafft hier mit zwei Grafikchips faktisch dassselbe. Dabei kostet ein CrossFire-System auch erheblich weniger, man kann beide ATI-Karten inzwischen jeweils für unter 450 Euro erwerben, während die für Quad-SLI zum Einsatz kommende GeForce 7900 GX2 Grafikkarten mit zweimal 700 bis 800 Euro gerechnet werden können. Nach den Messungen von techPowerUp! hat nVidia unter Quad-SLI nicht einmal mehr den von den Single-Karten bekannten Vorteil bezüglich der Geräuschentwicklung, nur bei der Leistungsaufnahme bleibt man trotz 4 vs. 2 Grafikchips runde 40 Watt unter dem ATI-Wert.
Shortcuts: Laut The Inquirer hat ATI beim R580-Chip eine angeblich so gute Ausbeute, auf daß sich keine "natürliche" Auslese zugunsten der geplanten Radeon X1900 GT mit nur 12 Rendering-Pipelines und 500 MHz Chiptakt ergibt. Was ATI natürlich nicht daran hindern wird, diese Karte herauszubringen, aber wahrscheinlich werden somit viele Radeon X1900 GT Karten ein gutes Übertaktungspotential haben. Gemäß PCinpact biegt der GeForce 7900 GX2 Nachfolger GeForce 7950 GX2 nun auf die Zielgerade ein, nVidia soll diese Karte ab dem 30. Mai in den Handel bringen können. Aufgrund ihrer verkleinerten Bauform (und damit weniger Passproblemen in den meisten Gehäusen) soll die GeForce 7950 GX2 dann angeblich auch im Retail-Markt erhältlich sein. Und letztlich noch eine kleine Korrektur zu den News des letzten Wochenendes: Die Umbenennung der Sapphire "Blizzard" X1900 XTX in nunmehr "Toxic" X1900 XTX erfolgte nach Angaben von Sapphire nicht aus dem Grund, daß es einen gleichnamigen Spieleentwickler gibt.
News des 28. April 2006 |
Den ersten Test einer Radeon X1900 GT hat die chinesischsprachige Seite HKEPC (maschinelle englische Übersetzung) anzubieten, was ganz nebenbei auf einen baldigen Markteintritt dieser neuen ATI-Grafikkarte schließen läßt. Wie schon im Vorfeld erwartet handelt es sich bei der Radeon X1900 GT um eine R580-basierende Grafikkarte, bei welcher schlicht eine Quad-Pipeline deaktiviert wurde. Dies resultiert dann im "Verlust" von 4 Rendering-Pipelines samt 12 Pixelshader-Einheiten, so daß die kompletten technischen Daten auf 12 Rendering-Pipelines, 8 Vertexshader- und 36 Pixelshader-Einheiten an einem 256bittigen Speicherinterface mit gewöhnlich 256 MB Speicher lauten. Als Referenz-Taktraten liegen dabei 575/600 MHz an, auf dem von HKEPC untersuchten X1900GT-Board waren jedoch 1.4ns Speicher verbaut, welche schon laut Spezifikation für 700 MHz geeigent sind ...
... Wie üblich bei den jeweils kleineren Karten einer Serie dürfte sich die Radeon X1900 GT also vernünftig zum Übertakten eignen (HKEPC kamen auf 649/716 MHz) - allerdings sind bei dieser durchaus schwankende Übertaktungserfolge zu erwarten, denn natürlich wird ATI für die Radeon X1900 GT immer nur die "schlechtesten" R580-Chips verwenden, während die besten R580-Chips generell in die Produktion der Radeon X1900 XT und XTX gehen dürften ("schlechte" Chips ist in diesem Zusammenhang alleinig relativ zu sehen, denn auch diese Chips sind funktionell einwandfrei und haben alle Takttests bei ATI bestanden). Selbst wenn derzeit noch kein Preis für die Radeon X1900 GT vorliegt, deuten die technischen Daten und vor allem die 256 MB Speicher doch klar an, daß ATI hiermit eine neue Konkurrenz zur durchaus erfolgreichen GeForce 7900 GT schaffen will ...
... Womit ATI - bei wie gesagt entsprechende Preislage - wohl Erfolg haben dürfte, erreicht die Radeon X1900 GT im Schnitt doch die Performancewerte eben dieser GeForce 7900 GT (und ist klar schneller als die mit dem Erscheinen der Radeon X1900 GT wohl auslaufende Radeon X1800 XL). Unbedingt schneller zu sein als nVidia dürfte bei dieser neuen ATI-Karte wohl aber sowieso nicht das Ziel von ATI gewesen sein - wichtiger ist hier eher, daß der Markt die Radeon X1900 GT als "neu" im Gegensatz zu den bisher in diesem Marktsegment angebotenen R520-basierenden Lösungen, konkurrenzfähig zur GeForce 7900 GT und preislich attraktiv wahrnimmt. Sollte ATI letztgenannten Punkt noch realisieren können, steht einem Markterfolg der Radeon X1900 GT somit nichts im Wege.
Wie u.a. Hard Tecs 4U berichten, will Intel einen ziemlichen Umsturz in der Art und Weise, wie bisher neue CPU-Generationen beim größten Halbleiterhersteller der Welt entwickelt wurden, durchführen. Galt bisher die eherne Regel, daß neue Prozessor-Architekturen nur rund aller 5 Jahre das Licht der IT-Welt erblickten, will Intel nun ein System etablieren, was dem aktuell von den Grafikchip-Entwicklern praktizierten nicht unähnlich ist: So soll es künftig im Zeitraum von zwei Jahren jeweils eine neue Prozessoren-Architektur sowie einen Refresh geben, wobei bei letzterem dann mit einer kleineren Fertigungstechnologie noch einmal die letzten Reserven aus der eigentlichen Architektur herausgeholt werden sollen ...
... Nach diesen zwei Jahren soll dann schon wieder die jeweils nächste Prozessoren-Architektur anstehen - Intel verkürzt somit die Zyklen zwischen zwei Architekturen erheblich von 5 auf 2 Jahre. Dies sollte normalerweise dann auch in dem Effekt resultieren, daß zwischen den einzelnen Architekturen nicht mehr so extrem hohe Unterschiede existieren wie beispielsweise zwischen Pentium III und Pentium 4. Andererseits kann Intel mit den kürzeren Architektur-Lebenszeiten deutlich besser auf den offensichtlich erheblich schnellebiger gewordenen Markt reagieren, von dem positiven PR-Effekt durch die häufigere Vorstellung von neuen Architekturen und Prozessoren ganz zu schweigen ...
... Mittels einer groben CPU-Roadmap gab Intel dann zudem wenigstens die Namen der kommenden Prozessor-Architekturen an: So steht derzeit bekanntermaßen die Core-Architektur auf Basis der Cores Merom (Mobile), Conroe (Desktop) und Woodcrest (Server) in 65nm an, als deren Refresh in 45nm wurde der Penryn-Core benannt. Danach - also wohl 2008 - kommt mit dem Nehalem-Core eine abermals neue Prozessoren-Architektur in weiterhin 45nm, als dessen Refresh-Chip in dann schon 32nm wurde der Nehalem-C Core genannt. Und abermals zwei Jahre später - ergo laut Plan 2010 - steht wieder eine neue Prozessoren-Architektur an, welche derzeit mit dem Gesher-Core in 32nm angegeben wurde ...
... Der Nehalem-Core ist im übrigen ein alter Bekannter: Seine erste Nennung reicht noch auf die großen Tage des Pentium 4 Northwood zurück, als der Pentium 4 über die Cores Prescott und Tejas fast 10 GHz erreichen und danach der Nehalem-Core mit Taktfrequenzen ab 10 GHz übernehmen sollte. Schon seinerzeit wurde Nehalem nicht als Pentium-4-Abkömmling, sondern als regelrecht neue Architektur betrachtet - von unserer Seite wurde hier angesichts der Itanium-Affinität von Intel ab und zu spekuliert, daß Nehalem die IA64-Ausprägung für den Desktop-Markt sein könnte. In jedem Fall wird es spannend zu sehen, inwiefern der noch unter ganz anderen Maßgaben entwickelte Itanium in das neue Konzept von Intel ("Performance pro Watt") passt bzw. wie stark Intel das ursprünglich angedachte Nehalem-Design noch ändern muß, um Nehalem den neuen Gegebenheiten anzupassen.
News des 27. April 2006 |
Golem verweisen darauf, daß ATIs Mainstream-Grafikkarten derzeit schon um einiges günstiger geworden sind, als in den jeweiligen Listenpreise angeben: Steht die Radeon X1800 GTO laut dem aktuellen Lineup eigentlich bei einem Listenpreis von 249 Dollar, ist diese inzwischen schon für 200 Euro zu haben, die Radeon X1800 XT 256MB bei einem Listenpreis von 329 Dollar für inzwischen 270 Euro. Selbst die einstmalige Top-Lösung Radeon X1800 XT 512MB, welche nach ATI-Plänen nun eigentlich vom Markt verschwinden soll, ist schon für 300 Euro zu haben - wirklich günstig für diese (nach wie vor schlagkräftig) HighEnd-Karte mit immerhin 512 MB Speicher. Mit diesem Preisrutsch dürfte ATI wohl den Markteintritt der kommenden R580-basierenden Radeon X1900 GT und XL vorbereiten, nach welchem die vorgenannten R520-Lösungen Radeon X1800 GTO und XT wohl wieder aus dem ATI-Angebot verschwinden dürften.
Die DigiTimes berichtet von Problemen beim 80nm Fertigungsprozeß beim weltgrößten Chip-Auftragsfertiger TSMC, von welchem ATIs geplante 80nm-Chips direkt betroffen sein sollen. Angeblich wäre die Chip-Ausbeute der 80nm Produktion zu schwach, so daß ATI seine 80nm-Pläne gestrichen hätte. Wie bisher bekannt, will ATI auf 80nm die Chips RV505 (sowie RV506 bei UMC; möglicherweise Ersatz für den RV515 aka Radeon X1300 Serie, möglicherweise aber auch extra Grafikkarten-Serie noch unterhalb der Radeon X1300 Serie), RV535 (direkter Ersatz für den RV530 aka Radeon X1600 Serie), RV560 (Radeon X1700 Serie als neue Mainstream-Lösung oberhalb der Radeon X1600 Serie), RV570 (neue Grafikkarten-Serie als Lösung für den Bereich zwischen Mainstream- und HighEnd-Segment) und R580+ (zum einen direkter Ersatz für den R580 aka Radeon X1900 Serie, andererseits durch höheren Chiptakt aber auch schnellere X1900-Varianten möglich) herausbringen. ATI hat die Meldung der DigiTimes allerdings umgehend dementiert: Man sprach sogar explizit davon, daß die 80nm Planungen für dieses Jahr unverändert sind, während man für 2007 mit der 65nm Fertigung plant.
Beim japanischen PC-Watch (maschinelle englische Übersetzung) berichtet man ein wenig zum DirectX9-Nachfolger Direct3D10 und den darauf basierenden Grafikchips von ATI, nVidia und S3. Hierbei kommt auch eine S3-Roadmap zur Sprache, nach welcher S3 seinen ersten Direct3D10-Chip "Destination 1" ungefähr im vierten Quartal 2006 vorstellen will. Produziert werden soll der Chip in 90nm (wohl wieder von Fujitsu), für das dritte Quartal 2007 will S3 aber ebenfalls auf die 65nm Fertigung wechseln. Der "Destination 1" soll dabei die Top-Lösung von S3 darstellen, eine kleinere Lösung für den LowCost-Markt namens "Destination 2" soll erst nach dem Launch des "Destination 1" erscheinen. Gleichlautend zu ATI will S3 die Destination-Serie per Hardware mit unified Shadern ausrüsten - einzig nVidia will hier bekanntlich weiterhin den Weg der dedizierten Einheiten gehen und unified Shader "nur" per Software bieten, da dies laut nVidia derzeit noch schneller als eine reine Hardware-Lösung sei.
Ein paar Korrekturen zu früheren News: In den News des 13. März berichteten wir über die ersten aufgetauchten Celeron M Prozessoren auf Yonah-Basis, die im Unterschied zu den regulären Pentium M Prozessoren nur über einen Core verfügen. Beide Bezeichnungen sind hier allerdings nicht zutreffend, trotz daß sie selbst von unserer Quelle so verwendet wurden. Statt "Celeron M" ist allein die Bezeichnung "Core Solo" für auf dem Yonah-Core basierende SingleCore-Prozessoren korrekt, während entsprechende DualCore-Prozessoren bei Intel unter dem Verkaufsnamen "Core Duo" laufen. Allerdings haben die aktuellen Core Single und Duo Prozessoren noch nichts mit der Core-Architektur von Intel zu tun ...
... Am 30. März berichteten wir über den "Future Port", welcher auf einigen ASRock-Mainboards zu finden ist und Support für zukünftige AMD-Prozessoren bieten soll. Wir bezweifelten seinerzeit allerdings die Schlagkräftigkeit der Anbindung des Future Ports - was jedoch kein Punkt ist, denn der Future Port ist ein umgeleiteter HyperTransport-Bus und bietet somit dieselbe Anbindung-Performance wie jede gewöhnliche CPU/Chipsatz-Kombinationen. Am 31. März bezifferten wir die Kosten für die Produktionsvorbereitung der nVidia NV3x-Chipfamilie mit 400 Millionen Dollar, was nicht ganz korrekt ist, da sich diese Summe auf die Produktionsvorbereitung und die vorhergehende Entwicklung bezieht.
Shortcuts: Golem berichten ausführlich zu den geplanten Urheberrechtsverschärfungen in den USA. Dabei soll unter anderem eine eigene ständige FBI-Spezialeinheit (!) nur für die Bekämpfung von Urheberrechtssünden aufgestellt werden. Währendessen hat die Lobbyorganisation der US-Musikindustrie RIAA laut Hard Tecs 4U wieder einmal eine Familie wegen illegalen Filesharing-Aktivitäten verklagt - obwohl diese Familie gar keinen Computer besitzt. In der Vergangenheit wurden u.a. bereits Mac-User (wegen Filesharing-Aktivitäten mit einem nur unter Windows verfügbaren Programm) und bereits länger verstorbene Personen verklagt. Nochmals Hard Tecs 4U berichten hingegen von einer löblichen ;) Initiative kanadischer Musikschaffender, welche sich gegen die Kriminalisierung ihrer eigenen Fans sowie gegen den Alleinvertretungsanspruch der Musikindustrie bezüglich des Urheberrechts aussprechen.
News des 26. April 2006 |
Wie die DigiTimes berichtet, soll der taiwanesische Chip-Auftragsfertiger und TSMC-Hauptkonkurrent UMC angeblich mit der Produktionsvorbereitung für 90nm G7x-Grafikchips von nVidia begonnen haben, welche dann im zweiten Quartal in einer entsprechenden Massenfertigung resultieren würde. Nachdem also schon ATI (sehr massiv) den Konkurrenzkampf zwischen TSMC und UMC anheizt, scheint nun auch nVidia Gefallen an einer solchen Situation zu finden, wo man die Last auf zwei anstatt einen Auftragsfertiger verteilt. Noch ist allerdings nicht klar, welche Chips nVidia bei UMC fertigen läßt (für den Anfang sicherlich weniger die HighEnd-, sondern wahrscheinlicher zuerst LowCost- und Mainstream-Chips) und ob dies wie bei ATI in extra Chipnamen resultiert.
In gedanklicher Fortsetzung zu den News des Montags zum Thema von Intels Business-PC Plattform vPro ist es eventuell interessant, über weitere mögliche PC-Plattformen nachzudenken, nachdem sowohl Intel als auch AMD nunmehr verstärkt diesen Weg wählen, um für spezielle Nutzergruppen abgestimmte Systeme in den Markt zu bringen. Seit langer Zeit fehlend und mit den kommenden Entwicklungen sicherlich immer stärker drängend dürfte nämlich eine extra PC-Plattform für PC-Enthusiasten und -Gamer sein. Diesem Teil des Marktes wird aufgrund seiner verhältnismäßig geringen Größe oftmals noch nicht gebührend Rechnung getragen, allerdings trieb (und treibt) erwiesenermaßen speziell Gamer-Hardware die allgemeine Hardware-Entwicklung der letzten Jahre maßgeblich voran, ist dieser "kleine" Teilmarkt dann eben doch bedeutender als seine reine Marktgröße. Dabei sei eine extra PC-Plattform für Enthusiasten und Gamer nicht mit der Viiv-Plattform zu verwechseln, auch wenn bezüglich der Multimedia-Fähigkeiten durchaus größere Schnittmengen existieren ...
... Gaming ist mit den meisten Viiv-PCs allerdings nur eingeschränkt möglich, da dort oftmals auf integrierte Grafikchips gesetzt wird - auch widerspricht die bei Viiv stark ausgeprägte Vorstellung von einem im Wohnzimmer nutzbaren PC einer wirklichen Enthusiasten-Lösung. Insofern scheint doch genügend Platz für eine eigene PC-Plattform für Enthusiasten und Gamer vorhanden zu sein - welche Intel dann natürlich (zum Vorteil der Anwender) dazu zwingen würde, auf leistungsschwache integrierte Chips zu verzichten und nur diese Technik zu verbauen bzw. vorzuschreiben, welche wirkliche Leistung verheisst. Auch Microsoft könnte hier seinen Teil in Form einer echten Pro-Version von Windows Vista beitragen, welches auf Spielereien und Hilfestellungen für PC-Newbies weitgehend verzichtet, sondern dem erfahrenen User lieber mehr Tools zur Steuerung und Kontrolle des Systems an die Hand gibt. Angesichts von bereits 9 geplanten Vista-Versionen würde eine weitere auch nicht mehr ins Gewicht fallen, ganz besonders nicht beim vielbeschworenen modularen Aufbau von Windows.
Der Heise Newsticker berichtet zum derzeitigen Stand bezüglich des Internet-Protokolls IPv6, welches dem derzeit genutzten Protokoll IPv4 nachfolgen soll. Die Durchsetzung von IPv6 wird demnach wohl viel länger dauern als ursprünglich geplant dauern, da viele Funktionen von IPv6 mit der Zeit auch bei IPv4 verfügbar geworden sind und der primäre Vorteil von IPv6 - der deutlich größere Adressraum - derzeit in Europa und Nordamerika noch keine besondere Relevanz hat, da hier noch große Bereiche des IPv4-Adressraumes ungenutzt sind. Langfristig führt aber wohl kein Weg an IPv6 vorbei, da bei IPv4 eben nur 4 Milliarden IP-Adressen zur Verfügung stehen und diese spätestens dann knapp werden, wenn Handys, Autos und Kühlschränke allesamt mit eigener fester IP-Adresse ausgeliefert werden wollen (IPv6 bietet 340 Sextillionen Adressen).
Shortcuts: Beim Notebookcheck gibt es eine grobe Übersicht über die derzeit erhältlichen Mobile-Grafiklösung, eingeteilt in Leistungsklassen. Bei AnandTech und dem MobilityGuru (eine Tochterseite von Tom's Hardware Guide) hat man sich passenderweise mit der Spiele-Performance des Dell XPS M1710 Notebooks mit GeForce Go 7900 GTX Grafik beschäftigt. Aufgrund des Taktunterschieds (500/600 MHz) zu einer "echten" GeForce 7900 GTX (650/800 MHz) reichte es natürlich nicht ganz zu deren Leistungen, aber "HighEnd" kann man die GeForce Go 7900 GTX wohl allemal nennen. Und letztlich berichtet der Heise Newsticker noch von einer Software namens Tunebite 3, welches DRM von Kaufmusik und -videos entfernen kann. Realisiert wird dies praktisch über die Wiederaufnahme des Inhalts, womit auch das eigentliche DRM zumindestens rein technisch nicht durchbrochen wird.
News des 25. April 2006 |
Bei 3DEclipse gibt es ein interessantes, weil seltenes (und zudem umfangreiches) Review zur S3 Chrome S27, der derzeit schnellsten Grafikkarte von S3. Getestet wurde dabei gegen den S3-eigenen Vorgänger GammaChrome S18 Pro sowie die (nunmehr durch die GeForce 7300/7600 Serien auslaufende) nVidia Mainstream-Lösung GeForce 6600. Die aktuelle S3-Karte schnitt dabei ganz vernünftig ab: Die ältere S3-Karte wurde zumeist deutlich überboten und meist reichte es auch zu einer Leistung in der Nähe der GeForce 6600, in einigen Tests konnte sich die Chrome S27 gar vor der nVidia-Karte plazieren. Unter dem Strich bleibt aber dennoch - unter dieser Karten-Auswahl - die GeForce 6600 die sinnvollere Lösung, weil dann insgesamt doch etwas schneller und vor allem mit einem vernünftigem Multisampling Anti-Aliasing ausgerüstet ...
... Die S3-Karten bieten hier bekanntermaßen nur Supersampling Anti-Aliasing an, welche auf solch verhältnismäßig langsamen Mainstream-Grafikkarten einfach zu viel Performance frisst, um es sinnvoll einsetzen zu können - ein Punkt, an dem S3 in der Zukunft wird arbeiten müssen (geplant ist derzeit der Direct3D10-Chip "Destination"). Auch die derzeitige Generation von S3 ist leider wieder nicht wirklich konkurrenzfähig, was u.a. auch am zu späten Erscheinungstermin liegt, der dann beispielsweise in einer nicht mehr marktüblichen Preisvorstellung resultiert: Während S3 im eigenen Shop derzeit runde 115 Euro (zzgl. MwSt) für eine Chrome S27 mit 256 MB Grafikkartenspeicher verlangt, bekommt man die GeForce 6600 mit dieser Speichermenge laut den Preisvergleichen von PreisRoboter bzw. Ciao schon für einiges unter 100 Euro (inkl. MwSt).
Golem berichten von der Verabschiedung des HyperTransport 3.0 Standards. HyperTransport dürfte den meisten in erster Linie über AMDs aktuelle Prozessoren bekannt sein, sind doch Mainboard-Chipsatz und eventuell weitere Prozessoren bei diesen über den HyperTransport-Bus angebunden. Die neue Spezifikation treibt wie üblich in erster Linie die schon vorhandenen technischen Limits nach oben, bietet aber daneben auch ein weiteres interessantes Detail: So werden nun erstmals per HyperTransport angebundene Steckkarten ("HTX") möglich, die Transferrate beträgt dabei 6,4 GB/sec. und somit immerhin sogar etwas mehr als bei PCI Express (4 GB/sec in einer Richtung) ...
... Zwar sind derzeit nur HTX-Steckkarten für Verschlüsselung und Netzwerkspeicher (sprich für den Server-Einsatz) geplant, mit dem Vorteil der direkten Anbindung an die CPU (der HyperTransport-Controller liegt schließlich direkt in den Athlon 64 Prozessoren) würde sich HTX aber auch exzellent für eine schnelle und vor allem Latenz-arme Verbindung zwischen CPU und Grafikkarte eignen. Die Betonung liegt hier allerdings klar auf "würde", denn natürlich wäre Intel derzeit von einer solchen Möglichkeit ausgeschlossen und würde ein solches Vorhaben mittels seiner Marktmacht zu verhindern wissen - einmal ganz abgesehen davon, daß die Grafikchip-Entwickler und die Grafikkarten-Hersteller ihrerseits sicherlich auch ungern langfristig zweigleisig fahren und sowohl HTX als auch PCIe unterstützen. Technisch interessant ist dies aber allemal - eventuell einigen sich Intel und AMD ja in der Zukunft auf eine einheitliche direkt in den Prozessoren integrierte Grafikkarten-Schnittstelle.
Der Heise Newsticker berichtet über die geplante Verschärfung des Urheberrechts in den Vereinigten Staaten von Amerika, welches zukünftig Urheberrechtsverletzer sowohl von der Strafandrohung (bis zu 10 Jahre auch für nichtgewerbliche Taten!) als auch von den erlaubten Ermittlungsmethoden her in Richtung Schwerverbrecher stellen soll. Im Zuge dessen soll sogar der oft kritisierte Digital Millennium Copyright Act (DMCA) nicht endlich einmal entschärft, sondern noch weiter ausgebaut werden. Mit der Zeit könnte es so zu der kuriosen Situation kommen, daß echte Kriminielle mit "handfest" begangenen Straftaten mildere Strafen kassieren als Urheberrechtsverletzer. Aber andererseits kommt es bei über 2 Millionen Häftlingen in den USA (fast doppelt soviel wie in China, obwohl in China 4x mehr Menschen leben) auf ein paar "Neuzugänge" aufgrund des Urheberrechts wohl auch nicht mehr an ;). Und wenn man fragt, wie solche Gesetze zustandekommen können, so sei auf eine Meldung von Golem verwiesen, wonach ein US-Senator die Spende eines iPods seitens einer Bürgerrechtsbewegung zurückgehen ließ, andererseits jedoch 2000 Dollar von Disney bzw. der RIAA (Lobbyorganisation der US-Musikindustrie) problemlos annahm.
News des 24. April 2006 |
Golem sowie der Heise Newsticker berichten von Intels neuer Plattform für Business-PCs "vPro". Wie bei den bisherigen Intel-Plattformen (Centrino für Mobile-PCs und Viiv für Multimedia Home-PCs) basiert vPro auf schon bekannten Intel-Gerätschaften: Um das entsprechende "vPro"-Siegel zu bekommen, benötigt es einen Prozessor aus der kommenden Core-Architektur, den Business-Chipsatz Q965 sowie eine Gigabit-LAN-Netzwerklösung von Intel. Den deutlichsten Unterschied zu "normalen" PCs macht dabei der Mainboard-Chipsatz Q965 aus, da dieser im Gegensatz zur regulären Lösung P965 zum einen Intels Active Management Technology (AMT) sowie zum anderen die - bei vPro dann aktivierte - LaGrande-Technologie der CPU durch ein Trusted Plattform Modul (TPM) auf dem Mainboard unterstützt. Um es provokativ zu formulieren: TCPA bzw. TCG ist nun da ...
... Allerdings handelt es sich hierbei eher um diesen Teil von TCPA/TCG, welcher allgemein unbestritten als nutzvoll angesehen wird: Der Absicherung von Firmennetzwerken - schließlich handelt es sich bei vPro ja um eine Plattform für Business-PCs. Konkret wird dies dann darüber gelöst werden, daß mittels der Virtualisierungstechnologie VT immer zwei Systeme am laufen sind: Eines für den Anwender und eines für den System-Administrator, damit dieser zum einen einfacher Updates einspielen und zum anderen besser auf Bedrohungen des Firmennetzwerkes reagieren kann. Damit das Admin-System sauber abgeschottet und somit nicht kompromitiert wird, kommt dann eben LaGrande in Verbindung mit dem TPM zum Einsatz. Zusätzlich kann dieses auch noch der Datenverschlüsselung dienen, was im Business-Einsatz schließlich immer wichtiger wird ...
... Doch abseits von Business-PCs stellt sich natürlich die Frage, wie lange der Home-User noch von LaGrande und TPM verschont bleibt - denn eines ist klar: Ist die Hardware-Technik einmal installiert, werden es sowohl die Software-Firmen (Microsoft) als auch die Inhalteanbieter (Film- und Musikkonzerne) weidlich ausnutzen, da schlicht zu wenige Anwender die Tragweite dieser Entwicklung sehen (und sehen können, da es ein gewisses Verständnis zu Computerdingen voraussetzt). Intel gab hierzu zu Protokoll, daß die zusammen mit dem Q965 erscheinenden Chipsätze P965 (Retail-Markt) und G965 (mit integrierter Grafiklösung, in erster Linie für Viiv-PCs) noch kein TPM enthalten werden (wobei die Mainboard-Hersteller ein solches trotzdem nach Bedarf einsetzen können), P965 und G965 sind also zumindestens offiziell nicht zwingend für Unterstützung von TCPA/TCG vorgesehen ...
... Zur Frage, ob Intel seine Prozessoren der Core-Architektur nur für vPro mit aktiviertem LaGrande ausliefern wird, bei den im Retail-Markt angebotenen Prozessoren jedoch LaGrande - wie bisher schon bei den Intel-Prozessoren - weiterhin deaktiviert lassen wird, gab es noch keine Information. Wir vermuten allerdings, daß Intel angesichts der Erfahrungen aus dem Marketing-Supergau bei der seinerzeitigen Seriennummer des Pentium III zumindestens vorerst die Prozessoren der Core-Architektur auch ohne aktiviertem LaGrande anbieten wird. Wie dies in der Zukunft aussieht, bleibt abzuwarten - zu befürchten steht aber sicherlich, das es nun nach der Salami-Taktik weitergeht und sich somit auch der Home-User langfristig nicht vor TCPA/TCG-fähiger Hardware wird retten können.
Während von der wirklichen Verbreitung des erstmals auf der 2004er CeBIT vorgestellten BTX-Standards derzeit noch nicht viel zu sehen ist, haben Kaltmacher diesbezüglich andere Informationen seitens Intel. Danach sieht Intel BTX durchaus im Plan und rechnet für 2007 gar mit einer höheren Anzahl an verkauften BTX- als ATX-Systemen. Ob es allerdings wirklich zum finalen Durchbruch von BTX kommen wird, bezweifeln wir nach wie vor noch: In den Worten Intels dürfte sicherlich zu einem gewissen Anteil auch eine Verteidigungsstrategie stecken, nachdem man ein nicht wirklich nach Plan laufendes Vorhaben schließlich niemals als "gescheitert" oder zumindestens "zurückhängend" zugibt, sondern generell schönredet ...
... Auch ist wie an dieser Stelle schonmals erwähnt für Intel der einstmalige Hauptgrund für BTX inzwischen weggefallen: BTX wurde seinerzeit geplant, um den kommenden auf der Netburst (Pentium 4) Architektur basierenden Prozessoren mit einer prognostizierten Verlustleistung von 150 Watt ein sicheres, weil entsprechend gut gekühltes Zuhause zu geben. Das ganze Kühlsystem von BTX ist schließlich allein darauf ausgelegt - und ist somit speziell für die Grafikkarten-Kühlung von HighEnd-Grafikkarten sogar eher nachteilig (zumindestens aber nicht besser als ATX). Mit der Einstellung der Weiterentwicklung des Pentium 4 zugunsten der deutlich genügsameren Pentium M Linie, welche nun in Form der Core-Architektur in den Desktop-Markt kommt, ergibt sich jedoch keine Notwendigkeit mehr für Gehäuse-Bauformen, die auf die Kühlung von 150 Watt verbrauchenden Prozessoren ausgelegt sind ...
... Sicherlich hat BTX einige weitere Detail-Verbesserungen gegenüber ATX zu bieten, aber diese dürften eben nicht so stark ins Gewicht fallen wie der nun weggefallene Haupt-Pluspunkt. Ironischerweise sind jetzt BTX-Gehäuse angesichts mancher DualCore-Pentium-Prozessoren mit bis zu 130 Watt Verlustleistung noch interessant, ab der im dritten Quartal startenden Core-Architektur wird der Punkt Verlustleistung zumindestens bezüglich der Gehäusebauform jedoch keine Relevanz mehr haben. Außerdem ist der Markt diesbezüglich sowieso nicht homogen - für AMD ergab sich nie die Notwendigkeit, nur wegen immer weiter steigender Verlustleistungen auf BTX umzusteigen, ganz besonders jetzt nicht mit den 90nm Athlon 64 Prozessoren. Da AMD BTX zudem natürlich als Intel-Zugpferd ansieht, auf welches man ungern freiwillig setzt, könnte es durchaus zur Situation kommen, das sich BTX nur im Intel-Teil des Marktes durchsetzt - wie gesagt wenn überhaupt ...
... Denn angesichts all dieser Einschränkungen dürfte es BTX nach wie vor schwer haben: Die prinzipielle Notwendigkeit fehlt nach dem Ende der Pentium-4-Linie, die anderen Detail-Verbesserungen sind zu geringfügig, gerade für Retail- und vor allem Bastel-PCs ist BTX viel zu einschränkend und letztlich ist es kaum zu erwarten, das der AMD-Teil des Marktes maßgeblich mitzieht. In dieser Situation könnte es durchaus dazu kommen, daß den Mainboard-, Netzteil- und Gehäuseherstellern irgendwann der doppelte Aufwand zu viel wird und BTX gar maßgeblich (sicherlich nie vollständig) vom Markt verschwindet. Die beste Lösung wäre natürlich, wenn Intel und AMD zusammen an einer wirklich neuen Gehäusenorm arbeiten würden - zum einen, weil man dann den kompletten Markt erreichen könnte, und zum anderen, weil man dann hoffentlich eine Lösung findet, die nicht nur gut für OEM-PCs, sondern auch für die vielfältigen Möglichkeiten von Retail- und Bastel-PCs ist.