News-Archiv 23. - 29. Juli 2007 (30. Kalenderwoche)
28./29. Juli 27. Juli 26. Juli 25. Juli 24. Juli 23. Juli
News des 28./29. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Bei The Inquirer wettert man herzhaft gegen heutige "Gaming-Notebooks" und empfiehlt als Alternative besser einen MiniATX oder MicroATX-Desktoprechner, welcher bei einem nicht all zu großen Monitor schließlich auch prinzipiell transportabel ist. Letzteres sei jetzt einmal dahingestellt, zumindestes sind die vorgebrachten Argumente gegen die "Gaming-Notebooks" halbwegs griffig. Prinzipiell erfüllen diese aber trotzdem noch ihren Zweck: Sie bieten erstens wirkliche Mobilität, welche sich nicht nur darauf erstreckt, das Gerät transportieren zu können, sondern vor allem auch unabhängig von Strom und ohne Einrichtungszeit sofort losarbeiten zu können. Und zweitens wird mit diesen Geräten trotzdem noch eine rein prinzipielle Spielefähigkeit geboten.
Ein Fehler der Medien wie auch des Verbrauchers liegt hier aber sicherlich darin, diese "Spielefähigkeit" ernst zu nehmen und mit Deskop-Ansprüchen zu vergleichen. Zwar können heutige HighEnd-Notebooks leistungsfähige und dem Desktop-Segment vergleichbare Prozessoren aufbieten, bei den Grafiklösungen liegt man derzeit jedoch maßgeblich hinter dem Desktop-Segment zurück. Nur einmal zum Vergleich: Ein privat im Dezember 2005 erstandenes Notebook bot mit einer GeForce Go 6800 eine für die seinerzeitigen Verhältnisse doch noch verhältnismäßig nah am Desktop-Segment befindliche Grafiklösung, selbst wenn es damals auch schon erste Beschleuniger der GeForce Go 7x00 Generation gab.
Vergleicht man das mit dem heutigen Angebot an Direct3D10 Mobile-Beschleunigern, dürfte diese inzwischen fast altertümliche GeForce Go 6800 immer noch recht gut mitspielen können (Leistungsniveau von den Rohdaten her in Richtung Mobility Radeon HD 2600 XT und GeForce 8600M GT) - und dies, obwohl sie wie gesagt schon vor anderthalb Jahren nicht einmal mehr die Top-Lösung darstellte. Wie auch unserem entsprechenden Artikel zu entnehmen, kommen die schnellsten Mobile-Lösungen derzeit sowieso nicht aus der neuen Grafikchip-Generation, sondern werden weiterhin von der demnächst auslaufenden GeForce7-Generation gestellt - leistungsmäßig hat also bislang durch Direct3D10 keinerlei Entwicklung im Mobile-Segment stattgefunden.
Dadurch ist nunmehr das Mobile-Segment gegenüber dem Desktop-Segment bei der Performance in den letzten Monaten immer weiter zurückgefallen, während es in den zwei Jahren davor regelmäßig erstaunlich nahe an das Desktop-Segment gekommen war. Aus diesem Punkt heraus läßt sich nun durchaus die Theorie entwickeln, daß Gaming-Notebooks derzeit aufgrund der nicht vorhandenen potenten Mobile-Grafikchips keinen großen Sinn machen. Dies trifft allerdings nur teilweise zu: Sicherlich eignen sich Gaming-Notebooks derzeit kaum zum Quasi-Desktopersatz auch fürs Gamen - noch dazu, wo man für eine halbwegs anständige Spieleleistung die allerteuersten Modelle nehmen muß und man für dieses Geld auch problemlos ein schnelleres Desktop-System samt extra Mainstream-Notebook erstehen kann.
Aber zum Zweck der wirklichen Mobilität zusammen mit der reinen Möglichkeit zum Spieleeinsatz eigenen sich die heutigen Gaming-Notebooks dann doch wieder. Allerdings muß hierbei von vornherein klar sein, daß das Ziel einer bestmöglichen Grafikdarstellung mit allen Bildqualitäts-Optionen nicht zu erreichen sein wird, daß Gerät also nur als Spielecomputer-Ersatz fungieren muß, wenn kein "echter PC" in der Nähe ist. Aus dieser Ausgangsgrundlage macht es dann aber auch wenig Sinn, viel Geld darin zu verpulvern, mit den teuersten Geräten noch einmal 20 Prozent mehr Leistung zu erreichen. Wenn das Gaming nur die Sekundär-Funktion darstellt, sollte auch ein besseres Mainstream-Notebook mit einer nicht zu überdimensionierten CPU, reichlich RAM (notfalls selber nachrüsten) und einem möglichst potenten Grafikchip ausreichen.
Damit haben dann The Inquirer - um den Kreis wieder zu schließen - letztlich doch recht: Das klassische Gaming-Notebook, welches sich in Preisbereichen 1500 Euro aufwärts bewegt, ist derzeit mehrheitlich sinnlos. Für Gaming als Sekundär-Nutzen sind diese Geräte zu teuer und zumeist auch zu überdimensioniert (mit Extreme-Prozessoren auf aberwitzigen Taktraten oder SLI im Notebook), und für Gaming als Primär-Nutzen zumeist nicht zu gebrauchen, weil dafür aufgrund der generellen Leistungsschwäche der aktuell verfügbaren Mobile-Grafikchips zu langsam (SLI mit zwei GeForce Go 7900 GTX oder GeForce Go 7950 GTX einmal ausgenommen, aber das wird dann richtig teuer). In der Summe macht es ein Normalgerät mit brauchbarem Grafikchip noch am besten, weil dort der Mix aus Funktionalität, Performance und Preis stimmt. Ein echtes "Gaming-Notebook" ist das dann natürlich nicht, sondern wie gesagt nur ein stark abgespeckter Ersatz, wenn der eigentliche Spiele-PC nicht in Reichweite ist.
Eine starke Entwicklung gibt es derzeit auf dem Markt für DDR3-Speicher, wo sich die einzelnen Modulhersteller ein hartes Rennen um immer höherer Taktfrequenzen und bessere (aka kürzere) Latenzzeiten liefern. So stellte OCZ kürzlich DDR3/1600 vor mit den Timings von 7-7-7 vor, was eine ziemlich gute Latenzzeit von 8,75ns ergeben würde (DDR2/800 auf CL5 hat 12,5ns, auf CL3 noch 7,5ns). Gleich darauf kündigte man zudem ein DDR3/1800 Speicherkit an, welches bei Timimgs von 8-8-8-24 auch nur eine Latenzzeit von 8,9ns aufweist. Noch weiter herunter mit der Latenzzeit geht Kingston mit seinem DDR3/1375-Speicher, welcher eine CAS-Latency von 5 Takten hat - die Latenzzeit liegt hier bei sehr guten 7,3ns. Daß DDR3-Speicher schon so kurz nach seinem Start zu solchen technischen Höchstleistungen in der Lage ist, verdeutlicht die hohe Schlagkraft der neuen Technologie, welche trotz unserer Bedenken ob der derzeit nutzbaren Leistung ja auch nie wirklich in Frage stand.
Nachteiligerweise kosten die vorgenannten Module natürlich allesamt noch echte Mondpreise und können somit für den jetzigen Zeitpunkt natürlich keine Empfehlung bekommen. Daß die Hersteller in der Zeit seit dem DDR3-Start (inoffiziell die CeBIT, offiziell die Vorstellung von Intels P35-Chipsatz) hier aber vor allem bei der Leistung haben nachlegen, nicht aber beim Preis haben abspecken können, zeigt auch an, daß hier eher ein Marketing-Wettstreit im Trockenen stattfindet: Man überbietet sich mit den bestmöglich machbaren DDR3-Modulen, aufgrund der allgemein jedoch niedrigen Nachfrage kann der Preis jedoch nicht schnell genug sinken, um DDR3 in absehbarer Zeit durchzusetzen. Wie schon einmal ausgeführt, wird dieses wahrscheinlich erst mit den nächstes Jahr kommenden Prozessoren mit integriertem DDR3-Speicherinterface passieren, welche dann den Absatz von DDR3 erst erheblich ankurbeln und damit die Preise purzeln lassen dürften.
News des 27. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Seitens Hard Tecs 4U berichtet man über ein auf AMDs "Technology Analyst Day" gezeigtes und laufendes PC-System mit einem Phenom FX QuadCore-Prozessor mit 3.0 GHz Takt und zwei Radeon HD 2900 XT Karten im CrossFire-Verbund. Das interessante hieran ist aber nicht die Demonstration dieser reinen Möglichkeit, denn sicherlich wird sich in den Vorserien-Exemplaren der Phenom-FX-Prozessoren immer ein Exemplar finden lassen, welches sich irgendwie auf 3.0 GHz übertakten läßt - sondern vielmehr die dazugehörige Aussage von AMD, daß der gezeigte Rechner "praktisch fertig zur Auslieferung" sei und vor Ende des Jahres auch in den Markt kommen wird. Wenn damit auch die vorgenannte Taktrate des Prozessors gemeint ist, scheint sich hier zumindestens für das Desktop-Segment doch interessantes anzubahnen, nachdem AMD bei den Server-Prozessoren auf K10-Basis nach eigenen Aussagen dieses Jahr nicht mehr überhalb von 2.6 GHz gehen wird.
Allerdings ist eben bei diesen Server-Prozessoren der reine Takt noch nie das Maß aller Dinge gewesen - und wenn AMD die wenigen K10-Prozessoren, welche sich für wirklich hohe Taktfrequenzen eignen, in den Desktop-Markt gibt, ist dies aus Marketingsicht sicherlich sinnvoller. Damit könnte AMD nämlich endlich wieder einmal Intel im HighEnd Desktop-Segment angreifen, wo man im Prinzip seit dem Erscheinen der Core 2 Duo Linie klar zurückliegt. Sicherlich werden die reinen Verkäufe solcherart HighEnd-Prozessoren AMD selbst bei entsprechend hohen Stückpreisen niemals alleine wieder zurück in geschäftlich ruhige Fahrwasser führen, aber ebenso wie bei den Grafikkarten gilt hier die einfache Weisheit, daß Benchmark-Erfolge der HighEnd-Modelle immer auch das Geschäft mit den LowCost- und Mainstream-Modellen beflügeln.
In einem User-Beitrag bei InvestorVillage finden sich exakte Daten zu den Markt-Verhältnissen bei Mainboard-Chipsätzen, ermittelt von den Analysten von Mercury Research. Diese Daten beziehen sich ausschließlich auf die Marktanteile nach verkauften Stückzahlen - und nicht nach dem damit erzielten Umsatz, was die Anbieter von LowCost-Chipsätzen schlechter dastehen lassen würde (einmal abgesehen davon, daß Umsatz-Marktanteile aufgrund der größtenteils nicht ermittelbaren Endpreise (Listenpreis abzüglich teilweise individueller Rabatte) sowieso viel schwerer zu ermitteln sind). Interessant an der ganzen Aufstellung ist hierbei vor allem der Vergleich des abgelaufenen zweiten Quartals 2007 mit demselben Quartal 2006.
Hierbei hat der Gesamtmarkt um immerhin 15 Prozent zugelegt, wobei es trotz dieser eigentlich sehr günstigen Ausgangslage Hersteller gab, welche nicht nur auf niedrigere Marktanteile kamen, sondern sogar auch absolut an Stückzahlen einbüßen mussten. Auffällig sind hierbei vor allem AMD/ATI (im zweiten Quartal 2006 noch getrennte Firmen, hierbei dürfte der Marktanteil beider Firmen zusammengerechnet worden sein), welche von 7,6 Millionen ausgelieferten Chipsätzen im Q2/2006 (12,4 Prozent Marktanteil) auf 6,5 Millionen im Q2/2007 (9,2 Prozent Marktanteil) zurückfielen, sowie SiS, welche von 3,4 Millionen ausgelieferten Chipsätzen im Q2/2006 (5,5 Prozent Marktanteil) auf nur noch 1,5 Millionen im Q2/2007 (2,1 Prozent Marktanteil) ebenfalls heftig einbüßten.
Profitieren konnten in diesem Zeitraum hingegen Intel, welche sich von 35,3 Millionen ausgelieferten Chipsätzen im Q2/2006 (57,5 Prozent Marktanteil) auf 44,0 Millionen im Q2/2007 (62,3 Prozent Marktanteil) steigerten - und erstaunlicherweise nVidia, welche von 7,4 Millionen ausgelieferten Chipsätzen im Q2/2006 (12,0 Prozent Marktanteil) auf 10,5 Millionen im Q2/2007 (14,9 Prozent Marktanteil) zulegen konnten. Insbesondere letzteres ist eher erstaunlich, hat nVidia doch zumeist nur HighEnd-Chipsätze für den Retail-Markt und kaum Angebote für die volumenmäßig natürlich viel stärker vertretenen LowCost-PCs anzubieten. Nichts desto trotz ist nVidia inzwischen ganz klar zum Chipsatz-Hersteller Nummer 2 aufgestiegen - und wenn das Angebot noch etwas breiter werden würde, sind auch noch deutlich höhere Marktanteile realisierbar. AMD drückt dagegen natürlich in erster Linie der immer weiter fortschreitende Rückzug aus dem Markt der Intel-Prozessoren, welcher üblicherweise für den größten Teil des Gesamtmarktes steht.
Erstaunlich ist es aber trotzdem, daß der Marktanteil bei den Chipsätzen für die eigenen Prozessoren seit der ATI-Übernahme noch überhaupt nicht gesteigert werden konnte. Allerdings könnte es auch sein, daß dieser Effekt eher erst langfristig im Chipsatz-Markt wirkt und somit rein aktuell noch nicht sichtbar ist: So verkauft AMD derzeit immer noch Mainboard-Chipsätze für Intel-Prozessoren in Millionen-Stückzahl, selbst wenn diese aus dem Blickpunkt der Öffentlichkeit inzwischen längst vollkommen verschwunden sind. Für die Zukunft sollte man dennoch noch einige Kohlen drauflegen: Denn das derzeit noch laufende Intel-Geschäft dürfte irgendwann vollständig zu Ende gehen und dann sollte man im eigenen Markt doch wenigstens Marktführer sein. Man muß dabei sicherlich nicht wie Intel bei über 60 Prozent Marktanteil liegen, aber es sollte auch nicht zur Situation wie derzeit kommen, daß ein Konkurrent (und noch dazu mit nVidia gleich ein Erzkonkurrent) eine solche Position innehat ;).
News des 26. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Verschiedene Quellen berichten über die Verlautbarungen, welche AMD auf seinem "Technology Analyst Day" ausgegeben hat und welche die AMD-Pläne bis zum Jahr 2009 skizzieren. Da zu den kommenden Prozessoren der K10-Architektur recht wenig neues gesagt wurde, sind vor allem die Ausführungen zum Thema Fusion interessant. Dahinter scheint nun doch deutlich mehr als nur die Integration eines (in der Leistungsklasse eines Mainboard-Chipsatzes befindlichen) Grafikchips auf dem Prozessor-Trägermaterial zu stecken: Vielmehr deutet sich an, daß AMD bei Fusion in erster Linie die bisher aus einem Baustein bestehende CPU in mehrere einzelne Bausteine aufsplitten will. Genannt wurden hier unter anderem der reine CPU-Kern, die Cache-Bausteine für Level1-, Level2- und Level3-Cache sowie die Controller für den Speicher, für HyperTransport, das I/O-System und der CrossBar-Switch (gut abgebildet hier).
All dies will AMD anscheinend zukünftig in extra Chips fertigen lassen, was zumindestens für das CPU-Design von Desktop-Prozessoren ein heftiger Paradigmenwechsel wäre. Auf der anderen Seite deuten sich ähnliche Entwicklungen ja auch bei den Grafikchip-Entwicklern an, welche mittelfristig nicht mehr einen supergroßen Grafikchip, sondern mehrere kleinere auf ein Grafikboard bringen wollen. Die gleichen Vorteile wie dort wird sich wohl auch AMD ausgerechnet haben: Einfachere und effektivere Fertigung bei jeweils kleineren Chips sowie eine deutlich höhere Flexibilität bei der Zusammenstellung der Endprodukte. Denn natürlich wird AMD bei Fusion nicht starr jeweils einen Chip einer Sorte aufs Trägermaterial pressen, sondern kann ganz flexibel für die jeweiligen Performanceansprüche mit mehreren Cachebausteinen oder/und mehreren Prozessorkernen arbeiten.
AMD will hier mit Fusion wirklich alle Marktsegmente von der Settopbox (welche nun absolut keine Leistungsanforderungen hat, aber wo eine hohe Integrationsdichte immer von Vorteil ist) bis hin zum ausgewachsenen Server-Prozessor (wo viele Prozessorkerne, große Caches und eine gute Anbindung an die Außenwelt Trumpf sind) bedienen. Dafür wird es nur zwei verschiedene CPU-Kerne geben: "Bobcat" als leistungsschwächeren und "Bulldozer" als leistungsstärkeren. Die anderen (voraufgezählten) extra Chips des Fusion-Designs dürften wohl komplett identisch sein, die verschiedenen Leistungsanforderungen je nach Einsatzzweck dürfte AMD dann über die Anzahl der jeweils verbauten Prozessorkerne und über deren Taktrate erreichen können. Damit sind mit derselben Grundproduktion Endprodukte für verschiedenste Einsatzzwecke und Performanceansprüche machbar.
Speziell zur wahlweise verbauten Grafiklösung läßt sich allerdings sagen, daß aufgrund des konzipierten Einsatzzweckes hier wirklich nicht mehr als ein Ersatz für die integrierten Grafiklösungen von Mainboard-Chipsätzen zu erwarten ist. Auch stellt sich Fusion nunmehr nicht mehr primär als Zusammenführung von CPU und GPU dar, dies ist nur eine Seite dieses Projekts. Viel stärker interessanter ist die Aufteilung der CPU in reinen Prozessorkern und weitere Spezialchips, welche zukünftig von AMD wahlweise kombiniert werden können. Ob AMD damit die bisher zumeist als "in einem Stück" gefertigten CPUs wird ablösen können, wird sich dann ab 2009 zeigen - allerdings kann man sicherlich trefflich darüber spekulieren, daß über kurz oder lang der Weg sowieso in diese technologische Richtung hin gehen würde.
In den News zum 20. Juli haben wir uns wieder einmal eines streitbaren Themas angenommen - dem Problem, daß es kein Direct3D10 unter Windows XP seitens Microsoft gibt. Dazu ist auch sofort eine Diskussion entbrandt - vorwiegend mit kritischen Stimmen, welche einen anderen Standpunkt zum Thema einnehmen, was wir hiermit auch respektieren wollen. Allerdings ergab sich dieser Diskussion auch, daß wir einen Hauptpunkt unserer Argumentation offensichtlich nicht wirklich gut haben ausdrücken können. Ein häufig angebrachtes Gegenargument ist hierbei, daß Microsoft schließlich nicht für nunmehr "ältere" Betriebssystem Features kostenlos nachliefern muß. Dies ist auch vollkommen richtig, irgendwann will man schließlich für die geleistete Arbeit auch mal wieder Geld in Form des Verkaufs eines neuen Betriebssystems sehen und nicht die alten Betriebssyssteme immer wieder kostenlos aufrüsten.
Allerdings handelt es sich bei Direct3D10 nicht um ein Feature oder Zusatzprogramm wie den Media Player, den Internet Explorer oder die integrierte Brenner-Funktionalität. Denn dies sind alles Dinge, ohne welche das Betriebssystem problemlos auskommen kann, dies sind klare Zusätze. Direct3D10 ist aber eine ganz andere Kategorie, es ist die Unterstützungs-Software für eine neue Hardware. Und hier kommen wir zur Grundfunktionalität eines Betriebssystems - die besteht nämlich schlicht darin, eine möglichst breite Auswahl von Hard- und Software auf eben diesem Betriebssystem lauffähig zu machen. Die Unterstützung von Direct3D10 durch ein Betriebssystem ist nichts anderes als die Unterstützung von USB, PCI Express, neueren Prozessoren, IPv6 oder anderen Dingen - es ist schlicht Grundfunktionalität, und damit eben kein optionales(r) Feature oder Zusatzpack.
Normalerweise würde es also zur primären Aufgabe von Microsoft gehören, im breiten Einsatz befindlichen Betriebssystemen wie Windows XP (niemand redet über Windows 98 oder 2000, weil diese einfach nicht mehr breit eingesetzt werden), Hardware-Unterstützung für neu aufkommende Hardware-Technologien zu bieten, ganz egal ob das dem Unternehmen nun keine weiteren Einnahmen generiert. Es ist eine pure Selbstverständlichkeit, zur Lebenszeit eines Betriebssystem dessen Grundfunktionalität zu garantieren. Man kann dies sogar mit zur "durch den Kauf erworbenen Leistung" hinzurechnen, weil man einfach erwarten kann, daß der Hersteller eines Betriebssystems über einen gewissen Zeitraum garantiert, daß das Produkt innerhalb dieser Zeit auch wie ein Betriebssystem funktioniert - und das bedeutet eben in erster Linie die Unterstützung aktueller Hard- und Software.
News des 25. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Seitens des IT-Sicherheitsdienstleister Secunia gibt es eine neue interessante Software namens Personal Software Inspecteur (PSI), welche die Sicherheit von Personal Computern entscheidend verbessern könnte. Dabei ist die dahinterstehende Idee einfach - so einfach, daß es ein Wunder ist, wieso diese noch niemand anderer bereits früher umgesetzt hat. Der PSI prüft nämlich nichts anderes, als ob die auf dem jeweiligen System installierte Software auf dem jeweils neuesten Patch-Stand ist. Dazu erkennt der PSI mehr als 4.200 Applikationen und verbindet sich zur Abfrage des Patch-Status mit einem zentralen Server von Secunia, welcher dann Auskunft darüber gibt, ob für die jeweils erkannten Applikationen neuere Versionen vorliegen oder nicht ...
... Dies ist insbesondere nutzvoll für länger genutzte Systeme, wo dann langsam der Überblick über alle installierten Applikationen verlorengegangen ist. Durch das Installieren der neuesten Patches können dann Angriffspunkte für Schadsoftware minimiert werden - hier handelt es sich um eine der eher seltenen Sicherheitsmaßnahmen, welche auf einfache Weise hilft und auch durch eher unerfahrene Nutzer durchgeführt werden kann. Leider hat das angesetzte Prinzip natürlich auch selber ein gewisses Sicherheitsrisiko: Man übergibt Secunia praktisch die Daten seiner kompletten Softwarekonfiguration, was sich theoretisch als Ausgangspunkt für einen Hackerangriff benutzen lassen könnte ...
... Rein praktisch steht dem natürlich entgegen, daß Angriffe auf einzelne Systeme inzwischen arg unüblich geworden sind - einmal abgesehen, daß sich Secunia ein solches Verhalten natürlich nicht leisten könnte. In der Summe eine hervorragende Idee, welche eigentlich von Microsoft hätte kommen sollen (aber wo käme man hin, würde man Fremdsoftware sicherer machen - der Kunde soll ja ausschließlich MS-Produkte benutzen) und welche dann - per default im Betriebssystem verankert, eine noch viel stärkere Durchschlagskraft entfalten könnte. So wird PSI leider für eine gewisse Zeit ein Insidertip für die eher fortgeschrittenen Anwender sein - dabei gehört diese Software in erster Linie auf die PC-Systeme der eher unerfahrenen Anwender.
Daß selbst Verfassungsrichter in Internetdingen teilweise eine erschreckende Anfängernaivität aufweisen können, beweist laut dem Heise Newsticker der ehemalige Bundesverfassungsrichter Hans Hugo Klein am Beispiel der Online-Durchsuchung: Jener versteht einen dem Internet angeschlossenen Computer gar so weit als Teil des Internets, daß dieser Computer dann nicht mehr hauptsächlich Teil der (verfassungsrechtlich besonders geschützten) Wohnung des Besitzer sei, womit sich dann bei der Online-Durchsuchung auch gar nicht erst die Frage nach der vielzitierten "Unverletzlichkeit der Wohnung" stellen solle ...
... Ehrlicherweise lesen wir das so, daß der Herr Richter faktisch jeden Internetnutzer zu einfachsten Sicherheitsvorkehrungen für seinen PC für zu blöd hält. Allerdings dürften der ehemalige Verfassungsrichter und auch die anderen Beführworter dieser abenteuerlichen Theorie gern erklären, wie auf einem auch nur halbwegs vernünftig abgesicherten PC die dort abgelegten (und nicht explizit fürs Internet freigegebenen Daten) im Internet frei verfügbar sein (aka zur "Sozialsphäre" des Nutzers gehören) sollen. Wenn man hier nicht gerade von Vorsatz ausgehen will, fehlt offensichtlich zumindestens allergrundlegendstes IT-Verständnis, womit sich solcherart Richter besser aus IT-Dingen heraushalten sollten, anstatt die Welt durch fachfremde Urteile zusätzlich zu verkomplizieren.
Shortcuts: Wie sich der Diskussion zu den letzten News ergab, kürzt Intel die "Trusted Execution Technology" nun also doch mit "TXT" ab. Die DigiTimes berichtet über neue VIA-Prozessoren im ersten Quartal 2008. Angeblich soll die Isaiah-Architektur die doppelte Leistung der aktuellen Esther-Architektur erreichen können, was die VIA-Prozessoren jedoch wohl nicht wirklich aus der aktuellen von VIA mehr oder weniger selbstgewählten Nische herausführen dürfte. Und letztlich wird bei TweakPC noch darüber berichtet, daß AMD entgegen früherer Aussagen doch noch einmal seine Preise senken wird. Allerdings wird dies nur die Modelle des Server-Prozessors Opteron betreffen, was wohl schon als Vorbereitung für den Start der K10-basierenden Opteron-Modelle gewertet werden kann.
News des 24. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Wie Hartware ausführen, kommen die AGP-Grafikkarten mit den neuen ATI-Grafikchips nunmehr im August (Radeon HD 2400 Serie) bzw. im September (Radeon HD 2600 Serie). Aufgrund der allgemeinen Leistungsschwäche der aktuellen Mainstream-Generation von ATI und nVidia sind diese Karten allerdings nur mäßig interessant für AGP-Nutzer, rein von der Leistung her kommt man mit den wenigen verfügbaren Radeon X1950 Pro/XT Karten auf AGP wohl viel besser weg. Fudzilla fügen hierzu noch an, daß von den ursprünglich ebenfalls mal angedachten/vermuteten neuen AGP-Lösungen seitens nVidia bisher nichts zu sehen ist - möglicherweise könnte sich das Thema "AGP" für nVidia damit auch endgültig erledigt haben.
Laut dem Planet 3DNow! gibt es handfeste Hinweise, AMD würde den Fusion-Chip eventuell bei TSMC fremdfertigen lassen. Allerdings wäre dies nun nicht so ungewöhnlich, sondern in gewissem Sinne sogar logisch: Wahrscheinlich handelt es sich bei der TSMC-Fertigung nur um den Grafikchip von Fusion, welcher prinzipiell eine ATI-Entwicklung aus der Radeon-Serie heraus sein dürfte (eine komplette extra-Entwicklung würde eine vollkommen getrennte Entwicklung der Treiber bedeutet, was zusätzlich kostet und zudem Zweifel ob der Spiele-Kompatibilität aufkommen läßt) - und die anderen ATI-Grafikchips werden ja auch von TSMC (und zu geringen Teilen von UMC) gefertigt. AMD wird daran nichts umstossen, weil dies nur unvorhergesehene Probleme nach sich ziehen könnte und somit beim Fusion-Projekt die CPU in Dresden und die GPU bei TSMC in Taiwan fertigen lassen, um das ganze dann wie üblich in Malaysia zusammen auf das Trägermaterial zu pressen und damit die fertige CPU/GPU-Einheit zu haben.
Gemäß Hard Tecs 4U feilt Intel derzeit weiter an seiner schon prognostizierten QuadCore-Offensive: So soll zusätzlich noch ein "kleiner" QuadCore-Prozessor namens Core 2 Quad Q6400 mit 2.13 GHz Takt und einem geschätzten Preis von 180 bis 200 Euro erscheinen. Damit würde Intel QuadCore-Prozessoren dann für alle Preisbereiche ab dem Mainstream-Segment anbieten, zudem hat der schnellste QuadCore-Prozessor auch keinen Taktrückstand mehr zu den DualCore-Modellen (wobei dies sicherlich auch eine politische Entscheidung darstellt, technisch dürften sich die DualCore-Modelle doch etwas besser takten lassen). Noch haben zwar alle QuadCore-Modelle kräftige Preisaufschläge gegenüber den gleichgetakteten DualCore-Modellen zu ertragen, aber allein mit der Breite des Angebots wird Intel in den nächsten Monaten wohl versuchen, QuadCore zum allgemeinen Standard zu machen.
Der Meldung des Heise Newstickers zu den neuen FSB1333-Prozessoren und den damit einhergehenden Preissenkungen bei Intel läßt sich auch entnehmen, daß der Prozessorenhersteller die Preise für die nunmehr "älteren" Core 2 Duo Modelle mit FSB1066 ganz bewußt nicht gesenkt hat und auch zukünftig nicht mehr senken will, um somit "den Übergang auf die neuen Techniken zu beschleunigen". Hier dürfte natürlich auch mit hineinspielen, daß die LowCost-Serie Core 2 Duo E4x00 der bisherigen Core 2 Duo E6x00 Serie doch reichlich nahe gekommen war und Intel nunmehr mit der Konzentration auf die Core 2 Duo E6x50 Serie im Mainstream-Segment wieder für einen genügenden Abstand zwischen den Produktkategorien gesorgt hat ...
... Davon abgesehen ergab sich noch, daß die auf der Core 2 Duo E6x50 Serie freigeschaltete Trusted Execution Technology (TET) (aus irgendwelchen Gründen hatten wir in früheren News an dieser Stelle die Abkürzung "TXT" verwendet, was aber wohl falsch ist) aka LaGrande weiterhin auf ein entsprechendes Mainboard - wohl mit Trusted Plattform Module (TPM) - angewiesen ist. Seitens Intel will man dies erst mit dem Mainboard-Chipsatz Q35 anbieten, welcher üblicherweise nur bei Business-Rechnern verbaut wird. Insofern dürfte für den Normalanwender die LaGrande-Technologie auf den Core 2 Duo E6x50 Prozessoren zwar aktiv, aber eben doch nicht benutzbar (und damit auch nicht mißbrauchbar) sein. Beinharte Paranoiker kaufen natürlich trotzdem strikt nur das Modell E6540, welches zum Modell E6550 prinzipiell gleich ist, bei welchem jedoch TET bzw. LaGrande gleich in Hardware deaktiviert wurde ;).
News des 23. Juli 2007 |
(News-Meldungen dieses Tages im Forum kommentieren)
Laut Hard Tecs 4U will AMD noch einmal einen neuen Athlon 64 X2 Prozessor nachlegen: Ein 6400+ Modell mit 3.2 GHz Takt. Vermutlich wird dieses jedoch wie schon das aktuell leistungsstärkste 6000+ Modell weiterhin in 90nm gefertigt sein, darauf deuten auch die Aussagen seitens der Mainboard-Hersteller, der 6400+ würde kaum noch Übertaktungspotential besitzen. Es ist schon ziemlich erstaunlich, daß AMD faktisch immer noch in der 90nm Fertigung festhängt, selbst wenn bereits einige Prozessoren in 65nm gefertigt werden. Der mit 65nm aber eigentlich zu erwartende Schub bei der maximalen Taktrate ist bei AMD jedoch bisher komplett ausgeblieben - bleibt abzuwarten, ob AMD dies bei den kommenden K10-basierenden Prozessoren, die dann gleich komplett in 65nm hergestellt sein werden, doch noch verbessern kann.
Und wie Fudzilla zu genau diesem Thema ausführen, kann AMD derzeit 3 bis 4 Prozent der K10-basierenden Prozessoren höher als 2.6 GHz takten. Was sich erst einmal nach wenig anhört, reicht jedoch problemlos aus, um diese höher getakteten Prozessoren auch im Markt anbieten zu können, schließlich werden die HighEnd-Modelle im Prozessorenmarkt immer schon in kleinen bis kleinsten Stückzahlen verkauft. Laut Fudzilla würde wohl ein größerer Teil dieser 3 bis 4 Prozent noch die Marke von 2.8 GHz und wenige die Marke von 3.0 GHz erreichen. Jetzt bleibt natürlich noch abzuwarten, wie die Strategie von AMD diesbezüglich aussieht - aber angesichts der aktuellen Geschäftsentwicklung sind wohl keine Gründe zu sehen, solcherart Prozessoren zurückzuhalten.
In einem Interview mit Technology Review warnt die Electronic Frontier Foundation (EFF) indirekt die Internet-Provider davor, im Kampf gegen Urheberrechtsverletzungen im Internet mitzumachen - dies würde die Provider nur in einen "Teufelskreis aus immer schärferen Überwachungsmaßnahmen" hineinziehen. Prinzipiell ist das korrekt, die Gefahr für die Internet-Provider ist aber aus einer anderen Richtung noch viel stärker: Wenn man gegenüber den Medienunternehmen jetzt klein bei gibt und bei deren Antipiraterie-Aktionismus mitmacht, gibt man praktisch zu, Teil des Problems sowie der Lösung zu sein. Damit gibt man die in den meisten Ländern geltende Rechtsgrundlage, daß Internet-Provider als reine Datenübermittler besonders schützenswert sind und eigentlich nicht für den Inhalt der Daten verantwortlich gemacht werden können (wie die Post nicht für den Inhalt von Briefen), ohne Not auf ...
... Und dies könnten die Medienunternehmen letztlich dazu benutzen, die Internet-Provider als "Mitstörer" bei Urheberrechtsverletzungen zu verklagen - oder auch über dieses Druckmittel von den Internet-Providern immer härtere technische Maßnahmen gegenüber echten und vermeintlichen Urheberrechtsverletzungen einfordern, wie eben auch vom EFF bemerkt. Insofern ist jede Zusammenarbeit von Internet-Providern mit Medienunternehmen als ziemlich fahrlässig seitens der Internet-Provider zu betrachten - vor Gericht könnte man letztlich das als stillschweigende Anerkennung der rechtlichen Position der Medienunternehmen ansehen. Um auf der rechtlich sicheren Seite zu bleiben und sich nicht erpressbar zu machen, bleibt den Internet-Providern eigentlich überhaupt kein anderer Weg, als auch bei den kleinsten Anfragen auf die gültige Rechtssituation zu verweisen und diese vor Gericht notfalls auch zu verteidigen - einmal ganz abgesehen davon, daß dies natürlich auch im Interesse der User und damit der zahlenden Kundschaft ist.
Shortcuts: Laut Fudzilla hat nVidia in den eigenen Grafikkarten-Treibern still und heimlich den Mainboard-Chipsatz Intel X5000 für SLI freigeschaltet - wenngleich angeblich nur für das Zusammenspiel mit Quadro-Karten. Dies zeigt natürlich, wie einfach die Sache eigentlich ist und das mitnichten ein technischer Grund existiert, daß SLI nicht auch auf anderen nicht von nVidia stammenden Mainboard-Chipsätzen angeboten wird. Die ComputerBase vermeldet die aktuelle Intel-Preissenkung, mittels welcher die neuen Intel-Prozessoren nun endlich auch in der offiziellen Intel-Preisliste stehen. Interessanterweise wurden die bisherigen Core 2 Duo Prozessoren mit FSB1066 nicht im Preis gesenkt, womit sie nun beim Preis/Leistungsverhältnis viel teurer als die neuen FSB1333-Modelle und damit vollkommen unattraktiv sind. Bleibt abzuwarten, ob Intel hier die Preise inoffiziell senkt oder die FSB1066-Modell gleich ganz aus dem Markt nimmt.