News-Archiv 7. - 19. November 2006 (46. Kalenderwoche)
18./19. November 17. November 16. November 15. November 14. November 13. November
neuer Artikel |
SingleCore vs. DualCore bei Spielen
Spätestens nach dem Marktstart der Core 2 Duo/Extreme Prozessoren im Juli diesen Jahres sind DualCore-Prozessoren mittlerweile so selbstverständlich geworden, daß nur noch selten die Frage gestellt wird, inwiefern der zweite Core überhaupt von der derzeitigen Software ausgenutzt wird. Wir wollen die Frage allerdings erneut stellen - speziell bezogen wieder auf die Leistungsfähigkeiten in Spielen, was bisher allgemein als die große Achillesferse von MultiCore-Prozessoren angesehen wird ... zum Artikel
News des 18./19. November 2006 |
Mit dem neuesten Catalyst-Treiber in der Version 6.11 ermöglicht ATI nun auch CrossFire ohne Masterkarte und ohne extra CrossFire-Kabelei mit allen Grafikkarten der Radeon X1000 Serie. Dabei dürfte es natürlich einen gewissen Leistungsverlust geben, welcher durch entsprechende Tests noch zu ermitteln wäre, weil bei dieser Lösung die CrossFire-Daten dann über die PCI Express Anbindung beider Karten fliessen und nicht direkt wie bei den CrossFire-Kabeln oder aber der internen Brücke der Radeon X1650 XT und X1950 Pro. Da ATI selbst bei der letzten HighEnd-Lösung Radeon X1950 XTX weiterhin noch extra Masterkarten und CrossFire-Kabel mit eingeplant hat, ist anzunehmen, daß der Leistungsunterschied wohl insbesondere bei den schnelleren Modellen messbar ist - ob er auch spürbar ausfällt, wäre wie gesagt noch zu ermitteln ...
... Davon abgesehen ermöglicht ATI nun aber auch CrossFire-Verbindung unterschiedlicher Grafikkarten untereinander - beispielsweise eine Radeon X1950 XT mit einer Radeon X1950 XTX. Allerdings muß hier vor all zu viel Euphorie gewarnt werden, denn die Kopplung unterschiedlich leistungsstarker Grafikkarten kann nur dann etwas bringen, wenn der vom jeweiligen Spiel genutzte CrossFire-Modus eine Lastenverteilung nach Leistungsfähigkeit der Grafikkarten beherrscht. Von den CrossFire-Modi SuperTiling, Scissor (SFR), AFR und Super AA ist dies unseres Wissens nach nur bei Scissor (SFR) der Fall. In allen anderen genannten CrossFire-Modi nützt der Verbau eine schnelleren Grafikkarten zusammen mit einer langsameren nichts, die schnellere wird dann schlicht auf das Niveau der langsameren ausgebremst. Zudem wäre noch zu erwähnen, daß die CrossFire-Verbindung unterschiedlicher Grafikkarten speziell nicht mit der Radeon X1950 Pro funktioniert - ohne daß ATI hierfür einen Grund angab.
Über die Probleme von Creative mit Windows Vista berichtet der Heise Newsticker, maßgeblich ergänzt durch dieses Posting unseres Forums. Diese Probleme resultieren daraus, daß Microsoft bei Windows Vista das bisherige DirectSound3D nicht mehr weiterführt, sondern eine deutlich abgespeckte Version davon in DirectX unterbringt, zusätzlich gibt es den Support von OpenAL. Dadurch wird EAX vom neuen Betriebssystem nun aber nicht mehr direkt unterstützt. Für ältere Spiele mit direkter EAX-Unterstützung wird somit ein Wrapper notwendig, welcher EAX auf OpenAL umsetzt. Creative hat einen solchen für die X-Fi Soundkarten bereits in Arbeit - ob es auch einen solchen Wrapper für die Karten der Audigy-Serie geben wird, ist dagegen noch nicht sicher ...
... Ohne Wrapper würden aber selbst einfachste EAX-Versionen unter Windows Vista bei älteren Spielen ohne OpenAL-Support nicht mehr ansteuerbar sein, die Soundkarte würde dann allein im Software-Modus laufen, welcher dazu noch nicht einmal Hardware-Unterstützung bietet (selbst wenn eine Hardware-Lösung vorhanden ist, würde über die CPU gerechnet). Bei neuen Spielen mit Support für OpenAL liegt das Problem von Creative dann eher in der Großzügigkeit von Microsoft: Dort kann nämlich jede Soundlösung unabhängig ihrer Hardwarefähigkeiten (und rein nur mit einem Standard-Treiber für Windows Vista Audio) EAX bis Version 2.0 unter OpenAL nutzen - ohne Hardware-Beschleunigung natürlich über die CPU berechnet, aber immerhin ...
... Höhere EAX-Versionen sind dann ebenfalls über OpenAL ansteuerbar, setzen dann aber natürlich entsprechende Hardware-Fähigkeiten der Soundlösung voraus. Insofern sind die Audio-APIs von Windows Vista sogar eher klarer formuliert als unter Windows XP, auch wenn damit natürlich das Problem des EAX-Supports für ältere Spiele aufgeworfen wird. Nicht verschwiegen werden sollte allerdings, daß ein hauptsächlicher Grund für die Reorganisation der Audio-APIs bei Windows Vista (und damit der Entfernung des EAX-Direktsupports) wieder einmal bei der vielbeschworenen "Sicherheit" liegt - wobei es hier ausschließlich um die DRM-verdongelte Sicherheit der Musik- und Filmindustrie vor den Usern geht, keineswegs um die Sicherheit des Betriebssystem-Anwenders.
Wie Golem berichten, hat Blizzard im Zuge der üblichen Cheater-Massenbanns bei World of WarCraft bei der letzten solcherart Aktion auch eine Reihe zweifelsfrei unschuldiger Nutzer rausgeworfen, weil diese unter Linux mit der eigentlich offiziell unterstützten Cedega-Software spielten. Dabei stellt sich an dieser Stelle durchaus die Frage nach der Haftbarkeit von Blizzard: So lange man die an den Tag gelegten ziemlich rabiaten Methoden nur gegenüber Cheatern anwendet, dürfte das alles in Ordnung gehen - erwischt man dabei jedoch auch normale Gamer, könnte diese Blizzard durchaus auf (in den USA erheblichen) Schadensersatz verklagen. Für Deutschland hingegen, da hierzulande keine hohen Schadensersatzforderungen anbringbar sind, ist durchaus eine gesetzliche Regelung anzuraten, welche den Spielern bei unberechtigten Cheat-Vorwürfen eine einfache Möglichkeit an die Hand gibt, wieder ins Spiel zurückzukommen.
Shortcuts: Bei der VR-Zone hat man die eVGA GeForce 8800 GTX ACS3 nicht nur mit flüssigem Stickstoff gekühlt, sondern zeigt gleichzeitig auch noch die für eine Spannungs-Modifikation relevanten Widerstände auf dem Grafikboard auf. Somit kam man mit einem einzelnen Board auf satte 842/1240 MHz Takt, bei zwei unter SLI betriebenen Karten waren auch noch 822/1240 MHz möglich. Bei AnandTech gibt es ein Roundup an HDCP-kompatiblen Grafikkarten. Während die neuere Grafikkarten Radeon X1650 XT, Radeon X1950 Pro, Radeon X1950 XTX, GeForce 7950 GT, GeForce 7950 GX2, GeForce 8800 GTS und GeForce 8800 GTX generell vollständig HDCP-kompatibel sind, gibt es bei den "älteren" Grafikkarten-Serien dann speziell gekennzeichnete HDCP-Modelle zu kaufen. Und letztlich wäre noch zu erwähnen, daß unser Forum am Sonnabend das mittlerweile fünfmillionste Posting erreicht hat - gerade einmal neun Monate nachdem die Viermillionen-Marke gefallen ist.
News des 17. November 2006 |
Gegenüber der Financial Times Deutschland hat nVidia nochmals bekräftigt, gerade auch nach dem AMD/ATI-Deal weiterhin unabhängig bleiben und eher die sich aus dieser Übernahme ergebenden Chancen nutzen zu wollen. Davon abgesehen ergab sich die nette kleine Information, daß die Entwicklung des G80-Chips satte 400 Millionen Dollar gekostet hat. Bemerkenswert ist hierbei durchaus auch die "Preissteigerung" gegenüber der GeForceFX (NV30), wo nVidia seinerzeit für die komplette erste Serie an GeForceFX-Chips (sprich NV30, NV34 und NV31) ingesamte Entwicklungskosten von 400 Millionen Dollar angab. Einschränkenderweise muß hier natürlich dazugesagt werden, daß auch seinerzeit der Löwenanteil dieser 400 Millionen Dollar für die Entwicklung des ersten GeForceFX-Chips NV30 draufgegangen sein dürften, die anderen Chips der Serie leiten sich schließlich technologisch direkt von diesem ab.
Die X-bit Labs haben sich intensiv mit dem Thema Quad-SLI auseinandergesetzt, vor allem die Menge der hierzu getesteten Spielen ist dabei beachtenswert. So ermittelte man nämlich nennenswerte Vorteile für Quad-SLI in nur 4 von 20 getesteten Spielen und Benchmark-Programmen - und an einem möglichen CPU-Limit kann dies kaum hängen, da CrossFire (auf der Radeon X1950 XTX) im Gegensatz in 13 Spielen von 20 getesteten Spielen und Benchmark-Programmen Performance-Gewinne aufzeigen konnte. Deutliche Vorteile zeigte Quad-SLI dagegen unter den SLI Anti-Aliasing Modi, wobei dies nach dem Start der GeForce 8800 GTS/GTX ein inzwischen zweischneidiges Schwert geworden ist ...
... Sicherlich ist der SLI x8 Modus auf der GeForce 7900/7950 GX2 weiterhin sinnvoll, wird auf beiden Karten hierbei doch jeweils "nur" ein 4x Multisampling Anti-Aliasing dargestellt. Der SLI x16 Modus der GeForce 7900/7950GX2 ist dagegen kritisch zu sehen, wird hier auf beiden Karten doch das bekannte 8xS Anti-Aliasing dargestellt, welches aufgrund seines Mixes aus Multisampling und Supersampling Anti-Aliasing klar ineffizient ist. Sicherlich kann Quad-SLI diesen Modus maßgeblich beschleunigen, aber eine GeForce 8800 GTS/GTX dürfte aufgrund des dort vorhandenen viel effizienteren 8x Multisampling Anti-Aliasings Quad-SLI maßgeblich davonrennen - einmal ganz davon abgesehen, daß dies auch schon auf eine CrossFire-Kombination mit 12x Anti-Aliasing zutrifft ...
... Ganz allgemein betrachtet bleibt es weiterhin fraglich, ob Quad-SLI (egal ob auf G71- oder später eventuell der G80-Basis) demnächst der große Renner werden wird: Ganz offensichtlich ist es überhalb von zwei Grafikchips sehr schwierig, alle zur Verfügung stehenden Grafikchips so gut auszulasten, daß noch ein erhebliches Performance-Plus produziert wird. Zwar dürfte es von seiten nVidia demnächst Mainboard-Chipsätze mit gleich vier Grafikkarten-Steckplätzen (nForce 680a SLI für AMDs Athlon 64 FX Prozessoren) geben, auch ATI plant für das nächste Jahr ähnliches. Noch aber scheinen die SLI-Treiber bei weitem nicht ausgereift genug, um abseits von ein per Hand abzählbaren Anwendungen durchs breite Spiele-Spektrum hindurch Performance-Zuwächse mit vier Grafikchips garantieren zu können. Hier dürfte also noch einige Entwicklungszeit vonnöten sein, ehe Quad-SLI eine wirklich gangbare Option werden kann.
Ein Artikel seitens Digit-Life beschäftigt sich hingegen mit der Frage, was die unterschiedlichen Filterqualitäts-Settings bei ATI- und nVidia-Grafikkarten an Performance-Unterschieden produzieren. Bezüglich nVidia bezieht sich der Artikel "noch" auf GeForce7-Grafikkarten, bei GeForce8-Grafikkarten wird dies aufgrund der dort deutlich geänderten Filterqualität sowie der anderen zugrundeliegenden Chiptechnik natürlich wieder etwas anders aussehen. Generell fielen die gemessenen Performance-Unterschiede zwischen den Standard-Settings der Grafikchip-Entwickler (bei ATI "A.I. default", bei nVidia "Quality") und den jeweils höchstmöglichen Filterqualitäts-Settings (bei ATI "A.I. off" und Area-AF aktiviert, bei nVidia "High Quality"und alle Optimierungen deaktiviert) jedoch nicht großartig aus: Bei ATI waren dies im Schnitt 15 Prozent, bei nVidia 11 Prozent ...
... Diese Differenzen sind jedoch bei LowCost-Grafikkarten zu klein, um aus unspielbaren Frameraten spielbare machen zu können (15 fps plus 15 Prozent sind immer noch nur 17 fps), bei HighEnd-Grafikkarten mit absolut ausreichenden Frameraten spielt ein 15prozentiger fps-Abschlag zugunsten einer besseren Bildqualität dagegen wiederum keine große Rolle. Vielmehr ist dies auf HighEnd-Lösungen ein sogar sehr sinnvoller Tausch, denn mehr als (konstante) Frameraten von höher als 40 fps benötigt schließlich kein Mensch - außer bei einigen wenigen sehr schnellen Online-Shootern, wo es für die Pro-Spieler mindestens 60 fps oder gar mehr sein müssen. In diesen Fällen dürfte allerdings eine höhere mögliche Bildqualität sowieso kaum Beachtung finden, wird in der Regel alles dem sportlichen Ziel untergeordnet.
Wie der Heise Newsticker berichtet, soll die nächste bundesdeutsche Urheberrechts-Gesetzänderung auch eine Passage enthalten, welche exorbitanten Abmahnkosten in klaren Fällen geringfügiger Urheberrechtsverstöße einen Riegel vorschiebt. Für die "Benutzung eines Stadtplanausschnittes auf einer privaten Homepage oder das Angebot eines einzelnen Musikstückes zum Download in einer Online-Tauschbörse" soll es demnach in der ersten Abmahnung maximal 50 Euro Abmahnkosten geben - was gerade Massenabmahnung aus mehr oder weniger klar erkenntlichem geschäftlichen Interesse heraus einen wirksamen Riegel vorschieben sollte. Und da an dieser Stelle oftmals die bundesdeutsche Urheberrechtsgesetzung und die dafür zuständigen Politiker kritisiert werden, müssen wir in diesem Fall anerkennen, daß dies eine sehr sinnvolle Regelung ist, welche somit unseren ungeteilten Beifall findet ...
... Ebenfalls gibt es nun eine Präzisierung, wie der geplante Auskunftsanspruch durch die Internet Service Provider gegenüber den Rechteinhabern gedacht ist: So soll ein solcher Auskunftsanspruch nur in solchen Fällen gelten, wo "in gewerbsmäßiger Weise unter einer bestimmen IP-Adresse" gehandelt wurde - was jedoch für Tauschbörsianer selbst bei hohen Tauschvolumen eigentlich nie zutreffen dürfte, da dort in keinster Form Geld fließt und somit keine Gewerblichkeit vorliegt. Die Musik- und Filmindustrie dürfte mit dieser Präzisierung sicherlich höchst unzufrieden sein, sind mit jener doch die eigentlichen Zielobjekte in Form der kleinen Tauschbörsianer nicht dingfest zu machen. Somit dürfte man zukünftig auch weiterhin über den Weg der Strafanzeige gehen (müssen), was andererseits die bundesdeutschen Staatsanwalteschaften wie bekannt mit Bagatelldelikten überlastet. Angesichts dieser Konstellation ist es durchaus zu vermuten, daß bezüglich des geplanten Auskunftsanspruchs noch nicht die letzte Fassung des neuen Gesetzes gefunden ist.
News des 16. November 2006 |
Bei AnandTech hat man sich ein wenig mit unterschiedlichen GeForce 8800 Karten beschäftigt, getestet wurden dabei die Ausführungen von Asus, BFG, eVGA, Leadtek, MSI, Sparkle & XFX. Beim Übertakten der GeForce 8800 GTX erreichte man im übrigen im Schnitt 639/1001 MHz - was in etwa dasselbe ist, was schon die Launch-Tests mit im Schnitt 628/1005 MHz ermittelten. Inwiefern eine stark übertaktete GeForce 8800 GTS die Performance-Werte einer unübertakteten GeForce 8800 GTX erreichen kann, wie es noch die Messungen der FiringSquad nahelegen, konnte nicht direkt bestätigt, wenngleich aber auch nicht wiederlegt werden: Denn die bei AnandTech auf 654/866 MHz übertaktete GeForce 8800 GTS musste sich unter F.E.A.R. zwar einer unübertakteten GeForce 8800 GTX klar beugen, lag jedoch unter The Elder Scrolls IV: Oblivion wiederum etwas vor dieser. Da AnandTech an dieser Stelle jedoch keine weiteren Messungen angestellt haben, muß dieser Fall jedoch für den Moment weiterhin vertagt werden.
Einen weiteren Test zur BigFoot Networks Killer NIC Netzwerk-Karte haben nochmals AnandTech anzubieten. Wie schon bei den bisherigen Tests kann diese für den Gamer gedachte (propagandierte) Netzwerk-Karte bezüglich besserer Pings in Spielen nicht überzeugen, holt dagegen aber bei vielen Spielen noch das eine oder andere fps heraus - wobei die bei AnandTech im Schnitt ermittelten zwei Prozent Performance-Plus deutlich weniger sind, als frühere Tests noch angaben. Im übrigen mussten AnandTech für diesen Test wohl oder übel auf die üblichen Timedemo-Messungen zur Performance-Ermittlung verzichten, weil Timedemos ja prinzipiell niemals einen Netzwerk-Verkehr enthalten, die Killer NIC Netzwerk-Karte somit durch Timedemos nicht belastet werden konnte. Somit musste man letztlich in real ablaufenden Spielen messen, was zwar deutlich mehr Aufwand bedeutete, hier aber die einzige Möglichkeit darstellte, den Performance-Effekt einer solchen Karte zu messen ...
... Eventuell wären die Differenzen jedoch deutlicher ausgefallen, hätte man die Messungen unter klar CPU-limitierte Vorzeichen gestellt: Denn letztlich nimmt die Killer NIC Netzwerk-Karte allein der CPU Arbeit ab, ist deren Einfluß auf die Performance somit auch nur in CPU-limitierten Szenen zu sehen. Somit könnte es durchaus zu der Situation kommen, daß die zwei Prozent Performance-Plus auf die gesamte Messungen eigentlich bedeuten, daß die Netzwerk-Karte in den 90 Prozent Grafikkarten-limitierten Szenen keinen Einfluß hat, in den 10 Prozent CPU-limitierten Szenen jedoch gleich einmal für 20 Prozent Mehr-Performance sorgt (20 Prozent Plus auf 10 Prozent der Szenen ergeben wieder 2 Prozent auf alles). Ob dies so ist, läßt sich leider natürlich nur vermuten - man müsste es halt gezielt herauszufinden versuchen. Aber in jedem Fall würden sich 20 Prozent Leistungsplus in den CPU-limitierten Szenen, welche im üblichen sowieso die langsamsten des gesamten Spielflusses darstellen, deutlich besser anhören als 2 Prozent Leistungsplus im Schnitt des gesamten Spiels.
Golem berichten nochmals zur Windows Vista Lizenz, womit nun bestätigt wird, daß Microsoft auch unter der für Deutschland geltenden Lizenz notorischen Hardware-Aufrüster keine wirklichen Steine in den Weg legen wird. Als offene Frage bleibt jedoch weiterhin bestehen, wie Microsoft die geplanten Lizenzprüfung mittels Windows Genuine Advantage (WGA) konkret handzuhaben gedenkt. Denn natürlich setzt WGA eine wenigstens ab und zu existierende Internetverbindung voraus - und auch, daß der Anwender das WGA-Tool überhaupt mit dem Internet kommunizieren läßt. Unklar ist an dieser Stelle, ob Microsoft die WGA-Prüfung zwingend durchsetzen will, was dann aber zumindestens mit den Nutzern von Offline-Systemen erhebliche rechtliche Probleme aufwerfen würde - oder ob die WGA-Prüfung letztlich nur für diese Anwender greift, welche jene nicht mittels einer Firewall aussperren und damit faktisch selber zulassen.
News des 15. November 2006 |
Noch vor den neuen neuen G8x-basierenden nVidia-Grafikkarten im Frühjahr 2007 soll es im kommenden Februar laut DailyTech eine weitere G80-basierende Grafikkarte geben. Derzeit ist allerdings noch nicht bekannt, in welche Richtung diese gehen soll: Ob unterhalb der GeForce 8800 GTS, zwischen GTS und GTX oder gar eine DualChip-Lösung wie bei der GeForce 7900/7950 GX2 (letztere dürfte von der Verlustleistung her allerdings schwierig zu realisieren sein). Bislang ergibt sich allerdings sowieso ein noch sehr konfuses Bild von den zukünftigen nVidia-Planungen: Wohl inklusive der bereits vorgestellten G80-Karten will nVidia insgesamt neun auf der G8x-Technologie basierenden Grafikkarten bringen, wobei man diesbezüglich von drei verschiedenen Grafikchips mit jeweils drei Varianten ausgeht. Die Informationen vom Montag deuten allerdings eher drei weitere kleine G8x-basierende Grafikchips neben der HighEnd-Variante G80 bzw. einem möglichen Refresh-Chip des G80 an ...
... Dabei könnten durchaus alle diese Informationen zutreffen - nur eben zu unterschiedlichen Zeitpunkten. Derzeit kann man bezüglich der weiteren nVidia-Planungen bezüglich G8x-Derivaten aber eher nur aus den Erfahrungen aus der Vergangenheit schöpfen: So ist es doch wahrscheinlich, daß nVidia im Abstand von 4 bis 6 Monaten auch im LowCost- und Mainstream-Segment die G8x-Technologie einführt. Aus Kostengründen sollten hier aber nur zwei unterschiedliche Grafikchips zu erwarten sein: Einer für den LowCost- und einer für den Mainstream-Markt - neben dem für den HighEnd-Markt bereits existierendem G80-Chip. Auch erscheinen mehr als zwei Grafikkarten-Varianten pro Grafikchip als eher unwahrscheinlich, nVidia hat eigentlich selbst nach eigenem Bekunden keine besonders guten Erfahrungen mit dem Modell "(vom Start weg) drei Grafikkarten-Varianten pro Grafikchip" gemacht ...
... Dies schließt natürlich die Möglichkeit weiterer Varianten desselben Grafikchips zu einem späteren Zeitpunkt nicht aus, aber die kommen dann natürlich zielgerichtet, um eine bestimmte Angebotslücke zu schließen - wie bei der GeForce 7950 GT derzeit zu beobachten. Abgesehen von also einem zu erwartenden LowCost-Grafikchip auf G8x-Basis und einem zu erwartenden Mainstream-Grafikchip auf G8x-Basis (mit wohl jeweils zwei Grafikkarten-Varianten) sollte es dann mit einem Abstand von 6 bis 9 Monaten noch einen Refresh des G80-Chips für das HighEnd-Segment geben, auch mit wiederum zwei zu erwartenden Grafikkarten-Varianten. So zumindestens die Theorie, wie der Markt mit einer ausreichenden Anzahl an G8x-Derivaten versorgt werden könnte. Daß nVidia hier eventuell noch mehr Varianten plant, läßt sich ja aus obenstehenden Ausführungen schon entnehmen, auch wenn es natürlich möglich ist, daß diese eher bruchstückhaften Informationen derzeit einfach noch fehlerhaft interpretiert werden.
Eigentlich gibt es in unseren Breitengraden nur einen Hersteller der GeForce 7900 GTO - wie bekannt MSI. Allerdings bringt der Grafikkarten-Versender Mad-Moxx, welcher sich in der Vergangenheit bereits durch übertaktete bzw. freigeschaltete Grafikkarten hervorgetan hatte, ebenfalls eine GeForce 7900 GTO, welche bei Technic3D im Test steht. Die Besonderheit der Mad-Moxx GeForce 7900 GTO "Burstfire" sind dabei die Taktraten: Mit 650/800 MHz erreicht man abweichend vom GTO-Standard von 650/660 MHz exakt die Taktraten einer GeForce 7900 GTX - die genannte GTO-Karte ist damit faktisch vollkommen identisch zu einer GeForce 7900 GTX. Dabei lies sich die Karte mit 690/865 MHz sogar noch recht vernünftig übertakten - viel mehr schaffen reguläre GTX-Karten im Overclocking-Modus auch nicht ...
... Entscheidend ist allerdings der Preis, welcher mit 280 Euro zwar etwas teuer als bei der standardgemäß getakteten MSI GeForce 7900 GTO ausfällt, aber zumindestens alle Preise zur GeForce 7900 GTX (derzeit ab 380 Euro) vollkommen alt aussehen läßt. Problematisch ist allerdings, daß aktuell kaum noch GeForce 7900 GTO Karten zu bekommen sind - sowohl bei Mad-Moxx als auch von MSI. Offensichtlich gehen die ursprünglich hergestellten Stückzahlen dieser Karte zu Ende und von nVidia gibt es keine entsprechenden Chips mehr, da nVidia nach dem G80-Start natürlich keinen Bedarf mehr an einem derartigen Preisbrecher hat und im MidRange-Bereich dann lieber seine GeForce 7950 GT absetzt (an der es für nVidia und die Kartenhersteller klar mehr zu verdienen gibt). Insofern scheint die GeForce 7900 GTO wohl ihre Schuldigkeit getan zu haben und dürfte sogar kurzfristig vom Markt vollständig verschwinden.
Bei AnandTech hat man sich mit der AGP/PCI Express Performance des ASRock 775Dual-VSTA Mainboards beschäftigt, welches beide Grafikkarten-Steckplätze bereithält. Allerdings ist bei diesem Mainboard PCI Express etwas im Nachteil, da der entsprechende Grafikkarten-Steckplatz elektrisch nur als x4 ausgeführt wurde und zudem über die Southbridge angebunden wird. Hieraus dürfte sich dann auch erklären, daß auf jenem Mainboard sowohl GeForce 6800 Ultra als auch GeForce 7600 GS in AGP-Ausfertigung minimal, aber messbar schneller waren als entsprechende PCIe-Karten. Dies bedeutet dann aber auch, daß nach wie vor kein genereller Vorteil für PCIe-Grafikkarten existiert, diese mehr als zwei Jahre alte Systemumstellung dem Nutzer bislang auf dem reinen Grafikkarten-Sektor (außer der Vermeidung einiger AGP-Eigenheiten) wenig bis gar nichts gebracht hat.
Wie DailyTech berichten, hat sich Intel im Zuge der AMD/ATI-Übernahme nunmehr von weiteren Mainboard-Planungen auf Basis von ATI-Chipsätzen getrennt: Selbst ein schon konkret in früheren Intel-Roadmaps stehendes Mainboard mit ATI-Chipsatz wird in aktuellen Roadmaps nicht mehr genannt und dementsprechend nicht mehr ausgeliefert werden. Dagegen berichten DailyTech jedoch von einem seitens Intel angedachtem Mainboard mit SiS-Chipsatz - wobei nicht ganz klar ist, welchen Sinn dies machen soll: Denn ATI war seitens Intel vor allem deswegen ins Boot geholt worden, um bezüglich der Grafikperformance leistungsfähigere Chipsätze zur Hand zu haben als jene von Intel selber, kann SiS diese Anforderung sicherlich kaum erfüllen.
Shortcuts: Daß mit der geplanten Telekommunikations-Vorratsdatenspeicherung alle möglichen Verbindungsdaten ein halbes Jahr verdachtsunabhängig geloggt werden sollen, war schon bekannt. Gulli bringen hier nun jedoch eine neue Nuance ins Spiel: Erstens einmal sollen auch alle Anonymisierungsdienste zu diesem Logging angewiesen werden, gleichzeitig soll es aber auch zukünftig in Deutschland untersagt werden, eine eMail-Adresse ohne vorheriger eindeutiger Identifierung des Nutzers anlegen zu können. Golem berichten hingehgen zu AMDs 4x4-Plattform, deren Unterbau in Form des nVidia nForce 680a Chipsatzes sogar aus zwei vollständigen Chipsätzen bestehen soll. Dies mag sich zuerst technisch unelegant gelöst anhören, gibt jedoch solcherart Plattformen die Möglichkeit an die Hand, zwei Grafikkarten mit jeweils PCIe x16 anzubinden und vier Grafikkarten dann mit zweimal x16 und zweimal x8.
News des 14. November 2006 |
Bei der FiringSquad ist man der Frage nachgegangen, ob ein Performance-Unterschied zwischen PCI Express Anbindungen mit den üblichen x16 und den bei vielen SLI- und CrossFire-Lösungen zwangsweise genutzten x8 besteht. Hierzu wurden zwei Asus-Mainboards herangezogen, welche beide unter SLI betrieben wurden: Das eine ermöglichte dabei eine doppelte x16-Verbindung, das andere "nur" eine doppelte x8-Verbindung. Dabei zeigte sich doch ein gewisser Performance-Unterschied unter 1600x1200 von im Schnitt 4 Prozent - wobei diese im eigentlichen von zwei Spielen (Quake 4 mit 7 Prozent und Call of Duty 2 mit 11 Prozent) erzeugt wurden, der Rest der Spiele jedoch nur im 1-Prozent-Rahmen reagierte. Mit steigenden Auflösungen gingen die Unterschiede dann jedoch maßgeblich zurück - auf im Schnitt nur noch 2 Prozent unter 2560x1600.
Hard Tecs 4U berichten vom nun offiziellen Marktstart der QuadCore-Prozessoren seitens Intel, wozu neben dem bereits bekannten Core 2 Extreme QX6700 auch einige neue Xeon-Modelle mit QuadCore-Kern gehören. Dabei sind diese eigentlicherweise für den Server-Einsatz gedachten Prozessoren gar nicht einmal so uninteressant, ermöglicht Intel mit diesen doch QuadCore auch außerhalb der Mondpreise eines Core 2 Extreme QX6700: So kostet der Xeon E5310 mit 1.6 GHz laut Liste 455 Dollar, der Xeon E5320 mit 1.86 GHz 690 Dollar. Für diejenigen Anwender, welche in ihrer Software-Umgebung zweifellos erheblichen Nutzen aus QuadCore-Prozessoren ziehen, könnten diese Prozessoren zum Aufbau eines "kleinen" QuadCore-Systems durchaus eine Option sein.
Bei AnandTech hat man sich aktuelle Mainboard-Chipsätze für Intel-Prozessoren in Bezug auf deren Verhältnis von Performance zu Stromverbrauch angesehen. Dabei gilt anzumerken, daß solcherart Vergleiche seitens Intel seit dem Markteintritt der Core 2 Duo Prozessoren ziemlich gefördert werden - natürlich, weil Intel in diesen Vergleichen derzeit besonders gut dasteht ;). Ob ein solcher Vergleich allerdings auch für Mainboard-Chipsätze sinnvoll ist, kann sicherlich diskutiert werden - ganz besonders, da die von AnandTech ermittelten Unterschiede beim Stromverbrauch der Chipsätze (bzw. des Gesamtsystems) von Intel P965, Intel 975X und nVidia nForce 570 SLI nicht besonders großartig ausfallen ...
... Denn 6 Prozent relative Differenz (zwischen dem sparsamsten Chipsatz P965 und dem am meisten Energie verbratenem nForce 570 SLI) ergeben zumeist um die 10 Watt absoluter Differenz, was kaum einen echten Unterschied darstellt und wohl in den meisten Fällen kaum zu einer Entscheidung für den einen oder anderen Mainboard-Chipsatz führen dürfte. Vermutlich dürften die meisten Anwender bei der Auswahl des passenden Mainboard-Chipsatzes bzw. des konkreten Mainboards auch weiterhin auf andere Punkte als den Stromverbrauch schauen - und wer wirklich deutlich Strom sparen will und nicht die Leistung eines heutigen Desktop-Systems benötigt, fährt diesbezüglich mit Systemen mit VIAs C7 oder auch AMDs Geode-Prozessoren wohl deutlich besser.
News des 13. November 2006 |
Die VR-Zone berichten von einem Redesign der ATI R600 Referenzkarte, um diese kleiner zu machen und besser gekühlt hinzubekommen. Bislang soll die Referenzkarte noch über 30cm lang sein, man will aber mit dem Redesign höchstens auf ein Maß wie die GeForce 8800 GTX (27cm) kommen, um in die allermeisten Gehäuse zu passen. Zudem war zu erfahren, daß die R600-Karte neben einem 6poligen Stromanschluß noch einen weiteren 2x4poligen Stromanschluß spendiert bekommt, was die Vermutung zuläßt, daß die Karte sogar noch mehr Saft ziehen könnte als eine GeForce 8800 GTX mit ihren zwei 6poligen Stromanschlüssen.
HKEPC berichten über Planungen seitens Intel für einen DualCore-Prozessor auf Basis der Allendale/Conroe-Cores, jedoch mit dem altbekanntem "Pentium"-Markennamen. Dabei wird der Allendale-Core mit physikalisch 2 MB Level2-Cache verwendet werden, bei welchem allerdings zur 1 MB Level2 Cache aktiviert sein wird. Als weiteres Unterscheidungsmerkmal sollen diese neuen Pentium-Prozessoren dann nur über FSB800 und keinerlei Virtualisierungs-Funktion verfügen, wobei letzteres für die meisten Heimanwender wohl verschmerzbar ist. Interessanterweise wird Intels Viiv ebenfalls nicht unterstützt, obwohl das eigentlich eher eine Mainboard- bzw. Plattform-Technologie darstellt - aber natürlich will man bei dieser die teureren Core 2 Duo Modelle verkaufen und nicht die nunmehr klar im LowCost-Markt angesiedelten Pentium-Prozessoren ...
... Zwar sind noch keine Preise für diese neuen Pentium-Prozessoren bekannt, angesichts der technischen Daten und nur 1.6 GHz (Pentium E2140) bzw. 1.8 GHz (Pentium E2160) Takt dürfte wohl der Bereich von 100 bis 150 Euro angepeilt werden. Was sich auf den ersten Blick vernünftig anhört, denn all zu groß ist der Unterschied zwischen Pentium E2160 mit 1.8 GHz und Core 2 Duo E6300 mit 1.86 GHz nicht einzuschätzen. Allerdings wird es diese Prozessoren erst im dritten Quartal 2007 geben, bis dahin dürfte sich der Markt aber sicherlich schon deutlich weiterentwickelt und diese Prozessoren eventuell schon wieder uninteressant gemacht haben. Davon abgesehen wurden mit diesen neuen DualCore Pentium-Modellen die ursprünglich geplanten SingleCore Pentium-Modelle auf Basis der Core-Prozessorenarchitektur gestrichen - zwar wird es im zweiten Quartal solcherart Prozessoren geben, aber dann nur unter dem "Celeron"-Markennamen und nicht mehr namens "Pentium".
Shortcuts: Zumindestens schon einmal fünf weitere G8x-basierende Grafikkarten nennen NGOHQ auf Basis einiger Einträge im 96.94er nVidia-Treiber: Dabei deuten die Codenamen G80-850 und G80-875 auf neue HighEnd-Varianten hin (sprich die Refresh-Version des G80-Chips), während die Codennamen G80-600 (Mainstream), G80-400 (LowCost) und G80-200 (OEM) entsprechende Abstufungen der G8x-Technologie für die einzelnen Marktsegmente darzustellen scheinen. Laut The Inquirer wird es erste Direct3D10 sprechende Treiber für die GeForce 8800 GTS/GTX in der nächsten Woche geben. Für den Augenblick dürften dieserart Tests aber noch weitestgehend uninteressant sein, da es schlicht noch keinerlei Anwendungs-Software auf Basis von Direct3D10 gibt.