News-Archiv 5. - 11. März 2007 (10. Kalenderwoche)
10./11. März 9. März 8. März 7. März 6. März 5. März
News des 10./11. März 2007 |
Wir kommen nochmals zurück zum Thema der MXM Mobile-Grafiklösungen, welcher wir kürzlich bereits hier und hier erwähnten: Wichtig bei diesen ist noch der Punkt, daß man bei der Idee einer entsprechenden Aufrüstung niemals die Stromversorgung sowie die Kühllösung seines Notebooks überstrapazieren sollte - gerade da in Notebooks eine auf die Hardware stark angepasste Lösung verwendet wird, welche damit zumeist kaum Leistungsreserven besitzt. In diesem Zusammenhang besonders kritisch ist die seitens MXM-Upgrade angebotene GeForce Go 7900 GS in einem MXM-II Modul. Denn diese mittlere MXM-Bauform wird in aller Regel bei solchen Mainstream-Lösungen wie GeForce Go 6600 und 7600 eingesetzt - während für eine GeForce Go 7900 GS eher ein MXM-III Modul (wie bei GeForce Go 6800, 7800 und 7900) angebracht wäre ...
... Mit der kleineren Bauform passt jene GeForce Go 7900 GS nun zwar in viel mehr Notebooks, allerdings besteht dafür auch das erhöhte Risiko, daß Stromversorgung und Kühllösung diese (für Notebooks) durchaus HighEnd zu nennende Grafiklösung nicht mehr vertragen. Zu Notebook-Grafikchips liegen zwar keine verläßlichen Zahlen über den Leistungsverbrauch vor, aber man kann hier sicherlich ähnliche Relationen wie im Desktop-Bereich annehmen, wo eine GeForce 7600 GS ca. 27 Watt verbraucht, eine GeForce 7900 GS dagegen immerhin schon ca. 45 Watt. Natürlich könnten im Einzelfall sowohl Notebook-Netzteil als auch MXM-Kühlung über die nötigen Reserven für diesen Leistungssprung verfügen - allein, eine Garantie dafür gibt es nicht, so daß man diesen potentiellen Stolperstein vorab immer mit einkalkulieren sollte.
Nachdem die deutsche Bundesregierung im Januar mittels einer Gesetzesvorlage zur neuerlichen Urheberrechtsänderung einen Auskunftsanspruch für die Rechteinhaber nur bei gewerblichem Urheberrechtsverstoß angestoßen hatte, rudert laut dem Heise Newsticker der Bundesrat nun deutlich zurück und will diesen Auskunftsanspruch auch für den gewöhnlichen P2P-Sündern im Gesetz verankern. Gleichzeitig will man den seitens der Bundesregierung geplanten Richtervorbehalt streichen, womit man letztlich voll auf der Linie mit den Forderungen der Film- und Musikindustrie liegt: Auskunftsanspruch bei jeglichen Urheberrechtsverletzungen ohne jeden Richtervorbehalt ...
... Insbesondere letzterer Punkt ist dabei äußerst kritisch zu sehen, weil ohne richterliche Kontrolle dem Mißbrauch sowie falschen Verdächtigungen Tür und Tor geöffnet werden - auf die Internet Service Provider als Korrektiv kann man leider nicht setzen, da diese bei Widerspruch seitens der Rechteinhaber ganz schnell als "Mittäter" in die Mangel genommen werden (und dann aus Eigenschutz selbstverständlich äußerst schnell einknicken). Insofern stehen ohne Richtervorbehalt die Daten deutscher Internetsurfer zur freien Bedienung durch die Rechteinhaber im Schaufenster, jeglicher Datenschutz oder auch die Unschuldsvermutung wären aufgehoben. Allerdings führen die Ansichten des Bundesrates natürlich nicht direkt zu einem Gesetz, vielmehr werden sich Bundesregierung und Bundesrat wohl in einem Kompromiß einigen müssen.
Gleichzeitig hat sich der deutsche Bundesrat am Freitag laut wiederum dem Heise Newsticker aber auch gegen eine rasche Regelung für die Online-Durchsuchung ausgesprochen, wie es vom Bundesland Thüringen gefordert worden war. Dies bedeutet natürlich nicht, daß die Sache aufgehoben ist - sie ist schlicht nur aufgeschoben und dürfte uns vermutlich noch eine ganze Weile begleiten. Unterdessen korrigiert man bei Isotopp unsere Berichterstattung vom letzten Wochenende, wo es um den potentiellen Einsatz der SINA-Boxen zur Einschleusung des Bundestrojaners ging. Hier hält man nun dagegen, daß die SINA-Boxen dafür nicht gebaut sind, sie stellen nur den verschlüsselten internen Teil eines Regierungsnetzes dar, was aber von sich aus wohl keinen Zugriff auf Daten im "unsicheren" allgemeinen Teil des Internets hat ...
... Erhält beispielsweise ein Internet Service Provider eine Überwachungsanordnung gemäß TKÜV, so hat der ISP den Datenzugriff selbstständig zu organisieren, nur die Weiterleitung der Daten an die staatlichen Ermittler erfolgt dann über das SINA-System. Dies würde wohl bedeuten, daß es für den Staat derzeit keine direkte Eingriffsmöglichkeiten in den Datenverkehr bei den Internet Service Providern gibt, womit auch der Verbreitungsweg des Bundestrojaners über die Manipulation des Internet-Datenverkehrs laut dem Artikel der Telepolis vorerst nicht existent wäre. Doch selbst bei einer technischen Lösung in dieser Frage würde hier immer noch das rechtliche Problem anstehen, daß der Staat nicht rechtmäßig den Datenverkehr verändern kann (Strafgesetzbuch Paragraph 303a: Datenveränderung) - und eine rechtmäßige Veränderung von Daten steht nur den Rechteinhabern oder beauftragten Personen zu ...
... Auf der anderen Seite gibt es inzwischen belegbare Versuche von staatlicher Seite, sich das nötige KnowHow für einen Bundestrojaner zu verschaffen: So berichtet ein hauptberuflich als Programmierer tätiger Blogger über zwei an ihn adressierte diesbezügliche Job-Angeboten aus den letzten Monaten: Zum einen wurde ihm seitens des Bundesamt für Sicherheit in der Informationstechnik (BSI) eine Schulung für Mitarbeiter diverser Behörden mit dem Thema "Wie schreibe ich einen buffer overflow exploit" angetragen, was besonders bezeichnend ist, da das BSI doch eigentlich eindeutig für die IT-Sicherheit in der Bundesrepublik Deutschland zuständig ist - und nicht für das genaue Gegenteil ...
... Und zum anderen gab es die Anfrage nach einem Programm, welches den "Download eines ausführbaren Programms erkennt und dieses on-the-fly mit einem Trojaner versieht", was wiederum in die Kerbe der Verbreitung des Bundestrojaners mittels der Veränderung des Datenstroms schlägt (wobei sich die technische Realisierung immer noch sehr schwierig gestaltet). Zwar nahm der Blogger diese Job-Angebote nicht an, allerdings - wie er selber korrekt anmerkt - könnte der nächste fähige Programmierer "vielleicht weniger Skrupel oder mehr wirtschaftlichen Druck" haben. Insgesamt läßt sich somit sagen, daß sich staatliche Stellen in der Tat schon mit der technischen Realisierung des Bundestrojaners beschäftigen - gleichfalls läßt sich aber auch erkennen, daß man dafür (angesichts der vorstehenden Job-Beschreibungen) auf das Niveau von kriminellen Hackern heruntersinken muß (Übersicht aller 3DCenter News-Meldungen zur Online-Durchsuchung).
News des 9. März 2007 |
In einem neueren Beta-Treiber seitens nVidia finden sich nicht nur - wie bekannt - Einträge für die weiteren Karten der GeForce8-Serie, sondern auch Einträge für zwei neue AGP-Grafikkarten. Somit sind in näherer Zukunft sowohl die GeForce 7900 GS (Treiber-Eintrag "NVIDIA_BR02.DEV_02E3.1 = NVIDIA GeForce 7900 GS" - das BR02 deutet dabei die "BR02" AGP-Bridge an) als auch die GeForce 7950 GT (Treiber-Eintrag "NVIDIA_BR02.DEV_02E4.1 = NVIDIA GeForce 7950 GT") auch auf AGP zu erwarten - was durchaus interessant ist, sollen doch diese beiden Karten zumindestens für PCI Express demnächst auslaufen. Aber offensichtlich haben die neuesten ATI-Angebote für den altehrwürdigen AGP-Bus in Form von Radeon X1950 Pro und Radeon X1950 XT auf AGP nVidia dann doch noch einmal dazu bewogen, dem AGP-User eine weitere (und wohl letzte) Aufrüstmöglichkeit zu spendieren.
Aus unserem Forum kommt eine hochinteressante Diskussion, welche der Frage nachgeht, ob es Gründen des Stromverbrauchs nicht sinnvoller wäre, mit zwei Grafikchips im PC zu operieren: Einer für den 2D-Betrieb und einer nur fürs Spielen. Gerade da aktuelle HighEnd-Grafikkarten selbst im 2D-Betrieb bis zu 54 Watt schlucken (beim G80-Chip soll es noch viel mehr sein), drängt sich eine solche Lösung doch auf. Allerdings hat die Angelegenheit gleich mehrere Haken parat: Als erstes hat der Monitor ein Problem, wenn sich gleich zwei Datenquellen anbieten. Im Zeitalter von DVI kann man zwar einen Signalswitch (welcher beide Signale zusammenfasst) ohne Verlust an Bildqualität bauen, allerdings ist dies sicherlich keine wirklich elegante Lösung ...
... Eine solche wäre nur gegeben, wenn beide Grafiklösungen in irgendeiner Form zusammengeschaltet sind, womit ausgangsseitig immer nur ein Monitorsignal anliegt und eine Software die Steuerung darüber übernimmt, ob dort das Signal der 2D-Karte oder das Signal der 3D-Karte geliefert wird. Prinzipiell gab es so etwas ja schon einmal in Form der 3D-only Grafikkarten von 3dfx - nur war dort das Durchschleifen des Monitorsignals mit einem gewissen Bildqualitätsverlust verbunden, da es nur als VGA-Signal durchgeschleift wurde. Als nächstes müssten die Treiber beider Grafiklösungen explizit für eine solche Funktionalität erstellt sein - die eine Grafiklösung nur für 2D und die andere nur für 3D. Beim früheren 3dfx-Modell war dies einfacher, da seinerzeit die entsprechend eingesetzten Grafiklösungen sowieso nur über diese Fähigkeiten verfügten ...
... Heutzutage muß man aber damit rechnen, daß beide eingesetzten Grafiklösungen immer sowohl unter 2D wie auch unter 3D agieren wollen. Will man das nicht, müssen die Treiber beider Grafiklösungen eine entsprechende Funktionalität zur Verfügung stellen - im Endeffekt eine Funktionalität für den expliziten Betrieb nur als 2D- oder nur als 3D-Lösung. Und letztlich müssen auch die Spiele wieder zurück zu 3dfx-Zeiten gehen, wo viele Programmierer daran gedacht haben, dem User eine Auswahlmöglichkeit zur Grafik-Hardware zu geben. Heute fehlt eine solche Option in den allermeisten Spielen, so das es nicht sicher ist, daß man bei zwei Grafikkarten im System das Spiel immer unter der schnelleren von beiden Karten betreiben kann ...
... Wie zu sehen, bedürfte es also ziemlich umfangreicher Anstrengungen, um ein System mit zwei Grafikkarten und klassischer Aufgabenteilung nach 2D und 3D wieder etablieren zu können. Insofern ist es eher zu bezweifeln, daß es demnächst ein solches System wieder geben wird - auch wenn einige Notebook-Hersteller in eine ähnliche Richtung denken. In einem Notebook als mehr oder weniger unänderbarem Komplett-System läßt sich jedoch mit einigen Tricks wohl doch eine bezüglich der Anwenderfreundlichkeit nutzbare Lösung erstellen - was jedoch wie gesagt für den Desktop-Markt nichts bedeuten muß. Doch so lange keine neuerliche Lösung bezüglich der Trennung von 2D und 3D gefunden wird, bleiben die Grafikchip-Entwickler in der Pflicht, von den teilweise enormen Verlustleistungen im 2D-Betrieb eben auf konventionellem Wege deutlich herunterzukommen.
Shortcuts: Seitens Hard Tecs 4U hat man sich mit der zukünftigen Strategie von AMD bezüglich der Mainboard-Chipsätze beschäftigt. Momentan sieht man dabei AMD auf einem "Schmusekurs" mit allen Konkurrenten in diesem Markt - AMD erscheint es derzeit wohl wichtiger, die breite Angebotsvielfalt zugunsten ihrer Prozessoren zu sichern, als unbedingt ähnlich wie Intel den Chipsatz-Markt für die eigenen Prozessoren zu dominieren. Bei Bear Eyes gibt es Bilder zu den ATI-Chips RV630 (Mainstream, wohl Radeon X2600 Serie) und R600 (HighEnd, Radeon X2900 Serie). Bei letzterem soll es sich angeblich um einen 65nm Chip handeln - was allen bisherigen Informationen widerspricht, welche den R600-Chip als in 80nm gefertigt beschrieben haben, ATI durch mehr Taktspielraum und eine geringere Verlustleistung allerdings dann doch wieder gute Karten gegenüber dem in 90nm gefertigten G80-Chip geben würde.
neuer Artikel |
Mal wieder ein Spiele-Review präsentieren wir mit "XpandRally Xtreme". Das Rally-Rennspiel vom polnischen Entwickler Techland stellt den Nachfolger zu "Xpand Rally" dar und verspricht wie dieses die Darstellung riesiger Außenareale mit natürlicher Vegetation samt der Integration einer Physikengine ... zum Artikel
News des 8. März 2007 |
Wie der Spiegel berichtet, gibt es Gerüchte, Apple würde noch in diesem Jahr erste Notebooks mit Flashspeicher-Festplatten in den Markt bringen - und damit natürlich eine gewisse Technik-Revolution auslösen. Mittels Flashspeicher reduziert man den Stromverbrauch erheblich (wobei ehrlicherweise eine maßvoll große Festplatte auch nicht so viel saugt) und erreicht eine deutlich höhere Ladegeschwindigkeit für das Betriebssystem und größere Anwendungen. Der Nachteil war früher noch die geringere Lebensdauer von Flashspeicher, was allerdings mit den jüngsten Flashspeicher-Typen wohl behoben sein sollte. Geblieben ist der Nachteil des erheblich höheren Preises - so kostet die 32 GB Flashspeicher-Festplatte von SanDisk immer noch 600 Dollar ...
... Aber natürlich könnte Apple hier mit lukrativen Absatzzahlen pokern, was die Angelegenheit schnell deutlich günstiger machen könnte. Zudem ist der Hard- und Softwarehersteller auch nicht für besonders preisbrechende Geräte bekannt, insofern dürfte ein vertretbarer Mehrpreis speziell bei Apple-Geräten wohl kaum auffallen. Das Problem ist aber eher, daß man kaum eine 32 GB Festplatte in ein hochwertiges Notebook einbauen kann, selbst wenn es eine Flashspeicher-Festplatte ist. Heutzutage werden einem selbst im Billig-Segment die Notebooks mit 120er Platten hinhergeworfen, viele Geräte besitzen auch Konfigurationen wie zwei 160er Platten (für RAID beispielsweise). Diesem Standard wird sich auch Apple mit der Idee von Flashspeicher-Festplatten stellen müssen ...
... Und an dieser Stelle angelangt, wäre zu bezweifeln, daß man in diesem Jahr eine sagen wir auch nur 100 GB große Flashspeicher-Platte zu einem wirtschaftlichen Preis in ein Notebook einbauen kann. Was allerdings nicht bedeutet, daß die Idee prinzipiell verkehrt wäre: Schaut man sich nur einmal an, welche Größen gleichpreisige Memory-Sticks (welche ja auch mit Flashspeicher laufen) über die Jahr angenommen haben, so läßt sich daran klar eine rasante Entwicklung ablesen. Und diese wird zwangsläufig irgendwann zu dem Ergebnis führen, daß man Flashspeicher-Festplatten in üblichen Festplatten-Größen zu bezahlbaren Preisen erwerben wird können - es ist nur die Frage, ob das schon dieses Jahr passiert. Langfristig aber scheint es fast vorgezeichnet, daß die bisherige Festplatten-Technologie durch Flashspeicher abgelöst werden wird - und zwar nicht nur auf dem Mac, sondern auch auf dem PC.
Der Heise Newsticker berichtet erneut zum Thema der Online-Durchsuchung. Danach hat der BKA-Präsident Jörg Ziercke bei einer Rede auf dem 10. europäischen Polizeikongress die geplante Online-Durchsuchung explizit mit den versuchten Kofferbomben-Anschlägen vom 31. Juli vergangenen Jahres begründet, da auf dem Rechner eines der Verdächtigen das BKA inzwischen Bombenbauanleitungen gefunden hat. Hochinteressant ist die Konsequenz, welche sich aus dieser Aussage ableiten läßt: Denn da keiner der Tatverdächtigen vor der Tat von Polizei oder Geheimdiensten einer Gefährdergruppe zugerechnet wurde oder sonstwie irgendwie auffällig war, kann das nur bedeuten, daß man den Bundestrojaner auf allen deutschen PCs installieren muß, wenn man diese konkrete Tat verhindern wollte ...
... Etwas schade ist in diesem Zusammenhang, daß der BKA-Chef für solche Aussagen nicht von den Massenmedien in den journalistischen Schwitzkasten genommen wird, sprich an dieser Stelle nicht entschieden nachgebohrt wurde: Denn entweder will der BKA-Chef wirklich den Bundestrojaner auf allen deutschen PCs - dann soll er das auch so offen sagen, selbst auf die Gefahr hin, daß eine kleine Gruppe unverbesserlicher Verfassungsanhänger ;) dies dann als schwerst verfassungsfeindlich brandmarkt. Oder aber der BKA-Chef muß zugegeben, das er schlichten Unsinn redet, wenn er meint, daß die Möglichkeit der Online-Durchsuchung im konkret von ihm selber zitierten Fall der sogenannten "Kofferbomber" die versuchte Tat hätte verhindern können - dieses dann allerdings auf die Gefahr hin, daß man ihm die grundlegende Qualifikation für seinen Job absprechen könnte (Übersicht aller 3DCenter News-Meldungen zur Online-Durchsuchung).
News des 7. März 2007 |
Als Nachtrag zu unserer Berichterstattung vom Wochenende zum Thema der MXM-Grafiklösungen wollen wir noch einmal ausdrücklich die Wichtigkeit der korrekten Befestigungsabstände bei den MXM-Modulen betonen. Gerade wenn man zwischen MXM-II und MXM-III hin- und herschwankt, sollte man beachten, daß es MXM-II nur mit dem niedrigeren Befestigungsabstand gibt (für 35x35mm GPUs, Befestigungsabstand diagonal 55mm, vertikal 41mm), während die meisten MXM-III Module den höheren Befestigungsabstand haben (für 40x40mm GPUs, Befestigungsabstand diagonal 61mm, vertikal 46mm). Bei Unsicherheiten über diesen Punkt sollte man sich zuerst die verbaute Kühllösung ansehen - deren Befestigungsbohrungen entscheiden dann über die einsetzbaren Grafiklösungen. Ein lobenswertes Beispiel ist hierbei im übrigen die in einem Fujitsu-Siemens Amilo M3438G eingesetzte Kühllösung (Bild), da diese Befestigungsbohrungen für gleich beide Befestigungsabstände enthält.
Der Heise Newsticker berichtet über die Auslieferung erster Hybrid-Festplatten seitens Samsung. Diese Festplatten besitzen einen zusätzlichen Cache aus 128 oder 256 MB Flash-Speicher, welcher zum einen zur Beschleunigung des Boot-Vorgangs bzw. beim Einladen größerer Programme und zum anderen zum Stromsparen (indem die eigentliche Platte abgeschaltet wird und nur noch der Flash-Speicher läuft) eingesetzt werden kann. Dazu benötigt es allerdings expliziter Unterstützung durch das Betriebssystem, welches derzeit nur Windows Vista bietet. Weshalb die Festplatten-Hersteller diese Unterstützung allerdings nicht in Form eines Treibers liefern, ist unklar - technisch spricht nichts dagegen, diese Idee auch auf anderen Betriebssystemen wie Windows XP oder Linux umzusetzen. Alternativ will Intel bei seiner nächsten Notebook-Plattform "Santa Rosa" mittels "Robson" ein ähnliches Feature vorstellen, hierbei ist der Flash-Speicher allerdings gleich im Mainboard integriert, womit das System wohl Festplatten- und Betriebssystem-unabhängig ist.
Hochinteressante Neuigkeiten bezüglich der in den großen deutschsprachigen Ländern unioso diskutierten Online-Durchsuchung hat man bei der SonntagsZeitung: Danach soll es wohl jetzt schon üblich sein, daß staatliche Stellen Software-Hersteller darum bitten, neue Sicherheitslücken "noch eine kurze Zeit für die Behörden offen zu halten und erst dann zu beseitigen" - so zumindestens die Aussage von CCC-Sprecher Frank Rosengart. Sollte sich dies bestätigen, wäre das natürlich ein sehr dicker Hund - und ganz nebenbei hätten sich die entsprechenden Beamten der Begünstigung der Verbreitung von Schadsoftware schuldig gemacht, was gleich über mehrere Wege strafbar ist. Einschränkenderweise muß hierzu allerdings gesagt werden, daß ein solches Ansinnen der Behörden zum jetzigen Zeitpunkt in unseren Augen keinen größeren Sinn ergibt ...
... Denn bis vor wenige Wochen gab es in Deutschland keinerlei Rechtsgrundlage für die Online-Durchsuchung - zudem soll diese auch nur zweimal versucht worden sein, wobei es einmal an technisch noch nicht vorhandenen Möglichkeiten scheiterte, und einmal an der Ablehnung der Maßnahme durch einen Richter (was dann auch den Anstoß zum bekannten vorläufigen "Verbot" durch den Bundesgerichtshof ergab). Insofern erscheint es uns ein wenig zweifelhaft, wieso staatliche Stellen von den Software-Herstellern das kurzfristige Offenlassen von Sicherheitslücken erbeten, wenn diese Möglichkeit nach dato bekanntem Wissen nicht genutzt wird. An dieser Stelle wäre es wohl sinnvoll, wenn der CCC-Sprecher seine Aussage doch noch ein wenig präzisieren könnte, bis dahin ist diese Information ein gewisser Wackelkandidat. Andererseits muß man durchaus einkalkulieren, daß die Information auch stimmen könnte - mit der wenig hoffnungsvollen Auswirkung, daß man dann nicht einmal mehr den Herstellern von Anti-Schadprogrammen trauen könnte.
Ein anderer interessanter Einwurf zum Thema der Online-Durchsuchung kommt aus dem Blog von Isotopp. Dort hat man sich mit der rechtlichen Seite des Bundestrojaners beschäftigt und dabei festgestellt, daß mit dem Einsatz dieses Ermittlungsinstruments die staatlichen Ermittler Schwierigkeiten haben dürften, gerichtsverwertbare Beweise zu produzieren. Als erstes wäre da die Forderung nach Kopien der vollständigen Datenträger von (möglichem) Beweismaterial zu sehen - wenn der Bundestrojaner also einfach eine "bomb.xls" nach Hause telefoniert, wäre diese einzelne Datei vor Gericht womöglich vollkommen wertlos, egal wie gut oder schlimm der Inhalt ausfällt. Andererseits stellt der Bundestrojaner aber auch ein gewisses Hindernis dar, wenn man die Daten erst später mittels einer regulären Hausdurchsuchung beschlagnahmen will ...
... Denn eine andere Bedingung zur Erlangung gerichtsverwertbarer Beweise lautet, daß keine Handlung der Polizei irgendwelche Daten auf einem (für eine Gerichtsverhandlung) zu untersuchenden Computer verändern darf - doch da der Bundestrojaner zwangsläufig Daten auf dem Angriffsobjekt verändert, ist diese Bedingung technisch gar nicht einzuhalten. Einschränkenderweise muß hier jedoch gesagt werden, daß diese Richtlinien eher nur eine interne Arbeitsanleitung für staatliche Ermittler darstellen und wohl keinen Gesetzesstatus innehaben - es liegt also im Ermessen des Richters, unkorrekt erlangte Beweise anzuerkennen oder abzulehnen. Allerdings haben wir den leisen Verdacht, daß das Ziel der Online-Durchsuchung eigentlich weniger im Auffinden gerichtsverwertbarer Beweise liegt, vielmehr soll damit so etwas wie eine "Gesinnungsprüfung" durchgeführt werden - wohl der Hauptgrund, warum sich vor allem die Geheimdienste (welche per Definition keine Straftaten aufklären sollen) für die Online-Durchsuchung interessieren.
News des 6. März 2007 |
Laut der VR-Zone soll ATIs kommender Direct3D10 HighEnd-Chip R600 nun gar überhalb von 800 MHz takten, was doch einiges mehr ist als bei den bislang kursierenden Gerüchte über einen R600-Takt von um die 700 MHz. Dies verleiht im übrigen der Idee weiteren Aufschwung, daß ATI den R600 von seinem ursprünglichen Start zum Ende des laufenden Monats zurückgepfiffen hat, weil der Leistungsabstand zum G80-Chip nicht ausreichend war und man den R600 nunmehr mit höherem Takt deutlich stärker gegenüber den nVidia-Angeboten positionieren will. Die GDDR3-Version des R600 soll im übrigen nunmehr erst Anfang Mai erhältlich sein, die (wohl taktschnellere) GDDR4-Version in geringen Stückzahlen zur Mitte des Mai.
Derzeit kommen seitens der Grafikkarten-Hersteller immer mehr Grafikkarten mit den ATI-Chips Radeon X1050 und Radeon X1550 in den Markt. Dabei beinhalten diese Karten in dem Sinne eigentlich keine neuen Grafikchips, vielmehr handelt es sich hierbei um aufgewärmte Varianten älterer Grafikchips: Die Radeon X1050 basiert nämlich auf dem RV370-Chip, welcher seinerzeit bei Radeon X300, X500 und X600 seinen Dienst tat. Damit verfügt diese Grafikkarte nur über die Pixel Shader Version 2.0 und gehört somit eigentlich überhaupt nicht zur Radeon X1000 Serie. Zudem wird die Radeon X1050 auch gern nur mit 64bittigem Speicherinterface ausgeliefert, obwohl der zugrundeliegende Grafikchip auch Varianten mit 128bittigem Speicherinterface ermöglicht ...
... Bei der Radeon X1550 handelt es sich hingegen um eine Karte auf Basis des RV515-Chips, welcher bisher bei der Radeon X1300 Serie zum Einsatz kam und dessen Taktfrequenzen von 550/400 MHz zwischen Radeon X1300 (450/250 MHz) und Radeon X1300 Pro (600/400 MHz) liegen. Auch hier soll es im übrigen (wenn auch seltener) Varianten mit nur 64bittigem Speicherinterface geben. Prinzipiell erscheint die Radeon X1050 nur als Office-Karte zu gebrauchen - dann wäre auch das 64bittige Speicherinterface problemlos akzeptierbar. Allerdings wird der Markt an Office-Grafiklösungen in aller Regel mit (in Mainboard-Chipsätze) integrierten Grafiklösungen gut und vor allem deutlich günstiger abgedeckt. Die Radeon X1550 ist hingegen als klare Einsteigerlösung zum günstigen Preis (um die 60 Euro) gedacht, auch wenn es für nur wenig monetären Einsatz mehr schon deutlich schlagkräftigere Grafikkarten gibt.
Bei Hexus gibt es ein Bild von ATIs "Lasso", über welches wir hier bereits berichteten. Leider sieht man auf dem Bild nur die externe Platine - interessanter wäre aber, wie Lasso intern angebunden ist: Über einen externen PCI Express Port, über den CardExpress-Port bei Notebooks oder aber mittels einer internen Steckkarte, welche auf dem regulären PCI Express Grafikkartensteckplatz sitzt. Die beiden letztgenannten Lösungen sind dabei einfacher zu realisieren, weil die benötigte Hardware schon vorhanden ist, allerdings gibt es CardExpress-Port nur bei Notebooks und reguläre PCIe-Grafikkartensteckplätze nur bei Desktop-Computern. Universell wäre nur die Lösung über einen externen PCI Express Port - der müsste dann allerdings von den Mainboard-Herstellern mit eingebaut werden, worauf ATI wiederum keinen Einfluß hat (und was dementsprechend auch nicht so schnell passiert).
Shortcuts: Wie The Inquirer ausführen, will ATI wenigstens seine LowCost- und Mainstream-Grafikchips für Direct3D10 (RV610 & RV630) pünktlich ausliefern, geplant ist derzeit der Mai als Launchtermin für beide neuen Chips. wie Golem berichten, war der angebliche Schlüsselgenerator für Windows Vista nur ein Scherz - um zu testen, wie schnell und ungeprüft die Medien eine solche Falschmeldung übernehmen. Gut, wir sind hereingefallen - nun ja, teilweise, denn unsere Berichterstattung zum Thema enthielt wenigstens noch ein paar theoretische Zweifel. Die nun aber von seiten des Heise Newstickers berichtete Methode zum Aushebeln der Windows-Vista-Aktivierung soll echt und funktionabel sein. Der dabei angewandte technische Kniff dürfte dabei durch Microsoft gar nicht so einfach mittels Updates wieder aus der Welt zu schaffen sein, da dem Hack eine wichtige Funktion für OEM-Hersteller zugrundeliegt ...
... Hard Tecs 4U berichten von einem "Heliodisplay" des Herstellers IO2, mit welchem sich - SciFi-like - eine Grafikdarstellung im freien Raum realisieren läßt. Bei Gulli gibt es ein Interview mit den Machern von "Rettet das Internet". Dahinter verbirgt sich eine Initiative, welche wegen der fortschreitenden Kriminalisierung von Webmastern und Surfern eine Anpassung des Rechts an die Erfordernisse moderner Informationsgesellschaften erreichen will. Und letztlich gibt es noch eine Strafanzeige seitens eines Gamers gegen Bayerns Innenminister Günther Beckstein zu vermeldet, über welche die PC Action genaueres berichtet. Seitens gamaXX hat man hierzu einen Rechtsanwalt ob der Chancen der Strafanzeige konsultiert, welcher jedoch zu verstehen gegeben hat, daß nur Beleidigungen gegenüber Einzelpersonen oder kleineren Gruppen eine strafrechtliche Relevanz haben.
News des 5. März 2007 |
Bei Hard Tecs 4U hat man einige Neuigkeiten rund um nVidias zukünftige GeForce8-Grafikkarten. Wir hatten hierzu bereits letzte Woche etwas berichtet, diese Berichterstattung gilt es nun aber zu ergänzen: Als erstes wird sich zu den bereits im Markt befindlichen GeForce 8800 Varianten GTS und GTX noch eine GeForce 8800 Ultra gesellen, welche weiterhin auf dem G80-Chip aufbaut. Hierbei dürfte es wohl um die geplante direkte Antwort auf ATIs R600-Chip handeln: Stellt ATI diesen vor und ist jener dann (erwartungsgemäß) schneller als die GeForce 8800 GTX, taktet nVidia einfach den G80-Chip dieserart um, daß es ausreichend ist, um dem R600 in die Parade fahren zu können - angesichts des Hahnenstreits zwischen ATI und nVidia eine altbewährte Methode. Im Mainstream-Bereich gibt es dagegen wie schon bekannt auf Basis des G84-Chips die Grafikkarten GeForce 8600 GS und GT ...
... Darunter fängt dann der LowCost-Bereich an, welcher durch den G86-Chip abgedeckt werden wird. Dessen größte Variante, die schon bekannte GeForce 8500 GT wird wohl noch im Retail-Geschäft auftauchen, darunter sind dann eher Lösungen für große OEM-Hersteller zu erwarten: So soll es hier die G86-Varianten GeForce 8300 GS und GeForce 8400 GS geben. Damit würde nVidia im übrigen schon acht Varianten der GeForce8-Serie im Markt haben, hinzu kommt noch eine schon namentlich erwähnte Quadro-Karte auf G80-Basis. Die letzte Woche erwähnten GeForce 8500 GT, 8600 GS & GT sollen wie gesagt am 17. April in den Markt kommen, die GeForce 8300 GS und 8400 GS dann Ende April. Wann die GeForce 8800 Ultra kommt, ist derzeit noch ungewiss und dürfte wohl entscheidend vom exakten Launchtermin des R600-Chips von ATI abhängen.
Weiteres zur aktuell laufenden Killerspiel-Debatte, welche maßgeblich durch den TV-Beitrag des ARD-Magazins Panorama angestossen wurde: So berichtet die GameZone von einem Brief des CoD-Publishers Activision, mit welchem dieser bereits vor der Ausstrahlung der Sendung Stellung zu den in der TV-Sendung vorgebrachten Vorwürfen nahm. Ebenfalls nicht uninteressant ist eine zweite Meldung seitens der GameZone, welche auf eine neue Studie hinweisen, die den Einfluß von Computerspielen auf reale Gewalt bezweifelt. Genannt wurde hierbei auch eine Statistik, wonach trotz des enormen Wachstums der Computerspiel-Branche in den letzten Jahren die Tötungsdelikte unter Jugendlichen (in den USA) erheblich gesunken sind. Und dann hat die Panorama-Redaktion ihre Stellungnahme zum TV-Beitrag nochmals verändert bzw. deutlich ausführlicher gemacht - der Eindruck der selektiven Berichterstattung bleibt allerdings durch diese neuerlichen Erklärungsversuche weiterhin bestehen ...
... Gleichfalls führte uns die neuerliche Analyse des Panarama-Beitrags zu einem wohl neuen Punkt in der Betrachtung der Killerspiel-Debatte: Denn während man in der Spielergemeinde eigentlich eher davon ausgeht, daß es sich bei der aktuellen Verbotsdebatte in erster Linie um besonders gewalthaltige oder moralisch fragwürdige Spiele handelt, deutet doch das erste Ziel des Panorama-Beitrages stark darauf hin, daß generell jedes Spiel betroffen sein könnte, in welchem mit Waffengewalt gehandelt wird - ganz unabhängig davon, daß es dabei (virtuell) besonders brutal zugeht oder nicht. Daß damit auch die Siedler von einem Killerspiel-Verbot betroffen sein könnten, ist nicht gesagt, aber es soll sicherlich jedes Spiel verboten werden, welches solche Modi wie ein einfaches Deathmatch ermöglicht. Der Sinn hinter der Verbotsidee ist also weniger, besonders brutale Spiele zu bannen, sondern vielmehr, klassische "Räuber & Gendarm" Spiele in virtueller Form (vollständig) zu verbieten ...
... Offensichtlich ziehen hier diverse Poltiker die simple Schlußfolgerung, daß wer vor dem Computer auf virtuelle Gegner schiesst, dies auch in der Realität auf echte Menschen tun könnte - und zwar wie gesagt ganz unabhängig von dem im Spiel dargestellten Gewaltgrad. Dies ist allerdings in unseren Augen eine völlig andere Forderung als jene, besonders gewalthaltige Spiele Minderjährigen strikt nicht zugänglich zu machen - es geht hierbei nicht mehr um den Grad der Gewaltdarstellung, sondern ums reine Spielprinzip. Und dieses ist wieder unserer Meinung nach über jeden Zweifel erhaben, selbst wenn es auf den ersten Blick nicht so aussieht: Doch wer virtuelles "Räuber & Gendarm" verbieten will, muß zuerst jenes alte Spiel in der realen Welt für unsere Kinder und jüngeren Geschwister verbieten - denn in der Fantasie der Spieler ist es das gleiche wie vor dem Computer (und das ein Verbot des echten "Räuber & Gendarm" keinen Sinn macht, zeigt schon allein dieser Artikel) ...
... Eventuell sollte man das den verantwortlichen Politikern einmal direkt vorhalten: Nicht das "Killerspiele" verboten werden sollen - der Ausdruck ist sowieso äußerst negativ belastet und sollte wohl schnellsten ausgetauscht werden. Sondern das vielmehr das klassische "Räuber & Gendarm" verboten werden soll - jedoch nicht für Kindern, sondern für volljährige Personen. Es muß irgendwie an das Licht der Öffentlichkeit gelangen, daß hier nicht bessere Maßnahmen zum Schutz der Jugendlichen erlassen werden sollen, sondern daß vielmehr Erwachsenenverbote auf der Tagesordnung stehen. Positiv ist hier schon, daß es wenigstens noch eine TV-Redaktion gibt, welche sich einen eigenen Kopf zum Thema gemacht hat: Daß hier ausgerechnet RTL II mittels eines Beitrags bei "Welt der Wunder" vom Wochenende (Mitschnitt auf YouTube) die ARD in der journalistischen Qualität um ganze Dimensionen schlägt, ist schon sehr bezeichnend für den Zustand der öffentlich-rechtlichen Sendeanstalten in Deutschland.