News-Archiv 12. - 18. Dezember 2005 (50. Kalenderwoche)
17./18. Dezember 16. Dezember 15. Dezember 14. Dezember 13. Dezember 12. Dezember
News des 17./18. Dezember 2005 |
Bei Tom´s Hardware Guide gibt es einen Vorausblick auf Quad-SLI, bei dem dann vier nVidia-Grafikchips zusammen an der Grafik rechnen. Momentan würde ein solches Vorhaben noch vom nVidia-Treiber gebremst, aber mit den 90er Treibern soll Quad-SLI dann freigeschaltet werden. Tom´s Hardware Guide haben ihren Test über eine Asus-Version der nVidia-Treiber samt zweier DualChip-Grafikkarten seitens Asus realisiert. Damit ist auch kein Mainboard mit vier Grafikkarten-Steckplätzen nötig, es reichen die bisher schon bekannten Dual-SLI-Mainboard. Allerdings dürfte es (mit dem 90er Treiber) sicherlich genauso gut möglich sein, auf einem Quad-SLI-Mainboard vier SingleChip-Grafikkarten im Quad-SLI-Verbund zu betreiben ...
... Ob es noch darüber hinaus gehen wird (4 DualChip-Grafikkarten auf einem Quad-SLI-Mainboard -> achtfach SLI aka Octo-SLI), ist derzeit noch etwas unklar. Technisch wäre dies sicherlich machbar, die Frage ist nur, ob dies nVidia in den Consumer-Treibern freischalten wird. Doch zurück zum von Tom´s Hardware Guide untersuchten Quad-SLI: Da machte man erst einmal Bekanntschaft mit einigen durch Quad-SLI hervorgerufenen Grafik- und Performance-Problemen - wohl der Grund dafür, daß sich nVidia mit dem offiziellen Freischalten von Quad-SLI noch Zeit läßt. Derzeit ist Quad-SLI, selbst wenn es in der von der THG genutzten Asus-Konfiguration faktisch schon kaufbar ist, jedenfalls kaum für den regulären Einsatz geeignet ...
... Unabhängig davon aber kann man in diesen Spielen ohne Grafik- oder Performance-Problemen schon jetzt die mit Quad-SLI zur Verfügung stehenden Power sehen. So skaliert F.E.A.R. sehr gut mit: 29 fps mit einer einzelnen GeForce 7800 GT, 53 fps im SLI-Verbund (+83%) und 92 fps im Quad-Verbund (+74%). Unter dem 3DMark05 gab es dagegen nur eine eher geringfügige Performance-Steigerung durch Quad-SLI, unter Quake 4 sogar einen Performance-Verlust, was man allerdings derzeit noch auf den Treiber schieben kann. Generell gesehen läßt sich aus diesen Ergebnissen jedoch leider nicht viel ableiten, da F.E.A.R. als extrem Grafikkarten-lastig gilt und somit nicht sicher gesagt werden kann, daß sich die F.E.A.R.-Ergebnisse auch mit anderen Spielen erreichen lassen ...
... Quad-SLI hat nämlich die große Gefahr, daß hierfür die zur Verfügung stehende CPU-Power eventuell nicht mehr ausreichend sein könnte - denn immerhin steht bei Quad-SLI dem System die nominell 4fache Grafikkarten-Leistung zur Verfügung, während der Rest des Systems nicht mitwächst (DualCore-CPUs sind diesbezüglich keine Hilfe, da die Spiele diese noch nicht unterstützen). Quad-SLI bei HighEnd-Grafikkarten könnte also durchaus dazu führen, daß die meisten Spiele CPU-limitiert würden und damit der Leistungsgewinn gegenüber Dual-SLI nur gering ausfällt. Ausnahmen gibt es jedoch immer: Wer dauernd unter 2048x1536 samt 8x Anti-Aliasing zockt, der wird sicherlich mit Quad-SLI glücklich - und natürlich aufgrund des Kostenpunkts auch der Hardware-Händler ;).
Shortcuts: Der Planet 3DNow! hat auf satten 57 Seiten ein wirklich bemerkenswertes Netzteil-Roundup von 17 aktuellen Netzteilen verfasst. Hard Tecs 4U berichten hingegen von AMDs Centrino-Gegenentwurf "Yamato", welche im kommenden Jahr samt DualCore Mobile-Prozessoren antreten soll. Bei K-Hardware hat man sich dagegen mit dem Thema "HDTV" beschäftigt. Und abschließend zur allgemeinen Erheiterung: Hier gibt es ein Video von Steve Ballmer, seines Zeichens oberster Microsoft-Chef, welcher anno 1985 das damalige Windows 1.0 in einem Werbespot anpreist - und das Video ist kein Fake!
neuer Artikel |
Die Überschrift dieses Artikels dürfte einige Zeitgenossen bereits überrascht haben. Was, ein Treibertest für eine vier Jahre alte Grafikkarten-Serie? Diese Frage ist durchaus berechtigt, aber deren Beantwortung fällt leicht. Wer sich die vor einiger Zeit hier erschienene Hardware-Umfrage zu Gemüte geführt hat, der wird - genau wie wir - erkennen, dass sich noch immer eine bemerkenswerte Anzahl an GeForce4-Ti-Nutzern unter den Besuchern der beteiligten Internetseiten befindet. Um genau zu sein so viele, dass wir uns entschlossen haben, den eigentlich auf Eis gelegten Detonator/ForceWare-Vergleich für die GeForce4 Ti doch noch aufzutauen und damit den letzten treuen GeForce4-Nutzern eine Überlebensbasis im fast schon undurchdinglichen Treiber-Urwald von nVidia zu geben ... zum Artikel
News des 16. Dezember 2005 |
Die ComputerBase hat in einem lesenswerten Artikel die Radeon X1800 Serie gegen die GeForce7 Serie auf aktuellen Treibern verglichen. Interessanterweise hat man dabei im Gegensatz zu vielen Tests die nVidia-Karten mit der Treiber-Einstellung "High Quality" gebencht, um das leichte Texturenflimmern dieser Karten effektiv zu unterbinden. Dies dürfte nVidia zwar weniger gefallen, aber ATI liegt in diesem Punkt derzeit schlicht ein wenig vorn - und schließlich sollte immer eine möglichst gleiche Bildqualität verglichen werden. Neben extra Vergleichen zur Pixelshader-, Vertexshader-, DualCore- und HDR-Performance sowie zur HDR-Bildqualität und inklusive eines Treiber-Vergleichs ist insbesondere der Test 256 vs. 512 MB Grafikkartenspeicher gut gelungen ...
... Hierbei existieren ja bei ATI und nVidia im HighEnd-Bereich derzeit zwei völlig unterschiedliche Ansätze: Die GeForce 7800 GTX ist in ihrer 512-MB-Version deutlich höher getaktet, insofern ist hier ein deutliches Performance-Plus gegenüber der 256-MB-Version selbstverständlich (in gewissem Sinne kann man somit die GeForce 7800 GTX 512MB als extra Karte mit "eigenem" Grafikchip betrachten). Bei der Radeon X1800 XT hat man jedoch die klare Wahl zwischen 256 und 512 MB Grafikkartenspeicher, da beide Ausführung mit den gleichen Taktraten antreten. Die ComputerBase hat allerdings auch die GeForce 7800 GTX 512MB auf die Taktraten der 256-MB-Version heruntergetaktet, um einen klareren Vergleich zwischen 256 und 512 MB Grafikkartenspeicher antreten zu können ...
... In diesem zeigen sich nun kaum auffällige Unterschiede, bei den Testprogrammen der ComputerBase gab es 1,4 Prozent Differenz bei der ATI-Karte und 0,3 Prozent Differenz bei der nVidia-Karte zugunsten der (gleich getakteten) 512-MB-Ausführungen, was man als definitiv unbedeutend einbuchen kann. Allerdings gibt es auch Spiele mit deutlicherem Hang zu 512-MB-Grafikkarten, wie Tests mit Call of Duty 2 zeigen. Generell betrachtet erscheint uns derzeit das Zeitalter der 512-MB-Grafikkarten im HighEnd-Bereich noch nicht angebrochen - und für LowCost- und Mainstream-Karten wären 512 MB derzeit sowieso Overkill. Allerdings gilt es zu beobachten, ob sich in Zukunft weitere Anwendungen finden, die ähnlich wie Call of Duty 2 größere Unterschiede zwischen 256- und 512-MB-Grafikkarten machen. Es ist absolut möglich, daß es schon in einem halben Jahr diesbezüglich einen Umschwung gibt und 512 MB Grafikkartenspeicher zur allgemein Performance-relevanten Größe werden.
News des 15. Dezember 2005 |
Wie Hard Tecs 4U berichten, gibt es seitens GeCube die erste Wortmeldung bezüglich AGP-Versionen von Radeon X1300/1600 Grafikkarten. So hat der Hersteller sowohl eine Radeon X1300 als auch eine Radeon X1600 Pro auf AGP offiziell angekündigt. Desweiteren ist uns zudem bekannt, daß auch Sapphire solcherart Karten plant, hier steht eine offizielle Ankündigung allerdings noch aus. Damit bekommen die AGP-User mit Interesse an der neuen Radeon X1000 Serie aber wenigstens etwas neues AGP-Material vorgesetzt - anzumerken bleibt aber trotzdem, daß die "älteren" Karten GeForce 6800 GT/Ultra und Radeon X850 XT/XT-PE ebenfalls noch auf AGP erhältlich und klar leistungsstärker sind.
Für 3dfx-Nostalgiker und Veteranen der 3D-Ära: Mit dem 15. Dezember jährt sich der Todestag von 3D-Pionier 3dfx zum nunmehr fünften Mal. Wer will, kann ja noch einmal in unserem damaligen "Nachruf"-Artikel schmökern, wobei wir die Sache damals sicherlich deutlich zu dramatisch gesehen haben. Jedenfalls ist das seinerzeit noch befürchte nVidia-Monopol nicht eingetreten, denn ATI hat sich von einer Firma mit aus Rage-Pro-Zeiten wirklich schlechtem Ruf im 3D-Geschäft zu einem absolut konkurrenzfähigen Hersteller entwickelt, der nVidia in den letzter Zeit sogar vom Marktanteil her überholt hat. Alternative Artikel vergangener Tage mit 3dfx-Bezug waren im übrigen: 3dfx Voodoo5-5500 Review, Voodoo5 WickedGL Report und 3dfx Voodoo5-6000 Benchmarks.
Golem berichten über die Entwicklung eines offenen Trusted Computing Systems seitens der Technischen Universität München. Interessanterweise will man dabei die derzeit für Windows geplante Struktur übernehmen: Ein von der Trusted Computing Group (TCG, ehemals TCPA) spezifiziertes TPM (Trusted Platform Module) sichert die Sache auf Hardware-Seite ab, während auf der Software-Seite dann ein Programm ähnlich wie Microsofts Palladium/NGSCB die Steuerung des TPM übernehmen soll. Mit dem Unterschied, daß dieses Programm Open Source wäre und auf freien Betriebssystemen laufen soll, speziell Linux. Die ganze Sache kann man mit einem lachenden und einem weinenden Auge betrachten: Zum einen wird sich niemand - gerade aus dem Linux-Lager - um TCPA auf seinem Rechner reißen, andererseits würde Linux ohne funktionierendes TCPA langfristig von neuen Medienformaten ausgeschlossen werden und würde demzufolge damit nur Microsoft zu noch höheren Marktanteilen verhelfen.
Der Heise Newsticker vermeldet hingegen eine schwere juristische Schlappe für die schweizer Firma Logistep, welche sich in Verbindung mit Massenanzeigen gegen P2P-Nutzer einen (unrühmlichen) Nahmen gemacht hat. Allerdings betrifft das Urteil des Landgerichts Flensburg nicht die bekannten Strafrechtsfälle, sondern zusätzliche Attacken seitens Logistep, welche versucht hatten, bei bundesdeutschen Internet-Providern mit Hinweis auf angebliche Urheberrechtsverletzungen (inklusive der bekannten selbstproduzierten Beweise) diese zur Speicherung der dabei angefallenen Verbindungsdaten zu bewegen, ohne aber zu diesem Zeitpunkt eine zivil- oder strafrechtliche Klage vorlegen zu können ...
... So betrachtet war es natürlich klar, daß dies nicht durchgehen konnte, schließlich kann keine Firma der Privatwirtschaft einen Internet-Provider dazu anhalten, die aktuelle Datenschutzgesetzgebung einfach zu ignorieren und ohne ein zu diesem Zeitpunkt anhängiges Verfahren irgendetwas zusätzlich zu speichern. Dies ist vor allem bei Flatrate-Anbietern relevant, da diese eigentlich keine Daten mehr speichern dürften, die nicht zu Abrechnungszwecken dienen - worunter bei echten Flatrates zweifelsfrei alle Verbindungsdaten gehören. Der Versuch der Firma Logistep zielte hier schlicht darauf, die Internet-Provider zum vorsorglichen Speichern von Verbindungsdaten zu bewegen, um danach wieder über den Weg der Rechtsanwaltskanzlei Schutt-Waetke in Karlsruhe weitere Strafanzeigen stellen zu können ...
... Viel gewonnen ist mit diesem Urteil nun aber nicht - denn wer weiß schon sicher, was der eigene Internet-Provider für wie lange speichert. Außerdem droht sowie künftig eine Auskunftspflicht der Internet-Provider bei vermuteten Urheberrechtsverstößen gegenüber den jeweiligen Rechteinhabern. Der jetzige Rechtszustand kann somit wohl nur als kurzfristig betrachtet werden, ehe in einigen Monaten eine sicherlich deutlich restriktivere Gesetzeslage mittels Auskunftspflicht der Internet-Provider sowie präventiver Telekommunikations- und Internet-Überwachung in Kraft treten wird.
News des 14. Dezember 2005 |
Aufreger des Tages dürfte sicherlich die Übernahme des taiwanesischen Chipsatz-Herstellers ULi durch nVidia sein, welchen u.a. Hard Tecs 4U vermelden. Zwar ist ULi weltweit betrachtet mit nur 1% Marktanteil im Chipsatz-Markt der kleinste der (bekannten) Anbieter, hat jedoch insbesondere im asiatischen LowCost-Markt eine gute Stellung und nebenbei mit dem M1695/M1697-Chipsätzen auch technologisch hochinteressante Produkte. nVidia dürfte ULi aber in erster Linie dazu benutzen, um in eben jenen Massenmarkt bei Mainboard-Chipsätzen zu kommen, was mit den teuren nForce-Chipsätzen wohl kaum erreichbar scheint. Ganz nebenbei bringt man sich aber auch in einer bessere Position gegenüber Chip-Auftragsfertiger UMC, der bisher der Haupteigner von ULi war und bei dem u.a. die ULi-Chipsätze als auch gelegentlich ATI-Grafikchips vom Band laufen.
Eine zweite Meldung seitens Hard Tecs 4U dürfte kurzfristig jedoch relevanter sein: Danach senkt ATI die Preise der Radeon X1300/X1600 Karten deutlich - und das bei der Radeon X1600 Serie noch vor deren eigentlichen Markteintritt ;). So sinkt der Listenpreis der Radeon X1600 XT von 249 auf 179 Dollar, der Listenpreis der Radeon X1600 Pro von 199 auf 129 Dollar. Damit präsentieren sich beide Mainstream-Angebote als sehr stark im Preis/Leistungsverhältnis und gehen gleichzeitig der Konkurrenz preisgünstig gewordener ehemaliger HighEnd-Karten der GeForce 6800 und Radeon X800 Serien effektiv aus dem Weg ...
... Auch die Preise der teilweise schon erhältlichen Radeon X1300 Serie werden abgesenkt, wobei man hier keine genauen Zahlen herausgab. Aber zumindestens erscheint klar, daß die Radeon X1300 Pro von 149 Dollar Listenpreis auf 99 Dollar abrutschen wird, bei Radeon X1300 und Radeon X1300 HyperMemory dürfte es dagegen wahrscheinlich nur geringfügige Preissenkungen geben. Der Grund für diese teilweise schon recht stattlichen Preissenkung dürfte in den neuen Mainstream-Karten GeForce 6600 DDR2 und GeForce 6800 GS von nVidia liegen, wobei die Preissenkung dennoch erstaunlich hoch ausfällt. Eine solche wäre eher im HighEnd-Bereich zu erwarten, wo die Radeon X1800 Serie vermutlich schon im Februar durch R580-Grafikkarten ersetzt werden wird.
Wie der Heise Newsticker berichtet, hat das EU-Parlament nun die EU-Richtlinie zur präventiven Telekommunikationsüberwachung angenommen. Die neue EU-Richtlinie muß nun zwar noch durch den EU-Ministerrat, da dieser die endgültige Richtlinie jedoch zusammen mit den Parlamentsführern ausgearbeitet hat, gilt die Zustimmung des EU-Ministerrats noch im Dezember als sicher. Was die neue Richtlinie alles an neuen Überwachungsmöglichkeiten enthält, haben wir hier bereits dargelegt, allerdings muß die Richtlinie nun erst einmal in das jeweilige nationale Recht übertragen werden, was innerhalb der nächsten anderthalb Jahre passieren soll. Für Deutschland steht dabei aber eigentlich nur noch die Speicherfrist der Daten zur Disposition, nach der Bundesjustizministerin sollen es 6 Monate sein, während die Innenminister von Bund und Ländern lieber ein Jahr Speicherfrist hätten.
News des 13. Dezember 2005 |
Hard Tecs 4U berichten von einer sehr ungewöhnlichen Radeon X800 GTO seitens PowerColor: Original mit nur 12 aktiven Pixel-Pipelines ausgestattet, geht die "PowerColor X800 GTO 16" interessanterweise mit den vollen 16 Pixel-Pipelines ins Rennen, welche die wahlweise verwendeten ATI-Chips R423, R430 und R480 zu bieten haben. Bei den Taktraten bleibt man allerdings beim GTO-Standard von 400/490 MHz, summa summarum spart sich der Anwender bei dieser Karte also das manuelle Freischalten der eigentlich 4 inaktiven Pixel-Pipelines bzw. das Risiko, daß diese Aktion schiefgeht. Daß ATI von dieser Karte begeistert ist, wäre eher zu bezweifeln - schließlich besteht ein kleiner, aber feiner Unterschied zwischen freischaltbaren Karten und solchen, die schon ab Werk und damit mit Garantie freigeschaltet sind ...
... Ob die Karte also wirklich in den Handel kommt, ist derzeit noch ungewiß, bisher ist sie nur in Fernost aufgetaucht. Allerdings könnte es gut möglich sein, daß sich in diesem Fall auch einmal die Grafikkarten-Hersteller durchsetzen können, denn diese sitzen momentan noch auf erheblichen Lagerbeständen an diversen Radeon-X800/850-Chips, die sich durch die Ankündung der Radeon-X1000-Serie nur noch mittelmäßig verkaufen. Dabei werden angeblich erhebliche Verluste gefahren, die nur minimiert werden können, wenn man die auf Lager liegenden Radeon-X800/850-Chips so schnell wie möglich abverkauft - notfalls eben mit solchen Aktionen wie der "PowerColor X800 GTO 16". Im übrigen bedeutet diese allgemeine Situation der vollen Lager an Radeon-X800/850-Chips genauso auch, daß man sich bei diesen auf weitere Preissenkungen freuen kann.
Wie der Heise Newsticker berichtet, wird es auch in Deutschland eine weitere Verschärfung des Urheberrechts geben, wenn auch indirekt: Und zwar soll es künftig einen Auskunftsanspruch auch indirekt an Rechtsverletzungen beteiligte Dritter gegen Rechteinhabern geben. Sprich: Internet-Provider müssen dann gegenüber Rechteinhabern Personendaten zu IP-Adressen herausrücken, was bisher nur staatlichen Ermittlern zusteht. Allerdings soll eine gewisse Verhältnismäßigkeit gewahrt werden: So bedarf die Anforderung von Personendaten bei Internet-Providern eines richterlichen Beschlusses, zudem soll dies nur bei "gewichtigen Eingriffen" in das Urheberrecht geschehen. Eine konkrete Meßlatte dafür wurde aber bisher nicht genannt, so daß dies wohl im Ermessen des jeweilig angerufenen Amtsrichters liegen dürfte ...
... Generell könnte diese Gesetzesänderung womöglich einen entscheidenden Wendepunkt in der Geschichte der modernenen Urheberrechtsverletzungen darstellen: Kommt die Gesetzesänderung so durch, dürfte es wohl einen großen Schwung an (von den Rechteinhabern initiieren) privaten Ermittlungen gegen P2P-Nutzer geben, in deren Folge die technisch eher versierten Nutzer in anonyme Tauschnetze der neuesten Generation abtauchen und die technisch eher unversierten Nutzer ihre P2P-Aktivitäten wohl eher einstellen werden. Zwar laufen in den USA auch schon tausende solcher Fälle, ohne das dies größere Auswirkungen auf die P2P-Gemeinde genommen hätte, in Anbetracht des Mentalitätsunterschieds bezüglich ziviler Klagen ist es aber durchaus möglich, daß die Rechteinhaber hierzulande wesentlich aggressiver vorgehen und das Land innerhalb weniger Monate mit zehntausenden Zivilklagen überziehen, welche aufgrund ihres Medienechos dann durchaus einen Wandel in der P2P-Mentalität auslösen könnten.
News des 12. Dezember 2005 |
Bei GamePC hat man sich Zalmans neuesten Entwurf eines völlig lüfterlosen Gehäuses angesehen, das Zalman TNN300. Im Gegensatz zum größeren Zalman TNN500 bzw. dessen verbesserter Variante TNN500A ist das TNN300 jedoch nicht für absolute HighEnd-Gerätschaften geeignet, da Zalman ein Limit für den Prozessor von 70 Watt Verlustleistung und für die Grafikkarte von 35 Watt Verlustleistung angibt. Überhalb dessen müsste man auf die mitgelieferte passive CPU- und Grafikkarten-Kühlung des Gehäuses verzichten, was jedoch dem Sinn der Lautlosigkeit widersprechen würde - auch weil das Gehäuse nicht zusätzlich mit Dämmmatten ausgelegt ist. Bei den CPUs reicht es aber definitiv für AMDs aktuelle 90nm Athlon 64 Prozessoren, DualCore-CPUs fallen allerdings sowohl bei AMD wie auch bei Intel aus ...
... Bei den Grafikkarten gibt Zalman an, daß das Limit von 35 Watt bis zur GeForce 6600 reichen würde, allerdings konnten GamePC auch eine GeForce 6800 GS problemlos in dem Gehäuse betreiben. Hier spielt wohl auch mit hinein, daß bei Grafikkarten nicht die gesamte erzeugte Verlustleistung über den Chipkühler abgeführt wird, sondern ein gewisser Teil auch über die Speicherbausteine. In der Summe läßt sich mit dem TNN300 also ein geräuschloses System der oberen Mittelklasse aufbauen, wobei wegen der fehlenden Gehäusedämmung zusätzlich der Einbau von Festplatten in schwingungsgedämpften Festplattenhaltern zu empfehlen ist. Allerdings kostet der Spaß weiterhin sein Geld: Während das TNN500A für aktuell 950 bis 1000 Euro zu haben ist, soll das TNN300 auch immerhin runde 700 Euro kosten.
Der Heise Newsticker berichtet über die Arbeit an einer Super-DRM-Architektur der Zukunft, bei welcher der Content Protection Copyright Management (CPCM) Standard ausgearbeitet werden wird. Dabei handelt es sich um einen Geräte- und Plattform-übergreifenden Standard aller möglichen elektronischen Geräteschaften, mit welcher digitale Inhalte vor Vervielfältigung sowie nicht genehmigter Nutzung geschützt werden sollen. Der Ansatz von CPCM geht dabei äußerst weit, so geht es nicht nur um Computer und Internet, sondern genauso auch um TV- und Radiosendungen - faktisch jederart von Computer- und Mediendaten, egal auf welchem Übertragungsweg ...
... Jetzt dürfte erst einmal klar sein, daß nach der Entwicklung der letzten Zeit generell so etwas in der Art kommen würde. In gewissem Sinne ist es sogar positiv zu bewerten, daß dies über einen allgemeinen Standard laufen wird, denn bisherige DRM-Systeme sind zumeist Firmen- und Geräte-gebunden und somit nur wenig zukunftstauglich. Das CPCM-System könnte dann deutlich Konsumenten-freundlicher sein als heutige DRM-Systeme, da diese Problematik der Bindung an diverse Firmen und Geräte wegfallen würde. Zwei Punkte sprechen allerdings gegen CPCM: Zum einen wäre da die Möglichkeit, einmal gewährte Rechte nachträglich zu widerrufen, was auch schon ein Problem heutiger DRM-Systeme darstellt ...
... Hier wäre langsam aber sicher mal ein Eingriff der Politik angebracht, schließlich kann man - technisch gesehen - das nachträgliche Verändern einer Lizenz auf dem Rechner des Konsumenten als Einbruch in denselben sehen (was im übrigen von der heutigen und geplanten Gesetzeslage sogar in Richtung Terrorismus gestellt wird). Daß die Rechteinhaber eine ständige Kontrolle über die Rechner der Konsumenten sowie die Möglichkeit zur ständigen Veränderung der Bedingungen haben sollen, ist bei weitem nicht hinnehmbar (vergleiche: "Ein Vertrag ist ein Vertrag ist ein Vertrag.") und sollte gerade im Zuges eines unüberwindbaren DRM-Systems eigentlich abgeschafft werden können ...
... Der zweite bedenkliche Punkt ist die anscheinend geplante komplette Durchdringung des DRM-Systems in alle Technik, so daß - wobei dies speziell nur Computer betrifft - keine DRM-freie bzw. allgemein freie Software mehr laufen würde. Selbstverständlich muß sich ein DRM-System gegenüber Veränderung schützen - es darf aber auf Computern auch nicht alle Ressourcen beschlagnahmen und sich als Herr des kompletten Systems aufspielen, denn dies ist (und bleibt) immer noch der Konsument. So lange das DRM-System in seinem eigenen Teil des Computers läuft und andere Systeme dabei nicht behindert, ist natürlich nichts dagegen zu sagen. Allerdings bleibt generell noch abzuwarten, was denn nun konkretes aus der Arbeit an CPCM herauskommt: Derzeit ist man gerade erst einmal beim ersten Entwurf des CPCM-Modells, insofern dürfte es noch einige Jahre bis zu ersten CPCM-Geräten dauern.