immateriblog.de

Matthias Spielkamp über Immaterialgüter in der digitalen Welt

immateriblog.de header image 2

DRM und Trusted Computing: Was Dir gehört, gehört Dir nicht.

November 13th, 2009 · 2 Comments · AGB, Datensicherheit, Internet Governance, Internet-Regulierung, Verbraucherschutz

Der Elektrische Reporter berichtet über die Einschränkungen, die Nutzer durch DRM hinnehmen müssen: Digitale Entmündigung: Was Dir gehört, gehört Dir nicht (Video am Ende des Beitrags). Ist sehr gut gemacht. Schon vor einiger Zeit hatte ich hier über Apples unsägliche Geschäftspolitik geschrieben.

Aus gegebenem Anlass veröffentliche ich hier im Blog noch einmal meinen Beitrag “Endlich sicher?” über Trusted Computing, der 2004 in der ZEIT erschienen ist (Ausgabe 20/2004). Denn als ich Marios Video gesehen habe, ist mir aufgefallen, wie aktuell er noch ist:

Endlich sicher?

Fast jede Woche gibt es neue Nachrichten über Würmer und Viren. Trusted Computing soll den PC besser gegen solche Angriffe schützen – aber es wird auch den Nutzer entmündigen.

Der Wurm der Woche heißt “Sasser”, und wie viele seiner Vorgänger hat er sich über eine Schwachstelle im Windows-Betriebssystem in Millionen Rechnern eingenistet. Für die Computerbenutzer sind die Desinfizierung des heimischen Rechners und das Laden des entsprechenden Sicherheits-Updates schon fast zur Routine geworden. Aber sie können auch von Glück reden, dass eine wirklich vernichtende Attacke der im Dunkeln agierenden Virenschreiber bisher ausgeblieben ist.

“Im Kampf der Mächte des Lichts mit den Mächten der Finsternis befinden wir uns in der Phase der Abenddämmerung”, sagt Ross Anderson. Aber der Professor am Computing Lab der englischen Cambridge University meint mit den “Mächten der Finsternis” nicht die Script-Kids, die Woche für Woche neuen infektiösen Programmcode ins Internet einschleusen, sondern das Establishment der Computerszene. Genauer gesagt die Firmen, die sich zu einem Industriekonsortium namens Trusted Computing Group zusammengeschlossen haben und mit “vertrauenswürdiger Computertechnik” die Rechner und Netzwerke sicherer machen wollen: Microsoft, Intel, IBM und AMD sind dabei, aber auch deutsche Firmen wie Siemens und Infineon – insgesamt mehr als fünfzig Unternehmen, die in der Computerbranche Rang und Namen haben.

Trusted Computing soll den Computer endlich zu einem Gerät machen, auf dessen reibungsloses Funktionieren man sich so verlassen kann, wie man es von der Waschmaschine und dem Fernseher her gewohnt ist. Abstürze und Fehlfunktionen durch malicious software, also bösartige Programme, sollen der Vergangenheit angehören, der unautorisierte Zugriff von außen soll unmöglich werden. Vor allem vernetzte Anwendungen wie Online-Banking oder E-Commerce will die Trusted Computing Group gegen Hacker und Betrüger schützen.

Technisches Herzstück des Trusted Computing ist das Trusted Platform Module (TPM). Das ist ein Chip, der fest mit dem Computer verbunden ist. Er enthält einen Software-Schlüssel, der den Rechner eindeutig identifizierbar macht.

Ein auf diese Art gesicherter Schlüssel macht zweierlei möglich. Zum einen kann die “Integrität” des Systems geprüft werden. Was, vereinfacht gesagt, bedeutet, dass jede Veränderung des Systems gegenüber seinem Urzustand festgestellt werden kann. Nichts kann mehr verändert werden, ohne dass der Besitzer zustimmt. Die zweite Funktion ist die so genannte Remote Attestation, also die “Überprüfung aus der Distanz”. Bei jedem Computer mit einem TPM kann über ein Datennetz, also auch das Internet, abgefragt werden, ob er sich in einem vorab definierten Zustand befindet: dass etwa keine Programme installiert wurden, um Passwörter auszuschnüffeln. Dann kann zum Beispiel der Systembetreuer einer Firma unbesorgt vertrauliche Daten an den Rechner des Mitarbeiters übertragen. Es kann aber auch ein Anbieter von Musik oder Filmen prüfen, ob ein Kunde seinen Computer nur in einer Art nutzt, die dem Anbieter gefällt – oder ob er etwa eine Software zum Kopieren von DVD-Filmen laufen lässt.

Einerseits kann TC also das Vertrauen des Nutzers in seinen Computer stärken. Der Rechner schlüge Alarm, wenn ein Programm versuchte, das System zu verändern – beispielsweise ein Dialer. Und mit der TC-Architektur können auf der Festplatte und im Arbeitsspeicher Segmente erzeugt werden, die so sicher abgeschottet sind, dass die darin gespeicherten Informationen anderen Programmen, vor allem Viren und Trojanern, nicht zugänglich sind.

Was bringt Kritiker wie Ross Anderson gegen dieses Sicherheitskonzept auf? Wenn Dritte von außen den Rechner überprüfen können, verändert sich das Prinzip des PCs grundlegend. Der ist bis heute eine “Universalmaschine”: Alles, was technisch mit ihm möglich ist, kann der Besitzer tun, wenn er die Kenntnisse dazu hat. Der Eigner hat also die oberste Kontrolle. Informatiker sprechen vom PC als einem “offenen System”. Im Gegensatz dazu sind geschlossene Systeme solche, die nur zu einem bestimmten Zweck gebaut werden. Sie sind so ausgelegt, dass sie nur tun, wofür sie bestimmt sind – etwa ein digitaler Fernsehempfänger oder eine Spielkonsole.

Eine Trusted Platform wäre eine Art Zwitter. Nicht ganz geschlossen, aber auch nicht mehr wirklich offen. Nach weltweiter Kritik von Daten- und Verbraucherschützern hat die Trusted Computing Group zwar inzwischen festgelegt, dass die Besitzer die Möglichkeit haben werden, den Schlüssel im TPM zu löschen. Dann könnte unter keinen Umständen mehr von außen kontrolliert werden, was auf dem Rechner passiert. Aber es stünden auch viele Funktionen nicht mehr zur Verfügung, die auf das TPM angewiesen sind. Eine Bank etwa könnte nach Abschalten des Moduls nicht feststellen, ob die Software des Bankkunden verändert wurde, etwa von einem Trojaner, der Passwörter ausspähen soll. Eine Bank könnte sich also weigern, mit solchen “unsicheren” Systemen Daten auszutauschen, und von Online-Kunden verlangen, dass deren Rechner jederzeit überwachbar bleibt.

Ross Anderson unterstellt den Herstellern von Hard- und Software, über Trusted Computing das so genannte digitale Rechte-Management (DRM) durchzusetzen, mit dem verhindert werden soll, dass digitale Inhalte unerlaubt kopiert und weitergegeben werden. “Die Industrie versucht, einen Chip in jeden Computer und jedes Mobiltelefon einzubauen, der als kleiner Polizeibeamter darauf achten soll, dass auf dem Computer nur von der Industrie genehmigte Programme laufen”, beschreibt Anderson die drohende Gefahr.

Trusted Computing würde in diesem Fall bedeuten: Die Anbieter von Inhalten geben ihre Daten nur noch an Computer weiter, denen sie vertrauen – die also nicht über Software zum Raubkopieren verfügen. Diese Gefahr sehen auch manche Industrievertreter, zum Beispiel Michael Waidner, Direktor des IBM Privacy Research Institute in Rüschlikon bei Zürich: “Jeder Kunde, der einen PC kauft, könnte die Funktion abschalten. Aber dann bekäme er die neuesten Hollywood-Produktionen nicht mehr.” Mit einem Trusted Platform Module allein könnte man eine solche Schnüffelei allerdings ohnehin nicht erreichen, sondern nur mit zusätzlichen Komponenten ? und mit einem “sicheren” Betriebssystem, das darauf aufbaut. Microsoft entwickelt unter dem Namen Next Generation Secure Computing Base (NGSCB) ein solches System. Gerold Hübner, bei Microsoft Deutschland für die Computersicherheit zuständig, schließt allerdings kategorisch aus, dass NGSCB genutzt werden wird, um zu überwachen, mit welchen Programmen die Nutzer welche Inhalte bearbeiten und ansehen. Dazu wäre eine zentrale Erfassung aller Programme nötig sowie eine Stelle, die der Software eine Art Unbedenklichkeitssiegel gibt. “Darüber denkt niemand nach”, sagt Hübner, “und wir werden uns dafür einsetzen, dass es so etwas nicht geben wird.”

Technisch möglich wäre eine solche Zentralaufsicht jedoch, und Microsoft selbst besitzt ein Patent, in dem ein entsprechendes System detailliert beschrieben wird. Die amerikanische Bürgerrechtsorganisation Electronic Frontier Foundation hat daher vorgeschlagen, einen owner override einzuführen: ein Verfahren, durch das Besitzer von Computern einen “vertrauenswürdigen” Zustand vortäuschen können. Der Anbieter von Film-Downloads etwa, bei dem sie sich anmelden, bekommt nicht die eigentlichen TPM-Daten zu sehen, sondern eine veränderte Fassung, die den Computer nach außen “unschuldig” aussehen lässt – damit wäre die externe Kontrolle faktisch unmöglich. Gleichzeitig aber würden die Sicherheitsvorteile für den Eigentümer bewahrt, er könnte die Integrität seines Rechners weiterhin prüfen.

Die Sicherheit in Firmennetzwerken wäre weiterhin gegeben. Denn nur der Besitzer des Computers könnte einen owner override vornehmen – der einzelne Mitarbeiter dagegen kann nichts verheimlichen. Ein Systemadministrator wäre in der Lage, stets zu kontrollieren, was für Programme auf den Rechnern innerhalb der Firma laufen.

Stefan Bechtold, Jurist an der Uni Tübingen und einer der besten Kenner der TC-Architektur, hält das owner override dennoch für keinen guten Ansatz ? zu viele Möglichkeiten des Trusted Computing gingen verloren. Er sorgt sich auch weniger um die Nöte von Datenschützern, sondern um ein wettbewerbspolitisches Problem: TC ermöglicht es prinzipiell, dass eine Firma, die ein neues Datenformat für elektronische Medien einführt, bestimmen kann, dass diese Daten nur noch mit ihren Programmen gelesen und bearbeitet werden können. “Ich glaube nicht, dass man dafür eine technische Lösung finden kann”, sagt Bechtold. Nötig sei ein Zusammenspiel von Technik und Recht – neue Gesetze sollten einen solchen Missbrauch von TC verhindern.

Diese Einschätzung teilt Andreas Neumann, ein Wettbewerbsrechtler an der Universität Bonn. Doch er weist auf grundsätzliche Schwierigkeiten hin: “Wenn in Netzwerkmärkten, die sich sehr schnell bewegen, etwa in der Computerbranche, mit Hilfe des Wettbewerbsrechts eingegriffen wird, ist es meistens zu spät.” Das zeigt das Verfahren, das die EU im Moment gegen Microsoft führt – dort geht es um Wettbewerbsverstöße von Programmen, die heute kaum noch jemand benutzt.

Bei Trusted Computing ist es vielleicht noch nicht zu spät für regulierende Eingriffe. Zwar sind schon jetzt in vielen Rechnern TC-Chips enthalten, aber die werden bisher nur genutzt, um zum Beispiel Passwörter sicher auf dem Rechner zu speichern. Erst Chips der zweiten Generation sollen zum Aufbau einer TC-Architektur genutzt werden. Über Microsofts neues Betriebssystem mit dem Tarnnamen Longhorn, das TC enthalten soll, wird seit Jahren spekuliert ? es wird frühestens 2006 auf den Markt kommen. “Aber wir gehen davon aus, dass es dort vorerst für den Privatanwender überhaupt keine Rolle spielen wird, sondern nur für Geschäftskunden, bei denen höhere Sicherheitsanforderungen erfüllt sein müssen”, sagt Gerold Hübner. In diesem Licht sei das Erfreuliche an der Debatte über Trusted Computing, dass sie so früh begonnen habe, findet der Wettbewerbsrechtler Neumann: “Microsoft hat noch kein Produkt auf dem Markt, aber wir haben schon seit einem Jahr die Diskussion, welche Auswirkungen das auf Wettbewerb und Verbraucher haben wird.”

Hier noch das Video des Elektrischen Reporters:

Elektrischer Reporter – Digitale Entmündigung: Was Dir gehört, gehört Dir nicht

Tags:

2 Comments so far ↓

Leave a Comment