Überwachung durch Geheimdienste

Seit Juni 2013 wird häppchenweise immer mehr bekannt wie die Geheimdienste der USA und Großbritannien, NSA (National Security Agency) und GCHQ (Government Communications Headquarters), und ihre Partner Datenverkehr im Internet im großen Maßstab abgreifen. Dazu hat die NSA eine Infrastruktur aufgebaut, die es ihr erlaubt, einen Großteil der menschlichen Kommunikation zu archivieren. Bei der Archivierung der Kommunikation geht es der NSA nicht um ein bestimmtes Ziel, sondern um die Zusammenhänge im Datenverkehr zwischen den Nutzern und wie man sie identifizieren kann. Aus diesen Daten will die NSA einen bestimmten Nutzer identifizieren können, um an seine E-Mails, Passwörter, Gesprächsdaten und Kreditkarteninformationen zu kommen und über diese Informationen weitere Daten verknüpfen zu können.
Das bedeutet, was Internet-Nutzer schreiben oder tun landet unter Umständen für unbestimmte Zeit auf den Servern von Geheimdiensten. Die Daten werden dort für die Zukunft gespeichert und systematisch analysiert.
Den aktiven Geheimdiensten geht es in der Regel nicht nur um sicherheitsrelevante oder staatsgefährdende Geheimnisse, sondern um die Erkennung von Personen, die die bestehende Ordnung und ihre Nutznießer in Gefahr bringen.

Prism

Prism ist ein Überwachungsprogramm des US-Geheimdienstes NSA, welches bis zum Juni 2013 streng geheim war. Die Abkürzung steht für "Planning Tool for Resource Integration, Synchronization and Management". Parallel dazu soll es noch andere Überwachungsprogramme geben, die den gleichen Namen tragen.
Das erste Prism-Programm erlaubt der NSA den direkten Zugriff auf die Server mehrerer Diensteanbieter. Namentlich erwähnt, Microsoft, Yahoo, Google, Facebook, PalTalk, YouTube, Skype, AOL und Apple. Die Dienste dieser US-Anbieter werden international von vielen Menschen genutzt. Daher macht es für die NSA Sinn Zugriff auf die Daten dieser Dienste zu haben.
Hierbei geht es darum verdachtsunabhängig große Mengen Nutzerdaten abzugreifen und dann mit Filterbegriffen genauer zu durchsuchen.

Tempora

Tempora ist ein Überwachungsprogramm des britischen Geheimdienstes GCHQ. Tempora sammelt jeglichen Datenverkehr, E-Mails und Telefonate, die über die Hochseekabel von Großbritannien in die USA verlaufen. Dabei wird der komplette Datenverkehr der jeweils drei vergangenen Tage vollständig gespeichert. Verbindungs- bzw. Meta-Daten werden jeweils für 30 Tage gespeichert. Mit der entsprechenden Software können nachträglich Nachrichten von Verdächtigen gefunden oder die Stimmen von Gesuchten identifiziert werden.

Geheimdienst-übergreifende Zusammenarbeit

Im Rahmen der Aufdeckung der NSA-Machenschaften kam heraus, dass die Geheimdienste untereinander zusammenarbeiten und Daten und Informationen austauschen. Es sind also nicht nur die NSA und GCHQ die Bösen. Der Deutsche BND hängt genauso mit drin. Wenn auch etwas weniger tief, hat er sich ebenso die Finger schmutzig gemacht.

Skandal, oder nicht?

Als die Enthüllungen um die NSA im Juni 2013 ihren Lauf nahm, gab es sehr unterschiedliche Reaktionen. Die einen, die geschockt auf die umfangreichen Maßnahmen reagierten und die anderen, die teilnahmslos mit den Schultern zuckten und meinten, dass es doch nicht verwunderlich oder gar nicht so schlimm sei. Solange man keine Straftat plant, sollte doch alles in Ordnung sein. Und zu verbergen hat man schließlich auch nichts, oder?

Falsch. Denn jedes demokratische System beruht im Kern darauf, dass seine Bürger frei denken und handeln dürfen. Das funktioniert aber nur dann, wenn niemand ständig zuschaut. Denn wer beobachtet wird, der verhält sich anders. Unter dem Blick anderer verhalten wir uns in der Regel Gesellschafts- und System-konform. Also so, wie man es von uns erwartet.

Doch was ist, wenn sich das politische, wirtschaftliche und gesellschaftliche System falsch entwickelt? Was einem Einzelnen passieren kann, wenn er sich verpflichtet fühlt geheime Informationen öffentlich zu machen, die auf eine Fehlentwicklung hinweisen, sieht man an Edward Snowden. Ein anderer hätte aus Furcht vor den Konsequenzen und deren negativen Auswirkungen sich dafür entschieden, seine Meinung nicht zu äußern und die brisanten Informationen nicht zu veröffentlichen. Das Grundrecht auf freie Meinungsäußerung wirkt der Gefahr vor Selbstzensur entgegen.

Stichwort Selbstzensur: Sie wird täglich von vielen Menschen gelebt. Viele Menschen fragen sich ständig, was andere gerade über sie denken. Unter einem solchen Druck tut man nicht das, was man wirklich will. Man entwickelt und lebt kein freies Denken. Doch freies Denken und Handeln ist ein kostbares Gut und ist für eine funktionierende Gesellschaft wichtig. Wir dürfen uns das nicht nehmen lassen. Dafür müssen wir uns jeden Tag bemühen. Manche Menschen auf dieser Welt müssen dafür sogar kämpfen und bezahlen es vielleicht mit dem Tod.

Es geht also nicht darum, ob jemand etwas zu verbergen hat, sondern um das Grundrecht "Privatsphäre" jedes einzelnen Menschen. Oder hätte es jemand gerne, dass die eigenen Eltern früher heimlich die eigenen Tagebücher gelesen oder Telefongespräche abgehört hätten?

Rechtfertigungen, die verlauten, dass alles nur zu unserem Schutz sei, bedeutet, dass jeder unter Dauerverdacht steht. Es ist sicherlich in Ordnung, wenn ein verschwundenes Kind oder ein Verbrecher gesucht und dazu Daten beschlagnahmt werden. Doch in der von NSA und GCHQ angestrebten Überwachungssituation werden Milliarden Menschen unter Generalverdacht gestellt.
Genauso hilft es nicht zu sagen, dass das Ende des Datenschutzes schon gekommen ist. Das kann man nur sagen, wenn man von einer grundguten Menschheit ausgeht. Ein Blick in die Tageszeitung zeigt ein anderes Bild. Jeder Mensch hat eine gewisse kriminelle Energie. Kommen personenbezogene Daten in falsche Hände, kann damit Missbrauch betrieben werden.

Eigenverantwortung?

Wenn einem der Datenschutz wichtig ist, dann stellt sich die Frage, ob man Facebook und Co überhaupt benutzen sollte. Soll doch jeder eigenverantwortlich damit umgehen. Doch das Argument "Eigenverantwortung des Nutzers" ist äußerst schwach besetzt. Beispielsweise ist Facebook inzwischen die Standardkommunikationsplattform für eine ganze Generation. Mit stark monopolistischen Zügen. Bis heute weiß niemand, was Facebook mit den Daten der User macht. Im Prinzip wäre das eine Sache für den Gesetzgeber hier für "Recht und Ordnung" zu sorgen und dies auch zu kontrollieren. Die Frage ist nicht, ob das geht oder nicht, sondern ob wir das wollen. Und wenn wir das wollen, dann geht das auch irgendwie. Es muss nur gemacht werden. Die Hände in den Schoß legen oder einfach offline zu gehen kann nicht die Lösung sein.

Die Frage ist generell, inwieweit das Bedürfnis zunimmt, Schutz- und Verschlüsselungsverfahren einzusetzen, um die eigenen Daten und Kommunikation zu schützen. Die Masse der Nutzer sieht hier generell keinen Handlungsbedarf. Doch wo keine Nachfrage herrscht, da bildet sich auch keine Lösung heraus.

Was Geheimdienste, wie die NSA, wollen

Geheimdienste wie die NSA wollen Zugriff auf die Daten "von jedem, zu jeder Zeit und überall" (anyone, anytime, anywhere). Es geht darum, auf alle Informationen von Personen zugreifen zu können, die irgendwie verfügbar sind. So können Geheimdienste maximal effektiv sein.

Zur Verfolgung dieser Ziele wird die Politik unter Druck gesetzt, um einengende Gesetze dem Informationshunger anzupassen. Und weil auf technischer Seite natürlich Verschlüsselung stört, wird auf Standardisierungen und Entwicklungen von Produkten Einfluss ausgeübt, um Schwächen oder Hintertüren einzubauen. Und wenn das nicht möglich ist, dann schreckt man auch vor kriminellen Machenschaften nicht zurück.
Parallel dazu hoffen die Geheimdienste auf eine Revolution bei der Durchsuchung der Daten. Hat man genug Daten (im Rahmen von Big Data), dann kann man nicht nur Personen-Profile anlegen, sondern auch die nächsten Schritte "berechnen". Der nächste Schritt wäre die Aufspürung und der Abschuss einer Person per Drohne, wenn der Computer ein Gefahrenpotential errechnet hat. Alles vollautomatisch natürlich.


Momentan sieht es danach aus, dass wir uns weltweit zu einer Überwachungsgesellschaft entwickeln. Wobei der Großteil der Gesellschaft von einer Minderheit überwacht wird. Dabei verkommt das Menschenbild dazu, dass jeder und jederzeit verdächtig ist. Die Frage ist, ob wir das so wollen? Wem das egal ist stimmt im Prinzip der Totalüberwachung zu, auch wenn er insgeheim nicht dafür ist. Die Haltung "ist mir doch egal" bedeutet Zustimmung.

Folgen der Totalüberwachung

Wenn man sich die veröffentlichten Informationen zu den Tätigkeiten der Geheimdienste anschaut, dann ist die Infrastruktur der Totalüberwachung schon jetzt derart leistungsfähig, dass veränderte politische Strukturen sofort ein gigantisches Machtinstrument in den Händen halten würden. Auf Knopfdruck lassen sich Profile von jedem Bürger weltweit erzeugen. Schnell entstehen schwarze Listen mit Menschen, die sich irgendwann mal politisch unangenehm geäußert oder verhalten haben. Schon jetzt gibt es in den USA eine Liste von Personen, die beim Grenzübertritt anlasslos durchsucht werden, ihre mitgeführten elektronischen Geräte abgeben müssen und stundenlang festgehalten und verhört werden, obwohl dieses Vorgehen "innerhalb" der USA unzulässig ist.

Und unsere Politiker zeigen sich überfordert und sehen wenig Handlungsbedarf. Doch dieses Thema sollten wir nicht einfach so für beendet erklären, sondern uns an die deutsche Vergangenheit erinnern. Zweimal gab es mit der SS und der Stasi Organisationen des Staates, die eine Totalüberwachung des Volkes anstrebten. Wir haben gelernt, was passieren kann, wenn man Überwachung gegen den Bürger einsetzt und sind dementsprechend sensibilisiert. Im Gegensatz zu anderen Nationen sind wir einen Schritt voraus. Wir sollten diesen Schritt nicht zurück gehen.

Jedenfalls ist das Vertrauen bei Unternehmen und Bürgern erschüttert. Wem kann man noch vertrauen? Journalisten müssen ihre Informationen schützen, Anwälte ihre Mandanten, Ärzte ihre Patienten und Verbraucherschützer ihre Tippgeber. Und jeder von uns ist einer oder mehrmals in einer dieser Rollen gewesen. Diese Rollen sind schützenswert und dürfen nicht durch Geheimdienstaktivitäten unterwandert werden. Wenn politisch hier keine Grenzen gezogen werden und die technische Weiterentwicklung in Bezug auf Sicherheit vernachlässigt wird, bestehe die Gefahr, dass die Privatsphäre für tot erklärt wird oder es keine Datenschutzerwartung mehr gibt. Mit negativen Auswirkungen für die Versammlungs-, Bewegungs- und Meinungsfreiheit.

Totschlagargument: Terrorismus

Wenn es um die Legitimation von geheimen Polizei- und Geheimdienstaktivitäten geht, dann wird gerne der internationale Terrorismus vorgeschoben. Doch die Wahrscheinlichkeit, dass einzelne Bürger von einem Gewaltakt eines Terroristen betroffen sein werden, ist eher dem Zufall überlassen und von geringer Wahrscheinlichkeit. Staatliche Antiterror-Maßnahmen betreffen dagegen jeden. Beispielsweise das Getränkemitnahmeverbot in Flugzeugen oder die angestrebte Totalüberwachung.
Dabei will niemand, dass die Polizei aufhört, nach Terroristen zu suchen und sie aus dem Verkehr zieht. Die Frage ist dabei, ob es sein muss, dass jeder als potentieller Verdächtiger behandelt werden muss, wenn es dafür gar keinen Anlass gibt?

Es gibt die Tendenz, den Aufbau eines geheimen Überwachungsstaats im Namen einer falsch verstanden nationalen Sicherheit zu fördern. Dabei werden die Grundrechte mit Füßen treten. Es entsteht eine Herrschaftsform, die "im Schatten des Rechtsstaats" ausgeübt wird. Die Folge, Bürgerrechte werden mit Verweis auf hochgespielte Gefahren massenhaft verletzen. Gegenwehr? Ausgeschlossen.
In den USA ist die rechtsstaatliche Kontrolle der Geheimdienste völlig abhanden gekommen. Hier werden Akten über Minister angelegt, Regierungsmitglieder belogen, Mitglieder von al-Qaida finanziell unterstützt und Journalisten rechtswidrig abgehört. Wo die eigentlichen Gefahren für die nationale Sicherheit herkommen, wird dagegen nicht erklärt. Die in den USA praktizierten Geheimgesetze und Geheimgerichte sind eigentlich ein Merkmal totalitärer undemokratischer Staaten.

Ja, wir brauchen mächtige Behörden, um kriminelle Aktivitäten zu bekämpfen. Aber jede mächtige Behörde muss Rechenschaft ablegen. Die NSA-Enthüllungen haben gezeigt, dass die derzeitigen Kontrollsysteme nicht funktionieren. Eine Rechenschaftspflicht und mehr Transparenz ist deshalb eine berechtigte Forderung.

Was die NSA kann und was sie nicht kann

Schaut man sich an, für was die beiden Geheimdienste NSA und GCHQ ihre Ressourcen einsetzen, dann geht es weniger darum Verschlüsselungen zu knacken, sondern darum an die Schlüssel zu kommen, Hintertüren in Produkte und Standards einzuschleusen, also generell den Einsatz von Kryptografie zu schwächen.
An den Inhalt verschlüsselter Daten zu gelangen ist also auch weiterhin ein Problem für die Geheimdienste, weshalb sie eher versuchen die Verschlüsselung mit unterschiedlichen Maßnahmen zu umgehen oder ihre Wirkung zu begrenzen.

  • Umgehen von Sicherheitssystemen durch Hintertüren (Backdoor)
  • Einbau von Schwachstellen in Sicherheitsstandards
  • Anzapfen von Leitungen zwischen Rechenzentren
  • Herausgabe des Master-Schlüssels fordern (Master Encryption Key)
  • Nachträgliches Entschlüsseln gesammelter Daten mit Supercomputern (Brute Force)

Umgehen von Sicherheitssystemen durch Hintertüren (Backdoor)

In diesem Zusammenhang sollte nicht unerwähnt bleiben, dass China und die USA sich gegenseitig unterstellen, zum Zweck der Wirtschaftsspionage Software und Netzwerkkomponenten mit Hintertüren zu versehen und auf den Markt zu bringen. Durch die Veröffentlichungen der NSA-Aktivitäten können wir davon ausgehen, dass vertrauliche Daten innerhalb von Netzwerken nicht sicher sind.

Es ist davon auszugehen, dass sämtliche Software und Hardware jeglicher Netzwerk- und Computersysteme, von Firmen mit Sitz oder Niederlassung in den USA, kompromittiert ist und Hintertüren aufweist. Das geht soweit, dass alles was nicht Open Source ist, als unsicher anzusehen ist und für eine sichere Übertragung von Daten zwischen zwei Endpunkten vollkommen ungeeignet ist.
Hinzukommt, das Abhörschnittstellen ganz offizielle Features sind. Ein Beispiel ist der RFC 3923 aus dem Jahr 2004. Hier wird der "unbemerkte Remote-Zugriff durch (amerikanische) Behörden und Geheimdienste" für Cisco-Equipment als Standard definiert.
Das ist ein Beispiel, das zeigt, dass kommerzielle Produkte großer IT-Unternehmen grundsätzlich so gebaut sind, dass sie "existing or future lawful demands" sind.

Hintertüren in kommerzieller Software und Hardware sind ein großes Sicherheitsproblem. Was wenn auch Geheimdienste nicht "dicht halten" und Informationen über Hintertüren an die "Öffentlichkeit" gelangen. Dann nutzen Kriminelle diese Hintertüren zu ihrem Vorteil.
Dabei brauchen Geheimdienste eigentlich keine Hintertüren in kommerzieller Software. Zero Days (Fehler in der Software) reichen völlig aus. Da beispielsweise der Quellcode kommerzieller Software nicht so oft geprüft wird, wie Open Source, sind hier Sicherheitslücken viel eher möglich.

Einbau von Schwachstellen in Sicherheitsstandards

Schon lange arbeiten die Geheimdienste daran, die Verschlüsselung von Daten auszuhebeln. Es ist aber nicht so, dass sie die Verschlüsselungsalgorithmen geknackt haben, sondern die Implementierungen abschwächen und sich so das Entschlüsseln vereinfachen. Mit Brute-Force-Angriffen mit Supercomputern lassen sich Verschlüsselungen schnell aushebeln, wenn die Verschlüsselung fehlerhaft ist oder Schwachstellen hat.
Darunter zu leiden hatte das NIST (US National Institute of Standards). Als nationales US-Institut ist es für verschiedene US-Standards verantwortlich. Im Zuge der NSA-Enthüllungen kam heraus, dass die NSA einen Algorithmus eines Zufallszahlen-Generators eines NIST-Standards manipuliert hat und Hintertüren enthält.

Dazu muss man sagen, dass die NSA nicht nur für das Spionieren, sondern auch für die Sicherung der amerikanischen Kommunikationsinfrastruktur zuständig ist. Auf diese Weise werden die zwei Gesichter der NSA erkennbar, die auf der einen Seite für die besten Verschlüsselungsverfahren bekannt sind, aber gleichzeitig auf deren Ausgestaltung in der Praxis Einfluss nehmen, um sich für die Entschlüsselung Türen offen halten.
So ist zum Beispiel bekannt, dass die NSA bei DES auf die Schlüssellänge Einfluss genommen hat und auf 56 Bit begrenzt wurde.

Anzapfen von Leitungen zwischen Rechenzentren

Die Überwachung von internationalen Kommunikationsverbindungen ist gängige Praxis der NSA, um die nationalen amerikanischen Interessen durchzusetzen. Hierzu werden Weichen an wichtigen Knotenpunkten und bei den TK-Providern installiert.
So ist bekannt geworden, dass sich die NSA auf diese Weise in die Leitungen zwischen den Rechenzentren von Google und Yahoo eingeklinkt hat, um die Daten von den vielen Millionen Nutzerkonten abzugreifen. Auf diese Weise verschafft sich die NSA Zugang zu den Systemen am Ende von Verschlüsselungsstrecken, auf denen die Daten noch nicht verschlüsselt oder schon entschlüsselt sind.
Hilfe bekommt die NSA dabei von der GHCQ (Datenverkehr zwischen USA und Europa) und dem schwedischen Geheimdienst (Datenverkehr zwischen Russland und Europa).

Herausgabe des Master-Schlüssels fordern und nachträglich entschlüsseln

Weil eine starke Verschlüsselung immer noch sicher genug und der Aufwand für die Entschlüsselung zu groß ist, setzt die NSA zumindest in den USA auf juristische Hebel. Dazu gibt es in den USA Geheimgesetze und -gerichte. Veröffentlichungen sind unter Strafandrohung verboten. Dabei setzen die Behörde Unternehmen unter Druck, Umgehungen von Sicherheitssystemen zuzulassen.
Bei Bedarf können US-Behörden von den Internet-Dienstleistern und -Anbietern die Herausgabe des privaten Schlüssels, des Master Encryption Keys, fordern. Mit dem privaten Schlüssel kann man die aktuelle Kommunikation und bereits abgefangene Daten entschlüsseln.

Ein US-Gericht hat den Chef des E-Mail-Anbieters Lavabit im Juli 2013 zur Herausgabe des geheimen Schlüssels seiner Server gezwungen. Der Grund waren Ermittlungen gegen eine einzige Person – wahrscheinlich Edward Snowden. Betroffen waren alle 400.000 Lavabit-Kunden, deren Daten verschlüsselt waren und mit diesem Schlüssel entschlüsselt werden konnten. Die Umstände zwangen Lavabit dazu den Schlüssel zu übergeben. Daraufhin stellte Lavabit seinen Dienst ein, weil damit die Sicherheit für den E-Mail-Dienst nicht mehr gewährleistet war.
Konkret bedeutet das, dass alle Versprechen in Bezug auf Sicherheit und Privatsphäre für Kommunikation und Daten, die in den USA gespeichert oder übertragen werden, hinfällig sind. Entweder haben die US-Ermittlungsbehörden den geheimen Schlüssel schon oder können ihn sich einfach beschaffen.
Bei Cloud- bzw. Diensteanbieter, wie Microsoft, Amazon, Google, Apple, etc. sind Daten vor Geheimdiensten wie der NSA definitiv nicht sicher.

Zur Herausgabe sind die Anbieter im Prinzip rechtlich verpflichtet. Große Firmen können diesem Druck eher Stand halten. Eine offene gerichtliche Durchsetzung scheinen die amerikanischen Behörden zu scheuen. Kleine Firmen, wie Lavabit und Silent Circle, haben diesem Druck aber nachgeben müssen und waren daraufhin zumindest so konsequent ihre Dienste zu schließen.
Das Problem ist die nachträgliche Entschlüsselung bei Bekanntwerden des privaten Schlüssels. Kommt ein Angreifer in den Besitz des privaten Schlüssels, kann er den Schlüsselaustausch von aufgezeichneten Sitzungen nachvollziehen und den jeweiligen Sitzungsschlüssel berechnen und anschließend die Kommunikation entschlüsseln.

Was ist zu tun?

Der erste und wichtigste Punkt ist, alle vertraulichen Daten dürfen nicht über das Internet versendet werden. Schon gar nicht über soziale Netzwerke, wie Facebook, Twitter oder Google+. Auch das Speichern von Dateien mit wichtigen persönlichen Inhalten in Cloud-Diensten, wie Dropbox oder Apple iCloud ist keine gute Idee. Dazu muss man wissen, dass zumindest alle Daten, die über außereuropäische Netzwerke und Rechner laufen von der NSA abgehört werden. Dabei kann man auch europäischen und deutschen Dienstanbietern nur bedingt trauen. Deutsche Dienste benutzen häufig US-amerikanische Dienste und deren schnelle Server und Verbindungen.

Neben dem Bestreben eine gesellschaftliche und politische Lösung zu finden kann jeder versuchen seine Daten bis zu einem gewissen Grad zu schützen und bedarfsweise die Kommunikation im Internet zu verschlüsseln und zu anonymisieren.

  • Kritische Auseinandersetzung mit Lieferanten und Dienstleistern
  • Vollständige Ende-zu-Ende-Verschlüsselung
  • Bei Bedarf Anonymisieren
  • Open Source statt kommerzieller Software
  • Private Cloud statt Public Cloud
  • Dezentralisieren der IT-Infrastruktur
  • Kontinuierliche Weiterentwicklung und schnellere Implementierung
  • Daten auf viele Anbieter verteilen

Kritische Auseinandersetzung mit Lieferanten und Dienstleistern

Im Prinzip gilt die Regel "Vertrauen Sie niemandem". Egal was Ihnen ein Geschäftsführer oder Vertriebler erzählt und egal wo die Firma ihren Sitz hat, kommt es im Zweifelsfall immer auf die Integrität und Courage des Managements an. Sind die Eigentümer, die Geschäftsleitung und auch die Mitarbeiter gegenüber geheimdienstlicher Einflussnahme standhaft? Große international tätige TK- und IT-Unternehmen akzeptieren es eher, dass "das Geschäft in den USA eben so läuft".

  • Kann ein Anbieter nachweisen, dass er sich an die Datenschutzbestimmungen hält?
  • Wer hat Zugriff auf die Daten und ist der Anbieter bereit, diese Personen namentlich zu nennen?
  • Hat der Staat Zugriff auf die Daten und wird das transparent gemacht?

Grundsätzlich sind alle Lieferanten, Anbieter und Hersteller, die Tochterunternehmen US-amerikanischer Unternehmen sind und ihren Sitz in Deutschland oder Europa haben, keine vertrauenswürdigen Kooperationspartner.

Vollständige Ende-zu-Ende-Verschlüsselung

Welchen Weg digitale Nachrichten im Internet zwischen Sender und Empfänger nehmen ist oftmals dem Zufall überlassen und damit praktisch nicht nachzuvollziehen. Unverschlüsselte Verbindungen lassen sich von jedem einsehen über den die Verbindung geleitet wird. Das können Server-Betreiber, Provider, Knoten-Betreiber und somit die dort lauschenden Geheimdienste sein.
Unverschlüsselte Verbindung lassen sich auch leicht manipulieren. Man kann beispielsweise in gewöhnliches HTML Javascript binden, welches Sicherheitslücken erzeugt, über die ein Angreifer versucht die Kontrolle über den Rechner zu gewinnen.
Aus diesem Grund sind personenbezogene Daten zwingend zu verschlüsseln. E-Mails zum Beispiel mit OpenPGP (GnuPG/GPG). Und Webseiten mit HTTPS.

Eine wirksame Verschlüsselung erfolgt dabei mit Perfect Forward Secrecy und Ende-zu-Ende-Verschlüsselung. Mit Ende-zu-Ende-Verschlüsselung ist jedoch nicht vom Client zum Server gemeint, sondern von Anwendung zu Anwendung. SSL mit der Option Perfect Forward Secrecy (PFS) schützt vor nachträglicher Entschlüsselung. PFS verhindert, dass der Sitzungsschlüssel rekonstruiert und damit die Kommunikation nachträglich entschlüsselt werden kann, wenn der Angreifer in den Besitz des privaten Schlüssels gelangen konnte. Aber, damit PFS wirklich sicher ist, muss das temporäre Schlüsselpaar nach dem Schlüsselaustausch gelöscht werden.

Bei Bedarf Anonymisierung

In einigen wenigen Fällen reicht die Verschlüsselung von Daten und der Kommunikation nicht aus. Um zu verhindern, dass sich auch nachträglich noch herausfinden lässt, wer mit wem und wann eine Verbindung aufgenommen hat, muss diese zusätzlich mittels technischer Anonymisierung verschleiert werden. Beispielsweise mit Tor oder JonDonym.
Allerdings macht Anonymisierung keinen Sinn, wenn man auf Dienste zugreift, bei denen man sich authentisiert.

Open Source statt kommerzielle Software

Kommerzielle Hardware und Software, die Verschlüsselungstechnik enthält, ist grundsätzlich zu misstrauen. Es ist davon auszugehen, dass die meisten Produkte großer US-Unternehmen Hintertüren für Geheimdienste enthalten. Das betrifft auch Produkte anderer Länder, die Lücken für die dortigen nationalen Geheimdienste enthalten.
Dabei sind geschlossene Systeme anfälliger für Hintertüren als Open Source. Hier liegt der Quellcode offen und kann überprüft werden. Kommerzielle und proprietäre Software dagegen hat generell mehr "öffentlich unbekannte" Sicherheitslücken und Exploits, weil es weniger Menschen gibt, die den Quellcode durchsuchen.
Bei Software, die nicht quelloffen ist, muss man zu 100% dem Anbieter bzw. Hersteller vertrauen, weil es nichts außer der Integrität des Managements gibt, das es daran hindert, Hintertüren einzubauen. Open Source bietet einen gewissen Schutz vor Hintertüren.

Privat Cloud statt Public Cloud

Die NSA-Affäre hat gezeigt, dass sensible Informationen bei US-amerikanischen Internet-Dienstleistern und Cloud-Anbietern nicht sicher sind. Keine Cloud mit Verbindungen in die USA ist vor deren Zugriff sicher. Dabei spielt es keine Rolle, wo die Daten gespeichert werden. Der Standort eines Cloud-Rechenzentrums außerhalb der USA ist keine Garantie für die Datensicherheit. Der "Patriot Act" zwingt US-Anbieter, Daten zum Beispiel an das FBI zu liefern. Egal wo sich das Rechenzentrum befindet. Diese Vorschriften sind auch im "Foreign Intelligence Surveillance Act" von 1978 festgeschrieben. So gesehen hat die USA sich noch nie für fremde Interesse interessiert.
Und selbst deutsche oder europäische Anbieter, die technisch, wirtschaftlich und finanziell mit den USA verflochten sind, sind in den USA erpressbar. Deshalb sollte man der Cloud-Branche grundsätzlich skeptisch gegenüberstehen.

Doch bevor man alle Cloud-Lösungen verteufelt, muss man zwischen den möglichen Bedrohungsszenarien unterscheiden. Bei einem typischen Cloud-Dienst, bei dem nur Dateien abgelegt werden, reicht es im Prinzip aus, wenn die einzelnen Dateien vor der Übertragung in die Cloud verschlüsselt und so verschlüsselt übertragen und gespeichert werden. Auf den Inhalt der Dateien hätten Fremde keinen Zugriff. Sofern der private Schlüssel geheim bleibt.
Dateien kann man zum Beispiel mit TrueCrypt verschlüsselt. TrueCrypt kann einzelne Dateien, ganze Festplatten oder Partitionen verschlüsseln. Alternativ kann man mit TrueCrypt auch einen Datei-Container anlegen, den man mit einer Passphrase sichert. Der Datei-Container lässt sich dann wie ein Laufwerk ansprechen.
Mit der Sicherheit sieht es bei Software-as-a-Service-Lösungen dagegen ganz anders aus. Hier kann man zwar die Übertragung verschlüsseln. Die Daten liegen dann aber außerhalb des eigenen Kontrollbereichs. Was beim Anbieter passiert kann man nicht überprüfen. Selbst wenn die Daten dort verschlüsselt gespeichert sind, können Geheimdienste die Herausgabe des privaten Schlüssels und Zugriff auf die Daten fordern.

Prinzipiell kann es sich lohnen darüber nachzudenken, statt der Public-Cloud-Infrastrukturen eine eigene Private Cloud aufzubauen. Dafür ist natürlich Know-how, Mitarbeiter und finanzieller Spielraum notwendig. Außerdem besteht natürlich die Gefahr, dass ein Controller irgendwann ein mal einen Strich unter die Rechnung macht und die Kosten und den Aufwand einer eigenen Cloud in Frage stellt. Die Nutzung einer Public Cloud wird immer günstiger sein. Aber unter Sicherheitsgesichtspunkten immer die schlechtere Lösung.

Dezentralisieren der IT-Infrastruktur

Mit der Cloud entstand eine erhebliche Zentralisierung der IT-Infrastruktur, was sich in günstigen und flexibleren Lösungen niedergeschlagen hat. Statt einzelner Server hat man einen zentralen Datenspeicher. Leider gibt es dann auch einen zentralen Angriffspunkt. Erhält der Angreifer einmal Zugang, hat er ihn für alles.

Wer eine sichere Infrastruktur haben will, der kommt um eine dezentrale Public-Key-Infrastuktur (PKI) und dezentrale Datenspeicher und Dienste nicht herum. Damit dreht man die vergangene Entwicklung in der IT natürlich wieder um. Es wird wieder schwerer einzurichten, schwerer zu integrieren, komplexer in der Entwicklung und Benutzung, insgesamt langsamer und unwirtschaftlicher.
Kompromisse sind gefragt. Vielleicht werden besonders sicherheitsrelevante Daten und Anwendungen in Zukunft wieder auf eigenen Systemen laufen.

Stärkung nationaler Netze

Um Lauschangriffe von ausländischen Geheimdiensten im weltweiten Internet zu erschweren gibt es die Idee, den Datenverkehr inländischer Nutzer möglichst in den nationalen Netzen zu halten. Dieser grundsätzlich guten Idee stellen sich drei Probleme bei der Realisierung in den Weg.
Das erste Problem ist, dass einige Netzbetreiber und IP-Carrier nicht unentgeltlich arbeiten, sondern durch Anschlüsse und Leitungsvermietung den Betrieb Ihrer Netze finanzieren. Einem nationalen Netz ist hier Grenzen gesetzt.
Das zweite Problem ist, dass man bei der Realisierung eines nationalen Netzes in den komplexen Routing-Prozess eingreifen muss, der eigentlich den dezentralen Verbindungen des Internets widerspricht. Wenn Routen für den Datenverkehr festgelegt werden, dann geht das zu Lasten der Netzqualität. Denn das Internet-Routing basiert auf Lastverteilung und Ausfallsicherheit. Wenn einmal eine Verbindung oder ein ganzes Netz ausfällt, dann macht es Sinn, wenn Datenverkehr auch mal über ein ausländisches Netz umgeleitet wird.
Der dritte Knackpunkt liegt an den Besitzern der Leitungen. In Deutschland befindet sich große Teile der Infrastruktur in ausländischer Hand. Zum Beispiel den US-amerikanischen Netzbetreiber Level 3 und Cogent. Hinzu kommt, dass teilweise auch die Leitungen zu den Kunden ausländischen Unternehmen gehören. Zum Beispiel der britischen Vodafone.
Die Propagierung eines nationalen Netzes ist gegenwärtig nicht mehr als ein Marketing-Gag. Die Realisierung eher schwierig bis unmöglich.

Kontinuierliche Weiterentwicklung und schnellere Implementierung

Sicherheit bedarf einer kontinuierlichen Weiterentwicklung. Kryptografische Verfahren und Systeme müssen verbessert werden. Schwachpunkte müssen aufgedeckt, untersucht und behoben werden. Hardware und Software muss ständig Tests unterzogen werden. Und was noch viel wichtiger ist, dass bekannte Verbesserungen noch schneller implementiert werden müssen.

Erste Maßnahmen

  • Verschlüsselung auch zwischen den eigenen Cloud-Servern und Datenzentren
  • Hypertext Transfer Protocol Secure (HTTPS): Wenn ein Nutzer eine Website aufruft, werden die Daten zwischen dem Computer des Nutzers und dem Server der Website automatisch verschlüsselt übertragen.
  • HTTP Strict Transport Security (HSTS): Schutz gegen Man-in-the-Middle-Angriffe auf SSL-geschützte Webseiten.
  • Forward Secrecy: Schutz gegen die nachträgliche Entschlüsselung, indem der geheime Sitzungsschlüssel zwischen den Kommunikationspartnern nicht übertragen wird.
  • StartTLS: Aktivierung der Verschlüsselung nach dem Verbindungsaufbau zwischen E-Mail-Servern.

Auf diese Weise kann man die Überwachung "durch die Hintertür" anspruchsvoller gestalten und die Geheimdienste dazu zwingen über den "Rechtsweg" Daten einzufordern. Zwar wäre dann der Zugriff nicht verhindert und bestenfalls nur verzögert. Aber, das wäre besser, als wenn alles und jeder abgehört wird. Und die Gesellschaft hätte die Möglichkeit Überwachungsaktionen in Frage stellen.

Fazit

Jeder Insider weiß, dass alle Verschlüsselungen und kommerziellen Sicherheitsprodukte nur Makulatur sind, weil sie Lücken enthalten und früher oder später nicht mehr sicher genug sind. Spätestens dann, wenn es einen Durchbruch bei Quanten-Computern gibt sind alle Verschlüsselungen hinfällig.
Sicherheitslücken kennt nicht nur die NSA, sondern finden und nutzen auch andere. Auch für Kriminelle ist es ein leichtes, in Systeme und Infrastrukturen einzudringen oder diese anzugreifen.

Klar muss ein, dass es nicht 100%ig sicher geht. Gegen das Anzapfen von Datenleitungen per Fasersplit kann man sich nur sehr schlecht wehren. Die Verschlüsselung von Daten ist deshalb sehr wichtig. Auch dann, wenn man eigentlich keine Gefahr sieht.

Betrachten wir die NSA-Enthüllungen aus deutscher Perspektive, dann erscheint es nicht gerade freundlich, die Wirtschaft und Regierung von Verbündeten auszuspionieren oder Bürgerrechte anderer Staaten nicht zu respektierten. Viel gefährlicher sind jedoch weniger die Schnüffler der NSA. Grund zur Sorge sollten uns unsere eigenen Überwachungsfetischisten machen.

Quellen

Hintergrund

Weitere verwandte Themen:

Teilen:

Produktempfehlungen

Netzwerktechnik-Fibel

Netzwerktechnik-Fibel

Das will ich haben!