Tumblelog by Soup.io
Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 25 2014

February 07 2014

Müssen wir mit allem rechnen? Ein Lagebericht aus der Welt des Dataismus #1

Große Daten – bitte was? Der Begriff „Big Data“ geistert seit Monaten durch Artikel, TV-Sendungen  und Radiobeiträge. Die weitaus meisten von uns haben dennoch, zumindest laut mancher Studie, keinen blassen Schimmer, was damit gemeint sein könnte. Mit einer Artikelreihe wollen wir deshalb ein paar Scheinwerfer in den Datenanalyse-Wald richten. Denn die enthüllte Überwachungs-, ist eigentlich eine „Berechnungsgesellschaft“. Darin sind die Geheimdienste nur einige Akteure unter vielen. 

Klick. „Wir reden über Petabytes, Yottabytes, Zettabytes“, erklärt Kerrie Holley, „aber eigentlich haben wir noch zu wenige Daten“. Klick. „Muster lassen sich mit Hilfe von Mathematik begreifen“, sagt Jurij Paraszczak. „Und mit diesen Mustern lässt sich nicht nur verstehen, was gerade passiert, sondern auch was passieren wird.“ Klick. „Daten sind das, worin wir leben und was wir atmen“, schwärmt Emile Werr von der New Yorker Börse.

Klick.Big Data ermöglicht „einen tieferen Einblick, indem es Kundeninformationen und –verhalten stärker durchforstet“, erklärt eine Stimme. „Peters“ Bank hat mitbekommen, sagt der Sprecher, dass „Peter“  in der letzten Zeit mehrfach Geld für Haushaltsgegenstände ausgegeben hat. Die Bank kennt sein Ausgabeverhalten, Einkommen, seine  Kreditwürdigkeit und durch „Peters“ Social-Media-Verhalten weiß das Geldhaus außerdem, dass er gerne kocht und in Gourmet-Restaurants geht. Er wünscht sich einen neuen Herd. Seine Bank weiß, welchen „Peter“ gerne hätte. Sie erhöht seinen Dispokredit, damit er sich das teure Stück auch leisten kann.

Klick. „Linda“ geht zum Arzt. In einer „Big-Data-Welt“ hat „Dr. Patel“ einen „360 Grad Überblick über ihre Krankheitsgeschichte“. Mit ihrem Tablet-PC meldet sich „Linda“ im Fitnessstudio an. Dort notiert ein Trainer ihre Vitalfunktionen und andere „relevante“ Daten in dem von „Dr. Patel“ empfohlenen „Wellness“-System. Eine App überwacht ihre Trainingserfolge. In diese hat natürlich auch ihr Arzt Einsicht. „Gratuliere Linda!“, schreibt er seiner Patientin zur Motivation. „Jetzt solltest du anfangen, Vitaminpräparate zu nehmen.“ Natürlich macht sich „Linda“ gleich auf den Weg zu einer Apotheke – die ihr der programmierte Gesundheits-Guru in ihrer Tasche praktischerweise empfiehlt.

 

A wie Alles anders

Das alles sind Szenen aus Imagefilmen des IT-Unternehmens IBM. Im Youtube-Channel des US-Konzerns häufen sich echte und vermeintliche Experten, zufriedene Kunden und sonstige werbewirksam Lächelnde, die den verheißungsvollen Slogan „Let’s build a smarter planet“ an das Ende ihrer Geschichten über ihre „smart“ gelösten Probleme stellen. Mal handeln die Big-Data-Erzählungen von Bankgeschäften und Börsenkursen, mal von Tennis, Logistik oder der sogenannten „Sentiment Analysis“ (wie das funktioniert erklärt Anna). Oft geht es um „Muster“, „Echtzeit“, „Vorhersagen“ und immer um rasant wachsende Datenmassen. Bis 2020 soll sich das weltweite Datenvolumen alle zwei Jahre verdoppeln, schätzen die Marktbeobachter der International Data Cooperation (IDC). Bis 2020 werden die Maschinen, die uns umgeben, mal mehr und mal weniger durch unser Zutun, also Fotos, Klimadaten, Bewegungsprofile, Text, Kontonummern, Programmcode, Informationen über Verkehrsströme und Stromverbrauch mit einem Volumen von 40 Zettabyte erzeugt haben. Laut den Analysten soll das der 57-fachen Sandmenge aller Strände der Erde entsprechen – auch wenn das ein etwas absurder Vergleich ist.

Im Zeitalter der explosionsartigen Byte-Vermehrung eröffnet Big Data einen völlig neuartigen Zugang zu empirischer Erkenntnis. Der Hype-Begriff beschreibt das Phänomen der rasend schnell erzeugten Informationen. Big Data steht aber auch für das Technologienbündel, das einen „sinnvollen“ Zugang zum globalen Kommunikations-Chaos möglich machen soll. Denn der Panorama-Blick in den Full-Take-Datenhaufen befähigt zu Beobachtungen, die in der Welt der „Small Data“, der statistischen Stichproben, nicht nur zu teuer, sondern schlicht unmöglich waren.

Der IT-Branchenverband Bitkom spricht von den „V3“-Kriterien: Volume, Velocity, Variety. Bei Big Data geht es also darum große, unstrukturierte Datenmengen in eine Form zu bringen, die Zusammenhänge offenlegt. „Echtzeit“ und viele verschiedene Formate, wie Tweets, Texte, Fotos, Protokolldaten (wer sich wann, wo eingeloggt etc.) und Ähnliches ermöglichen so das „Erkennen von Bedeutungen, Mustern, Vorhersagen“. Manchmal wird noch ein viertes „V“-Kriterium angefügt: Veracity. „Wahrhaftigkeit“, was hier bedeutet, dass mittlerweile Mechanismen möglich sein sollen, die sehr viele Daten auf ihre „Richtigkeit“ und „Vertrauenswürdigkeit“ hin prüfen können. Andere, wie etwa der Big-Data-Optimist Viktor Mayer-Schönberger sehen eine Kernkompetenz der Massenrechnung gerade darin, dass die schiere Informationsmenge den einen oder anderen Fehler automatisch ausgleicht.

Die Nutzer der Technik sehen „die Welt, wie sie wirklich ist“, behauptet der Rechtsprofessor Mayer-Schönberger. Das heißt im Gegenzug, dass die Nicht-Nutzer mit ihrer technisch bedingten Verblendung leben müssen. Das strukturelle  Unwissen mag im Fall von Klimaanalysen, Transportlogistik, Physikexperimenten und sonstigen Expertendomänen vertretbar sein. Oft geht es bei der Datenanalyse aber nicht um Prozesse, sondern um Individuen – und um deren Unterscheidbarkeit. In einer idealen Datenwelt dauern Vorstellungsgespräche genau null Minuten, denn der Algorithmus kennt Fähigkeiten, Charakter und Stellenprofil und kann alle Informationen effizient miteinander in Beziehung setzen. Dadurch entsteht ein Machtgefälle, hier vielleicht abgelehnte Bewerbungen, deren Grund die Betroffenen nicht erfahren und nicht einmal mehr erahnen können. „Von da an kann man auf das Geständnis des Angeklagten völlig verzichten, der über sein Verbrechen weniger wüßte [sic] als der Computer“, schrieb der Geschwindigkeits-Theoretiker Paul Virilio schon 1980 über die Anfänge der Rasterfahndung. Reichlich 30 Jahre später macht „Predictive Policing“ Virilios Statement zur visionären Aussage:  „Wer nicht mehr über die „Wahrheit“ verfügt, hat nichts mehr zu gestehen.“

 

A wie Alte News?

Aber zurück zu IBM. Mit einem jährlichen Umsatz von etwa 100 Milliarden US-Dollar und Nettogewinnen von rund 16 Milliarden, ist der US-Konzern globaler Marktführer im Hard- und Softwarebereich. Auch mit seinen Angeboten zur Auswertung von Verkehrs-, Kriminalitäts- und sonstigen Datenbergen liegt das Unternehmen weit vor Big-Data-Konkurrenten wie Amazon oder Microsoft.

Glaubt man dem Bitkom-Verband, dann ist der Hype um die Ganzheitsanalyse noch lange nicht vorüber. Rund 22 Milliarden US-Dollar, so die Prognose, sollen Unternehmen 2016 weltweit mit den  Analyse-Technologien erwirtschaften (das Beratungsunternehmen McKinsey geht für 2017 von 53 Milliarden US-Dollar aus). Das klingt vergleichsweise wenig. Eigenbauer wie etwa Google, das mit der Sofortwerbe-Schalte AdWords (und dem Tracking und der Analyse, die dazu gehören)  einen Großteil seines Umsatzes einfährt, sind in diese Zahl allerdings nicht eingerechnet.

Naja, dürften einige einwenden, wer bei Google Trends die zwei kurzen Wörter sucht, also Big Data mit Big Data analysiert, erkennt, dass das Phänomen nicht mehr ganz taufrisch ist. Schon vor knapp zehn Jahren hat Google angefangen, Bücher zu scannen, aus Sätzen Bedeutung abzuleiten und an der Übersetzungssoftware Translate zu basteln. Nimmt man die Suchanfragenstatistik als einen möglichen Indikator für Interesse (zumindest das der Google-Nutzer), dann verrät das Diagramm auch, dass der Begriff erst seit 2011 etwas exzessiver in die PC-Tasten getippt wird. Der (vorläufige) Höhepunkt liegt demnach – passend zu den NSA-Enthüllungen – erst rund zwei Monate zurück. Und es besteht noch großer Erklärungsbedarf. Zumindest meinen laut Bitkom nur 14 Prozent der Deutschen zu wissen, was Big Data ist und wofür es gut oder – je nach Perspektive – auch schlecht sein soll.

Was ich hier für die nächsten Wochen plane, ist eine Artikel-Sammlung, die lose durch alphabetisch geordnete Kapitelüberschriften in Form gehalten wird. Kein Big-Data-Konversationslexikon. Auch deshalb nicht, weil ich diesem Text und auch den folgenden nicht den Anschein von Vollständigkeit oder erschöpfender Systematik geben möchte. Warum dann dieses Format?

  • Das Thema ist so umfangreich, dass es nicht schwer war, ziemlich schnell Unterpunkte für alle Buchstaben zu finden – genau diese Vielschichtigkeit möchte ich darstellen.
  • Buchstabenlisten verraten sofort, dass ihnen kein echtes, inhaltliches System zugrunde liegt. Das finde ich prima. So kann ich auf Aktuelles und Zufallsfunde eingehen.

 

„Game-changing“ – revolutionär – diesen Ausdruck verwenden die Daten-Propheten auffallend oft. Im Gesundheits- und Versicherungswesen, im Finanz- und Mediensektor und in anderen Branchen sollen die Karten durch Big Data mehr oder weniger neu verteilt werden, weissagen die vermeintlichen Profiteure in Goldgräberstimmung. „Game-changing“ für den Blick, den wir auf dieses gesellschaftliche Phänomen werfen sollten, war allerdings auch die Geheimdienst-Affäre.
„Wir wollen wissen, was sie denken, bevor sie es selbst wissen“, zitierte Sascha Lobo vor einigen Wochen den Google-Verwaltungsratschef Eric Schmidt in einer Gesprächsrunde im Deutschandradio. Schmidt soll dieses Konzern-Ziel bei der Einführung der Analyse-Schleuder Google Now von sich gegeben haben. „Und das ist ein Satz, den eins zu eins auch General Alexander von der NSA hätte sagen können“, zog Lobo die Verbindung zu den Geheimdiensten. NSA-General Keith Alexander sprach zumindest vom Heuhaufen, den man bräuchte, um die Nadel zu finden. Und genau das ist die Logik von Big Data.

Spätestens seit einige Medien Einsichten in die Snowden-Dokumente hatten, wissen wir,  dass wir nicht nur in einer Überwachungs-, sondern auch in einer „Berechnungsgesellschaft“ leben, heißt es bereits im Vorwort von „Big Data. Das neue Versprechen der Allwissenheit“.  In dieser ist das oberste Ziel die Vorhersage menschlichen Handelns. Und Menschen können Produkte kaufen – oder aber Anschläge planen.

 

A wie Algorithmus

„Sie selbst können das eigentlich nicht mehr abschätzen.“ Das war die Antwort auf meine Frage, ob ich noch sinnvollerweise behaupten könnte, „nichts zu verbergen“ zu haben. Die Einschätzung kam von jemandem, der sich auskennt – von einem Informatikexperten, der im Bereich „Informationssysteme“, zu „Data-Profiling“, „Data-Fusion“ und „Maschinelles Lernen“ forscht. Hört sich paradox an? Das könnte man meinen, schließlich sollte ich selbst doch als erstes merken, wann und ob ich militante Ideen entwickle. Weit gefehlt. Fatale Rechenfehler haben manche schon bitter spüren müssen.

Etwa der Kanadier Saad Allami, der durch den Begriff „wegsprengen“ in einer SMS völlig ungerechtfertigt „Opfer der US-amerikanischen Rasterfahndung modernster Ausprägung“ wurde. Der Vertriebsmanager eines kanadischen Telekommunikationsunternehmens wollte durch das französische Wort „exploser“ nur seine Kollegen motivieren, eine möglichst durchschlagende Präsentation zu halten. Zu einem Terror-Anschlag wollte er hingegen niemanden anstiften. Aber die „Echtzeit-Analyse des US-amerikanischen Auslandsgeheimdiensts konstruierte offensichtlich aus der marokkanischen Herkunft, der abgefangenen SMS mit dem Begriff „explodieren“ und einer Truppe Einreisender als Empfänger der Nachricht eine Terrorwarnung“.

Ein Algorithmus hatte also nicht nur ein einzelnes Keyword gefunden, sondern ein Muster aus Herkunft, Adressaten und Sprache gebastelt. Dummerweise ein falsches. Das war 2012 – vor den NSA-Leaks. Damals hätte man zumindest mutmaßen können, dass Programme wie „Dishfire“ und „Prefer“ existieren, die Metadaten aus SMS-Texten herausrechnen („content derived metadata“) und mit anderen Informationen verbinden.
Big Data ist eigentlich die Kunst des computergestützten Lückenfüllens. Wenn bei einer großen Zahl von Personen immer wieder die Fakten A, B, C, D und E zutreffen (und die „Data-Mining“-Software dieses Muster erkennt), rechnet das Programm bei der nächsten Person (oder Kreditkartentransaktion, Verkehrsaufkommen, kollidierende Atomkerne) auf die A bis D zutrifft fest damit, dass auch E stimmt. Egal ob E in der Gegenwart (sexuelle Orientierung, politische Einstellung, psychische Krankheiten) oder in der Zukunft (Kaufabsicht, Krebsrisiko) liegt.

Das Füllen der Erkenntnis-Leerstellen geht mittlerweile ziemlich gut. Gesetzt den Fall, ich käme irgendwann auf die Idee, einen Systemumsturz zu planen. Wie ginge ich dabei vor? Da es mir an fundiertem Wissen über Revolutionen  mangelt, würde ich vorher gerne ein Buch zum Thema lesen. Je nachdem wo ich lebe, halte ich es allerdings für keine gute Idee „Widerstand für Anfänger – Theorie und Praxis“ im Internet zu kaufen (bedenklicher Exkurs hierzu). Ich gehe also in eine Buchhandlung. Mit EC-, Kredit- und sonstigen Karten zu bezahlen, schlage ich mir besser gleich aus dem Kopf. Bargeld ist allerdings auch keine gute Wahl, weil, je nachdem wer mir über die virtuelle Schulter schaut, sofort klar wäre, welches Buch ich wann gekauft habe. Sobald ich aus dem Laden trete, könnten Programme mein Smartphone-Bewegungsprofil mit der Datenbank der Buchverkäufe abgleichen.

Deshalb entscheide ich mich, das Buch zu kaufen und danach noch einen Kaffee in dem Laden zu trinken. Als ich nach einer Stunde doch nachhause will, hat mich der Algorithmus schon wieder. Denn in der Zwischenzeit haben andere Kunden genau zwei Bücher gekauft: „Allgemeine Chirurgie“ und ein Koreanischlehrbuch. Die Tools wissen aus anderen Überwachungskontexten, dass ich weder Medizinstudentin noch Chirurgin bin oder mich jemals für Korea interessiert habe. Deshalb geht der programmierte Spitzel davon aus, dass ich wohl eher Politisches plane. Das kann völlig falsch sein. Vielleicht habe ich nichts gekauft oder interessiere mich entgegen der Prognose doch für Knochenbrüche. Die Logik von Big Data besagt allerdings, dass andere Daten – Likes, Posts, Visits, Reisen nach Korea – jede Neigungen bereits verraten hätten. (Das Beispiel stammt nicht von mir, sondern von hier)

„Aber wir leben jetzt in einer Welt […], die immer häufiger von sich selbst replizierendem Code gemanagt wird“, schreibt FAZ-Mitherausgeber Frank Schirrmacher in seinem Anfang 2013 erschienen Buch „Ego. Das Spiel des Lebens“. Schirrmacher zerlegt auf knapp 300 Seiten eigentlich die paranoide Denk-Architektur des Kalten Krieges, die sich nun auch im ökonomischen Handeln widerspiegelt. Aber der Journalist bearbeitet auch jene Systeme, die Tweets von Nachrichtenagenturen „mitlesen“ und daraufhin Börsenverkäufe auslösen. Und was macht dieser Code? Zum Beispiel die Evolutionstheorie nachspielen.

Sogenannte „genetische“ oder „evolutionäre“ Algorithmen werden dadurch erzeugt, dass Ausgangscode anhand einer „Aufgabe“ (zum Beispiel soll ein Roboter etwas aufheben) erst geprüft, dann verworfen oder weiterverwendet wird. Das, was sich durchgesetzt hat, löst die Aufgabe erneut, wird erneut bewertet und wieder aussortiert. Das geschieht über viele „Generationen“. Was zum Schluss in der x-ten Variante herauskommt, fährt – im Fall des Roboters – nicht mehr ständig gegen Wände.  Oder es schlägt mir bei Facebook die Personen vor, die ich kennen könnte. Oder es sucht nach zusammen auftretenden Informationensmustern. Weil die Programme durch Auslese erzeugt werden, weiß zum Schluss allerdings „niemand mehr im Ansatz, wie diese Korrelation entsteht“. Die Evolutions-Metapher passt ziemlich gut. Wir laufen auf zwei Beinen. Warum? Weil sich das über Generationen hinweg mehr bewährt hat als andere Ideen.

 

A wie Apache Hadoop

Kaum ein anderes Bild könnte besser zu Big Data passen: Das Logo von Hadoop ist ein kleiner Elefant. Aus etwas Großem etwas Kleines, Erfassbares machen, so etwa könnte man den MapReduce-Algorithmus beschreiben, auf dem dieses freie Dateisystem der Apache-Foundation basiert. MapReduce ist die Grundlage vieler Big-Data-Systeme und zu den Nutzern von Hadoop-Anwendungen zählen Amazon, AOL, Ebay, Facebook, LinkedIn, Twitter, Yahoo aber auch Unternehmen, die sich etwa auf Gesichtserkennung („Facial recognition“) spezialisiert haben. Durch Hadoop bekommen viele Firmen – große und kleinere – die Chance riesige Web-Indices aufzubauen. MapReduce lässt sich gut darstellen, indem man sich ansieht, wie Google grundsätzlich (das heißt ohne personalisierte Suche und so weiter) Suchanfragen beantwortet. Google ist ein besonders gutes Beispiel, weil Mitarbeiter des US-Konzerns MapReduce vor zehn Jahren entwickelt haben.

Ganz vereinfacht gesagt, füttert man MapReduce mit Internetseiten, die Text enthalten. Jede dieser Seiten  bekommt eine Adresse, etwa „83“, und wird in die einzelnen Wörter zerlegt. So werden Paare aus Wort und Adresse erzeugt. Das ermöglicht Google, mir eine „Adressliste“ zum Thema „Sporttauchen“ auszuspucken. Die Idee lässt sich nicht nur für Google-Ergebnisse nutzen. Prinzipiell alles, was sich auf parallele Rechnungen aufteilen lässt, geht mit der MapReduce-Taktik. Wichtig für Big Data ist das Mengen-Management, das Hadoop möglich macht. Die Software verteilt die klein gehackten Sätze mit ihren Herkunfts-Nummern auf viele Server, die „Data-Nodes“. Dort werden sie gleichzeitig bearbeitet, was ziemlich effektiv ist.

Das ist die Architektur, freie Data-Mining-Programme sind von der Apache-Foundation aber auch zu haben. Zum Beispiel eines mit dem putzigen Namen „Pig“, das eigentlich im Auftrag von Yahoo entwickelt wurde. Und so hängt das alles, das Know-How um Big Data, miteinander zusammen. Denn Nutzer der Apache-Produkte sind auch Unternehmen wie Cloudera und Splunk, die explizit Regierungsbehörden beliefern. Der britische Geheimdienst GCHQ nutzt Splunk-Tools, um etwa Youtube, Facebook und Blogs in Echtzeit zu überwachen und „Trends“ und künftige Ereignisse, etwa drohende Proteste in Bahrain, aufzuspüren.

 

A wie Anonym

„Worin liegt der Freiheitswert der Privatsphäre? Und vor allem: Was passiert, wenn der Schutz der Unsichtbarkeit wegfällt?“, fragte Christian Heller schon vor drei Jahren in seinem Buch „Post-Privacy. Prima leben ohne Privatsphäre“. Sicher ist: Im Big-Dataismus lässt sich Anonymität aus dem angehäuften Datenberg potentiell wieder rausrechnen. Das nennt sich dann „De-Anonymisierung“, ein Konzept, das wir seit 30 Jahren kennen. In das Urteil zur Volkszählung schrieben die Richter des Bundesverfassungsgerichts schon 1983, dass es „unter den Bedingungen der automatischen Datenverarbeitung [...] kein belangloses Datum mehr gibt“. Heute erkennen uns Smartphones am Gang, Autositze am Sitzprofil , Stromzähler am Energiekonsum und Videokameras am Faltenwurf unserer Kleidung. Mit allem, was wir tun, produzieren wir nicht nur Finger-, sondern auch errechenbare „Verhaltensabdrücke“. Selbst unser Pulsschlag ist individuell. Und das ist aus Sicht vieler Firmen, Geheimdienste und Forscher ungemein praktisch. Denn Big Data funktioniert nur mit Kontext. Und genau dieser Kontext, der Datenhaufen, ist verräterisch. Klar, man kann der Informationssammlung eine andere Überschrift geben, einen Namen etwa durch ein Pseudonym ersetzen. Und trotzdem bleiben Wege offen, um Menschen zu reidentifizieren. Sogar, wenn nur pseudonymisierte Daten anderer „geknackt“ wurden.

Vor einigen Wochen hat Lance Bennett von der University of Washington an der Freien Universität Berlin einen Gastvortrag gehalten. Es ging um seine Forschungen zu Occupy Wall Street. Der Politikwissenschaftler hat den Protest auch mit Big Data-Technik erforscht, natürlich nur mit pseudonymisierten Daten. Big Data habe seine Forschung völlig verändert, sagte der Politikwissenschaftler damals. Wenn allerdings das FBI irgendwann vor den Universitätstüren stehen würde, müsste man wohl die Server vernichten, gab Bennett zu. Anonymität ist bei Big Data eine Frage der Rechenkapazität. Besonders wenn man wie der Forscher Daten von Twitter auswertet.

(Und bald geht’s weiter mit B, C, D…)

Wir wollen netzpolitik weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

February 04 2014

Maulkorb für FISA-Anfragen wird gelockert, aber nur ein bisschen

Letztes Jahr haben Facebook, Google, Yahoo, LinkedIn und Microsoft beim amerikanischen FISA-Gericht, das die Kompetenzen der Auslandsgeheimdienste regelt, gefordert, genauere Auskunft über die Menge herausgegebener Datensätze geben zu dürfen, die durch eine Anordnung des FISA-Gerichts oder unter einem National Security Letter des FBI angefordert wurden.

Am 27. Januar veröffentlichte das Justizministerium eine Antwort, die den Antragsstellern “entgegenkommt”. Es gibt nun zwei Möglichkeiten, Zahlen zur Anzahl der Anfragen in Halbjahren zu veröffentlichen:

  • in Tausenderschritten die Anzahl an Anfragen, betroffenen Nutzern und Selektoren, gegliedert in FISA-Anfragen und National Security Letters (bei Letzteren war das jedoch bereits vorher möglich)
  • in 250er-Schritten, wenn die Anfragen zusammengefasst werden

Bei FISA-Anordnungen muss der Endpunkt des betroffenen Zeitraums außerdem mindestens ein halbes Jahr zurückliegen.

FacebookGoogle, YahooLinkedIn und Microsoft haben nun Gebrauch von der Neuregelung gemacht. Aber auch Apple hat die Gelegenheit bereits genutzt, denn die Entscheidung gilt allgemein und nicht nur für die fordernden Parteien.
Allen gemeinsam war, dass sie von weniger als 1000 FISA-Anordnungen pro Halbjahr reden. Das gibt einen Eindruck davon, wie unaussagekräftig in dieser Hinsicht die festgelegten Zahlenschranken sind. Stärker differiert jedoch die Anzahl an betroffenen Accounts. Zieht man die FISA-Anordnungen des ersten Halbjahres 2013 heran, führt Yahoo mit 30-31k, gefolgt von Microsoft mit 15-16k, Google mit 9-10k und Facebook mit 5-6k. Am schwächsten war das Interesse für LinkedIn, diese bekamen zusammengenommen weniger als 250 Anfragen. Wichtig ist hier noch, im Auge zu behalten, dass die Anzahl der Accounts nicht identisch mit den betroffenen Nutzern sein muss, da Mehrfachaccounts auch auftauchen. Die Nutzeranzahl liegt also auf jeden Fall unterhalb der obigen Zahlen.

Wirklich befriedigende Transparenz bringen die Angaben nicht. Es scheint mehr, als bewege man sich einen minimalen Schritt vorwärts, um damit argumentieren zu können, man habe sich um bessere Transparenz bemüht, so wie Präsident Obama in seiner Rede angekündigt hat.  Google hat bereits ein Statement abgegeben und fordert den Kongress auf, weiter zu gehen:

Wir glauben weiterhin, dass mehr Transparenz benötigt wird, damit jeder verstehen kann, wie Überwachungsgesetze funktionieren und ob sie dem öffentlichen Interesse dienen. Vor allem wollen wir zeitnah die genauen Zahlen und die Arten der Anfragen bekanntgeben, sowie die Anzahl betroffener Nutzer.

Ein sehr guter Einwand kommt an dieser Stelle auch von Microsoft. Brad Smith weißt in seinem Kommentar darauf hin, dass mehr Transparenz hinsichtlich der Anfragen zwar wünschenswert ist, aber nicht aus den Augen verloren werden darf, dass Informationen auch an den Gesetzen vorbei ermittelt werden und dass von Regierungsseite zu wenig geschehen sei, um zu verhindern, dass Internetfirmen gehackt werden, um massenhaft Nutzerdaten zu überwachen.

Wir wollen netzpolitik weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

Keine Apps mit nackten Menschen bei Chromecast

Chromecast ist ein HDMI-Dongle von Google, der es ermöglicht per W-LAN Video- und Audiodaten auf den Fernseher zu streamen, entweder von Android, iOS oder Web-Apps oder aus dem Chromebrowser. Gestern hat Google eine SDK für das Gerät veröffentlicht, auf die sich die Entwickler stürzen dürften, um Chromecasts Funktionalität in ihre bereits vorhandenen Dienste zu integrieren.

Anbieter mit Inhalten, “die Nacktheit oder sexuelle Handlungen zeigen bzw. sexuell eindeutiges Material enthalten”, dürften es hier jedoch schwer haben, denn für Chromecast-Apps werden auch die Richtlinien von Google Play gelten. Playboy.tv dürfte das ziemlich ärgern, denn die hatten bereits angefangen, an einer Android App zu arbeiten, die auch das Streaming zu Googles Chromecast ermöglichen sollte.

Das erinnert an die Brüste-Zensur bei Apple, die verlorenen Brustimplantate des ZDF oder geblockte stillende Mütter bei Facebook. Und langsam fragt man sich, warum die gesamte (amerikanische) Welt solche Panik vor Brüsten und moralischem Verfall aufgrund von Pornographie hat. Das einzig beruhigende im Fall von Chromecast ist, dass nicht nur über Apps gestreamt, sondern auch der Chromebrowser des PC gemirrort werden kann. So besteht immer noch die Möglichkeit, darüber beliebige Inhalte zu verbreiten. Und so bleibt die Restriktion nicht mehr als ein sinnloser Schwung mit der prüden Moralkeule, oder?

Nicht ganz, wenn man daran denkt, was noch alles anstößlich und sexuell eindeutig sein könnte – so wie Datingplattformen für Homosexuelle. Und wer darf eigentlich bewerten, was moralisch einwandfrei ist und was nicht?

Wir wollen netzpolitik weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

January 17 2014

Neunetzcast übers Urheberrecht: Mehr Optimismus wagen

Gestern hat mich Marcel Weiss an der FU Berlin besucht und mit mir eine Folge für seinen Neunetz-Podcast aufgenommen. Thema war vor allem das Urheberrecht im digitalen Zeitalter und das schöne an so einem Podcast-Format ist ja, dass sich manche Dinge auch etwas mehr im Detail diskutieren lassen.

Zwei Punkte sind mir vom Gespräch besonders in Erinnerung geblieben: Erstens war der Grundtenor durchaus leicht optimistisch, was angesichts des derzeit florierenden Internet-Defätismus erwähnenswert scheint. Zweitens haben wir es glaube ich geschafft herauszuarbeiten, warum mittelfristig paradoxerweise gerade Google davon profitieren dürfte, wenn beim Urheberrecht alles beim Alten bleibt und wir kein Recht auf Remix bekommen sollten: Während Google über genug Ressourcen und private Rechtsdurchsetzungswerkzeuge wie Content-ID verfügt, um auch mit einem unflexiblen und restriktiven Urheberrecht leben zu können, gilt das für (potentielle) Kokurrenten, freie Projekte und Privatpersonen nicht.

Wir wollen netzpolitik weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

November 25 2013

Suggestion Generation Module: Google will dein Ghostwriter sein

ThoughtLeadershipGoogle hat ein neues Patent angemeldet, das den wohlklingenden Namen Automated generation of suggestions for personalized reactions in a social network trägt. Idee: Da man sowieso schon fast alles über den Nutzer weiß, kann Google auch direkt als Ghostwriter einspringen. Man schlägt Antworten vor, die am besten die Persönlichkeit des Nutzers widerspiegeln.

The suggestion generation module includes a plurality of collector modules, a credentials module, a suggestion analyzer module, a user interface module and a decision tree. The plurality of collector modules are coupled to respective systems to collect information accessible by the user and important to the user from other systems such as e-mail systems, SMS/MMS systems, micro blogging systems, social networks or other systems.

Ghostwriter für Twitter, Facebook & Co. sind nichts neues. Je berühmter die Persönlichkeit, desto wahrscheinlicher ist es, dass ein oder mehrere Ghostwriter engagiert wurden. Bekanntes Beispiel ist hier Annie Colbert, die unter anderem für Guy Kawasaki twittert. Chris Romero schreibt in 140 Zeichen für Rapper 50 Cent. Die Liste ließe sich beliebig fortführen. Auf den ersten Blick mag das befremdlich erscheinen, da man auf Twitter und Facebook davon ausgeht mit der jeweiligen Person zu kommunizieren und nicht mit einem Surrogat. Letztlich sollte man Stars, wie 50 Cent, Britney Spears oder Kanye West eher als Marken statt Personen verstehen. So macht es auch Sinn, dass Agenturen, wie ad.ly, sich einzig und allein darum kümmern, Unternehmen und Stars zusammen zu bringen. Die Agentur sorgte 2012 dafür, dass Charlie Sheen über Internships.com twittert – für 50.000USD pro Tweet. Guy Kawasaki erkannte schon Anfang 2009 das wahre Potenzial Twitters – als Marketing Plattform.

Basically, for 99.9 percent of people on Twitter, it is about updating friends and colleagues about how the cat rolled over. For a tenth of a percent it is a marketing tool.

Was für Stars und Sternchen schnell in Arbeit ausartet und daher dem Outsourcing zum Opfer fällt, kann auch für Normalsterbliche zur Last werden. Mit Facebook, Twitter, Instagram, Pinterest, Tumblr, LinkedIn und Google+ gibt es einige Seiten, die nach Aufmerksamkeit verlangen. Bei mehreren hundert Freunden auf Facebook und tausenden Followern auf Twitter hat immer irgendjemand Geburtstag, einen neuen Job, eine Beförderung, oder irgendetwas anderes auf das man reagieren sollte, so Google. Und hier soll der neue “Vorschlagsgenerator” ins Spiel kommen.

Many users use online social networking for both professional and personal uses. Each of these different types of use has its own unstated protocol for behavior. It is extremely important for the users to act in an adequate manner depending upon which social network on which they are operating. For example, it may be very important to say “congratulations” to a friend when that friend announces that she/he has gotten a new job. This is a particular problem as many users subscribe to many social different social networks. With an ever increasing online connectivity and growing list of online contacts and given the amount of information users put online, it is possible for a person to miss such an update.

Automatisierung wird meist als Chance gesehen, mehr Zeit für das “wirklich Wichtige” zu haben. Autovervollständigung erspart das Tippen. Autopiloten ersparen Aufmerksamkeit. GPS erspart das Nachdenken. Was aber passiert, wenn der Algorithmus nun auch “Wichtiges” übernimmt – wie zwischenmenschliche Kommunikation? Was passiert, wenn wir zunächst Glückwünsche, Gratulationen und Beileidsbekundungen automatisiert “erledigen” lassen und später immer mehr der unzähligen Interaktionen der Automatisierung zum Opfer fallen?

Schon jetzt unterscheiden viele zwischen “echten Freunden” und “Facebook Freunden”. Wird diese Unterscheidung im digitalen Alltag bald vielschichtiger? Personen oder Ereignisse, denen wir unsere “echte” Aufmerksamkeit schenken und all jene, die durch den Algorithmus abgespeist werden? Erstere kommen in den Genuss einer selbst geschriebenen Nachricht, Letztere müssen sich mit dem zufriedengeben, was Googles Algorithmus ausspuckt – ohne dies zu merken. Implizit wird dadurch Aktivität wichtiger als Inhalt. Und Reaktion wichtig als Authentizität. Man wahrt den Schein, da man ja – ganz der Netiquette entsprechend – seine Glückwünsche geäußert, sein Beileid bekundet und seine Grüße ausgerichtet hat. Ohne Google wäre es vielleicht zu gar keiner Reaktion gekommen. Dank der Automatisierung muss man sich darüber aber keine Gedanken mehr machen. Ganz gleich, wie unwichtig und rudimentär die soziale Bindung auch sein mag – der Algorithmus kann sie fortan am Leben halten, indem der Anschein gewahrt wird, dass man am Leben des Gegenübers teilnimmt. Dank berechneter, automatischer Reaktionen.

Robin Dunbar, Anthropologe an der Universität von Oxford, hat die Dunbar-Zahl aufgestellt. Seinen Untersuchungen zufolge ist der Mensch in der Lage lediglich 150 bedeutsame soziale Bindungen zu anderen Menschen zu haben.

This is the number of people you can have a relationship with involving trust and obligation – there’s some personal history, not just names and faces.

Nun könnte man Googles “Suggestion Generation Module” als Lösung des Problems sehen, dass man zwar hunderte “Freunde” auf Facebook und anderen Plattformen hat, aber unter der schieren Masse an möglichen und implizit geforderten Reaktionen versagt. Hier könnten automatisierte Antworten entlasten. Man kann weiter Freunde sammeln und muss sich keine Gedanken darum machen, dass diese “Freundschaften” auch gepflegt werden wollen. Dadurch stellt man sich jedoch nicht die eigentliche Frage: Was sagt es über die soziale Bindung und das eigene Verständnis von selbigen aus, wenn man die Kommunikation einem Algorithmus überlässt? Wo liegt der Sinn einer sozialen Beziehung, wenn nicht im Austausch und der Kommunikation?

Nicholas Carr, Autor von The Shallows, sieht, zugegeben etwas dystopisch, in Googles Automatisierung vor allem ein sich selbst bestätigendes, geschlossenes System.

A computer running personalization algorithms will generate your personal messages. These computer-generated messages, once posted or otherwise transmitted, will be collected online by other computers and used to refine your personal profile. Your refined personal profile will then feed back into the personalization algorithms used to generate your messages, resulting in a closer fit between your  computer-generated messages and your computer-generated persona. And around and around it goes until a perfect stasis between self and expression is achieved. The thing that you once called “you” will be entirely out of the loop at this point, of course, but that’s for the best. Face it: you were never really very good at any of this anyway.

Googles neues Patent sollte zumindest zum Innehalten und zum Nachdenken anregen. Natürlich ist es letztlich Predictive Search  (Apps, die den Nutzer mit Informationen versorgen, bevor dieser danach gesucht oder gefragt hat) angewandt auf Kommunikation. Was bei Wetterberichten und Tagesnachrichten interessant klingen mag, sollte bei zwischenmenschlicher Kommunikation zu Stirnrunzeln führen. Automatisierte, vertextete Reaktionen auf Ereignisse sind grundsätzlich bedeutungsleer. Was ist Kommunikation noch wert, wenn sie ohne jegliches eigenes zutun stattfindet? Scheinbare Anteilnahme, Freude oder Mitgefühl sind letztlich genau das – Schein. Leider ist automatisierte Kommunikation der nächste, logische Schritt in einer Gesellschaft, für die Aktivität wichtiger ist, als Reflexion.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

November 22 2013

Googles Executive Chairman Eric Schmidt: In 10 Jahren gibt es keine Zensur mehr

Eric Schmidt, Executive Chairman bei Google und Technologieberater Barack Obamas, hielt einen Vortrag an der Johns Hopkins School of Advanced International Studies in Washington, D.C. und sprach dabei auch über Zensur und Überwachung im Internet. Betrachtet man Schmidts akademische Ausbildung in Elektrotechnik und Informatik und seine jetzige Position als Technologieberater, sollte sein fester Glaube an die positive Wirkung technischen Fortschritts wenig verwundern. So verkündete er während seiner Vorlesung, dass Zensur – vor allem aufgrund flächendeckender Verschlüsselung seitens der Internetnutzer – in gut zehn Jahren kein Problem mehr darstellen wird. Grund dafür ist, dass das Internet alte Machtverhältnisse auflöst und demokratisiert. So sagte er auch in Bezug auf Nord-Korea (dort war er Anfang des Jahres zu Besuch), dass das wichtigste zunächst die Konnektivität sei – das Land würde sich dann schon öffnen.

I believe there’s a real chance that we can eliminate censorship and the possibility of censorship in a decade. [...] My view is that if we can get some connectivity, then they’ll begin to open the country, they’ll begin to understand other systems.

Eric Schmidt ist bei weitem nicht der Einzige mit einem unumstößlichen Glauben an die Macht der Technik. Schon 1996 schrieb John Perry Barlow in der nun berühmten Unabhängigkeitserklärung des Cyberspace, dass die Staaten über diesen neuen Ort des Geistes keine Macht hätten.

Governments of the Industrial World, you weary giants of flesh and steel, I come from Cyberspace, the new home of Mind. On behalf of the future, I ask you of the past to leave us alone. You are not welcome among us. You have no sovereignty where we gather. [...] We are creating a world where anyone, anywhere may express his or her beliefs, no matter how singular, without fear of being coerced into silence or conformity.

Evgeny Morozov bezeichnet solch ein Denken als Cyber-Utopie bzw. Technikdeterminismus. Widmet man sich Eric Schmidts Aussagen – dass Zensur bald der Vergangenheit angehört und, dass es lediglich Zugang zum Internet benötigt, um eine Gesellschaft zu “öffnen” und zu “demokratisieren” – merkt man bei genauerem Hinsehen, dass sein Glaube nicht wirklich durch Fakten untermauert werden kann.

So kam der diesjährige Freedom of the Net Report von Freedom House zu dem Ergebnis, dass immer mehr Länder mit immer härteren Strafen gegen Andersdenkende und Aktivisten im Internet vorgehen. Außerdem verzeichneten die Forscher einen Anstieg der Zensur und Überwachung im Vergleich zum Vorjahr. Allein in den letzten Monaten wurde in China ein neues Gesetz verabschiedet, das die Verbreitung falscher und Regime-gefährdender Informationen im Internet mit bis zu 3 Jahren Haft bestraft. Ganz gleich, ob Journalist oder Teenager – wer in Chinas sozialem Netzwerk Sina Weibo Informationen verbreitet, die der Regierung nicht gefallen, wird verhaftet und verurteilt. Ähnlich umfassende Zensurmaßnahmen finden sich auch in Russlands Gesetzen. China und Russland sind dabei – neben Iran – zwar die populärsten, bei weitem aber nicht die einzigen Beispiele. Die Liste an Ländern ließe sich beliebig fortführen.

Nun könnte man argumentieren, dass lückenlose Verschlüsselung der Kommunikation eine derartige Überwachung unmöglich mache und somit eine inhaltliche Zensur nicht mehr möglich sei. Hier vergisst man jedoch die politische Dimension. Selbst in Europa gibt es eine Hand voll Länder, die auf die eine oder andere Weise das Verschlüsseln persönlicher Daten verbieten. Zum Beispiel muss man in England der Polizei auf Anweisung den privaten Schlüssel aushändigen, um sich nicht strafbar zu machen. In anderen Ländern wird verschlüsselter Datenverkehr blockiert oder der Zugang zu Anonymisierungsdiensten, wie VPN-Provider oder dem Tor-Netzwerk verhindert. An dieser Stelle sei angemerkt, dass z.B. auch die CDU für einen Auskunftszwang von VPN-Providern ist. Vor diesem Hintergrund scheint Eric Schmidts Aussage, dass es sich um ein Katz-und-Maus Spiel handele und die Zensoren am Ende den kürzeren ziehen, nicht nur optimistisch sondern naiv.

The solution to government surveillance is to encrypt everyone. In that race, I think the censors will lose, and I think that people would be empowered.

Zensur ist ein uralter Mechanismus zur Kontrolle. Daran wird sich auch nichts durch das Internet ändern. Glaubt man den verschiedenen Studien floriert Zensur im Internet. Dabei wäre es falsch zu glauben – wie Tim Wu und Jack Goldsmith schon 2006 in Who Controls The Internet? angemerkt hatten – dass Zensur lückenlos sein müsse. Zensur muss nur dazu führen, dass es für eine kritische Masse an Bürgern zu umständlich ist oder zu gefährlich erscheint an die jeweiligen Informationen zu kommen.

Daher ist es nicht nur naiv, sondern gerade in der aktuellen Debatte um den globalen Überwachungsskandal auch fahrlässig zu glauben, dass Verschlüsselung alles lösen wird. Wir brauchen Verschlüsselung, keine Frage. Und es ist sehr gut, dass die Internet Engineering Task Force mittelfristig den gesamten Internetverkehr verschlüsseln will. Doch viel wichtiger, wenn auch wesentlich schwieriger und langwieriger, ist eine politische Debatte zur Ausarbeitung neuer Gesetze – vor allem auch auf internationaler Ebene – in Bezug auf “Digitale Menschenrechte”. Tolle Technik hilft recht wenig, wenn sie auf schwammigen Gesetzen zu Meinungsfreiheit und Privatsphäre fußt. Die gemeinsame Uno-Resolution von Brasilien und Deutschland ist hier ein erster, kleiner Schritt in die richtige Richtung.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

November 12 2013

Google löschte in diesem Jahr 200 Millionen Suchergebnisse

TorrentFreak berichtet, dass Google bereits 200 Millionen Suchergebnisse im Jahr 2013 entfernt hat, die angeblich Urheberrechte verletzen. Es gibt zwar wöchentliche Transparenzberichte, aber keine jährliche Zusammenfassung. Diese Arbeit hat sich TorrentFreak nun gemacht und vermutet, dass dieses Jahr alle Rekorde brechen und bei dem Tempo sogar die Viertel-Milliardenmarke überschreiten wird.

Die Musikindustrie wird prominent von der britischen British Phonographic Industry (BPI) vertreten, die im letzten Jahr mit 43.795.962 gemeldeten URLs den ersten Platz belegt. Der Bundesverband Musikindustrie belegte lediglich Platz 45 mit 125.484 gemeldeten URLs.

löschungen-google

Die Musikindustrie verlässt sich generell gerne darauf, dass Google amerikanisches Recht weltweit anwendet – hierbei kann es dann auch schon einmal vorkommen, dass ein Link zu einem Artikel des Nachrichtenmagazins Heise gelöscht wird.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

November 03 2013

Großes DDoS-Kino am 5. November?

Aus einer Broschüre des US-Militärs zu mehr OSINT

Aus einer Broschüre des US-Militärs zu mehr OSINT

Der Internetauswerter “Recorded Future” kündigt für den 5. November großangelegte DDoS-Angriffe auf US-Webseiten an. Das vom US-Geheimdienst CIA und Google gegründete Unternehmen will dies aus Sozialen Medien erfahren haben, die hierfür systematisch gescannt werden. Eine Häufung von Tweets von “Mitgliedern von Anonymous” sei demnach für das in der Zukunft liegende, genannte Ereignis auszumachen. Plausibel würde die These auch dadurch, dass bereits für den 26. Oktober, dem internationalen Aktionstag gegen Überwachung, digitaler Aufruhr angekündigt war. Gemutmaßt wird, dass der Shutdown der NSA-Webseite am 25. Oktober auf die Proteste zurückgeht. Der US-Auslandsgeheimdienst behauptete allerdings, dass es sich um Wartungsarbeiten gehandelt habe.

Der Fachbegriff für die Ausspähung des öffentlich zugänglichen Internet lautet “Open Source Intelligence” (OSINT). Bekannt ist diese Auswertung persönlicher Mitteilungen etwa aus Libyen, wo die NATO aus Tweets zukünftige Ereignisse ablesen wollte. Das US-Militär hatte 2011 angekündigt, noch mehr Anstrengungen zum Aufbau von OSINT-Maßnahmen zu stecken, auch um in diesem Feld die Vorherrschaft zu behalten. Profitieren sollen nicht nur alle Teile des Militärs und deren Geheimdienste, sondern auch der “Heimatschutz” im Innern. Im Dokument ist immer wieder die Rede von Bedrohungen durch “Extremisten”.

“Recorded Future” wertet nach eigenen Angaben 250.000 offen zugängliche Quellen aus, darunter Webseiten auch von Medien, Blogs und Twitter. Der kostenpflichtige Dienst versucht, daraus Prognosen für zukünftige Ereignisse zu erstellen. Die Firma erklärt aber nicht, auf welche Statistiken zugegriffen wird um die Wahrscheinlichkeit bestimmter Vorhersagen zu untermauern. Denn es wird nicht lediglich die Anzahl von Hashtags wie – im Falle des 5. November – #OpNSA oder #OpPRISM gezählt.

Um genauere Ergebnisse zu liefern, braucht es die Einbindung früherer Ereignisse. Derartige Wissensdatenbanken werden unter anderem von dem Informatiker Kalev Leetaru errichtet, der hierfür unter dem Namen “Global Data on Events, Location and Tone” (GDELT) Millionen Einträge zu Aufständen, Protesten und Friedensinitaiven pflegt. Ziel ist die Identifizierung von “Bedrohungen”.
In einem Interview erklärt Leetaru dazu:

Meine Arbeit konzentriert sich auf die Analyse sowohl von Emotionen als auch von Verhaltensweisen. Den emotionalen Ton globaler Medienberichte heranzuziehen, um Konflikte und Stabilität zu analysieren, ist ziemlich neu. Fast jede Firma wertet heute den Tonfall in den Medien aus, um in Erfahrung zu bringen, was die Leute über sie denken, aber es gibt nicht viele, die mit dieser Methode versuchen, die globale Politik vorherzusagen.

Das Projekt von Leetaru wird mittlerweile auch in Deutschland verbreitet. Zu den Protagonisten gehört der selbsternannte “Sicherheitsberater” Florian Peil, der politische Ereignisse als ein “großes Datenproblem” umschreibt:

Enthusiasten sind sich sicher, dass die Auswertung der Vergangenheit bald einen Blick in die Zukunft ermöglicht. Für sie sind Gesellschaften und Geschichte einfach wie ein großes Datenproblem zu behandeln.

Auf der Verkaufsmesse “Europäischer Polizeikongress” hielt Peil dazu einen Vortrag im Panel zu “Cybercrime”. Mittlerweile arbeitet der “Sicherheitsberater”, der seine “Laufbahn” nach eigenen Angaben “in einer deutschen Sicherheitsbehörde” begann, in dem StartUp “Riskworkers”. Die Internetdetektei wurde von zwei ehemaligen Fallschirmjägern und einem Bundespolizisten gegründet und bietet die digitale Ausforschung für Privatpersonen, Firmen und Behörden an. So sollen “Stalker”, “Störer” oder auch unerwünschte Proteste gegen Unternehmenspolitik aufgespürt und neutralisiert werden.

Zu den von “Recorded Future” orakelten DDoS-Attacken passt die Ankündigung der EU-Polizeiagentur EUROPOL, die gemeinsam mit dem Sicherheitsdienstleister TrendMicro kürzlich eine Kampagne zur Internetsicherheit begonnen hatte. In teilweise martialisch aufgemachten Videos wird auch vor “Hacktivism” gewarnt. Das letzte Video, mithin die Auflösung des gefährlichen digitalen Kuddelmudel, soll ebenfalls am 5. November online gehen. Fehlt also nur noch Popcorn.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

October 22 2013

Google veröffentlicht Live-DDoS-Landkarte – nicht ganz uneigennützig

Google hat eine Digital Attack Map veröffentlicht, die live weltweit stattfindende DDoS-Attacken darstellt. Dabei werden unter anderem Typ, Dauer und Bandbreite der Attacken visualisiert, sowie Start- und Zielland, soweit die Informationen verfügbar sind. Die Daten stammen aus einer Kollaboration mit Arbor Networks. Das aus deren Hause stammende ATLAS-Monitoring-System nutzt anonyme Daten von ISPs, großen Unternehmen und einem eigenen Honeypot-Netzwerk, um einen Überblick über globale Angriffe zu erhalten.

Doch die Karte, die das Ausmaß von DDoS-Attacken und deren Bedrohlichkeit illustrieren soll, kommt nicht ohne Grund. Zur gleichen Zeit kündigte Google auch einen neuen Service an: Project Shield. ProjectShield soll Google zufolge dazu dienen, freie Rede im Netz zu unterstützen und deshalb Seiten vor DDoS-Attacken zu schützen, die sich nicht selbst schützen können. Daher werden in die aktuelle Testphase auch nur Webseiten aufgenommen, die Nachrichten, Menschenrechts- oder Wahl-relevante Themen beinhalten. Eine Einführung in die Funktionsweise wird hier in einem kurzen Video erklärt:

 

ProjectShield stellt eine Kombination aus einem Google-eigenen System zur Abmilderung von DDoS-Angriffen und PageSpeed dar. PageSpeed war ursprünglich ein Tool, um die Ladezeiten von Webseiten zu analysieren und darauf aufbauend zu verbessern. Mit dem später eingeführten PageSpeed-Service kann man nun seine Seiten direkt von Google-Servern bedienen lassen, nachdem der Code der Seiten von Google angepasst worden ist.

Als der PageSpeed-Service 2011 veröffentlicht wurde, gab es Kritik, man gebe damit noch mehr Kontrolle in die Hände von Google und liefere dabei automatisch Daten über die Besucher der Webseite an das Unternehmen aus, ohne dass diese sich darüber bewusst sind, sich gerade über eine Google-Infrastruktur im Netz zu bewegen. Das trübt ein wenig das Vertrauen in einen Service, der gerade kritische Inhalte schützen soll. Vor allem wenn man bedenkt, dass Google auch hin und wieder Löschungsanfragen von Regierungen nachkommt, wie auf Youtube mehrmals gezeigt.

Und noch ein Projekt aus dem Umfeld von Google Ideas, einer Plattform zur Entwicklung von Technologien, die Menschen in Repression und Konfliktregionen helfen soll, wurde gestern angekündigt: uProxy

uProxy befindet sich in der Beta-Phase und soll ermöglichen, Internetzensur zu umgehen oder unsichere Netzwerke durch einen sicheren Proxy zu leiten, dem man vertraut. Das heißt, beispielsweise über die Internetverbindung eines Freundes in einem anderen Land oder Netzwerk. Das soll direkt und ohne Umwege zwischen je zwei Nutzern geschehen. Es ist geplant, dass der Quellcode für das Projekt nach der “Restricted Beta”-Phase, für die nur ausgewählte Tester zugelassen werden, unter Apache 2-Lizenz veröffentlicht wird.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

September 13 2013

Freut die NSA: WLAN-Passwörter mit Android automatisch zu Google senden

Der IT-Consultant und Kolumnist Michael Horowitz stellt bei Computerworld die Vermutung auf, dass Google in fast jedes WLAN reinkommen könnte, weil in deren Datenbanken viele WLAN-Passwörter gespeichert sind: Google knows nearly every Wi-Fi password in the world. Und wenn diese bei Google gespeichert sind, dann muss die NSA auch nicht versuchen, die WLAN-Verschlüsselung zu knacken, sondern kann einfach bei Google nachschauen. Also kommt die NSA in fast jedes WLAN rein, wenn sie will. Toller Service! Die Empfehlung von Horowitz ist: Ändert Eure WLAN-Passwörter.

Und wie kommen die Passwörter zu Google? Wenn man ein Android hat und nicht alle “nach Hause telefonieren” Häckchen in den Einstellungen weg geklickt hat, dann werden alle WLAN-Passwörter bei Google auf den Servern gebackuped.

Das Problem löst sich natürlich nicht, wenn man weiterhin diese Daten zu Google schickt. Und so kann man das bei Androids ausstellen:

In die “Einstellungen” gehen, dann dort in “Sichern & zurücksetzen”, da dann das Häckchen hinter “Meine Daten sichern” weg klicken. Hab ich direkt nach Neukauf gemacht und mein Smartphone funktioniert trotzdem prima. Möglicherweise hat man etwas weniger Komfort, aber ich hab bisher nichts vermisst und mir ist es auch wichtiger, dass ich der NSA nicht meine WLAN-Passwörter schenke.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

Eric Schmidt: “Überwachung liegt in der Natur unserer Gesellschaft”

Eric Schmidt, Executive Chairman von Google, klärt auf: Google’s Eric Schmidt says government spying is ‘the nature of our society’.

“There’s been spying for years, there’s been surveillance for years, and so forth, I’m not going to pass judgement on that, it’s the nature of our society,” he said.

“Es gibt seit Jahren Spionage, es gibt seit Jahren Überwachung, ich werde das nicht beurteilen, es liegt in der Natur unserer Gesellschaft.”

Wahrscheinlich meint er seine US-amerikanische Gesellschaft und sein Unternehmen Google. In unserer hiesigen Gesellschaft lag es nur in der Natur zweier untergegangener Diktaturen.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

September 12 2013

Wahlkampf mit Google: Lobby-Team verleiht Google Glasses an Netzpolitiker im Bundestag

Nach dem Wochenende der Freiheit statt Angst Demonstration haben sich Netzpolitiker von SPD und CDU mit dem Google-Lobbyisten Max Senges getroffen, wie Google Deutschland schreibt:

Lars Klingbeil (SPD) und Peter Tauber (CDU) treffen sich mit Max Senges von Google, um Prototypen von Google Glass einem ersten “netzpolitischen Härtetest” zu unterziehen. Sie informierten sich dabei vor allem über den Entwicklungsstand der neuen Technologie, natürlich kam dabei aber auch der Spaß nicht zu kurz. Die beiden Abgeordneten probierten aus, wie man mit Google Glass schnell etwas online sucht, Navigationshilfe erhält, Nachrichten vorgelesen bekommt und natürlich auch Fotos oder Videos aufnimmt. Beide Politiker waren sich danach mit Max Senges einig, dass die Möglichkeiten der neuen Technologie erst ansatzweise erschlossen sind.

Lorenz Matzat bezeichnete die tragbaren Miniaturcomputer an dieser Stelle als herumlaufende Überwachungskameras.

In Zeiten der Komplettüberwachung unserer digitalen Kommunikation verteilt der Internet-Riese Spielzeuge an Abgeordnete, die damit cool wirken wollen. Auch ein Statement im sonst netzpolitisch eher lauen Wahlkampf.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

Russland: Rechteinhaber fordern die Einführung einer Whitelist für urheberrechtlich geschützte Inhalte

russsopaRechteinhaber in Russland haben einen weiteren Vorstoß zur Bekämpfung von Urheberrechtsverletzung gewagt. Sie fordern die Einführung einer Whitelist auf der alle in Russland legal erhältlichen Inhalte aufgeführt werden. Suchmaschinen, aber auch alle anderen Webseiten, müssten diese Whitelist bei Suchanfragen berücksichtigen und die Inhalte bevorzugt behandeln. Der Vorschlag soll dabei helfen, die illegale Verbreitung von urheberrechtlich geschütztem einzudämmen. Die Suchmaschinen Google und Yandex zeigten sich von dem Vorschlag sehr besorgt.

Vor rund einem Monat ist das “russische SOPA” in Kraft getreten. Das neue Gesetz räumt Rechteinhabern die Möglichkeit ein, beim Moskauer Gericht Beschwerde gegen Content Provider und Plattformen einzureichen, wenn diese urheberrechtlich geschütztes Material bereitstellen. Sollten die Rechteinhaber nachweisen können, dass sie die Rechte an den Inhalten besitzen, fordert das Gericht die Internetprovider auf den Zugang zu den Webseiten zu sperren. Hierzu wird eine nationale Blacklist geführt.

Bislang ist das “russische SOPA” nur für Filme und TV-Serien gültig, es gibt aber bereits erste Bemühungen das Gesetz auch auf die Bereiche Musik, Fotos, “andere Bilder” sowie textbasierte Inhalte auszuweiten. Und erst in der letzten Woche wurde bekannt, dass die russische Regierung die Einführung von Strafzahlungen einführen will, wenn die Internetprovider den Sperrungen zu spät oder gar nicht nachkommen.

Wie Torrentfreak nun berichtet gehen diese Schritte den Rechteinhabern aber scheinbar noch nicht weit genug. Nach Informationen der russischen Tageszeitung Wedomosti, fordern die Rechteinhaber nun die Einführung von Whitelists. Torrentfreak fasst zusammen:

The proposed amendments center around the creation of a national registry listing all music, software and books. This database will then be made available to search engines and site owners who will be required to consult it before servicing their users with links or content.

For example, if a user searches for a particular song using Google, in the background the search engine would be required to carry out a search on the national database to see if the song is listed. If the track is present then Google would be obliged to list official sources for the content in the first pages of results while automatically relegating other sites.

Zusätzlich fordern die Rechteinhaber, dass die Inhalte auf der Blacklist, die durch das “russische SOPA” eingeführt wurde, komplett aus den Suchergebnissen entfernt werden sollen. Die großen Suchmaschinen in Russland, allen voran Google und Yandex, zeigen sich von diesen Vorstößen sehr besorgt. Eine Sprecher von Google sagte:

The company can not take on the role of the courts to determine whether someone’s rights have been violated. A proposal to artificially rank links in search results does not take into account the technical characteristics of search engines and would lower the quality of the search.

Auch Yandex zeigt sei von dem Vorschlag nicht begeistert, wie ein Sprecher gegenüber Wedomosti sagte:

First, in itself the assignment of resources to legal or illegal is extremely controversial. Secondly, items affected by copyright and related rights can be used in some circumstances without gaining permission from copyright holders, there is a wide range of exceptions. For example, if you thoroughly follow the amendments, a search engine will not be able to provide links to works containing the quotes that users type into the query string.

Yandex hebt außerdem hevor, dass die Einführung einer Whitelist nicht nur enorme Folgen für die Nutzer und Anbieter im Internet hätte (Stichwort: Chilling-Effects), sondern die Umsetzung auch schlicht unmöglich sei:

[If the amendments go through], rightsholders will switch the entire Internet into pre-moderation mode, because sites can not accommodate any comment without full verification of all the materials located on the link in this comment. For the bulk of services, this task is impossible.

Bereits im Februar diesen Jahres berichtete Techdirt über die Einführung einer Whitelist in einer Region in Russland. Der Vorschlag ist also keineswegs neu. Dennoch ist der Vorschlag besorgniserregend, besonders da die russische Regierung empfänglich für solche extremen Maßnahmen scheint.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

September 05 2013

PRISM Firmen antworten der Bundesregierung: “Meine Name ist Hase, ich weiß von nichts.”

Die Firmen von PRISM.

Die Firmen von PRISM laut NSA.

Acht der neun Internet-Unternehmen, die laut NSA Teil des Überwachungsprogramms PRISM sind, dementieren eine unmittelbare Zusammenarbeit mit US-Behörden. Das geht aus den Antworten der Firmen auf einen Fragenkatalog der Bundesinnenministeriums hervor, die wir an dieser Stelle veröffentlichen. Das Problem: Falls die Unternehmen einen Beschluss auf Grundlage des Foreign Intelligence Surveillance Act erhalten haben, dürfen sie gar nicht darüber sprechen.

Der Summer of Snowden kam so richtig ins Rollen am 6. Juni, als Glenn Greenwald über das Programm PRISM berichtete, das der NSA “direkten Zugriff auf die Systeme” von neun der größten amerikanischen Internet-Firmen geben soll. Das wurde von amerikanischen Behörden auch nicht bestritten.

Die beteiligten Firmen jedoch wollen davon nichts wissen. Wie viele andere Stellen hat auch das deutsche Innenministerium einen Fragenkatalog an die beteiligten Firmen geschickt, über den wir hier berichtet hatten. Wir haben natürlich sofort eine Informationsfreiheits-Anfrage nach den Antworten gestellt. Nachdem auch Bundestag und Regierung auf die von uns veröffentlichten Fragen verwiesen haben und endlich die Antworten sehen wollten, haben wir heute endlich die Antworten erhalten:

Die Fragen der Staatssekretärin im Bundesministerium des Innern, Frau Rogall-Grothe, vom 11. Juni 2013 haben die folgenden Internetunternehmen beantwortet: Yahoo, Microsoft einschließlich seiner Konzerntochter Skype, Google einschließlich seiner Konzerntochter Youtube, Facebook und Apple. Keine Antwort ist bislang von AOL eingegangen.

Die Unternehmen Facebook und Google haben im Nachgang weitere Informationen zur Verfügung gestellt, die Ihnen auf Wunsch der beiden Firmen ebenfalls übermittelt werden.

Und die Antworten auf diese acht konkreten Fragen sind wenig überraschend: Niemand wusste von irgendwas.

Apple antwortet in einem Einseiter und zitiert seine eigene Presse-Aussage:

We have never heard of PRISM. We do not provide any government agency with direct access to our servers, and any government agency requesting customer data must get a court order.

Genaueres oder der FISA Abschnitt 702 wird noch nichtmal erwähnt.

Facebook zitiert einen Facebook-Post von Mark Zuckerberg:

Facebook is not and has never been part of any program to give the US or any other government direct access to our servers. We have never received a blanket request or court order from any government agency asking for information or metadata in bulk, like the one Verizon reportedly received. And if we did, we would fight it aggressively. We hadn’t even heard of PRISM before yesterday.

Weiter heißt es:

Sie bitten in Ihrem Schreiben um Auskunft zu Anfragen, die möglicherweise von amerikanischen Sicherheitsbehörden an Facebook gestellt wurden. Ich habe diese Fragen an meine Kollegen weitergeleitet, die unser weltweites Strafverfolgungsprogramm verantworten. Meine Kollegen haben mich darüber informiert, dass sie mir die gewünschten Informationen jedoch nicht zur Verfügung steilen können, ohne damit amerikanische Gesetze zu verletzen.

Zudem verweist Facebook auf ein Statement des Direktors der nationalen Nachrichtendienste James Clapper.

In einem zweiten Brief verweist Facebook auf seinen neu eingeführten Transparenzbericht.

Google fängt erstmal mit einem Disclaimer an:

Wie Sie wissen, sind die rechtlichen Rahmenbedingungen im Zusammenhang mit behördlichen Ersuchen zur Herausgabe von Daten gerade im internationalen Kontext äußerst komplex. Zudem unterliegt die Google Inc. umfangreichen Verschwiegenheitsverpflichtungen im Hinblick auf eine Vielzahl von Anfragen in Bezug auf Nationale Sicherheit, einschließlich des Foreign Intelllgence Surveillence Act (FISA). Ich habe ihre Anfrage daher der Rechtsabteilung der Google Inc., die sich mit diesen Fragestellungen befasst, zur Prüfung übermittelt.

Dann das Dementi:

Auch uns haben die Presseberichte über ein Überwachungsprogramm PRISM überrascht und besorgt. Wie Sie den öffentlichen Äußerungen unseres Chief Legal Officers David Drummond entnehmen konnten, ist die in diesem Zusammenhang geäußerte Annahme, dass US Behörden direkten Zugriff auf unsere Server oder unser Netzwerk haben, schlicht falsch.

Entgegen einiger Behauptungen in den Medien ist es unzutreffend, dass Google Inc. den US Behörden uneingeschränkt Zugang zu Nutzerdaten eröffnet. Wir haben niemals eine Art Blanko-Ersuchen zu Nutzerdaten erhalten (im Gegensatz beispielsweise zu dem gleichfalls angeführten Fall, der Verizon betrifft). Die Google Inc. verweigert die Teilnahme an jedem Programm, welches den Zugang von Behörden zu unseren Servern bedingt oder uns abverlangt, technische Ausrüstung der Regierung, welcher Art auch immer, in unseren Systemen zu installieren.

Gleichwohl unterliegen wir wie erwähnt umfangreichen Verschwiegenheits-Verpflichtungen hinsichtlich einer Vielzahl von Ersuchen in Bezug auf Nationale Sicherheit, einschließlich des Foreign Inteiligence Surveillance Act (FISA).

Zwei Monate später haben sie noch einmal geantwortet und unter anderem auf einen Gastbeitrag des Chefjuristen David Drummond in der FAZ verwiesen (und als ausgedrucktes Internet angehängt).

Die Antwort von Google gilt auch für YouTube.

Microsoft antwortet wie Apple mit einem Einseiter und auf englisch:

Microsoft does not participate in a program called “PRISM” or any similar program. Microsoft also learned of the program called PRISM through the media reports you mentioned. This applies equally to Skype.

Die Antwort von Microsoft gilt auch für Skype.

Yahoo! dementiert am wenigsten deutlich:

Die Yahoo! Deutschland GmbH hat im Zusammenhang mit dem Programm „PRISM“ wissentlich keine personenbezogenen Daten ihrer deutschen Nutzer an US-amerikanische Behörden weitergegeben, noch irgendwelche Anfragen von US-amerikanischen Behörden bezüglich einer Herausgabe solcher Daten erhalten.

Die amerikanische Yahoo! Inc. hat die Yahoo! Deutschland GmbH auf das Statement Setting the Record Straight verwiesen.

Als einzige Firma beantwortet Yahoo! die acht Einzelfragen des Ministeriums. Aber da man nicht an PRISM beteiligt sei, ist die Antwort acht mal:

Die Yahoo! Deutschland GmbH arbeitet im Hinblick auf das Programm “PRISM” nicht mit US-amerikanischen Behörden zusammen.

AOL hat als einziges Unternehmen der Bundesregierung in mehr als zwei Monaten gar nicht geantwortet.

Die Bundesregierung fasst die Antworten treffend zusammen:

In den vorliegenden Antworten wird die in den Medien im Zusammenhang mit dem Programm PRISM dargestellte unmittelbare Zusammenarbeit der Unternehmen mit US-Behörden dementiert. Die Übermittlung von Daten finde allenfalls im Einzelfall auf Basis der einschlägigen US-Rechtsgrundlagen auf Grundlage richterlicher Beschlüsse statt.

Oder auch: “Meine Name ist Hase, ich weiß von nichts.”

Die Glaubwürdigkeit dieser Aussagen ist aber trotzdem “eher so mittel”. Schon am 7. Juni sagte Mark Rumold, ein Anwalt bei der Electronic Frontier Foundation, gegenüber ABC News:

Wenn diese Unternehmen im Rahmen der FISA Amendments Act einen Beschluss erhalten haben, dürfen sie laut Gesetz weder den Erhalt des Beschlusses noch irgendwelche Informationen darüber offenlegen.

Vor diesem Hintergrund klingen die Disclaimer, wie die von Google über die Verschwiegenheitsverpflichtungen, nochmal anders. Zumal die US-Regierung im Gegensatz zu den Unternehmen die Zusammenarbeit nie dementiert hat.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

August 23 2013

NSA: Neue Dokumente belegen, dass die NSA Service Provider bezahlt hat.

Das Utah Data Center. Quelle: Wired.

Das Utah Data Center. Quelle: Wired.

The Guardian hat neue Dokumente veröffentlicht, die belegen, dass US amerikanische Service Provider dafür ‘entschädigt’ wurden, dass sie das Prism Programm mit Daten versorgen. Wir hatten vor einer Woche berichtet, dass der ‘haus-eigene’ Foreign Intelligence Surveillance Court (FISC) der NSA vorwarf, nicht genau genug zwischen ausländischer und US amerikanischer Kommunikation zu unterscheiden. Da die NSA somit ‘nachbessern’ musste, wurde mit den Service Providern zusammengearbeitet, um Datenverkehr besser identifizieren zu können. Dies war notwendig, um weiterhin durch den FISC zertifiziert zu werden. So liest man in einem Newsletter der NSA, dass an die Service Provider mehrere Millionen USD gezahlt wurden.

Last year’s problems resulted in multiple extensions to the certifications’ expiration dates which cost millions of dollars for Prism providers to implement each successive extension – costs covered by Special Source Operations.

Die Special Source Operations Abteilung der NSA ist dabei für die reibungslose Zusammenarbeit mit Service Providern zuständig – laut Edward Snowden das ‘Kronjuwel’ der NSA. In einem späteren Newsletter liest man, dass mittlerweile alle Provider die nötigen Maßnahmen getroffen haben – nur Yahoo und Google hinken etwas hinterher.

All Prism providers, except Yahoo and Google, were successfully transitioned to the new certifications. We expect Yahoo and Google to complete transitioning by Friday 6 October.

Bestätigt wurde die Zusammenarbeit mit der NSA zumindest von Google, Yahoo, Facebook und Microsoft. Auf Anfrage des Guardian bestätigte Yahoo, dass es Zahlung durch die NSA als Aufwandsentschädigung erhalten habe. Microsoft wollte kein Kommentar abgeben und Google beharrt weiterhin darauf, dass die Presse dramatisiere und sich vieles relativieren würde, wenn die NSA es Google erlaube, Dokumente zu veröffentlichen.

Somit wurde durch Edward Snowden ein weiteres Puzzle-Teil veröffentlicht, dass zeigt, wie eng die NSA mit privaten Unternehmen zusammenarbeitet, um jeglichen Datenverkehr überwachen zu können. Außerdem ist dies der erste handfeste Beweis, dass die Unternehmen davon gewusst haben und für ihre ‘Umstände’ entschädigt wurden.

The responses further expose the gap between how the NSA describes the operation of its Prism collection program and what the companies themselves say.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

August 20 2013

Marketing der NSA: Wir rühren nur 1,6% des weltweiten Internetverkehrs an

nsa-eagleBereits am 9. August veröffentlichte die NSA ein Memorandum, mit dem sie kleine Einblicke in ihre Arbeit sowie ihre rechtlichen Begründung für die weltweite Überwachung des Internetverkehrs geben will. In diesem Dokument nennt die NSA auch erstmalig Zahlen, wie viel Daten angeblich von ihr abgegriffen und analysiert werden, nämlich 0.00004% des weltweiten Datenverkehrs im Internet. Was auf den ersten Blick nach wenig klingt – und selbstverständlich auch nach wenig klingen soll – entpuppt sich bei näherer Betrachtung als eine größere Menge an Daten, als sie täglich von Google verarbeitet wird. Entscheidend jedoch bleibt: eigentlich spielt die Menge der Daten überhaupt keine Rolle.

Die NSA sah sich mehr und mehr in die Defensive gedrängt und beschloss deshalb nun selbst in die Offensive zu gehen, indem sie ein Memorandum veröffentlichte. Das auf den 9. August datierte Dokument, versucht die Hintergründe und Rechtfertigungen für die weltweite Überwachung des Internetverkehrs durch die NSA zu erklären. Auf Seite 6 des Dokuments findet sich folgende Rechnung, die belegen soll, dass die NSA ja eigentlich gar nicht so viele Daten sammelt und untersucht wie es ihr immer unterstellt wird.

nsa_16

Demnach schätzt die NSA den gesamten Internetverkehr auf 1826 Petabyte pro Tag. Von diesen 1826 Petabyte, werden aber überhaupt nur 1,6% “angerührt” (was genau “angerührt”, im englischen „touch“, bedeutet ist nicht klar), was rund 29.000 Terabyte (oder 29 Petabyte) entspricht. Von diesen 29.000 Terabyte werden aber angeblich wiederum nur 0,025% tatsächlich von der NSA untersucht, was rund 7 Terabyte pro Tag entspricht. Wie unter anderem The Atlantic Wire berichtet, entspricht dieses aber 0,0004% und nicht 0,00004% des gesamten Internetverkehrs, wie es die NSA fälschlicherweise behauptet. Die NSA analysiert also 10 mal mehr Daten, als sie in ihrem Memorandum angibt.

Arstechnica hat einige Vergleiche angestellt, die zeigen was für eine enorme Datenmenge von der NSA verarbeitet wird, auch wenn die Zahlen vielleicht etwas anderes suggerieren. So verarbeitet die NSA mit ihren täglichen 29 Petabyte erheblich mehr als der Internetriese Google, der auf täglich rund 20 Petabyte kommt. Und selbst die amerikanischen Internetknoten scheinen es nicht mehr der NSA aufnehmen zu können:

While 29.21 petabytes is a fraction of the overall traffic on the Internet, it is the equivalent of the traffic that passes through several major Internet exchanges each day. It amounts roughly to 2.77 terabits per second—more than the average throughput of the Equinix exchange network, the CoreSite Any2 Exchange, New York International Internet Exchange (NYIIX), and Seattle Internet Exchange (SIX) combined. In other words, the 1.6 percent of the total of Internet traffic “touched” by the NSA could easily contain much of the traffic passing through the US’ core networks. It can certainly include all the traffic inbound from and outbound to other nations.

Wie groß diese Menge ist, lässt sich aber auch im Vergleich zur deutschen Vorratsdatenspeicherung erkennen. Im März 2010, nach dem Urteil des Bundesverfassungsgerichts gegen die Vorratsdatenspeicherung, gab die Telekom bekannt, dass sie ihre gesamten Vorratsdaten lösche. Größe: 19 Terrabyte. Mit den Worten der NSA: rund 0,00066% der Menge an Daten, welche die NSA pro Tag “anrührt”.

Sollten die Zahlen der NSA korrekt sein, lässt sich aus den Daten auch schließen, dass bei einer Datenbankabfrage der NSA, pro Anfrage rund 12 Megabyte an Daten verarbeitet werden, wie The Atlantic Wire vorrechnet:

Twenty million queries, as Drum points out [ein Artikel von Kevin Drumm bei MotherJones], is a lot of daily queries (or, if you prefer, database searches). It’s about 666,000, in fact, in a 31-day month. That’s about seven queries every second. (How the NSA defines “query” in this context isn’t clear.) In the context of the amount of data the NSA processes, it’s also significant. Each day, using the 0.025 percent of 1.6 percent figure above, the government reviews about 7.304 terabytes of data. If you’re curious, the ratio of data reviewed to number of queries is about 12.2 megabytes — meaning that the government sets aside 12 megabytes for every query it runs.

Zusätzlich ist es aber auch interessant zu schauen, welche Dienste welchen Anteil am Internetverkehr haben. So berichtete Variety im Mai diesen Jahres, dass der Video-on-Demand Anbieter Netflix und Youtube für rund 49% des gesamten amerikanischen Internetverkehrs verantwortlich sind. Solche Videodaten sind für die NSA aber nahezu nutzlos. Sollten solche Dienste aus den Berechnungen ausgeschlossen werden, würde der Anteil der von der NSA untersuchten Daten, im Vergleich mit dem gesamten Internetverkehr, noch einmal steigen.

Wie arstechnica aber herausstellt, spielt die Menge an Daten welche die NSA sammelt und untersucht, eigentlich aber überhaupt keine Rolle.

Regardless how much data flows through the NSA’s tap points, all of it is getting checked. While the NSA may “touch” only 29.21 petabytes of data a day, it runs its digital fingers through everything that flows through the tap points to do so.

Arstechnica geht davon aus, dass die NSA Tools zur Analyse von Datenpaketen einsetzt, um dadurch bestimmen zu können, welche Daten überhaupt relevant sind und daraufhin analysiert werden müssen. Um bei dem Beispiel von eben zu bleiben: erkennen die Tools Videodaten von Youtube oder Netflix, werden diese gar nicht erst “angerührt”, da kein Erkenntnisgewinn zu erwarten wäre. Gleichzeitig würden diese Analysen aber auch nicht in die offizielle Statistik der NSA einfließen. Wie bereits vorhin erwähnt: die genaue Definition von “touch” ist unklar. Dennoch kann davon ausgegangen werden, dass die NSA etwas anderes darunter versteht als wir Bürger, wie es die EFF auch für eine Reihe anderer Begrifflichkeiten erklärt hat.

Es bleibt also festzuhalten, dass die NSA durch das geschickte Spiel mit Zahlen versucht den Eindruck zu erwecken, dass sie eigentlich überhaupt nicht viele Daten sammeln – jedenfalls im Vergleich zum gesamten weltweiten Internetverkehr. Tatsächlich verarbeitet sie aber täglich mehr Daten als Google oder einige Internetknoten in den USA zusammen, ganz zu schweigen von den Daten welche bei der Vorratsdatenspeicherung in Deutschland anfielen. Ebenso wichtig ist aber auch die Feststellung, dass die Angaben der NSA eigentlich überhaupt keinen Wert haben, da erstens der Begriff “touch” nicht näher erläutert wird. Und zweitens, da die NSA vermutlich sowieso jeglichen Datenverkehr mit liest, aber eben nur in bestimmten Fällen näherer Analysen durchführt. Den Zahlen der NSA ist als keine ernsthafte Aussagekraft beizumessen.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

August 15 2013

Leistungsschutzrecht: Rhein-Zeitung legte erste Bilanz vor

Das Leistungsschutzrecht ist vor rund zwei Wochen, am 01.08., in Kraft getreten. Auch wenn das keine große Zeitspanne ist, hat die Rhein-Zeitung erste Zahlen veröffentlicht, die einen kleinen Einblick in die Auswirkung des Leistungsschutzrechts erlauben. Das Ergebnis: Die Zahl der Besucher, die die Webseite der Rhein-Zeitung über Google-News besuchen, tendiert, wenig erstaunlich, gegen Null. In Relation zu den gesamten Besucherzahlen der Rhein-Zeitung spielen die Aufrufe über Google-News jedoch kaum eine Rolle.

Seitenaufrufe der Rhein-Zeitung über Google-News

Seitenaufrufe der Rhein-Zeitung über Google-News



Wie man sieht, hatte die Rhein-Zeitung an einigen Tagen über 1000 Seitenaufrufe über Google-News. Am 01.08. waren es noch 103 Besucher und seitdem weniger als 100 pro Tag, wie Marcus Schwarze im Blog der Rhein-Zeitung schreibt. Dass es überhaupt noch zu Aufrufen über Google-News kommt, obwohl die Rhein-Zeitung Gebrauch vom Leistungsschutzrecht macht und demnach eigentlich nicht mehr von Google gelistet wird, erklärt Kay Oberbeck auf Twitter damit, dass es sich um normale Suchanfragen bei Google handele und diese nicht vom Leistungsschutzrecht betroffen sei.

Schaut man sich nun jedoch die gesamten Zugriffe auf die Rhein-Zeitung an, stellt man fest, dass der Wegfall von Google-News scheinbar keine Rolle zu spielen scheint.

Seitenaufrufe gesamt

Seitenaufrufe der Rhein-Zeitung insgesamt

Auch das exakte Aufschlüsseln, auf welchem Wege die Besucher auf die Webseite der Rhein-Zeitung gelangten, zeigt wie wenig Wegfall der von Google-News ins Gewicht fällt.

Aufschlüsselung: von welchen Seiten kamen die Besucher

Aufschlüsselung: von welchen Seiten kamen die Besucher

Auffällig sind die rund 32% der Nutzer, welche die Rhein-Zeitung über die Google-Suche erreichen. Die Suche ist nicht vom Leistungsschutzrecht nicht betroffen, sodass Nutzer die Rhein-Zeitung dort noch vorfinden.

Beim Betrachten dieser Daten muss man sich aber vor Augen führen, dass die Rhein-Zeitung eine Regionalzeitung mit einer mittleren Besucheranzahl von weniger als 100.000 Besuchern pro Tag handelt. Die Ergebnisse sollten also nicht als Indiz dafür genommen werden, dass das Leistungsschutzrecht auch auf die großen Nachrichtenseiten in Deutschland, wie Spiegel Online, die Süddeutsche oder ZEIT ONLINE keine Auswirkungen hätte. Doch hierbei handelt es sich sowieso nur um Hypothesen. Nahezu alle großen deutschen Seiten machen derzeit kein Gebrauch vom Leistungsschutzrecht und sind somit auch weiterhin bei Google-News gelistet.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

August 14 2013

Google: “Nutzer von Gmail können keine Privatsphäre erwarten”

In einer Stellungnahme zu einem laufenden Gerichtsverfahren haben Anwälte von Google erklärt, dass Nutzer die Emails an Googles Mailservice Gmail schicken, keine Privatsphäre zu erwarten hätten. Das berichtet Consumerwatchdog, denen die Stellungnahme von Google vorliegt.

Oft wurde an dieser Stelle in den letzten Wochen über verschiedene Emailanbieter und Möglichkeit zur sicheren Kommunikation berichtet. Dabei wurde immer davor gewarnt einen Dienst der großen amerikanischen Konzerne wie Google, Yahoo oder Microsoft zu nutzen, wenn man seine Privatsphäre schützen möchte. Doch nun liefert sogar Google selbst die Aussage, dass Nutzer von Gmail keine Privatsphäre zu erwarten hätten:

Just as a sender of a letter to a business colleague cannot be surprised that the recipient’s assistant opens the letter, people who use web-based email today cannot be surprised if their emails are processed by the recipient’s [email provider] in the course of delivery. Indeed, ‘a person has no legitimate expectation of privacy in information he voluntarily turns over to third parties.


Abschließend gibt Google zusätzlich an, dass eine Einschränkung in der Verarbeitung der Daten, zu einer Kriminalisierung von Spamfiltern und Suchen führen könne und die Klage deshalb abgewiesen werden müsse:

Last, Plaintiffs’ claims should be rejected because they would lead to anomalous results with far-ranging consequences beyond the allegations in the Complaint. Plaintiffs’ theory–that any scanning of email content by ECS providers is illegal–would effectively criminalize routine practices that are an everyday aspect of using email. Indeed, Plaintiffs’ effort to carve out spam filtering and virus detection from their claims underscores the fact that their theory of liability would otherwise encompass these common services that email users depend on.

Diese Aussagen tätigten Googles Anwälte in einem Prozess in dem sich Google einer Sammelklage gegenübersieht. Die Kläger beschuldigen Google, die Privatsphäre seiner Nutzer zu schädigen, indem der Inhalt von Email zur Schaltung von personalisierter Werbung untersucht werde. Die Kläger fordern Google auf darzulegen, welche Informationen von Emails hierzu genutzt werden. Eine stark zensierte Fassung der Klage ist hier einsehbar.

Für John M. Simpson, Projektdirektor bei Consumerwatchdog, ist die Sache damit klar: Wer seine Privatsphäre schützen möchte, darf Gmail nicht nutzen.

Google has finally admitted they don’t respect privacy,[...]. People should take them at their word; if you care about your email correspondents’ privacy don’t use Gmail.

Dieser Aussage schließen wir uns an.

Update: Wie Sebastian Jabbusch in den Kommentaren richtig anmerkte, hat Consumerwatchdog in der Vergangenheit bereits mehrfach Kampagnen gegen Google gestartet. Unter anderem soll Microsoft Consumerwatchdog für einige dieser Kampagnen bezahlt haben.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

July 30 2013

Leistungsschutzrecht: Springer-Verlag macht keinen Gebrauch vom neuen Gesetz

Nachdem das Leistungsschutzrecht im März ohne große Gegenwehr vom Bundestag und Bundesrat verabschiedet wurde, soll das Gesetz pünktlich zum 01.08. in Kraft treten. Ausgerechnet der größte Befürworter des Leistungsschutzrechts, der Axel-Springer-Verlag, möchte von dem neuen Gesetz aber erst einmal keinen Gebrauch machen. Das bestätigte ein Konzernsprecher des Verlags gegenüber der taz.

Demnach hat sich der Axel-Springer-Verlag (Welt, Bild) mit einem “Opt-In” dafür entschieden, dass seine Inhalte auch weiterhin bei Google News aufgeführt werden sollen. Gegenüber der taz sagte der Konzernsprecher, dass der es Verlag jedoch weiterhin anstrebe Gebrauch vom Leistungsschutzrecht zu machen, zur Zeit aber noch Vorbereitungen getroffen werden müssten und sich so “aus juristischen und technischen Gründen zwangsläufig ein Intermezzo” ergebe.

Dass es überhaupt zu dieser Übergangsphase kommen kann, liegt an Googles Vorgehen, die Verlage anzufragen, ob ihre Veröffentlichungen weiterhin auf Google News kostenfrei veröffentlicht werden dürfen. Das Leistungsschutzrecht erlaubt es nämlich Verlagen, Lizenzen für ihre Texte im Internet zu verlangen, was bedeuten würde, dass Google Geld an die Verlagen zahlen müsste, um die Texte in ihre Übersicht aufnehmen zu dürfen. Durch die konkrete Nachfrage bei Verlagen schafft man bei Google aber einerseits Klarheit darüber, welche Verlage auch weiterhin die kostenfreie Nutzung ihrer Inhalte erlauben und andererseits bietet man den Verlagen so auch aktiv die Möglichkeit, die Nutzung des Leistungsschutzrechts nicht wahrzunehmen. Und genau das hat nun der Axel-Springer-Verlag, einstieger Vorreiter des Leistungsschutzrechts, getan. Der Konzernsprecher sagte:

Allerdings unter der Maßgabe und mit ausdrücklichem Hinweis, dass dies nur vorläufig bis zur geregelten Rechteverwertung und ohne Anerkennung der einseitig von Google gesetzten Konditionen geschieht.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl