Tumblelog by Soup.io
Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

February 18 2014

February 13 2014

Regierungskommission empfiehlt Australien Einführung von ‘Fair Use’ im Urheberrecht

Australien-Law-Reform-CommissionAuch außerhalb Europas gibt es in vielen Staaten Diskussionen darüber, wie sich das Urheberrecht mit neuen digitalen Technologien und Nutzungsformen besser in Einklang bringen lässt. Als eines der zentralen Probleme wird in den meisten Fällen die mangelnde Flexibilität und Enge von Ausnahme- und Schrankenbestimmungen gesehen.

In Australien hat jetzt die Law Reform Commission der Regierung nach zweijährigem und umfassenden Konsultationsverfahren einen 478-Seiten starken Bericht zum Thema “Copyright and the Digital Economy” (PDF) vorgelegt (eine kurze Zusammenfassung gibt es ebenfalls). Die zentrale Empfehlung des Berichts ist eindeutig: Australien soll eine Fair-Use-Klausel nach Vorbild des US-Copyrights einführen. In der Zusammenfassung (S. 12f.) werden exemplarisch folgende Gründe für diese Empfehlung aufgelistet (meine Übersetzung):

  • Fair use ist flexibel und technologieneutral.
  • Fair use fördert das öffentliche Interesse und transformative Nutzung.
  • Fair use unterstützt Innovation.
  • Fair use passt besser zu nachvollziehbaren Erwartungshaltungen von Konsumenten.
  • Fair use hilft die Märkte von Rechteinhabern zu schützen.
  • Fair use ist ausreichend rechtssicher und prognostizierbar.
  • Fair use is kompatibel mit Urheberpersönlichkeitsrechten und internationalem Recht.

Für den Fall, dass sich das Parlament gegen eine Einführung von Fair Use entscheidet, empfiehlt die Kommission zumindest den Schrankenkatalog auszudehnen und zu flexibilisieren – etwas, das die Initiative rechtaufremix.org auch in Europa erreichen möchte. Die klare und eindeutige Empfehlung der Regierungskommission für Fair Use, vor allem auf derart solider Grundlage, sollte jedenfalls auch den Verantwortlichen in Europa zu denken geben.

Wir wollen netzpolitik weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

January 13 2014

New America Foundation: NSA-Massenüberwachung nicht maßgeblich bei Terrorbekämpfung

Das Argument, Überwachung sei notwendig, um Terroristen und andere Bösewichte zu bekämpfen, hängt uns mittlerweile gewaltig zum Hals heraus. Damit hat man schon zig Male versucht, die Vorratsdatenspeicherung und andere Datensammeleien durchzusetzen und auch im Rahmen des NSA-Skandals wurde uns mehrmals ins Gewissen geredet. Die USA seien ja nur besorgt um die Sicherheit der Welt und man habe ja mindestens 50 Terroranschläge verhindert, auch für Europa. Leider schürt eine solche Rhetorik Unsicherheit und macht viele glauben, ohne das schützende allgegenwärtige Auge des Staates breche spontan eine terroristische Apokalypse ein. Dabei gab es ja auch eine Verbrechensbekämpfung vor dem Internet und den günstigen technischen Möglichkeiten, alles und jeden im Blick zu haben.

Deshalb freuen wir uns immer über handfeste Beweise gegen solche Propaganda. Heute ist eine Studie der New America Foundation erschienen. In Do NSA’s Bulk Surveillance Programs Stop Terrorists? werden 225 Fälle von Terrorplänen unter die Lupe genommen, bei denen die Person von al-Qaeda oder ideologisch ähnlichen Organisationen rekrutiert und später unter Terrorvorwurf verurteilt wurde.

Nur in 7,5% der Fälle wurde mit Hilfe von NSA-Maßnahmen die Ermittlungsarbeit initiiert, den Rest übernahmen traditionelle Ermittlungsmethoden wie Hinweise von Familie und Freunden, Informanten und auffälliges Verhalten, bzw. war in 27,6% der Fälle der Anfang der Ermittlungen nicht ermittelbar. Hier kann man sich die Ergebnisse grafisch aufbereitet anschauen und sich die einzelnen Fälle, die untersucht wurden, in Kurzzusammenfassung durchlesen.

Es wäre gut, viele glaubwürdige Studien wie diese zu sammeln, mit denen sich die Ineffizienz von Massenüberwachung bei der Verbrechensbekämpfung demonstrieren lässt, auch für die deutsche Debatte um Vorrats- und Bestandsdaten. Wenn ihr also ähnliche und seriöse kennt freue ich mich über Linkhinweise.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

January 10 2014

Leseempfehlung: Die Kosten von Überwachung

Dank moderner Kommunikationstechnologie ist Überwachung einfacher geworden. Das fällt schon auf, wenn man sich beim Schauen eines Tatorts aus den 80ern dabei ertappt, dass man bei umständlichen Ermittlungsarbeiten denkt: “Wieso orten sie nicht einfach das Handy vom Mörder?” oder “Warum schauen sie nicht nach, mit wem er telefoniert hat?”

In Zahlen gefasst hat das jetzt eine Studie, die gestern im Yale Law Journal Online publiziert wurde. Kevin S. Bankston und Ashkan Soltani haben untersucht, wie viel die Überwachung des Aufenthaltsortes einer Person kostet, basierend auf repräsentativen Gerichtsfällen. Die Autoren kommen zu dem Schluss, dass Mobilfunküberwachung bei einem Zeitraum von einem Monat  weniger als ein Tausendstel der persönlichen Überwachung durch Polizeibeamte kostet. Interessanter Fakt ist hier auch der Preisunterschied zwischen den Mobilfunkprovidern. Während man bei T-Mobile 2.800$ pro Monat für ein Mobilfunktracking hinlegt, gibt es das bei Betreiber Sprint schon zum attraktiven Festpreis von 30$. Wenn das keine Überwachungs-Flatrate ist…

thecostofsurveillance

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

October 28 2013

EU-Studie über Massenüberwachung in den Mitgliedsstaaten

In der Studie National programmes for mass surveillance of personal data in EU Member States and the compatibility with EU law für das LIBE-Komittee (Ausschuss für bürgerliche Freiheiten, Justiz und Inneres) des Europaparlaments wird die Präsenz von Massenüberwachung in Großbritannien, Schweden, Deutschland, Frankreich und den Niederlanden unter die Lupe genommen. Über den Ausschuss hatten wir auch schon im Zusammenhang mit den Anhörungen im Untersuchungsausschuss zum NSA-Skandal und der EU-Datenschutzreform berichtet.

Der Bericht macht deutlich, dass Überwachung nicht nur gegenüber Datenschutzbestimmungen abgewogen werden muss, sondern im Gesamtzusammenhang bürgerlicher Freiheiten und Demokratie. Unter dieser Prämisse werden die Geheimdienstprogramme der fünf Länder untersucht. Die Studie kommt zu dem Schluss, dass in allen der Länder außer den Niederlanden weitreichende Abhörung durch Geheimdienste bekannt ist; Deutschland, Frankreich und Schweden sind aber den Kapazitäten und Möglichkeiten von Großbritanniens GCHQ oder auch den amerikanischen Geheimdiensten deutlich unterlegen. Es wird auch auf eine intensive Verflechtung verschiedener europäischer Geheimdienste untereinander und mit den USA hingewiesen. Das erschwert eine rechtliche Überprüfung und eine Rechtsaufsicht noch weiter, die sowieso schon durch mangelnde Kapazitäten und Regelungen voller Uneindeutigkeiten und Schlupflöcher geschwächt ist.

Aus diesen konkreten Untersuchungen formulieren die Autoren zwei Kernfragen:

  1. Was bzw. wer ist das eigentliche Ziel der ganzen Überwachungsmaschinerie?
  2. Wie werden die Daten gesammelt, verarbeitet, gefiltert und analysiert?

Als Konsequenz aus der Situation fordert die Studie die EU dazu auf, nicht untätig zu bleiben. Auch wenn Geheimdienstaktivitäten in nationaler Hand liegen, habe die EU immer noch die Europäische Menschenrechtskonvention und die Charta der Grundrechte, die für alle verbindlich seien. Es folgen neun konkrete Handlungsvorschläge für den LIBE-Ausschuss:

  1. Verlangen einer Erklärung von den USA und Prüfung der weitere Zusammenarbeit (z.B. Aussetzung der Verhandlungen zum geplanten Freihandelsabkommen)
  2. Ein Gesetzesrahmen für die transnationale Handhabung des Zugriffs auf europäische Daten
  3. Prüfung von Internetrouting durch vorwiegend europäische Staaten und einer European Privacy Cloud
  4. Sicherstellung, dass Kernpunkte der geplanten Datenschutzverordnung in den Verhandlungen mit dem Europäischen Rat verteidigt werden (wie z.B. Regelungen zur Weitergabe von Daten an Dritte)
  5. Bessere Richtlinien, um eine effektive Untersuchung von Geheimdienstenthüllungen zu ermöglichen
  6. Konsequente Durchsetzung der Minimalstandards aus der Europäischen Menschenrechtskonvention
  7. Effektivere Prüfung und Überwachung der EU Home-Affairs-Behörden hinsichtlich Sicherheit und Informationsaustausch
  8. Prüfung des Schutzes von Whistleblowern auf EU-Ebene
  9. Fortführung der Untersuchungen über Massenüberwachung in den Mitgliedsstaaten.

Die Studie erkennt die Bedeutung einer wirksamen Regulierung und Einschränkung der Ausspäh- und Überwachungsapparate und appelliert an die EU, tätig zu werden. Hoffen wir, der LIBE-Ausschuss zieht geeignete Konsequenzen, denn, wie ein Satz aus der Einleitung es auf den Punkt bringt:

Es ist der Zweck und das Ausmaß von Überwachung, die den Kern dessen ausmachen, was demokratische Regierungen von Polizeistaaten unterscheidet.

 

 

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

October 22 2013

Remix hilft Originalen: Studie zu ökonomischen Folgen von Sampling

In der Serie “Remixer/in” erzählen Menschen über ihre Erfahrungen und Einstellungen zum Thema Remix und Remix-Kultur. Dieses Mal: Eine Studie zum ökonomischen Verhältnis von Remix und Original.

Bislang gibt es kaum empirische Studien darüber, welche Folgen ein Remix für das Original hat – und zwar weder was die (möglicherweise: veränderte) Rezeption eines Werkes noch was die ökonomischen Auswirkungen betrifft. Nur anekdotisch lässt sich auf bekannte Beispiele verweisen, in denen erst der Remix eines Werkes auch dem Original und damit dessen Urheber zum Durchbruch verholfen hat. Eines der bekanntesten Beispiele dafür ist mit Sicherheit der Song “Thank You” der britischen Sängern Dido. Nachdem “Thank You” bereits 1998 erstmals veröffentlicht worden war, avancierte er erst 2000 zu Didos bislang größtem Hit, nachdem Eminem die erste Strophe in seinem Song “Stan” gesampelt hatte.

Während in diesem Fall die Rechte geklärt waren und Dido teilweise sogar gemeinsam mit Eminem bei Konzerten auftrat, war das bei einem anderen prominenten Beispiel nicht der Fall. Wie DIE ZEIT im April diesen Jahres in einem ausführlichen Porträt berichtete, war Asaf Avidan ursprünglich überhaupt nicht von dem Wankelmut-Remix (siehe auch Embed-Video) seines Songs “One Day” begeistert, der ihm letztlich zu weltweitem Erfolg verhelfen sollte:

Reckoning Song, so heißt das Lied in seiner Originalversion von 2008, es war eigentlich ein Stück mit schlichter Akustikgitarrenbegleitung, das Avidan und seine alte Band The Mojos in ihrem ersten Repertoire hatten, mit dem sie durch Israel und kleine Bars in Europa tourten. Bis ein Fan, der bis dahin unbekannte Berliner DJ Wankelmut, sich das Stück nahm und elektronisch daran herumexperimentierte. Wankelmut unterlegte Avidans melancholisch-markante Stimme mit House-Musik, Beats, die tanzbar waren. One Day, wie er den Remix nannte, verbreitete sich online wie ein Virus. Von unten stürmte er innerhalb weniger Wochen die internationale Clubszene und, als er schließlich offiziell bei Sony herausgebracht wurde, auch die Charts – ein kometenhafter, ein unfreiwilliger Erfolg.

[…]

“Das war einfach nicht mein Stil”, sagt Avidan über den Wankelmut-Remix, der ihm noch immer nicht gefällt und dessen Veröffentlichung er zunächst verhindern wollte.

Neben solchen (Sonder-)Fällen, in denen ein Remix maßgeblich für den kommerziellen Erfolg des Originals verantwortlich ist, hat der US-Juristen Michael Schuster jetzt auch systematisch die kommerziellen Folgen von Sampling für die Originale an Hand des Albums “All Day” des Künstlers Girl Talk untersucht. In seinem bei SSRN als PDF verfügbaren Beitrag “Fair Use, Girl Talk, and Digital Sampling: An Empirical Study of Music Sampling’s Effect on the Market for Copyrighted Works” analysiert er die Verkaufszahlen von über 350 von Girl Talk gesampelten Werken und kommt zu dem statistisch signifikanten Ergebnis, dass

“sich die urheberrechtlich geschützten Songs in dem Jahr, nachdem sie gesampelt worden waren, besser verkauft haben, als im Jahr davor.” (meine Übersetzung)

Die Ergebnisse sind für die USA relevant, weil Sampling nach verschiedenen richterlichen Entscheidungen nicht unter die dortige Fair-Use-Klausel des Copyrights fällt. Das Album von Girl Talk eignet sich nicht nur wegen der großen Zahl an Samples besonders für die Untersuchung, sondern auch weil der Künstler hinter Girl Talk, Gregg Gillis, sich unter Berufung auf Fair Use bewusst einer Lizenzierung der Samples verweigert (vgl. Artikel bei Torrentfreak).

In Deutschland ist Sampling zwar auch eine “weitverbreitete Schattenpraktik“, schon die Übernahme kleinster Teile erfordert aber auf Grund von Leistungsschutzrechten der Tonträgerhersteller aufwändige Rechteklärung (vgl. „Zwei Takte Leistungsschutzrecht“). Dass damit Remix-Künstler/innen das Leben schwer gemacht wird, ist klar. Die Studie von Schuster liefert aber erste Indizien dafür, dass diese Rechtsprechung auch den Plattenfirmen selbst einen Bärendienst erweisen könnte.

Das ist ein Crosspost vom Blog der Initiative ‘Recht auf Remix‘, die in einer Petition um Unterstützung samt Link zum persönlichen Lieblingsremix bittet.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

October 07 2013

Geheimdienstgesetze der USA, Großbritannien und Deutschland fast identisch: Ähnliche Befugnisse für NSA, GCHQ und BND

ELB_0002A1AF

BND Gebäude in Berlin

In einer neuen Studie untersuchten Ben Scott der New America Foundation und Stefan Heumann der Stiftung Neue Verantwortung die rechtlichen Rahmenbedingungen der Geheimdienste in den Vereinigten Staaten, Großbritannien und Deutschland. Dabei fokussierten sie auf drei Fragen:

  1. Welche Gesetze ermächtigen die Geheimdienste zu ihrer Tätigkeit?
  2. Wie und in welchem Ausmaß findet Überwachung statt?
  3. Wem obliegt die Aufsicht und welche Kontrollmechanismen gibt es?

Our findings do not support the conclusion that foreign signals intelligence programs in the US represent a fundamentally different policy choice than two of its most important European allies… there appear to be more similarities than differences between three countries when it comes to how these programs are autho-rized, how they function, and what oversight mechanisms exist to control them.

Nachdem den drei Fragen für USA, Großbritannien und Deutschland nachgegangen wurde, kommen die Autoren zu den folgenden Erkenntnissen:

Gesetze

  • Die Gesetze aller drei Länder erlauben eine sehr breite Auslegung durch schwammige Definitionen und stellen so eine Überwachung in praktisch jedem Szenario sicher.
  • Auflagen für die Überwachung von Bürgern sind deutlich schärfer, als die für Ausländer.
  • Es wird zuerst erfasst und dann gefiltert und analysiert. Durch dieses Vorgehen wird sichergestellt, dass relevante Daten garantiert benutzt werden können, selbst wenn sie eigentlich nicht hätten erfasst werden dürfen – weil sie z.B. Kommunikation eines Staatsbürgers betreffen.

In other words, all communications swept up from the Internet that have relevance to foreign intelligence are kept and disseminated regardless of what legal regime technically governs their collection.

Ausmaß und Auflagen

  • Jedes Land nutzt so viele Daten wie möglich – vor allem durch Kooperation mit den USA.
  • Der britische GCHQ wird durch die US amerikanische NSA teil-finanziert und Daten werden direkt ausgetauscht.
  • Kooperation zwischen NSA und BND gehen zurück auf Zeiten des Kalten Krieges.
  • Ziel der Kooperationen ist offensichtlich: Fremde Geheimdienste werden genutzt, um geheimdienstliche Informationen über eigene Bürger zu erhalten – da man diese per Gesetz nicht selbst erheben darf.

However, it is clear that the opportunity exists through such cooperation to rely on other intelligence agencies to monitor domestic communications that would be legally impermissible for national intelligence agencies to process.

Aufsicht und Kontrolle

  • Aufsicht und Kontrollmöglichkeiten sind sehr begrenzt in allen drei Ländern – meist nur gegenüber der Exekutive.
  • Großbritannien ist hier am schwächsten, da weder Gerichte noch die Legislative involviert sind.
  • USA ist das einzige Land mit richterlicher Kontrolle der Geheimdienste. (FISA Gerichtshof)
  • FISA Gericht und deutsche G-10 Kommission operieren sehr ähnlich.
  • In keinem der Länder beschränken die Kontrollmechanismen die Arbeit der Geheimdienste ernsthaft.

In none of the countries studied does any form of oversight appear to have created a significant barrier to the expansion of these programs. And in all cases, the proceedings of the oversight bodies are almost entirely secret and the results of any internal conflicts over policy or implementation remain unknown.

Die Autoren enden damit, dass man sich ihrer Meinung nach auf internationaler Ebene über Ausmaß, Möglichkeiten und Kontrolle der Geheimdienste einigen muss. Die jetzigen technischen Möglichkeiten zur Überwachung überschreiten jedenfalls die ehemals angedachten Szenarien, auf denen alle Geheimdienstgesetze beruhen, bei weitem. Scott und Heumann identifizieren den größten Schaden, der durch die umfassende Überwachung durch USA, Großbritannien und Deutschland angerichtet wurde: Völliger Vertrauensverlust. Dieser muss wiederhergestellt werden und dies gelingt nur durch offenen Diskurs auf internationaler Ebene. Sonst droht die ‘Balkanisierung’ des Internets.

The global Internet relies upon a relatively fragile system of cooperative technocratic governance and a mutual commitment among nations to maintain an open market for ideas and commerce despite the risks to privacy and security that are tied to open communications. It is a system that depends on trust.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

September 11 2013

Studie: Die widersprüchlichen Vorstellungen von US Amerikanern zu ihrer Privatsphäre im Internet

anonymous-largeLetzte Woche veröffentlichte das US amerikanische Pew Research Center eine neue Studie zum Thema Anonymität und Privatsphäre im Internet. Hierzu wurden rund 1.000 US AmerikanerInnen per Telefon befragt. Begraben unter einigen Widersprüchen und Unsinnigkeiten liegen eine Hand voll interessanter Erkenntnisse.

  • Lediglich 14% nutzen (irgendeine Art von) Verschlüsselung
  • 33% haben Angst vor kriminellen Hackern, aber nur 5% haben Bedenken wegen staatlicher Überwachung
  • Meta-Daten des Mailverkehrs (Empfänger) werden als ähnlich sensibel empfunden, wie der eigentliche Inhalt
  • Etwa 2/3 der Befragten denken, dass bisherige Gesetze Bürger nicht adäquat schützen.
  • Datenschutz ist letztlich Handlungsfreiheit.

Privacy is not an all‐or‐nothing proposition for internet users. People choose different strategies for different activities, for different content, to mask themselves from different people, at different times in their lives. 

Gerade da die Studie Mitte Juli durchgeführt wurde, darf hinterfragt werden, warum lediglich ein Bruchteil (5%) der Befragten Bedenken bzgl. staatlicher Überwachung hatte. Weiterhin kann man nur hoffen, dass mittlerweile mehr Menschen Verschlüsselung einsetzen.

Die Studie verdeutlicht jedoch auch, dass viele Menschen ‘Privatsphäre im Internet’ als das Preisgeben oder Zurückhalten bestimmter Informationen begreifen. So fragte die Studie, welche Informationen der Befragten womöglich im Internet für andere auffindbar sind: Bilder, Name, Adresse, Telefonnummer, Videos, etc. Dies zeigt jedoch, wie antiquiert unser Verständnis davon ist, wie Dritte Informationen über uns erhalten. Diese Daten spielen natürlich eine Rolle, doch ist es viel entscheidender und für die Erstellung eines Profils wesentlich wichtiger Aktivitäten zu analysieren: Mit wem wird kommuniziert, wie lange und zu welcher Zeit? Welche Webseiten werden besucht? Welche Nachrichten werden gelesen, welche ignoriert? Wie groß ist und aus wem besteht das soziale Netzwerk? Diese aggregierten Informationen sind wesentlich aussagekräftiger, als ein Geburtsdatum oder ein Familienfoto – finden jedoch erst langsam Einzug in die öffentliche Debatte und somit in das Bewusstsein der Bevölkerung.

graphZwei andere erwähnenswerte Zusammenhänge: Personen, die versuchen ihre Privatsphäre im Netz zu schützen sind sich gleichzeitig eher darüber bewusst, dass es keine absolute Anonymität gibt. Und interessanterweise geben diejenigen signifikant mehr über sich preis, die gleichzeitig versuchen Überwachung zu entgehen. (siehe Grafik) Dies unterstützt die Aussage vom Anfang, dass es bei Anonymität letztlich um Handlungsfreiheit geht: Die Freiheit selbst zu bestimmen, wie viel man über sich preisgeben möchte – diese informationelle Selbstbestimmung wird jedoch leider immer utopischer.

graph2Ein weiterer offensichtlicher Zusammenhang besteht zwischen dem Einkommen einer Befragten und der Wahrscheinlichkeit, dass sie negative Erfahrungen in Bezug auf Anonymität hatte. So kam es in Haushalten mit weniger als 30.000USD jährlichem Einkommen signifikant öfter zu gestohlenen Accounts, Online Mobbing / Stalking oder Reputationsverlust. Dies kann als Indikator dafür genommen werden, dass es bei der digitalen Spaltung vorrangig nicht um bloßen Zugang geht, sondern auch um Aufklärung bzw. Bildung.

Es wäre interessant zu sehen, inwieweit sich die Auffassung der Befragten in den kommenden 2-3 Monaten geändert hat. Dank Edward Snowdens Enthüllungen schreiben nun auch die ‘großen Zeitungen’ über Themen wie Verschlüsselung, staatliche Internet-Überwachung, Profilerstellung und den zunehmend vollständigen Verlust der Privatsphäre im Netz.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

August 06 2013

Arbeitsbedingungen in China? Good! Very good! Very, very good!

iheartfoxconn

Quelle: AP Photo/Kin Cheung

Über die miserablen Arbeitsbedingungen in chinesischen ‘Sweat Shops’, wie Foxconn oder Pegatron, wurde schon viel berichtet – spätestens seitdem 2010 insgesamt 18 junge Menschen Suizid als einzigen Ausweg aus dem Arbeitsalltag bei Foxconn gesehen haben. Ein neuer wissenschaftlicher Artikel beleuchtet nun die grundlegenden Probleme und Wechselwirkungen, basierend auf 42 Interviews mit Arbeitern bei Foxconn und der drei-jährigen Begleitung der Suizid-Überlebenden Tian Yu.

Mit 1.4 Millionen Mitarbeitern ist Foxconn, als Teil der taiwanischen Hon Hai Precision Industry Company, Chinas größter privater Arbeitgeber und weltweit eines der größten Unternehmen. Seit 1988 hat Foxconn aggressiv vor allem im Süden Chinas expandiert, dank niedriger Gewerbesteuern und günstigem Bauland. Dabei ist das Unternehmen auf den konstanten Strom von jungen Arbeitsuchenden zwischen 16 und 25 angewiesen, die aus überwiegend ländlichen Gebieten Erfolg und Freiheit in Städten wie Shenzhen suchen. So verspricht Foxconns Handbuch, das jeder neue Mitarbeiter erhält, dass man durch die Arbeit bei Foxconn seine Träume verfolgen kann, Wissen und Erfahrung gewinnt und sich neue Möglichkeiten eröffnen.

Hurry toward your finest dreams, pursue a magnificent life. At Foxconn, you can expand your knowledge and accumulate experience. Your dreams extend from here until tomorrow.

In Foxconns Fabrik in Longhua, in der allein 400.000 Arbeiter beschäftigt sind, um rund um die Uhr zu produzieren, findet man allerdings andere Grundsätze und Ideale an den Wänden. So beschreibt Tian Yu im Artikel, dass überall Poster an den Wänden hängen, die die Arbeiter dazu antreiben sollen, noch schneller, effizienter und fehlerfrei zu arbeiten. Terry Gou, CEO von Foxconn, besteht auf bedingungslosen Gehorsam innerhalb der Foxconn Hierarchie und so lauten seine Grundsätze, die an den Wänden der Produktionshallen zu finden sind:

Growth, thy name is suffering.
A harsh environment is a good thing.
Execution is the integration of speed, accuracy and precision.
Outside the lab, there is no high-tech, only execution of discipline.

article-0-152D17F8000005DC-313_638x394

Quelle: n/a

Was Jenny Chans Arbeit, im Gegensatz zu den meisten bisherigen Artikeln, sehr gut aufdeckt, ist das Zusammenspiel der verschiedenen Faktoren, die letztlich dazu führen, dass immer wieder junge Menschen Suizid begehen, nachdem sie bei Foxconn angefangen haben zu arbeiten. So geht es nicht nur um schlechte Löhne und lange Arbeitszeiten. Junge Menschen kommen aus den ländlichen Gebieten Chinas nach Shenzhen oder anderen ‘Hubs’, um die ‘große weite Welt’ zu erleben und Geld zu verdienen. Oft landen sie dann bei Foxconn oder einer der zahllosen anderen Fabriken. Diese Unternehmen setzen vollständig auf Taylorismus – jeder Arbeitsschritt ist bis ins Detail koordiniert und systematisiert, sodass kein Vorwissen nötig ist. Dies wird in 12-Stunden Schichten ausgeführt. In Tian Yus Fall hieß das, iPhone Displays auf Kratzer untersuchen. 12 Stunden am Tag. 6 Tage die Woche. Immer dieselbe Beschäftigung.

Yu confirmed that while preparing to start work on the production line, frontline managers demand workers respond to the question, ‘How are you?’, by shouting in unison, ‘Good! Very good! Very, very good!

Nach diesem morgendlichen Ritual darf nicht gesprochen werden bis zum Ende der Arbeitsschicht. Einige der Arbeiter leben direkt auf dem Foxconn Campus in Unterkünften – zu 8 je Zimmer. Intuitiv würde man denken, dass sich hier Freundschaften bilden, allerdings wechseln Schichten ständig. Nach wenigen Wochen Frühschicht, wird man der Spätschicht zugeteilt. Außerdem wird die Zusammensetzung der Zimmer immer wieder willkürlich geändert und nach einem Arbeitstag sind die meisten so müde, dass man direkt schlafen geht. Zusätzlich ist die offizielle Sprache in China zwar Mandarin, regionale Dialekte sind aber so unterschiedlich, dass man sich oft nicht versteht, wenn man nicht aus derselben Provinz kommt. All diese Faktoren führen dazu, dass sich bei vielen der Angestellten ein Gefühl der Isolation einstellt.

Yu’s experience illustrates the difficulty of forming meaningful social relationships in a mega-factory where workers are individualised and pitted against each other to achieve incessant and excessive production demands… Yu’s desperation is emblematic of myriad labour problems at ‘the electronics workshop of the world’.

Unter diesen Bedingungen ist es wenig verwunderlich, dass jeden Monat rund 24.000 Mitarbeiter Foxconn kündigen – etwa 5% der Beschäftigten. Das ist allerdings noch nicht das gesamte Bild. Ein Aufbegehren der Arbeiter gegen die schlechten Arbeitsbedingungen wird zusätzlich dadurch erschwert, dass es zwar eine Gewerkschaft gibt, diese aber praktisch keine Macht hat - u.a. da sie nicht unabhängig ist. Erst seit kurzem kommt es hin und wieder zu Aufständen, die dann auch oft in Gewalt eskalieren.

In spite of impressive Chinese union membership, operational and financial dependence on management severely undermines the capacity of enterprise unions to represent the workers.

C608N0027H_2010資料照片_N71_copy1

Quelle: File Photo/CNS

Auf die Suizid-Fälle reagierte Foxconn mit verschiedenen “Maßnahmen”: Die Schuld wurde den Opfern zugeschoben, die “psychisch-labil” waren. Es wurde eine Telefonseelsorge eingerichtet, die allerdings direkt mit dem Management zusammengearbeitet hat: Wenn sich jemand über zu harte Arbeitsbedingungen beschwert hat, wurde ihm gekündigt. Gegen weitere Suizid-Fälle wurden die Fenster der Unterkünfte vergittert, es wurden Sicherheitsnetze an allen Gebäuden angebracht und jeder neue Mitarbeiter musste unterschreiben, dass er – im Falle eines Suizid – Foxconn von jeglicher Verantwortung freispricht.

Letztlich zieht Jenny Chan die Schlüsse, dass die Suizid-Fälle und die Aufstände als Aufschrei und Symptom eines grundsätzlicheren Problems gesehen werden sollten. Diese Vorfälle sollte man nicht als “notwendiges Übel” des wirtschaftlichen Wachstums Chinas sehen. Sie sind nicht reduzierbar auf Apple, Dell oder Foxconn sondern müssen in einem globalen Kontext betrachtet werden.

Chinese sociologists have warned that the Foxconn tragedies should be seen as ‘loud cries for help from the new generation of migrant workers’… To achieve lasting changes, it can never be sufficient to limit the discourse to corporate employers and the Chinese state. Ultimately, it is essential that workers find their voices and participate directly in monitoring and negotiating their working and living conditions.

Daher ist es nicht nur falsch und arrogant, sondern auch kurzsichtig, wenn einige die Suizid-Fälle einfach damit abtun, dass 18 von 1.4 Millionen deutlich weniger sind, als die durchschnittliche Suizid-Rate in China von 23 je 100.000. Genauso, wie wir es geschafft haben global gegen ACTA vorzugehen und sich jetzt auch wieder globale Initiativen gegen staatliche Überwachungsprogramme bilden, müssen wir auch hier anfangen zu begreifen, dass dies nicht isolierte Probleme eines Landes sind. Zur Zeit beschränkt sich die Diskussion darauf, Verantwortung immer weiterzureichen: Apple ist nicht Schuld, da sie Foxconn strikte Auflagen gegeben haben – so deren Begründung. Wir kämpfen dafür, dass wir mit dem iPhone in unserer Hand machen dürfen, was wir wollen – Pornos anschauen, Dateien tauschen, skypen, usw. Warum also nicht auch dafür kämpfen, dass an dem iPhone, das wir in der Hand halten, kein Blut klebt? Es ist dasselbe iPhone. Von alleine werden das Apple, Dell & Co. nicht machen.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

July 25 2013

Freihandelsabkommen TTIP/TAFTA: Ökonomischer Nutzen zweifelhaft

IMK-logoDem Titel dieses Blogs entsprechend ging es in der bisherigen Berichterstattung über das geplante Freihandelsabkommen  TAFTA/TTIP zwischen den USA und der EU vor allem um netzpolitisch problematische Aspekte wie Datenschutz, Immaterialgüterrecht und allgemein Transparenz im Verhandlungsprozess. Wenig hinterfragt wurden jedoch die behaupteten ökonomischen Vorteile des Freihandelsabkommens. Diese Aufgabe haben jetzt die beiden Wirtschaftswissenschaftler Jan Behringer und Nikolaus Kowall am gewerkschaftsnahen Institut für Makroökonomie und Konjunkturforschung (IMK) übernommen.

In einem Report über den “Außenhandel der USA” (PDF) kommen sie zu dem Schluss, dass

von einem Freihandelsabkommen mit der EU keine kurzfristigen konjunkturellen Impulse für die USA zu erwarten [sind].

Zur Veranschaulichung relativieren Behringer und Kowall die versprochenen jeweils 400.000 neuen Arbeitsplätze für die EU und die USA:

Selbst wenn man unterstellt, dass in den USA ebenfalls 400.000 zusätzliche Arbeitsplätze geschaffen würden, entspräche dies bei aktuell 143 Millionen Erwerbstätigen lediglich einem Beschäftigungseffekt von weniger als 0,3 %. Geht man davon aus, dass die Beschäftigungseffekte im Verlauf der nächsten 10 bis 20 Jahren wirksam werden, ist dieser Effekt marginal.

Generell halten sie die Bedeutung von Freihandelsabkommen für überschätzt:

Wie der rasante Handelszuwachs der USA (und der EU) mit China zeigt, wird die Handelsintensivierung von unterschiedlichen Faktoren getrieben, nicht zuletzt von Nachfragedynamiken und technologischen Aufholprozessen. Die Wirkungen eines Freihandelsabkommens sind verglichen mit diesen makroökonomischen Faktoren sicherlich als zweitrangig einzuschätzen.

Die Welt verweist in ihrem Artikel über die Studie von Behringer und Kowall schließlich sogar auf mögliche negative Auswirkungen des Abkommens:

Henning Klodt, Leiter des Zentrums für Wirtschaftspolitik am Kieler Institut für Weltwirtschaft, will auch negative Auswirkungen des TTIP nicht ausschließen: So habe Mexiko aufgrund seiner Nachbarschaft zu den USA bislang profitiert, weil sich viele Zulieferfirmen, etwa für die Automobilindustrie, in der Nähe der US-Grenze angesiedelt hätten. Mit einem Freihandelsabkommen würde diesen Firmen in Süd- und Osteuropa eine neue Konkurrenz von Zulieferern erwachsen, so Klodt.

Ein Vorteil des Abkommens könne jedoch sein, dass dadurch eine Plattform für die Beilegung von Handelsstreitigkeiten geschaffen werde.

Zusammengefasst zeigt sich, dass die ökonomischen Auswirkungen des geplanten Freihandelsabkommens keineswegs eindeutig positiv sind. Im Gegenteil, zu den netzpolitischen Kritikpunkten im Bereich Datenschutz und Urheberrecht kommen auch grundlegende Zweifel an der ökonomischen Sinnhaftigkeit des Abkommens. Von dem intransparenten Verhandlungsprozess ganz zu schweigen.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

July 24 2013

Bundesnetzagentur startet erneut bundesweiten Bandbreitentest

Die Bundesnetzagentur hat erneute eine Studie zur “Dienstequalität von Internetzugängen in Deutschland” gestartet. In der bundesweite Messkampagne kann jeder deutsche Internetnutzer die Geschwindigkeit seines Breitbandanschlusses überprüfen lassen und so automatisch an der Studie teilnehmen. Der Test ist bereits der zweite seiner Art und lässt sich auf der Internetseite www.initiative-netzqualitaet.de durchführen.

In der Pressemitteillung der Bundesnetzagentur heißt es:

Auch die zweite Messstudie untersucht, wie häufig und wie stark die tatsächlich erreichte Datenübertragungsrate von der im Vertrag angegebenen “bis zu”-Bandbreite abweicht. Dabei werden auch verschiedene Technologien und regionale Unterschiede betrachtet. Die Bundesnetzagentur erhofft sich von den erneuten Messungen Rückschlüsse auf mögliche Verbesserungen seit dem vergangenen Jahr. Die Ergebnisse der Studie werden im Anschluss an die Messungen veröffentlicht.


Die Ergebnisse aus der ersten Qualitätsstudie die im April 2013 veröffentlicht wurden zeigen vor allem, dass die von den Internetanbietern erreichten Bandbreiten nur in seltensten Fällen erreicht werden wie auch Jochen Homann, der Präsident der Bundesnetzagentur, noch einmal zusammenfasste:

“Die Ergebnisse der damaligen Messungen haben die Vielzahl der Kundenbeschwerden über Abweichungen zwischen der vertraglich vereinbarten und der tatsächlichen Bandbreite bestätigt. Über alle Technologien, Produkte und Anbieter hinweg haben die teilnehmenden Nutzer oft nicht die Bandbreite gemessen, die ihnen als maximal mögliche Bandbreite von ihrem Anbieter in Aussicht gestellt wurde. Der ersten Messstudie lag mit knapp einer Viertelmillion ausgewerteter Messungen eine äußerst umfangreiche Datenbasis zugrunde. Ich hoffe, dass sich die Internetnutzer auch in diesem Jahr wieder rege beteiligen und wir dadurch ein zuverlässiges Bild der tatsächlich verfügbaren Leistungen überall in Deutschland erhalten.”

Auch wir haben die Studie einmal ausführlich untersucht.

Bis zum Ende diesen Jahres kann an der neuen Studie teilgenommen werden. Die Ergebnisse sollen im Anschluss der Öffentlichkeit präsentiert werden. Leider scheint die Webseite der Studie noch nicht angepasst zu sein, was der Funktionalität aber sicherlich nicht im Wege stehen wird.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

July 08 2013

Wie Copyright Bücher und Musik verschwinden lässt: Studie von Paul Heald

Im März vergangenen Jahres veröffentlichte der US-amerikanische Copyright-Forscher Paul Heald Ergebnisse einer laufenden Untersuchung über die Verfügbarkeit von Büchern bei Amazon, die eindrucksvoll die sogenannte “Lücke des 20. Jahrhunderts” illustrieren: Die Länge urheberrechtlicher Schutzfristen von 70 Jahren nach dem Tod des Autors führt dazu, dass ein großer Teil der Werke schon bald gar nicht mehr verfügbar ist, weil sich deren kommerzielle Verwertung nicht mehr lohnt. Diesen Umstand hatte Heald mit Hilfe eines Zufallssamples von bei Amazon erhältlichen Büchern in Form folgender Graphik illustriert:

Heald-Abbildung1

Verteilung von bei Amazon verfügbaren neuen Büchern nach Erscheinungsdekade (Zufallsstichprobe von 2317 Büchern)

Seit kurzem liegt jetzt die Studie als Arbeitspapier mit dem Titel “How Copyright Makes Books and Music Disappear (And How Secondary Liablity Rules Help Resurrect Old Songs)” vor. Darin findet sich neben der Analyse von bei Amazon erhältlichen Büchern auch eine Untersuchung der Verwendung von Musik in Filmen auf Basis von Soundtrack-Daten der International Movie Database. Die zahlreichen Herausforderungen bei der Datenerhebung und bei der Feststellung der Erstveröffentlichungsdaten von Musik und Büchern werden in dem Aufsatz sehr detailliert dargelegt.

Hinsichtlich der Verfügbarkeit von Büchern liefert Heald noch eine zweite Graphik, in der die Zahl der erhältlichen Bücher mit der Gesamtzahl der im jeweiligen Jahrzehnt erschienenen Bücher ins Verhältnis gesetzt – und damit der Umfang der Lücke des 20. Jahrhunderts noch deutlicher wird (leider fehlt in der Graphik die Y-Achse mit den Prozentangaben, die Verhältnisse werden aber klar):

Heald-Abbildung2

Anteil bei Amazon verfügbarer Bücher im Verhältnis zur Gesamtzahl in der jeweiligen Dekade erschienener Bücher

Im Bereich der Musik ist das Muster einer höheren Verfügbarkeit nach Ablauf des Urheberrechtsschutzes ebenfalls erkennbar und statistisch signifikant, wenn auch weniger stark als im Buchbereich:

Heald-Abbildung4

Veröffentlichungsdatum von Filmmusik aus den 100 Filmen mit den höchsten Einspielergebnissen

Die große Zahl der Musik mit demselben Veröffentlichungsjahr wie dem des Films folgt aus Auftragswerken speziell für den jeweiligen Film. In einer weiteren Analyse vergleicht Heald die Verwendung von Songs in Filmen vor und nach der Verlängerung der Copyright-Schutzdauer in den USA 1977 und kommt dabei zum Ergebnis, dass die Verlängerung mit einem deutlichen Rückgang der Verwendung in Filmen einhergeht:

Heald-Abbildung5

Alter von Songs in Filmen vor und nach der US-Copyright-Reform 1977

Der statistisch signifikante Unterschied zwischen den vor und nach 1977 veröffentlichten Filmen unterstreicht, dass die Schutzdauer einen erheblichen Einfluss auf die Verfügbarkeit von Songs in Filmen hat. Denn vor dem 1977 in Kraft getretenen Copyright Act of 1976 mussten Werke registriert werden und waren für 28 Jahre geschützt, mit der Möglichkeit noch ein weiteres Mal um 28 Jahre zu verlängern. Nach 1977 galt in den USA eine Schutzdauer von 50 Jahren nach dem Tod des Urhebers bzw. 75 Jahre nach Veröffentlichung für Auftragswerke. Die längere Schutzdauer macht die Verwendung von Musik in Filmen also erheblich schwieriger; bis zu einem gewissen Grad könnte hier tatsächlich eine innovationsfördernde Wirkung von sehr langen Schutzfristen bestehen: Rechteklärung wird dadurch so schwer, dass stattdessen lieber neue Musik in Auftrag gegeben wird.

Im vierten Abschnitt seines Aufsatzes widmet sich Heald schließlich der Auswirkung von Haftungsbeschränkungen für Plattformen wie YouTube auf die Verfügbarkeit von Musikinhalten. Weil Plattformbetreiber wie Google oder Facebook erst bei Kenntnis einer Urheberrechtsverletzung durch einen ihrer Nutzer einschreiten müssen, sind mangels Einsprüchen oder auf Grund von expliziter Duldung der Rechteinhaber im Rahmen des Content-ID-Verfahrens viele zusätzliche Werke online zugänglich.

Um hier zu untersuchen, in welchem Ausmaß dieses Potential auch tatsächlich realisiert wird, vergleicht Heald die Verfügbarkeit der Nummer-1-Songs der Charts aus den USA, Frankreich und Brasilien zwischen 1930 und 1960, die sämtliche nach 1923 veröffentlicht wurden und damit noch unter US-Copyright fallen. Mit Stand Mai 2013 liefert Heald folgende Ergebnisse:

  • Mindestens 95% der verfügbaren Songs wurden offensichtlich nicht von den Rechteinhabern selbst hochgeladen, also de-facto von Urheberrechtsverletzern.
  • Mehr als 70% der US-amerikanischen, über 60% der französischen und knapp 40% der brasilianischen Nummer-1-Songs auf YouTube werden monetarisiert, d.h. es wird Werbung eingeblendet, an deren Erlösen in der Regel die Rechteinhaber beteiligt werden.
  • Die nicht-monetarisierten Videos waren nur unwesentlich weniger aktuell als die monetarisierten Interviews und im Mittel (Median) bereits seit knapp vier Jahren via YouTube verfügbar.
  • Die Unterschiede zwischen USA, Frankreich und Brasilien im Bereich der Monetarisierung dürften mit der Anzahl an Views zusammenhängen, die ein Indiz dafür sind, ob sich eine Monetarisierung lohnt:
Heald-Abbildung7

Anzahl von Views bei monetarisierten Nummer-1-Songs auf YouTube

  • Unter den nicht-monetarisierten Videos dominieren Ausschnitte aus TV- oder Filmproduktionen, was der Anforderung von Google für Monetarisierung auf YouTube geschuldet sein dürfte, die sowohl die Rechte an Bild- als auch an Tonmaterial erfordert; interessanterweise könnte aber jeder einzelne der Rechteinhaber eine Sperrung des jeweiligen Clips veranlassen, was offensichtlich in vielen Fällen nicht getan wird. Hinzu kommt, dass viele ältere Video-Ausschnitte von Fernsehsendungen verwaiste Werke darstellen, deren Rechtesituation nur noch schwer zu klären ist.
Heald-Abbildung9

Video-Typ nicht-monetarisierter Nummer-1-Songs auf YouTube

Angesichts dieser Situation lobt Heald die Haftungsregeln des oft gescholtenen Digital Millennium Copyright Acts (DMCA), weil sie im Fall von YouTube “die Bildung eines ziemlich effizienten Marktes” (S. 35) erlauben (meine Übersetzung):

Diese Regeln […] helfen dabei den Zugang zu Kulturgütern zu fördern, während die finale Entscheidung darüber in den Händen der Rechteinhaber verbleibt.

Zusammengefasst zeigt Healds Studie, dass es durchaus (auch: kommerziell relevante) Nachfrage für ältere Werke gibt, die aber zu großen Teilen bereits nach wenigen Jahren über klassische Vertriebskanäle wie Amazon nicht mehr zugänglich sind. Zumindest für den Musikbereich bietet YouTube sowohl bessere Verfügbarkeit als auch bessere bzw. überhaupt wieder Möglichkeiten zur Monetarisierung. Ironischerweise ist diese Monetarisierung nur auf Basis der auch in Deutschland von Seiten der Rechteinhaber heftig kritisierten Haftungsprivilegien möglich.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

May 29 2013

BSA-Piraterie-Studie: Leerstelle freie Software

Die Business Software Alliance (BSA) zählt zu den finanzstärksten und umtriebigsten Lobby-Verbänden im Urheberrechtsbereich. Ihr Hauptbetätigungsfeld ist der Kampf gegen Softwarepiraterie. Auf der deutschen Homepage werden derzeit beispielsweise Mitarbeiter/innen mittels Video aufgefordert, das eigene Unternehmen wegen des Einsatzes illegaler Software unter einer gebührenfreien Nummer zu verpfeifen. (Dass das ein Kündigungsgrund sein kann, wird nicht dazugesagt.)

Notorisch sind auch die zahlreichen “Studien”, die von der BSA in Auftrag gegeben werden, um vermeintliche volkswirtschaftliche Schäden von Softwarepiraterie zu belegen. In der deutschen Presseerklärung zur jüngsten Studie “Competitive Advantage: The Economic Impact of Properly Licensed Software” heißt es beispielsweise: Die “Deutsche Volkswirtschaft profitiert viermal mehr von lizenzierter Software als von Raubkopieren” weil “[f]ür jeden Euro, der in korrekt lizenzierte Software investiert wird, die Wirtschaft in Deutschland um 55 Euro [wächst], verglichen mit 19 Euro für unlizenzierte Software.” Für ärmere Länder werden noch höhere Zahlen kalkuliert, wonach die Investition von 1 Dollar in eine Microsoft-Lizenz zu 437 Dollar zusätzlichem BIP führen würde.

Die gewählten Berechnungsmethoden sind jedoch, trotz Kooperation mit der renommierten INSEAD Business School, haarsträubend. Glynn Moody hat das in einem Blogeintrag detailliert herausgearbeitet und kommt zu dem Schluss (meine Übersetzung):

Wie üblich basieren die Aussagen der BSA über Piraterie auf übertriebenen Behauptungen abgeleitet aus simplistischen Modellen mit beschränkter Datenbasis, deren wichtigste Teile von der BSA selbst bereitgestellt werden. Aber natürlich sind die Schwächen der Studie noch viel tiefgehender, weil sie komplett die Folgen – oder auch nur die Existenz – von freier Software übersieht.

Das “Übersehen” von freier Software ist alles andere als ein Zufall. Die BSA hat beispielsweise noch 2010 beim Handelsvertreter der Vereinigten Staaten (USTR) dafür lobbyiert, dass Entwicklungsländer mit Handelssanktionen bestraft werden, wenn sie verstärkt auf freie Software setzen (vgl. Bericht bei Keionline).

In der aktuellen Studie ist das Ausblenden von freier Software aber vor allem deshalb brisant, weil die angeführten Gründe für volkswirtschaftlich positive Effekte proprietär-lizenzierter Software in noch höherem Maße für freie Software gelten. Die Studie verweist auf versteckte Kosten illegaler Kopien und zitiert diesbezüglich eine Microsoft-Studie (PDF). Diese listet u.a. folgende Gründe für Produktivitätsvorteile proprietärer Software auf:

  • Sicherheit, vor allem wegen geringerer Anfälligkeit für Schadsoftware
  • Geringere Ladezeiten und schnelleres Hochfahren
  • Höhere Energie-Effizienz
  • Häufigere Updates

Wie Moody in seinem Blogeintrag ausbuchstabiert, treffen diese und andere Vorzüge in noch höherem Maße auf freie und Open Source Software zu. Für die Berechnung von fantastischen Zuwächsen im Bereich des BIP taugt freie Software aber dennoch weniger als proprietäre Software, wie ich in einem Rückblick auf die beiden Enquete-Kommissionen im deutschen Bundestag schon einmal ausgeführt habe:

Kaum ein Unternehmen, kaum eine digitale Innovation, die nicht auf irgendeine Weise Freie Software einsetzt. Im BIP scheinen aber nur begleitende Dienstleistungen oder bezahlte Open-Source-Programmierer auf; Beiträge der Open-Source-Community? Fehlanzeige.

Den gesellschaftlichen Wohlstandsgewinn freier Software deutlich zu machen, scheitert also nicht nur am Verzicht auf unseriöse Berechnungsmethoden, sondern auch weil das BIP ein denkbar schlechter Indikator zur Wohlstandsmessung ist.

 

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung, auch um weiterhin einen Full-RSS-Feed anbieten zu können. Investiere in digitale Bürgerrechte.

flattr this!

May 15 2013

Britische Studie: Wer viel illegal herunterlädt, kauft auch viel

In der Urheberrechtsdebatte melden sie gerne unterschiedliche Unternehmen aus der Unterhaltungsbranche zu Wort und beklagen sich lautstark über das illegale herunterladen von Musik, Filmen oder Videospielen aus dem Internet. Diese sei nicht nur unmoralisch, auch würden den Unternehmen wichtige Umsätze verloren gehen. Sie fordern daher oftmals die Sperrung von Internetseiten, welche Zugang zu illegalen Inhalten anbieten – siehe Internet-Zensur: mehrere griechische Torrent-Seiten vor Sperrung.

Eine Studie, welche nun von der britischen Medienaufsichtsbehörde Ofcom veröffentlicht wurde, zeichnet aber nun ein anderes Bild. Zusammengefasst ist das Fazit der Studie an der knapp 10.000 Personen teilnahmen, dass die Personen die am meisten illegale Inhalte aus dem Internet herunterladen, gleichzeitig am meisten Geld für Unterhaltungsmedien ausgeben.

The Top 10% Infringers accounted for just 1.6% of the 12+ internet user population, but were responsible for 79% of infringed content. The Top 20% infringers, accounting for 3.2% of 12+ internet users, were responsible for 88% of infringements.

sowie

Despite their high levels of infringement, the Top 20% Infringers also accounted for 11% of the legal content consumed.

Die Studie besagt also, dass 3,2% der über 12 Jahre alten Internetnutzer für 11% des Umsatzes von Unterhaltungsmedien verantwortlich seien. Weiter in der Studie:

The Top 20% Infringers also spent significantly more across all content types on average than either the Bottom 80% Infringers or the non-infringing consumers (£168 [$250] vs. £105 [$160] vs. £54 [$83] over the six month period covered).

Als Gründe für da illegale herunterladen von Inhalten nannten die Top 20% der Downloader vor allem, dass es kostenlos sei, es schnell ginge und darüber hinaus nicht kompliziert sei. Im Gegenzug sagten sie das sie nicht auf legale Inhalten zugreifen würden, da sie zu teuer seien, nicht alle gewünschten Inhalte verfügbar wären und dass die Nutzung nicht komfortabel genug sei.

Zu ähnlichen Ergebnissen kamen auch schon Studien aus dem Jahr 2009, wie wir berichteten. Die komplette Studie ist als pdf direkt bei Ofcam herunterzuladen.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung, auch um weiterhin einen Full-RSS-Feed anbieten zu können. Investiere in digitale Bürgerrechte.

flattr this!

May 13 2013

The Sky is Rising 2: Studie zur Entwicklung der Unterhaltungsindustrie

Eigentlich sind sämtliche Vertreter von Firmen aus der Unterhaltungsindustrie permanent am jammern: Mit Musik lässt sich in Zeiten des Digitalen kein Geld mehr verdienen, Filme und Videospiele werden sowieso nur noch illegal heruntergeladen und nicht mehr gekauft und Bücher lese heutzutage ja eh niemand mehr. Die Unterhaltungsindustrie scheint seit Jahren ihrem Ende geweiht – zumindest wenn man den jeweiligen Branchenvertretern Glauben schenkt.

Nach ihrer Studie The Sky is rising aus dem Jahr 2012, legen Michael Masnick und Michael Ho – beide Redakteure beim amerikanischen Tech-Blog Techdirt – nun die Nachfolgestudie vor: The Sky is Rising 2. Ging es in ihrer ersten Studie noch um die Entwicklung der Unterhaltungsindustrie in den USA und Kanada, werfen sie nun einen genaueren Blick auf Europa. Masnick und Ho schauen sich hierbei die Entwicklung in Deutschland, Frankreich, Großbritannien, Italien, Russland und Spanien jeweils in den Feldern der Musik-, Film-, Videospiele-, und Buchindustrie.

Überraschend ist das Ergebnis ihrer Studie dabei nicht unbedingt. Auch wenn die Ergebnisse in den einzelnen Ländern erwartungsgemäß unterschiedlich ausfallen, ist doch eine durchgehende Entwicklung erkennbar: aufwärts.

pdf-1

Es ist dabei bemerkenswert festzustellen, wie von Jahr zu Jahr in nahezu jedem Segment die Anzahl an Veröffentlichen steigen würden. An vorderster Front befinde sich hier die Bücherindustrie mit einer Steigerung an Veröffentlichungen von 29% in Deutschland bis hin zu 266% in Russland, jeweils im Vergleich von 2011 und 1995. Doch auch die Videospiele-Branche lege kräftig zu mit einer Steigerung von 138% bei den regelmäßigen Spieler im Jahr 2010 im Vergleich zu 2008. Und auch eine Steigerung des Umsatzes von 65% wie in Großbritannien kann sich sehen lassen.

Auch die Musikindustrie hat laut Masnick und Ho positive Zahlen zu vermelden. Diese seien einerseits in den Umsätzen zu finden – ausgenommen Russland mit einem Minus von 41% – andererseits aber auch in der Anzahl der produzierten Lieder, welche von Jahr zu Jahr weiter wachsen würden. Also Grund hierfür nennen Masnick und Ho die große Anzahl neuer digitaler Vermarktungsstrategien für Musik, seien es Marktplätze wie iTunes oder Streamingangebote wie Spotify.

Und auch in der Filmindustrie sei ein ähnliches Bild erkennbar. Immer mehr Filme werden pro Jahr hergestellt – die Ausnahme in diesem Fall ist Frankreich mit einem Minus von 4% – und auch die Einnahmen würden steigen – trotz weniger produzierter Filme habe Frankreich hier ein Plus von 4,7% vorzuweisen.

Die Studie ist insgesamt sehr viel detailreicher als es in dieser verkürzten Form hätte dargestellt werden können. Da sie gute (und viele) Infografiken aufzuweisen hat ist sie auch zum kurzen überfliegen gut geeignet. Zu finden ist sie auf https://www.documentcloud.org/documents/561023-the-sky-is-rising-2.html. Zusätzlich kann sie hier als pdf heruntergeladen werden.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung, auch um weiterhin einen Full-RSS-Feed anbieten zu können. Investiere in digitale Bürgerrechte.

flattr this!

March 28 2013

Studie der EU-Kommission: Unerlaubte Musik-Downloads haben positive Auswirkung auf Kaufverhalten

JRC-reportFilesharing und Streaming von Musik führen nicht zu geringeren Verkaufszahlen im Netz. Zu diesem Ergebnis kommen immer mehr Untersuchungen, jetzt auch die Forschungsstelle der EU-Kommission. Das Fazit der Forscher lautet daher: Die Rechteinhaber sollten unerlaubtes Kopieren nicht länger als Problem ansehen.

Die Europäische Kommission hat mit der Gemeinsamen Forschungsstelle eine Generaldirektionen nur für Forschung. Eins der sieben Institute ist zuständig für Technologische Zukunftsforschung, das gerade eine interessante Studie über Konsum Digitaler Musik im Internet veröffentlicht hat (PDF).

Die Autoren Luis Aguiar und Bertin Martens haben das Surf-Verhalten von 16.000 Europäer/innen untersucht, um “die Auswirkungen von illegalen Downloads und legalem Streaming auf den legalen Erwerb von digitaler Musik” zu ergründen. Das Ergebnis ist ziemlich deutlich: Unerlaubtes Downloaden ist kein Ersatz für den legalen Erwerb digitaler Musik. “Unsere Ergebnisse zeigen keine Anzeichen von Umsatzeinbrüchen.”

Im Gegenteil: Es gibt sogar einen leichten positiven Zusammenhang. Je mehr Menschen “unerlaubt” downloaden, desto mehr kaufen sie auch. Oder andersrum: Gäbe es kein Filesharing und Streaming, würden die Verkaufszahlen sinken. Das Fazit der Forscher:

All diese Ergebnisse deuten darauf hin, dass unsere Probanden die überwiegende Mehrheit der Musik nicht legal gekauft hätten, wenn sie diese vorher nicht “illegal” herunterladen könnten.


Damit kommt die EU-Kommission zu ähnlichen Ergebnisse wie weitere Forscher-Teams an den Unis Telecom ParisTech in Frankreich und North Carolina State University, USA. Auch diese Papers zeigen, dass unerlaubte Downloads nur geringe oder gar keine Auswirkungen auf legale Musikverkäufe im Internet haben.

Aus ihren Ergebnissen schlussfolgern die Forscher, dass unerlaubte Downloads dem legalen Musikmarkt nicht schaden:

Unsere Ergebnisse deuten darauf hin, dass Rechteinhaber digitale Musik-Piraterie nicht als wachsendes Problem ansehen sollten. Darüber hinaus zeigen unsere Ergebnisse, dass neue Musik-Hör-Dienste wie Online-Streaming die Urheberrechte der Eigentümer positiv beeinflussen.

Kein Wunder, dass der Weltverband der Phonoindustrie das anders sieht. In einer Mitteilung kritisiert IFPI die EU-Studie als “fehlerhaft, irreführend und realitätsfremd”. Lustigerweise hat der Industrieverband den Streaming-Dienst Spotify im Boot, der besonders “die Nicht-Beobachtung von Streaming-Diensten in der Studie” bemängelt, die unfaire Konkurrenz von kostenlosen Downloads bekämen.

Komisch, bei mir tauchen in der Studie “Streaming” 109 mal und “legales Streaming” 40 mal auf. Vielleicht sollte auch Spotify die Studie mal lesen?

vgwort pixel

flattr this!

March 26 2013

Einzigartig in der Masse: Aus Mobilfunk-Bewegungsdaten können ganz einfach Einzelpersonen identifiziert werden

Die Art und Weise, wie sich Menschen bewegen, ist sehr einzigartig. Einem Forscherteam ist es gelungen, Einzelpersonen in großen Datensätzen von Bewegungsdaten zu identifizieren, wie diese von Mobilfunk-Anbietern gespeichert werden. Statt immer weitere Datenberge anzuhäufen, plädieren sie für weitere Forschung, da Bewegungsdaten nur noch wichtiger und aussagekräftiger werden.

unique-in-the-crowd-590

Gestern wurde im Open Access Journal Scientific Reports die Studie Unique in the Crowd: The privacy bounds of human mobility (PDF) veröffentlicht. Vier Forscher vom MIT Media Lab und der Katholischen Universität Löwen untersuchen darin einen großen Datensatz an Bewegungsdaten und de-anonymisieren Einzelpersonen aus dem Datenhaufen.

Bewegungsdaten fallen beispielsweise für jedes einzelne Mobilfunk-Gerät bei den Mobilfunk-Betreibern an. Smartphones übertragen ihren Standort aber auch an Internet-Dienste, so verarbeitet allein der Anbieter Skyhook mehr als 400 Millionen Anfragen nach Ortsdaten pro Tag und Werbe-Netzwerke bekommen Ortsdaten von der Hälfte aller Smartphones. Mal ganz abgesehen von Diensten, denen man den eigenen Standort ganz freiwillig mitteilt, wie Foursquare oder Ingress.

Die Forscher haben jetzt einen Datensatz erhalten, der die Bewegungsdaten von 1,5 Millionen Menschen über 15 Monate enthielt. Das ist ein “bedeutender und repräsentativer Teile der Bevölkerung eines kleinen europäischen Landes”. Diese Daten kamen von einem Mobilfunk-Anbieter, der Zeitraum umfasste April 2006 bis Juni 2007. Mit diesem “Big Data” Datensatz konnten sie zeigen, dass die räumliche Bewegung einzelner Menschen “sehr einzigartig” ist.

In einem Datensatz, wie er bei jedem Mobilfunk-Anbieter anfällt (also relativer Abstand der Funkzellen-Antennen und ein Orts-Eintrag etwa alle Stunde), kann man mit nur vier bekannten Datenpunkten Zeit/Ort circa 95 Prozent aller Menschen identifizieren. Das könnten beispielsweise die Adresse von Privatwohnung, Arbeitsplatz und Geo-Tags von Tweets oder Bildern sein. Mit nur vier solcher Daten kann man in einem riesigen Datensatz die Bewegungen einer Person zuordnen über mehrere Monate nachvollziehen, genau wie das Malte Spitz demonstriert hat.

Das Fazit der Forscher:

These results should inform future thinking in the collection, use, and protection of mobility data. Going forward, the importance of location data will only increase and knowing the bounds of individual’s privacy will be crucial in the design of both future policies and information technologies.

Diese neue Studie reiht sich nahtlos in weitere Forschung zum Thema Geodaten ein:

Auch Polizeibehörden nutzen solche Datenberge, wie die Enthüllungen zur Funkzellenabfrage gezeigt haben. Und spätestens nach der Bundestagswahl wird es auch in Deutschland wieder Forderungen geben, diese Daten anlasslos monatelang zu speichern.

vgwort pixel

flattr this!

August 20 2012

ARD/ZDF-Onlinestudie 2012

Die Zusammenfassung der ARD/ZDF-Onlinestudie 2012 ist in der Ausgabe 7/8 der Zeitschrift Media Perspektiven erschienen und steht in zwei Beiträgen auf der Webseite veröffentlicht. 75,9% der Deutschen sind demnach online, wie die Pressemitteilung erklärt:

75,9 Prozent der Deutschen (2011: 73,3%) sind online. Dies sind 53,4 Millionen Internetnutzer. Damit hat sich die Zahl der Internetnutzer in den letzten 12 Jahren nahezu verdreifacht hat (2000: 18,4 Mio.). Gegenüber dem Vorjahr kamen 1,7 Mio. „neue Anwender“ hinzu“. Die höchsten Zuwachsraten gehen weiterhin von den Über-50-Jährigen aus. 76,8 Prozent der 50- bis 59-Jährigen nutzen inzwischen das Internet (2011: 69,1%). Unter den über 60-Jährigen sind 39,2 Prozent (2011: 34,5%) online.

Am interessantesten finde ich den Beitrag “Web 2.0: Habitualisierung der Social Communitys” (PDF) von Katrin Busemann und Christoph Gscheidle.

22,88 Millionen Erwachsene ab 14 Jahren besitzen ein Profil in einem privaten Netzwerk, das sind rund 43 Prozent der Onliner. Nach einem Zuwachs von 2,5 Millionen von 2010 auf 2011 fällt die Steigerung mit 1,4 Millionen von 2011 auf 2012 – auf hohem Niveau – geringer aus.

Web 2.0 Nutzung (der deutschen Online-Nutzer ab 14 Jahren):

Wikipedia wird mit 72% am meisten (zumindest gelegentlich) genutzt, dahinter folgt Youtube mit 59%. 43% der Online-Nutzer sind in privaten Communities, dabei gibt es eine immer größere Konzentration auf Facebook. Während viele in den Vorjahren bei mehreren privaten Netzwerken aktiv waren, geht der Trend zu einer Monopolisierung. Berufliche Communities wie Xing oder Linkedin werden von 8% genutzt, Blogs (wie immer man diese heutzutage definiert) von 7% und Twitter von 4%.

Interessant sind die Statistiken zum Schutz der eigenen Privatsphäre in privaten Netzwerken:

Der größte Teil der Community-Mitglieder (85 %) nimmt Einstellungen zum Schutz der eigenen Privatsphäre vor (vgl. Tabelle 4). Gegenüber der Ersterhebung 2010 bedeutet dies einen Anstieg um 6 Prozentpunkte. Das Gros der Netzwerknutzer weiß also um die „Gefahren“, die mit der Mitgliedschaft verbunden und mit dem Stichwort Öffentlichkeit eigener Daten beschrieben sind, und handelt entsprechend. Die Heavy-User von Communitys, 14-bis 29-Jährige, zeigen sich besonders sensibilisiert. Der Anteil derer, die ihre Privatsphäre schützen, steigt in dieser Altersgruppe um 13 Prozentpunkte auf 93 Prozent an. Keine andere Gruppe zeigt sich ähnlich geschlossen geschützt und nirgends sonst ist der Zuwachs größer als bei der jungen Nutzerschaft.

Bei der Skepsis gibt es (wenig überraschend) einen großen Generationenunterschied:

Besonders weit verbreitet ist die Skepsis bei den Älteren. 92 Prozent der Onliner ab 50 Jahren fürchten Datenmissbrauch und verweigern eine Weitergabe konsequenter als alle anderen Altersgruppen (vgl. Tabelle 6). 73 Prozent der ab 50-Jährigen haben nach eigener Angabe noch nie persönliche Daten im Netz hinterlassen, der Durchschnittswert liegt bei 63 Prozent. Im Vergleich dazu zeigt sich die junge Generation in Sachen Datenschutz eher unbedarft. Mehr als die Hälfte, 53 Prozent, haben bereits persönliche Angaben gemacht. Skepsis ist bei den jungen Onlinern also weniger ausgeprägt und ihr Verständnis von Privatheit ist ein anderes, ebenso die Bereitschaft, auf bestimmte Webangebote zu verzichten. Das Anlegen eines Profils innerhalb einer privaten Community wird offenbar nicht von allen Onlinern als Weitergabe von Daten im engen Sinnen verstanden.

Im Fazit vermuten die Forscher einen “Wandel im Umgang mit Privatheit”:

Das Thema Sicherheit und Datenschutz ist zwar in aller Munde, allein die konsequente Durchsetzung scheint den Onlinern nicht möglich. Zu oft stehen sie vor der Wahl, attraktive Webinhalte gegen Preisgabe persönlicher Daten nutzen zu können und daraus dann individuellen Mehrwert zu beziehen oder eben darauf zu verzichten. Das Problembewusstsein ist mehrheitlich vorhanden, mit der Logik des Netzes aber nur schwer zu vereinbaren. Sich dem zu entziehen, fällt schwer. Insofern scheint es einen Wandel im Umgang mit Privatheit zu geben. Offen bleibt, ob dieser vom Nutzer selbst oder profitorien­ tierten Diensteanbietern im Netz befördert wurde.

Weiter gibt es das Dokument “Geräteausstattung der Onlinenutzer“. Wenig überraschend nutzen vor allem junge Menschen ein Smartphone unterwegs und in Haushalten stehen noch Fernsehen und Radios, aber auch immer mehr Tabletcomputer.

flattr this!

August 15 2012

Privacy auf Mobiltelefonen: Amerikanische Bürger wollen mehr Datenschutz von Firmen und Behörden

Eine große Mehrheit der Amerikaner betrachtet die Informationen auf ihren Mobiltelefonen als mindestens so privat wie die Daten auf ihrem Rechner zu Hause. Das ist das Ergebnis einer repräsentativen Umfrage von Forschern der University of California, Berkeley. Diese Erwartung steht in krassen Widerspruch zu gängigen Praktiken von Firmen und Behörden.

Für die Erkenntnis, dass das Internet zunehmend auf mobilen Endgeräten genutzt wird, braucht es kein komisches Buzzword. Diese Entwicklung bringt ganz neue Auswirkungen und Gefahren für Datenschutz und Datensicherheit mit sich. Nicht nur kann das Gerät einfacher in fremde Hände fallen, es fallen auch neue Datentypen an, die auch einfacher mal eben unbemerkt ins Internet geschickt werden.

In ihrer Studie Mobile Phones and Privacy untersuchen jetzt Jennifer M. Urban, Chris Jay Hoofnagle und Su Li die Einstellung der Amerikaner zu privaten Daten auf Mobiltelefonen. In einer von Nokia bezahlten repräsentativen Umfrage führten sie über 1.200 Telefoninterviews zum Thema durch.

Smartphones weit verbreitet

Fast alle (91 %) der Befragten haben ein Mobiltelefon, die Hälfte sogar schon ein Smartphone. Diese werden zwar vorrangig für Telefonate, SMS und Fotos genutzt, aber auch für Web-Surfen, E-Mail, standortbezogene Dienste und soziale Netzwerke (in der Reihenfolge). Bei all diesen Anwendungen fallen private Daten an, die den Nutzern wichtig sind. Mehr als drei Viertel der Befragten sieht die Informationen auf ihren Mobiltelefonen als mindestens so privat wie die Daten auf ihren Heimcomputern, jeder fünfte sogar privater.

Die Bereitschaft, das eigene Mobiltelefon mit diesen Daten für ein paar Stunden ohne eigene Aufsicht auszuleihen, war dementsprechend begrenzt. Die überwältigende Mehrheit würde das Gerät weder Fremden, Arbeitskollegen noch Bekannten überlassen. Bei engen Freunden war die Bereitschaft aufgeteilter, engen Familienmitgliedern würden nur 16 Prozent das Mobiltelefon nicht geben.

Drei Viertel der Befragten gaben an, dass Polizisten einen Gerichtsbeschluss haben sollen, eh sie ein Mobiltelefon durchsuchen dürfen. 22 Prozent hielten das nicht für notwendig. 17 Prozent würden Polizisten sogar erlauben, ein mit Passwort geschütztes Telefon zu entsperren und zu benutzen, ohne dass ein Gericht das absegnet. Amerikanische Gerichte haben jüngst geurteilt, dass Polizisten weder für die Durchsuchung noch Benutzung von Mobiltelefonen Verdächtiger einen Gerichtsbeschluss benötigen.

Adressbuch und Ortsdaten sind privat

Abgefragt wurde auch, ob man Apps den Zugriff auf das eigene Adressbuch erlauben würde, zum Beispiel um in einem sozialen Netzwerk weitere Kontakte zu finden. 81 Prozent lehnten das definitiv (51 %) oder wahrscheinlich (30 %) ab, 14 Prozent waren “wahrscheinlich” und nur 4 % definitiv dafür. Für Apps, die Gutscheine an Freunde verteilen waren sogar 93 Prozent dagegen. Bleibt zu hoffen, dass die alle keine Apps von Facebook, Twitter, Instagram, Foursquare, Foodspotting, Yelp, Gowalla oder Path verwenden, die haben nämlich genau das getan.

Auch beim Thema Ortsdaten scheint eine gewisse Sensibilität zu existieren. Fast die Hälfte aller Befragten (46 %) gab an, dass Mobilfunkanbieter die eigenen Bewegungsdaten nicht speichern sollte, 28 Prozent sagten waren für eine Speicherfrist von unter einem Jahr. Das ähnelt dem Ergebnis einer neuen Umfrage in Deutschland, in der 65 Prozent aller Befragten die Vorratsdatenspeicherung grundsätzlich ablehnen und 23 % den Zeitraum begrenzen wollen.

Die Nutzung von Ortsdaten zum Erstellen von zielgenauer Werbung lehnen 92 Prozent der Umfrageteilnehmer ab. Auch das ist jedoch gängige Praxis.

Erwartung und Wirklichkeit

Die Studie zeigt, dass auch in den USA ein starkes Bewusstsein für die Sensibilität der eigenen Daten auf Mobiltelefonen vorhanden ist, auch bei der jungen und Internet-affinen Bevölkerung. Von wegen Post-Privacy. Diese Erwartungen werden jedoch sowohl von Wirtschaft als auch Staat verletzt.

[via]

flattr this!

Falsches Vertrauen: Warum Datenschutz-Einstellungen nicht zu mehr Datenschutz führen

Nutzer von Sozialen Netzwerken geben mehr und persönlichere Informationen über sich preis, wenn sie glauben, den Zugriff darauf kontrollieren zu können. Das ist das Ergebnis einer Studie von Psychologen der Carnegie Mellon University. Paradoxerweise kann das nach hinten los gehen – und sensible Daten öffentlich werden, die man privat geglaubt hat.

In der Psychologie gibt es das Phänomen der Risikokompensation: Weil sich Autofahrer durch Gurte und andere Maßnahmen sicherer fühlen, fahren sie risikoreicher als ohne. In ihrer Studie Misplaced Confidences: Privacy and the Control Paradox, die netzpolitik.org vorliegt, wenden die Psychologen Laura Brandimarte, Alessandro Acquisti und George Loewenstein diese Theorie auf den Umgang mit Privatsphäre im Internet an. Dabei beobachteten sie ein “Kontroll-Paradox”: Je mehr Kontrolle über Datenschutzeinstellungen man hat, desto mehr Details geben Leute von sich preis.

Sebastian Herrmann fasst die Experimente auf Süddeutsche.de zusammen:

Die Wissenschaftler ließen ihre Probanden Fragebögen ausfüllen, in denen sie teils sehr intime Fragen stellten. Angeblich sollten aus den persönlichen Informationen der Teilnehmer etwa Profile für ein neues soziales Netzwerk an der Universität erstellt werden. Hatten die Probanden wenigstens einen winzigen Einfluss darauf, wie mit den Daten umgegangen wurde, verrieten sie besonders viele Details. Verfügten sie scheinbar über keine Kontrolle, waren sie weniger auskunftsfreudig.

Kontrollverlust erhöhte das Misstrauen: In einem Experiment hieß es, nur die Hälfte der Fragebögen werden werde per Zufall zur Veröffentlichung ausgewählt. Objektiv reduzierte dies das Risiko, dass sensible Antworten aus den Fragebögen öffentlich wurden. In der Praxis ließ diese Situation manche Probanden aber verstummen: Sie gaben sehr viel weniger von sich preis als jene Gruppe, von der 100 Prozent der Daten öffentlich gemacht werden sollten – sie empfanden die Unsicherheit als Kontrollverlust.

Schutzmaßnahmen wie Datenschutz-Einstellungen können somit auch das Gegenteil bewirken. Je mehr Kontrolle man glaubt zu haben, desto sensiblere Daten gibt man preis. Diese können jedoch objektiv riskanter sein, in der Studie waren das: Diebstahl, Lügen und Drogenkonsum. Mehr Kontrolle führt also nicht automatisch zu mehr Datenschutz.

flattr this!

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl