Tumblelog by Soup.io
Newer posts are loading.
You are at the newest post.
Click here to check if anything new just came in.

August 27 2013

Finnland: lapsiporno.info kritisiert Blocklisten und steht nun selbst drauf

003Der höchste finnische Gerichtshof hatte am Montag das Urteil verkündet, dass es rechtmäßig sei, die Website lapsiporno.info (Kinderpornographie.info) des finnischen Software-Entwicklers und Internet Aktivisten Matti Nikki auf der nationalen Blockliste weiterhin eingetragen zu lassen. Finnland benutzt seit 2007 Blocklisten, die durch die Internet Service Provider mehr oder minder freiwillig implementiert werden müssen – technische Umsetzung ist dabei ähnlich der des deutschen ‘Zugangserschwerungsgesetzes‘. Nikki hatte angeprangert, dass die – durch die finnische Polizei verwaltete – Liste geheim sei. 2008 hatte er dann eine Liste von 1047 geblockten Websites veröffentlicht: 1% der Einträge waren explizit Kindesmissbrauchs-Dokumentation, bei 2-3% war es fraglich, 90% enthielten legale Pornographie oder waren Kinder-Modelseiten. Der Rest war völlig irrelevant oder tote Links.

Die Blocklisten wurden durch Bürgerrechtsorganisationen und auch durch Rechtswissenschaftler scharf kritisiert. So schreibt die Electronic Frontier Foundation Finland (EFFI), dass die Gesetzesänderung 2006 zur Einführung der Blocklisten gegen die finnische Verfassung verstoße – dies beruht auf Einschätzungen von Rechtswissenschaftlern der Universität Turku. Laut Aussage der finnischen Polizei wird eine Website geblockt, wenn sie Kindesmissbrauchs-Dokumentation selbst hosted, oder Links zu entsprechenden Seiten enthält. Somit landete Matti Nikkis Website etwa 2008 auch auf der Blacklist der Polizei, nachdem er die veröffentlichte Liste um klickbare Links erweitert hatte - dass Matti Nikki schon Jahre zuvor über die Gefahren von Zensur und der Gesetzesänderung geschrieben hatte und die Seite als Anlaufstelle zur Aufklärung der finnische Bevölkerung betrieb, interessierte dabei wenig.

Update 2008-02-06: According to the Finnish police, it’s enough to get on the censorship list if the page includes working links to child porn sites. Thus, I have enabled an option to view the list with clickable links. This means my page should now qualify for the criteria of censorship.

2011 wurde Matti Nikki vor dem Gericht in Helsinki Recht gegeben, dass es rechtswidrig sei, seine Seite zu blockieren – u.a. da das Gesetz ausschließlich ausländische Websites blockieren soll, da man gegen finnische Fälle von Kindesmissbrauchs-Dokumentation direkt vorgehen könne und solle. Wie erwähnt wurde diese Entscheidung nun durch den obersten Gerichtshof revidiert. Begründet wurde die Entscheidung damit, dass die Notwendigkeit zum Schutz der Kinder schwerer wiegt, als das Recht auf Meinungsfreiheit. So bestünde die Gefahr, dass Seiten mit Kindesmissbrauchs-Dokumentation fortan auch legale Inhalte hosten, um so das Gesetz zu umgehen.

Der Fall demonstriert auf eindringliche Weise, wie grundsätzlich falsch die Ideologie von Blocklisten ist. Wenn die Polizei wirklich der Überzeugung wäre, dass Matti Nikkis Seite ein Portal für Kindesmissbrauchs-Dokumentation darstelle (was sie gegenüber der Presse mehrmals gesagt haben), hätten sie ihn deswegen anklagen und verhaften können, da dies eine Straftat ist. Das wurde allerdings nicht gemacht – seine Seite wurde gesperrt, lange bevor ihn die Polizei überhaupt kontaktiert hatte. Weiterhin wurde offensichtlich ein Gesetz, das eigentlich ausländische Seiten blockieren sollte, so verbogen, dass nun auch Nikkis in Finnland gehostete Seite gesperrt werden konnte. Weiterhin hat Nikkis Dokumentation vor allem dazu geführt, dass man mitverfolgen konnte, wie lange Webseiten auf der Blacklist sind, ohne dass gegen die Verantwortlichen irgendetwas unternommen wurde.

Update 2008-02-17: I found one link from the list which absolutely certainly contained child porn, and removed it from display. The removed link was something I’ve reported to authorities almost a year ago myself, and for some reason the domain name is still active and the business is going on. The domain seems to be known by the Internet Watch Foundation as well, so I’m wondering how can it take the over a year to get a domain name shut down or has anyone even tried?

Es ist sehr schade, dass der höchste finnische Gerichtshof nur darauf fokussiert hat, dass in der durch Nikki veröffentlichten Liste evtl. noch Links zu Websites mit Kindesmissbrauchs-Dokumentation enthalten sein könnte. Der validen Kritik, den aufgezeigten Gefahren und dem offensichtlichen Missbrauch und Fahrlässigkeiten im Umgang mit der Blacklist, die Nikki auf seiner Website beschreibt, wurde allerdings keinerlei Bedeutung beigemessen.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

July 23 2013

DNA und Tagesdecken im Kampf gegen Kindesmissbrauchs-Dokumentation Online

Twitter ist nun also auch dabei. Wie das Unternehmen nun bekanntgegeben hat, wird es bald Microsofts PhotoDNA System benutzen, um Bilder in Tweets auf Kindermissbrauchs-Dokumentation zu untersuchen. Neben Twitter benutzen auch Facebook, die Dänische und die Neuseeländische Polizei und natürlich Microsofts Bing, Skydrive und Hotmail Dienste das System. Was wird da gemacht?

Hany Farid, Professor am Dartmouth College und Entwickler von PhotoDNA, startete 2008 die Entwicklung mit der Idee, dass man sich darauf konzentrieren sollte, bereits bekannte Bilder von Kindermissbrauchs-Dokumentation wiederzuerkennen.

“My idea was, don’t try to go after things you haven’t seen before — go after the things you have seen before,” Farid said. “Go after the images that you know are child porn, that you know are horrible, that you know who the victims are and that you know people keep trafficking.”

flowchart_webUm ein Bild wiederzuerkennen erstellt PhotoDNA einen ‘digitalen Fingerabdruck’ des Photos. Hierzu wird das Bild in ein 12×12 Raster aufgeteilt und in Graustufen umgerechnet. Dann wird für jede Zelle der Hash (Prüfsumme) errechnet. Durch dieses ‘Robust Hashing’ kann PhotoDNA auch Bilder wiederkennen, selbst wenn diese skaliert oder anderweitig bearbeitet wurden. Von jedem Bild was zu Twitter hochgeladen oder verlinkt wird, wird auch selbiger Hash erstellt und gegen eine Hash-Datenbank abgegleicht. Hat das hochgeladene Bild denselben Hash, wie eines aus der Datenbank ist die Wahrscheinlichkeit sehr hoch, dass es sich um Kindermissbrauchs-Dokumentation handelt. Nach eigenen Aussagen ist die Chance auf einen False Positive (das System sagt, es ist Kindermissbrauchs-Dokumentation, obwohl es gar keine ist) 1/Milliarde. Außerdem erkenne es ein Bild zu 98%, wenn es in der Datenbank ist. Microsoft hat PhotoDNA dann vor einigen Jahren dem National Center for Missing & Exploited Children (NCMEC) gespendet. Seitdem kooperieren rund 13 Unternehmen freiwillig mit NCMECs Datenbank um die Verbreitung von Kindermissbrauchs-Dokumentation zu verhindern.
Google hat ein ähnliches System, den ‘Bedspread Detector’ (Tagesdecken Aufspürer). Der Name spielt darauf an, dass eine NCMEC-Mitarbeiterin zwei Kindesmissbrauchs-Fälle auf denselben Täter zurückführen konnte, da auf verschiedensten Bildern immer dieselbe Tagesdecke zu sehen war. So ist Googles Ansatz auch, nach markanten Mustern und anderen Besonderheiten (Tattoos, Räumlichkeiten, etc.) zu suchen, um dasselbe Opfer oder denselben Täter in verschiedenen Bildern wiederzuerkennen.

Von der Idee her klingen beide Systeme zunächst sehr sinnvoll und unterstützenswert im Kampf gegen Kindesmissbrauchs-Dokumentation online. Vor allem, wenn man zum einen bedenkt, dass die ‘manuelle’ Analyse der Bilddaten schier unmöglich ist und emotional sehr strapaziös für die Beamten sein kann.

[NCMEC] found 17.3m images of abuse in 2011 – and since 2002 has reviewed more than 65m images and videos of child sexual exploitation reported by the authorities.

Und zum anderen, dass ‘Notice and Takedown’ – also das Benachrichtigen des Administrators oder Providers, dass auf einem bestimmten Server Bilder und Videos von Kindesmissbrauch liegt – alleine nicht mehr ausreicht, da nach kurzer Zeit die Inhalte einfach an einem neuen Standort hochgeladen werden.

A senior FBI agent described notice and take down as “wackamole”. A notice is issued, the hosting company removes the image then, sometimes within minutes, the same picture will pop up somewhere else. And so on ad infinitum.

Wenn man sich dazu vergegenwärtigt, dass NCMEC schon 2009 jede Woche 250.000 Bilder potentiellen Kindesmissbrauchs beurteilen musste, ist es verständlich, dass Ernie Allen (Präsident und CEO von NCMEC) diese graphischen Analyse-Systeme als wichtiges Mittel im Kampf gegen die Verbreitung von Kindermissbrauchs-Dokumentation sieht.

While there won’t be miraculous changes overnight, the bottom line is, because of these tools, we’re making headway.

Klingt gut, oder? Fast. Wodurch sich diese Systeme noch auszeichnen, ist die Tatsache, dass sie so wenig wie möglich über die internen Mechanismen preisgeben – aus Angst, dass Pädophile versuchen die Schwachstellen in den Algorithmen auszunutzen. So warnt European Digital Rights (EDRI) davor diese stark eingreifende Technik unkritische als ‘Best Practice’ zu übernehmen. Es gibt keine unabhängigen Analysen zur Effizienz dieser Systeme. Außerdem wurde bisher nicht untersucht, ob es nicht auch negative Auswirkungen geben könnte.

What happens when somebody tries to do this? [kinderpornographische Bilder hochladen] Nobody knows. What happens if a criminal tries to upload innocent parts of images as a way of filtering his/her own collection of illegal images to identify images unknown to the police? We don’t know. How big is the risk that this could lead to incentives to creating new illegal images and new abuse? We don’t know.

Diese Bedenken sind mehr als berechtigt, bei einem System bzw. einer Technik, die bei immer mehr Diensten und Ländern zum Einsatz kommt. Es ist verständlich, dass für die schiere Masse an Bilddaten heutzutage automatisierte Systeme zum Einsatz kommen müssen. Außerdem scheint der Ansatz, nach bekannten Bildern von Kindesmissbrauch zu suchen, sinnvoll, da so – im besten Falle – aktuelle Fälle schneller erkannt werden. Gleichzeitig muss man kritisch bleiben und Nachfragen dürfen nicht unterbunden werden, nur weil es “um unsere Kinder geht”. Bei Filtersystemen besteht immer die Gefahr, dass – einmal etabliert – der Fokus ausgeweitet wird und nicht mehr nur Kindermissbrauchs-Dokumentation blockiert wird. Gerade deswegen sollte es eine neutrale Instanz geben, die diese Systeme evaluiert, denn bisher handelt es sich lediglich um ‘Best Practice’ von Microsoft, Google und Co. Außerdem muss unterschieden werden, ob so ein System bei einem Dienst, wie Twitter oder Facebook eingesetzt wird, oder gar auf ISP-Ebene, wo es wesentlich eingreifender wäre.

Microsofts PhotoDNA und Googles Bedspread Detector sind gute und sinnvolle Systeme, die ein wichtiges Problem versuchen zu lösen. Nun sollte es aber auch darum gehen, diese Systeme nicht ‘im Dunkeln’ einzusetzen, sondern Effizienz, mögliche nachteilige Auswirkungen und sinnvolle Implementationen kritisch zu hinterfragen. Und wie EDRI verdeutlicht, sind uns NCMEC, Microsoft und Google vielleicht noch ein paar Antworten schuldig – es geht schließlich um unsere Kinder.

Wir wollen netzpolitik.org weiter ausbauen. Dafür brauchen wir finanzielle Unterstützung. Investiere in digitale Bürgerrechte.

flattr this!

Older posts are this way If this message doesn't go away, click anywhere on the page to continue loading posts.
Could not load more posts
Maybe Soup is currently being updated? I'll try again automatically in a few seconds...
Just a second, loading more posts...
You've reached the end.

Don't be the product, buy the product!

Schweinderl