»Ein nie dagewesenes Überwachungswerkzeug«
Die EU will Messenger und E-Mail-Anbieter verpflichten, private Chats nach Missbrauchsbildern zu durchsuchen
Von Marie Bröckling
Die Kontrolle von digitaler Kommunikation ist nichts prinzipiell Neues: Die Online-Dienste Gmail, Skype, Twitter und Facebook durchsuchen bereits standardmäßig Nachrichten auf ihren Plattformen nach Kindesmissbrauchsbildern – allerdings freiwillig und ohne dabei Verschlüsselung zu umgehen. Am 11. Mai hat die EU-Kommission nun einen Entwurf für eine Verordnung vorgelegt, die alle Online-Dienste verpflichten würde, nach Bildern von Gewalt gegen Kinder zu suchen, auch Anbieter von verschlüsselter Kommunikation. »Sexueller Missbrauch von Kindern ist eine reelle und eine wachsende Gefahr – es werden nicht nur immer mehr Fälle gemeldet, sondern die Betroffenen werden auch immer jünger«, sagte Ylva Johansson, die EU-Kommissarin für Inneres, zur Begründung.
Wie viele Bilder von Kindesmissbrauch über Messenger verschickt werden, ist nicht bekannt. Die Unternehmen, die bereits freiwillig ihre Dienste durchsuchen, haben im vergangenen Jahr 85 Millionen Bilder und Videos von entsprechendem Material weltweit gemeldet. Die EU-Kommission geht von einer hohen Dunkelziffer aus. Der aktuelle Entwurf sieht vor, dass Messenger, E-Mail-Anbieter und Videokonferenzplattformen, bei denen ein »erhebliches Risiko« vorliegt, dass dort Kindermissbrauchsbilder verbreitet werden, Fotos und Videos in Zukunft durchsuchen müssen. Welche Technologie die Anbieter zum Aufspüren der Bilder einsetzen, ist nicht vorgeschrieben.
Automatischer Abgleich mit Datenbanken
Derzeit kommen in den Unternehmen, die bereits solches Material aufspüren, zwei Verfahren zum Einsatz: Schon bekannte Missbrauchsdarstellungen werden in große Datenbanken eingespeist und mit einem digitalen Fingerabdruck versehen. Wenn eine Person etwa über Skype, Facebook oder Twitter ein Foto verschicken will, wird es automatisch auf den Servern des Anbieters mit diesen Datenbanken verglichen. In der Regel bemerken die Nutzer*innen den Vorgang nicht. Nur wenn es einen Treffer gibt, wird das Verschicken des Fotos unterbunden und die Polizei benachrichtigt. Darüber hinaus setzen die Konzerne Google und Microsoft Software ein, die Gewaltdarstellungen erkennen kann, die noch nicht gemeldet worden ist. Dabei werden Bilder nach bestimmten Mustern durchsucht, die auf Kindesmissbrauch hindeuten.
Auf verschlüsselte Kommunikation lassen sich diese Verfahren nicht so einfach übertragen, da die Anbieter in diesem Fall keinen Zugriff auf die Nachrichteninhalte haben. Als am wahrscheinlichsten gilt derzeit, dass die Unternehmen dann einen Umweg gehen müssten, bei dem jedes Foto vor dem Verschicken auf dem Smartphone der Nutzer*innen auf Kindesmissbrauchsdarstellungen geprüft wird, sogenanntes Client-Side-Scanning. Die Verschlüsselung würde damit zwar nicht gebrochen, aber die Vertraulichkeit der digitalen Kommunikation wäre dennoch gestört.
Kritiker*innen warnen, dass die Technologie zur automatischen Prüfung von Bildern, wenn sie erst einmal im Einsatz ist, schnell für andere Zwecke genutzt werden könnte. Software, die Kindesmissbrauch erkennt, könnte etwa auch Fälle von Tierquälerei – oder politische Symbole – aufspüren.
Nutzbar auch für andere Zwecke
Wenn jede Nachricht, egal ob verschlüsselt oder unverschlüsselt, gefiltert wird, ist das letztlich gefährlich für Menschen, die auf den besonderen Schutz der vertraulichen Kommunikation angewiesen sind. »Es gibt keine Hintertüren, die nur für das legitime Ziel des Kinderschutzes genutzt werden können«, erklärt Felix Reda von der Gesellschaft für Freiheitsrechte in einer Stellungnahme. »Journalist*innen, Anwält*innen, Whistleblower*innen und alle anderen, die auf vertrauliche Kommunikation angewiesen sind, werden durch die Chatkontrolle erheblichen Risiken ausgesetzt, die grundrechtlich nicht zu rechtfertigen sind.«
Wenn jede Nachricht, egal ob verschlüsselt oder unverschlüsselt, gefiltert wird, ist das letztlich gefährlich für Menschen, die auf den besonderen Schutz der vertraulichen Kommunikation angewiesen sind.
Patrick Breyer, EU-Abgeordneter der Piraten und einer der prominentesten Kritiker der Chatkontrolle, warnt dazu vor mangelnder Transparenz, wenn das Aufspüren von Kindesmissbrauchsbildern an private Unternehmen abgegeben wird. Ähnlich wie beim Netzwerkdurchsetzungsgesetz zur Verfolgung von Hate Speech liegt es dann in den Händen der großen Online-Dienste zu entscheiden, was als verdächtig gilt.
Ob die Chatkontrolle in ihrer derzeitigen Form tatsächlich in Kraft tritt, ist angesichts breiter Kritik auch aus Regierungskreisen momentan zweifelhaft. »Jede private Nachricht anlasslos zu kontrollieren, halte ich nicht für vereinbar mit unseren Freiheitsrechten«, schrieb die SPD-Bundesinnenministerin Nancy Faeser auf Twitter. Die Vertraulichkeit der verschlüsselten Kommunikation habe einen hohen Stellenwert. Selbst Bayerns Innenminister Joachim Herrmann (CSU), der zuletzt die Verschärfung des Polizeirechts in Deutschland maßgeblich vorangetrieben hatte, kritisierte den Vorschlag der EU-Kommission als zu weitreichend.
In Deutschland sind in den letzten Jahren vielerorts neue Polizeigesetze verabschiedet worden, die Online-Dienste – dazu zählen auch Dating-Apps und Gaming-Portale – verpflichten, die bei ihnen gespeicherten Informationen über ihre Nutzer*innen unter bestimmten Bedingungen und auf Anfrage an die Polizei auszuhändigen. Der Entwurf zur Chatkontrolle geht allerdings noch darüber hinaus, indem bestimmte Online-Dienste verpflichtet werden, proaktiv Nachrichteninhalte zu durchsuchen und bei Verdacht auf Strafbarkeit an die Polizei zu melden. Statt im konkreten Verdachtsfall zu ermitteln, würde dann standardmäßig alles durchsucht.
»Zweifellos muss den Betroffenen von Kindesmissbrauch besser geholfen werden, die Chatkontrolle ist allerdings ein überbordender Ansatz, leicht zu umgehen und setzt an der völlig falschen Stelle an«, heißt es in einer Mitteilung des Chaos Computer Club. Das Projekt sei als »fundamental fehlgeleitete Technologie« grundsätzlich abzulehnen. Die Hacker*innenvereinigung warnt: »Ohne erwartbaren Erfolg im Sinne des eigentlichen Ziels soll ein nie dagewesenes Überwachungswerkzeug eingeführt werden.«