Den folgenden Gastbeitrag habe ich zusammen mit der stv. LOAD Vorsitzenden Teresa Widlok für die Welt am Sonntag verfasst. Dort erschien er am 29. Mai 2022, bzw. in der Frühausgabe vom 28. Mai 2022.
Tempolimit, Veggie-Day, Genderstern – an vielen Stellen sehen wir Deutsche unsere Freiheit, um die wir so leidenschaftlich ringen, bedroht. Allzu oft endet das in leichtliberalen Schlagwortdebatten. Doch an einer Stelle, an der unsere Freiheitsrechte so massiv bedroht sind wie selten zuvor, ist es auffallend still: Mit der sogenannten Chatkontrolle hat die Europäische Kommission einen Gesetzentwurf vorgelegt, der unsere Kommunikationsfreiheit, unser digitales Briefgeheimnis und unsere Privatsphäre im Kern erschüttern wird.
Sollte der Entwurf verabschiedet werden, dürfte die EU-Kommission Kommunikation im Internet umfassend kontrollieren: Sämtliche Nachrichten und andere Inhalte könnten überwacht werden. Dadurch möchte die EU-Kommission Missbrauchsdarstellungen von Kindern und Jugendlichen finden. Mit der Intention, Kindesmissbrauch zu verhindern, schafft die EU-Kommission damit aber den krassesten Fall anlassloser Massenüberwachung, den wir seit der NSA-Affäre erleben.
Nur sind es dieses Mal nicht fremde Geheimdienste, die uns bespitzeln, es ist die Europäische Union. Und selbst Kinderschutzorganisationen bezeichnen den Vorschlag zur Chatkontrolle wegen der flächendeckenden Scans privater Kommunikation als unverhältnismäßig.
Von Massenüberwachung ist im Kommissionsentwurf wortwörtlich natürlich nicht die Rede. Die „Verordnung zur Prävention und Bekämpfung der Verbreitung von Kindesmissbrauchsdarstellung“ spricht stattdessen lieber von Möglichkeiten, bestimmte Inhalte in digitalen Diensten zu erkennen und zu entfernen.
Dabei geht es nicht nur um Chats, die auf Messengern oder über Direktnachrichten geführt werden – verschlüsselt oder unverschlüsselt. Sondern auch um E-Mails, Chatnachrichten in Online-Games oder Inhalte in App Stores und bei Hosting-Anbietern jeglicher Art, wie zum Beispiel Inhalte in der Cloud.
All diese Anbieter sollen auf Anordnung automatisch bereits bekannte oder neue Darstellungen von Kindesmissbrauch durch das konstante Scannen von Nachrichten entdecken. Auch Text soll durchleuchtet und ausgewertet werden, um Grooming zu erkennen – die Kontaktaufnahme von Erwachsenen mit Minderjährigen, um sexuellen Missbrauch anzubahnen.
Fehlerquote von zwölf Prozent
Es ist allerdings völlig unklar, wie das technisch und im Detail funktionieren soll. Wie kann man bei Bildern unterscheiden, ob es sich um Strandfotos eines Kindes handelt, die aus dem Sommerurlaub in die Familien-WhatsApp-Gruppe gepostet werden – oder um Kinderpornografie? Zwischen Urlaubsfotos, auf denen Kinder nackt am Strand rumlaufen, und Kinderpornografie ist oft ein schmaler Grat. Oder wie bei Textnachrichten, ob es sich um einvernehmliches Sexting zwischen zwei 16-Jährigen handelt – oder um Grooming? Diese fundamentalen Fragen sind ungelöst.
Ohne eine weitreichende Identifizierungspflicht aller Kommunikationsteilnehmer und genaues Wissen um den Kontext, in dem ein Bild verschickt wird, liegt auch der beste Filter oder Scanner in zu vielen Fällen daneben. Der von der EU-Kommission selbst zitierte Industriestandard geht bei der Texterkennung von einer Fehlerquote von zwölf Prozent aus. Bei Milliarden von täglich versendeten Nachrichten summiert sich das schnell.
Debatten im Spannungsfeld zwischen Freiheit und Sicherheit finden selten auf einer objektiven Basis statt. Die Frage, ob wir mehr Freiheit oder mehr Sicherheit gewährleisten wollen oder können, lässt sich nie vollständig zufriedenstellend für beide Seiten lösen. Doch die Fraktion der Sicherheitslogik hat es mit diesem Gesetzentwurf übertrieben.
Zwar wird von allen Seiten beteuert, dass verschlüsselte Kommunikation weiterhin verschlüsselt bleiben darf. Private Kommunikation ist aber immer privat, egal ob verschlüsselt oder nicht. Digitale Bürgerrechte sind keine Bürgerrechte zweiter Klasse – auch nicht das digitale Briefgeheimnis. Der Staat dampft schließlich auch keine Briefe auf oder hört massenhaft Telefongespräche ab.
Netzaktivisten wird vorgehalten, es gehe ihnen lediglich um die Privatsphäre und nicht um den Schutz von Kindern. Das ist unfair. Auch, weil die drei üblichen sicherheitspolitischen Narrative für beide Seiten gelten können. Das erste Narrativ: Das Internet ist kein rechtsfreier Raum. Das bedeutet, dass natürlich das Strafrecht gilt, aber ebenso Freiheitsrechte. Das Zweite: Was im Analogen gilt, muss auch im Digitalen gelten. Das Briefgeheimnis gilt also sowohl auf dem Postweg als auch im Internet.
Das Dritte: Sicherheitsbehörden müssen auf Augenhöhe mit Kriminellen agieren können. Anstatt also Ressourcen damit zu verschwenden, falschen Verdachtsmeldungen nachzujagen und bewegungsunfähig im Datenmüll zu ertrinken, sollten Sicherheitsbehörden präzise und effiziente digitale Hilfsmittel zur Verfügung stehen.
Die Meldungen der vergangenen Wochen, dass immer mehr Missbrauchsdarstellungen im europäischen Teil des Internets gefunden werden, lassen niemanden kalt. Netzaktivisten fordern daher schon seit Jahren, als solche erkannte Missbrauchsdarstellungen zu löschen, anstatt sie zu sperren und Webseiten lediglich mit einem Stoppschild zu versehen. Die Verbreitung von einmal im Netz befindlichen Bildern kann nur durch Löschen aufgehalten werden.
Es geht auch ohne neue Befugnisse
Bei aller Faszination für Technologie und der Hoffnung, dass diese gesellschaftliche Probleme löst, darf die klassische Ermittlungsarbeit nicht vergessen werden. Prominent ist etwa der Fall, den die spezielle Polizeiermittlungsgruppe „Berg“ seit Oktober 2019 in einem weitverzweigten Missbrauchskomplex ermittelt hat. Im Haus eines Mannes aus Bergisch Gladbach waren damals Unmengen kinderpornografischer Daten gefunden worden. Durch ihn stießen die Ermittler auf weitere Täter, die im Netz Videos und Abbildungen schweren sexuellen Kindesmissbrauchs austauschten.
Diese Erfolge zeigen, wie handlungsfähig Ermittlungsbehörden auch ohne neue Befugnisse und Meldepflichten sind. Hierfür muss Technologie flächendeckend eingesetzt werden, um etwa bei der psychisch äußerst anspruchsvollen Ermittlungsarbeit zu unterstützen und zu entlasten. Denkbar sind etwa KI-gestützte Tools zur Auswertung von Bildmaterial oder der Erkennung von Netzwerken.
Zu all dem schweigt der Kommissionsentwurf. Stattdessen stellt er private Kommunikation umfassend infrage – und um diesen Kern sollte unsere Freiheitsdebatte kreisen. Denn unsere Freiheitsrechte sind wirklich in Gefahr.
Ann Cathrin Riedel ist Vorsitzende und Teresa Widlok stellvertretende Vorsitzende von LOAD e.V. – Verein für liberale Netzpolitik.