Sachverständige im Deutschen Bundestag: Digitale Gewalt gegen Frauen und Mädchen Sachverständige im Deutschen Bundestag: Digitale Gewalt gegen Frauen und Mädchen
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Blog
  • Newsletter
  • Presse
  • Kontakt
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Blog
  • Newsletter
  • Presse
  • Kontakt

Digitalpolitik

Category: Digitalpolitik

Sachverständige im Deutschen Bundestag: Digitale Gewalt gegen Frauen und Mädchen

Im Rahmen meiner Tätigkeit als Vorsitzende von LOAD e.V. – Verein für liberale Netzpolitik wurde ich als Sachverständige in den Ausschuss Digitale Agenda des Deutschen Bundestags geladen. Thema der öffentlichen Anhörung am 24. März 2021 war das wichtige Thema „Digitale Gewalt gegen Frauen und Mädchen“.

Die Anhörung kann auf den Webseiten des Bundestags komplett angesehen werden. Dort befindet sich auch ein Nachbericht sowie die Stellungnahmen der anderen geladenen Sachverständigen.

Meine Stellungnahme ist auch hier downloadbar (PDF).

Read More
Gender Data Gap – die unsichtbaren Frauen

Wir leben in einer datengetriebenen Welt. Durch mehr Daten lassen sich deutlich bessere Entscheidungen treffen — politische, ökonomische, persönliche. Dafür müssen Daten nicht einmal einen Personenbezug haben. Und doch ist es wichtig, dass wir wissen, ob die Daten von Männern oder Frauen erhoben wurden.

Wie viel Eigentum besitzen Frauen? Wie viel Einkommen erzielten Frauen in Entwicklungsländern? Wir wissen wenig bis gar nichts über diese Situation von Frauen. Was bedeutet, dass wir ihre ökonomische und gesellschaftliche Partizipation und hoffentlich auch ihre gleichberechtigte Teilhabe an der Gesellschaft nur schwer messen können. Der Fokus an Daten von Frauen in Entwicklungs- und Schwellenländern liegt vor allem auf ihrer reproduktiven Gesundheit. Also dem Aspekt des Lebens einer Frau, auf den man sie noch immer regelmäßig reduziert: Ihre Rolle als Ehefrau und Mutter.

Der sogenannte Gender Data Gap trifft nicht nur Frauen in Schwellen- und Entwicklungsländern. Er hat Einfluss auf das Leben jeder Frau weltweit. Es sterben mehr Männer als Frauen in Verkehrsunfällen. Das ist häufig auf deren risikoreichere Fahrweise zurückzuführen und darauf, dass mehr Männer ein Fahrzeug führen als Frauen. Und doch: Frauen sterben um 17 Prozent häufiger als Männer und sind sogar 47 Prozent häufiger verletzt. Warum? Im Design von Autos, ihrer Entwicklung und bei Crash-Tests werden die Körper von Männern als Standard genommen. Frauenkörper sind davon Ausreißer. Bis zum Jahr 2003 wurden Crashtest-Dummys, die den Körpern von (nicht-schwangeren!) Frauen gleichen, gar nicht verwendet.

Das Problem fehlender Daten tritt auch im medizinischen Bereich auf und kann ebenfalls hier lebensbedrohliche Folgen haben. Herzerkrankungen gehören in der westlichen Welt zu den häufigsten Todesursachen für Männer und Frauen. Doch die Überlebenschance von Frauen ist deutlich geringer als die von Männern. Auch hier liegt das Problem in fehlenden Daten: klinische Studien zu Herzerkrankungen wurden in der Medizingeschichte häufig lediglich an Männern und von männlichen Ärzten vorgenommen. Die Symptome von Männern wurden als „typisch” erachtet, die von Frauen als „atypisch”. Daraus folgt, dass Frauen 50 Prozent häufiger falsch diagnostiziert werden und die Wahrscheinlichkeit, dass sie die Medikation oder Behandlung bekommen, die für sie notwendig ist, ist ebenfalls weniger wahrscheinlich.

Zudem wird in der medizinischen Forschung der weibliche Zyklus zu wenig bis gar nicht mitbedacht. Ebenso wenig dessen Auswirkungen auf eine Medikation. Dabei reagieren weibliche Körper gerade unter dem wechselnden Einfluss von Hormonen innerhalb des Zyklus unterschiedlich gut oder schlecht auf Medikamente. Der weibliche Körper und sein Zyklus sind eigentlich auch ein Business-Case. Apple brachte beispielsweise seine umfassende “Health App” heraus, ohne daran zu denken, dass für die Hälfte der Nutzenden und damit der Kundinnen das monatliche Tracking der Periode zum Erfassen der persönlichen Gesundheitsdaten gehört. Man muss dem Konzern nicht mal unterstellen, dass er Perioden — wie es noch zu häufig der Fall ist — als Tabuthema betrachtet. Man kann eher davon ausgehen, dass Apple und seine Entwickler schlicht vergessen haben, dass Perioden existieren und jede Frau ihre Periode in Kalendern erfasst. Das Problem: Der männliche Körper wird als Norm betrachtet.

Frauen machen die Hälfte von Gesellschaften aus. Und doch meinen wir, so die Autorin des Buches “Unsichtbare Frauen”, Caroline Criado Perez, durch die Prägung eines alltäglichen Bias, neun von zehnmal nicht Mensch, wenn wir von Menschen sprechen, sondern Männer. Gerade weil sich unsere Welt immer weiter digitalisiert und datafiziert, und weil es unser Anspruch sein muss für eine geschlechtergerechte Welt einzutreten, müssen wir dafür sorgen, dass die Daten, die wir nutzen, das Geschlecht bedenken. Die Probleme sind noch viel weitreichender und verblüffender, als man gemeinhin annimmt. Criado Perez erläutert dies in ihrem Buch auf imposante Weise. Daher ist es wichtig, dass sich die Wissenschaft stärker mit dem Phänomen des Gender Data Gap beschäftigt. Das Gap offenbart auch nochmal, wie wichtig diverse Teams in allen Organisationen sind — vom Unternehmen bis hin zur Behörde. Denn nur so können unterschiedliche Lebensrealitäten und Erfahrungen mitbedacht werden und Einfluss auf die Erhebung und Auswertung von Daten haben. Fehlende Daten von Frauen führen zu fehlenden (Lebens-)chancen.

Dieser Beitrag erschien zuerst auf freiheit.org.

Read More
Datenschutz: Den ritualisierten Debatten entkommen

In Deutschland zeigt sich eine immer größere Ambivalenz: “Die Deutschen”, das sind die, die den Datenschutz immer so hoch und gerne über alles stellen, sagt man. Genauso sind “die Deutschen” diejenigen, die spätestens seit Beginn der Corona-Pandemie genauso davon überzeugt sind, dass der Datenschutz deutlich abgeschwächt werden müsse, damit man die Pandemie effektiv bekämpfen könne.  Und so führen wir sie wieder, die ritualisierten Debatten, bei denen meist nicht mehr gesagt wird, als dass Datenschutz wichtig ist, oder dass er der Faktor ist, der für unseren digitalen Rückstand verantwortlich ist. Wir drehen uns im Kreis und ich möchte behaupten, es ist nicht der Datenschutz, der uns aufhält, sondern diese ritualisierten Debatten.

Vor genau 40 Jahren wurde die Europäische Datenschutzkonvention verabschiedet. Seit 2018 ist die Europäische Datenschutzgrundverordnung (DSGVO) in der gesamten Europäischen Union anzuwenden. Der heutige Europäische Datenschutztag soll die Europäerinnen und Europäer für den Datenschutz sensibilisieren. Das ist gut und wichtig, denn wir müssen dringend zu dem Punkt kommen, in dem wir alle aufgeklärt über Daten reden können, um diesem Hamsterrad entfliehen zu können. Schließlich müssen wir weiterdenken: wie wollen und können wir Daten nutzen, wie wollen und können wir sie für das Gemeinwohl und Geschäftsmodelle einsetzen und wie können wir eine liberale Datenpolitik zu einem weiteren Exportschlager machen. Die DSGVO ­ manch einer mag es kaum glauben – ist es nämlich schon. Dazu braucht es erstmal nur drei kleine Schritte.

Der erste Schritt, um den ritualisierten Debatten zu entkommen, besteht darin, sich darüber klar zu werden, dass der Datenschutz nicht wirklich Daten schützt. Er schützt vieles – und ja, das ist je nach Betrachtungsweise unterschiedlich und nicht immer eindeutig. Er schützt die Privatsphäre, und damit auch Persönlichkeitsrechte. Der Datenschutz umfasst das Grundrecht auf informationelle Selbstbestimmung. Die DSGVO regelt auch die Datensicherheit – es ist nicht „einfach“. Und doch ist eine Sache recht klar: Der Datenschutz schützt personenbezogene Daten. Er bezieht sich nicht auf Geodaten, Wetterdaten, Verkehrsdaten oder sonstige Maschinendaten. Der erste Schritt ist also: Benennen wir die Daten, die wir meinen. Vielleicht erübrigt sich die Diskussion über den Datenschutz ja direkt.

Schritt zwei und drei sind dann die Folgenden: Sich zu überlegen – und bestenfalls zu benennen! – woher die Daten kommen, welche wir wirklich brauchen und wie sie generiert werden sollen. Und dann, wie sie verarbeitet werden können und wer dies tun kann. Die Frage stellt sich übrigens auch für nicht-personenbezogene Daten. Schließlich liegt es manchmal auch einfach am nicht-Vorhandensein von Geräten, die Daten generieren, oder an Geschäftsideen, um mit den Daten etwas anzufangen. Einen antizipierten Mangel am digitalen Fortschritt am Datenschutz festzumachen, greift viel zu kurz.

In Deutschland – übrigens auch gerade während der Pandemie – stellt sich viel zu häufig die Frage, warum wir Daten gar nicht erst generieren, beziehungsweise so zur Verfügung stellen, dass wir sie auch vielfältig nutzen können. Wir wissen kaum etwas über das Infektionsgeschehen. Nicht wegen des Datenschutzes, sondern weil wir die Daten nicht von Beginn an erfassten. Wir wissen auch so generell viel zu wenig über Bedarfe in unserer Stadt oder der Verwaltung, weil wir zu wenig Daten so aufbereiten, dass wir sie in Dashboards darstellen können und Prognosen zum Beispiel über benötigte Kita- oder Schulplätze für in drei oder sechs Jahren ablesen können. Weil wir zu wenige Daten erfassen, die wenigen in Silos lassen und auch zu wenige austauschen, zum Beispiel zwischen Universitäten – und das auch innerhalb der Europäischen Union -, haben wir erst viel später Erkenntnisse, vielleicht sogar gar keine, und somit viel weniger Möglichkeiten, innovative Geschäftsmodelle aufzubauen, künstliche Intelligenz zu trainieren und zu skalieren. All das geht bei offenen Daten, oder nicht-personenbezogenen Daten ganz ohne den Datenschutz und auch die DSGVO und Innovation sind wunderbar miteinander in Einklang zu bringen, wenn man denn will.

Wir Europäerinnen und Europäer müssen das noch stärker wollen. Datenschutz hat bei uns eine lange Tradition, weil uns Bürger- und Menschenrechte wichtig sind. Weil uns bewusst ist, dass eine freiheitliche Gesellschaft nur auf einem Fundament prosperieren kann, das die Rechte eines jeden Einzelnen schützt. Es ist nicht der Datenschutz, der uns im Weg steht, sondern wir selber. Wir haben Schatztruhen voller Daten – öffnen wir sie! Insbesondere in der Verwaltung und im Mittelstand. Wir haben die klügsten Köpfe – nutzen wir sie! Für innovative, datenschutzfreundliche digitale Produkte. Wir vergessen zu häufig, dass unsere Datenschutzgrundverordnung ein Exportschlager ist. Argentinien, Brasilien, Chile, Japan, Kenia, Südkorea oder Kalifornien sind Staaten, die sich an der DSGVO orientiert haben. Wir Europäerinnen und Europäer können und müssen stolz sein, den politischen Mut zu haben, den weltpolitischen Dynamiken zu trotzen und unseren Bürgerinnen und Bürgern in einer digitalisierten Welt ihre Freiheit und ihre Selbstbestimmung zu garantieren.  Gleichzeitig müssen wir die nächsten Schritte gehen ­ übrigens auch in anderen digitalpolitischen Feldern. Unser erster, nächster Schritt muss zu produktiveren Debatten über Daten und ihren möglichen Einsatz in der Öffentlichkeit führen.

Dieser Beitrag wurde zuerst auf freiheit.org veröffentlicht.

Bild von Pete Linforth auf Pixabay

Read More
Digitale Transformation: Deutschland und Europa müssen globale Standards setzen

Wer es nicht schon längst wusste, dem ist hoffentlich im Pandemiejahr 2020 bewusst geworden, wie wichtig die digitale Transformation ist. 2021 muss endlich das Jahr sein, in dem wir nicht nur mit großen Schritten bei der Digitalisierung vorankommen, sondern auch Grundlagen für ein Deutschland und Europa legen, das Bürger- und Menschenrechte im Digitalen schützt und globale digitale Standards setzt. Und damit auch ein „level playing field“ für fairen Wettbewerb schafft. Im Jahr 2021 werden aus liberaler Sicht folgende Themen wichtig.

Regeln für Tech-Konzerne

Mit dem Digital Services Act und dem Digital Markets Act will die Europäische Kommission ein neues Grundgesetz für den digitalen Raum festlegen. Dabei soll es nicht nur um Spielregeln für Plattformen und die Inhalte auf diesen gehen. Auch das Wettbewerbs- und Kartellrecht soll angepasst werden, um der Marktmacht einiger Internetplattformen Herr zu werden. Die Diskussionen um die Rolle von Social-Media-Plattformen bei der Erstürmung des Kapitols in Washington werden den Druck auf eine Umsetzung des Digital Services Acts erhöhen, auch wenn dieser dieses Jahr voraussichtlich noch nicht verabschiedet wird. Es ist notwendig, dass Plattformbetreiber und der Gesetzgeber sich damit beschäftigen, was diese in Bezug auf das Löschen und Sperren von Funktionsträger:innen dürfen oder müssen. Zudem wurde abermals – und vor allem in der westlichen Welt – deutlich, welche analogen Auswirkungen Hass und Hetze, Desinformation und Verschwörungserzählungen, die im Netz verbreitet werden, haben können. Bislang ist keine vehemente Kritik am Vorschlag des Digital Services Acts zu vernehmen. Vielmehr sehen sowohl Akteure der Zivilgesellschaft als auch Unternehmen den ersten Vorschlag als gute Grundlage. Mit der Verabschiedung der Richtlinie ist zwar nicht in diesem Jahr zu rechnen, wichtige Weichenstellungen im Hinblick auf die Inhalte werden aber 2021 erfolgen.

Der Digital Markets Act greift hingegen stärker die aktuellen Geschäftsmodelle der Tech-Konzerne an, die als “Gatekeeper” gelten. So sollen bestimmte Praktiken verboten werden und Daten nicht mehr exklusiv von diesen Anbietern genutzt werden können. Zudem sollen bestimmte Praktiken, die als “unfair” definiert werden, stärker überwacht werden sowie digitale Dienste, wie zum Beispiel Messenger, zur Interoperabilität verpflichtet werden.

Abseits vom Digital Services und Digital Markets Act wird auch das Thema Steuern für Tech-Konzerne weiter diskutiert werden. Dies wird bereits auf OECD-Ebene diskutiert. Hier geht es darum, ein Steuermodell zu finden, bei dem die Körperschaftssteuer künftig nicht mehr nur am Firmensitz oder an Orten mit Betriebsstätte gezahlt wird, sondern zum Teil auch dort, wo Menschen die Produkte kaufen, also in den Marktstaaten. Dabei geht es insbesondere um die Besteuerung von allen multinationalen Konzernen, die mit immateriellen Wirtschaftsgütern Gewinne erzielen. Aus liberaler Sicht ist eine Doppelbesteuerung durch eine Digitalsteuer, die eine Art zweite Umsatzsteuer fungiert, abzulehnen. Ergebnisse zu diesem Thema sollen Mitte des Jahres vorgelegt werden.

Uploadfilter gegen Terror und beim Urheberrecht

Parallel zum Digital Services Act wird die neue Verordnung gegen terroristischen Online-Content (TERREG) verhandelt, die auf deutliche Kritik bei Digitalexpert:innen und Bürgerrechtler:innen stößt. Durch die Verordnung werden sogenannte Uploadfilter, also automatisierte algorithmische Systeme, überprüfen, ob ein Inhalt, der auf eine Plattform hochgeladen werden soll, zu beanstanden ist oder nicht. Die Vorgabe für große Plattformen, innerhalb einer Stunde terroristische Inhalte zu löschen, wird diese de facto dazu zwingen, diese Technologie einzusetzen. Zusätzlich zu der Problematik, dass solche automatisierten Systeme technisch nicht in der Lage sind, Inhalte präzise zu erkennen und einzuordnen, kommt im Falle der TERREG noch hinzu, dass es in der Europäischen Union keine einheitlichen Definitionen für Terror bzw. terroristische Organisationen gibt. Die Problematik wird in Ländern wie Ungarn deutlich, das Umweltaktivist:innen als “Öko-Terrorist:innen” verunglimpft und so die Verordnung dazu missbrauchen könnte, unliebsame Inhalte aus dem Netz verschwinden zu lassen. Ebenfalls werden uns die Uploadfilter aus der EU-Urheberrechtsreform weiter beschäftigen, die bis zum Sommer in nationales Recht umgesetzt werden müssen und in Deutschland zu heftigen Diskussionen zwischen Kreativen und Bürgerrechtler:innen, den einzelnen Ministerien, aber auch in den Regierungsparteien führt. Eine Klage Polens ist vor dem Europäischen Gerichtshof anhängig. Dort soll entschieden werden, ob Artikel 17 der EU-Urheberrechtsreform, der dazu führt, dass Webseitenbetreiber Upload-Filter einsetzen müssten, eine illegale „allgemeine Überwachungspflicht“ darstellt. Eine erste Stellungnahme der Generalstaatsanwaltschaft des Europäischen Gerichtshofs ist für den 22. April 2021 vorgesehen.

Künstliche Intelligenz und biometrische Überwachung

Zum Thema künstliche Intelligenz wurde vergangenes Jahr von der Europäischen Kommission ein Weißbuch veröffentlicht, das sich mit den „technologischen, ethischen, rechtlichen und sozioökonomischen Aspekten“ von künstlicher Intelligenz beschäftigt. Aus diesem sollen Folgemaßnahmen entwickelt werden. Die Entwicklung von Standards für künstliche Intelligenz ist wichtig, damit Europa eine ethische und rechtliche Grundlage für die Entwicklung und den Einsatz dieser Technologie bieten kann. Eine solche Regelung wäre nicht nur für Europäer:innen wichtig, sondern könnte auch weltweite Signalwirkung entfalten, um der Verbreitung chinesischer Überwachungstechnologien ein Gegengewicht bieten zu können. Dass dem Einsatz von künstlicher Intelligenz zum Beispiel bei Gesichtserkennungssoftware Grenzen aufgezeigt werden müssen, zeigen US-Städte wie San Francisco, die den Einsatz dieser Technologie im öffentlichen Raum bereits untersagt haben. Konzerne wie Amazon wollen entsprechende Software zukünftig nicht mehr Polizeibehörden verfügbar machen und IBM will die Erforschung dieser Technologie einstellen.

Cybersicherheit und Verschlüsselung

Hackerangriffe auf die Europäische Arzneimittel-Agentur (EMA), Tech-Unternehmen, Verlage und Krankenhäuser haben im vergangenen Jahr massiv zugenommen. Sie führen uns nicht nur vor Augen, wie vulnerabel unsere Unternehmen und Infrastruktur mittlerweile sind, sondern auch, dass an der IT-Sicherheit Menschenleben hängen. Ein Hacker-Angriff auf das Universitätsklinikum Düsseldorf hatte den Tod einer Patientin zur Folge. Die IT-Sicherheit muss durch politische Vorgaben gestärkt werden. Das Vorhaben der Innenminister:innen der EU-Mitgliedsstaaten, Hintertüren in die Verschlüsselung von Messengerdiensten einführen zu wollen, bedarf daher einer äußerst kritischen Begleitung. Schließlich geht es hier nicht nur um die Privatsphäre eines jeden, sondern auch um den Schutz der Pressefreiheit. Zudem sind Unternehmen gefährdet, denn Sicherheitslücken machen Angriffe auf die Unternehmens-IT wahrscheinlicher. Mit ihnen gehen teils enorme wirtschaftliche Schäden einher. Die EU-Kommission verwehrt sich zwar diesem Vorhaben, doch werden uns Forderungen nach Hintertüren in Verschlüsselungen auch dieses Jahr begleiten. 2021 muss das Jahr werden, in dem die Politik klarstellt, dass nur eine Verschlüsselung ohne Hintertüren Sicherheit bietet und Bürgerinnen und Bürgern ein Recht auf Verschlüsselung haben sollten. 

Digitale Identitäten

Digitale Identitäten werden eines der wichtigsten und prägendsten Themen des Jahres. Neben der Überarbeitung der europäischen eIDAS-Verordnung, die die Standards der digitalen Identitäten regelt, möchte die Europäische Kommission auch eine Europäische-ID (EU-ID) einführen, die parallel zu nationalen eID-Systemen ausgerollt werden soll. Die Bundesregierung lehnt diesen Vorschlag der Kommission ab. Stattdessen werden Standards für ein Identitätsökosystem gefordert, also ein Wettbewerb der ID-Angebote. Durch die Errichtung eines Identitäten-Ökosystems, in das bestehende Lösungen integriert werden können, soll die Möglichkeit geschaffen werden, die bestmögliche Lösung zu finden. Wie der Vorschlag Deutschlands aufgenommen wird, wird sich im Laufe des Jahres zeigen. Er könnte insbesondere für diejenigen Mitgliedsstaaten attraktiv sein, die bereits eigene Lösungen für eIDs haben, da sich diese in das Ökosystem integrieren lassen. In Deutschland erwarten wir den digitalen Personalausweis auf dem Smartphone. Durch ihn sollen zum Beispiel Behördendienstleistungen einfacher digital in Anspruch genommen werden können. Aber auch das digitale Ausweisen bei der Eröffnung eines Bankkontos kann so leichter möglich sein.

Digitale Bildung und der Digital Divide

Versäumnisse im Bildungswesen werden auch 2021 nicht aufgeholt werden können, nur die Brisanz des Themas Digitalisierung des Bildungswesens wird noch größer. Hier werden wir erkennen müssen, dass in der Not geborene Maßnahmen zur Bereitstellung digitaler Lernräume und Plattformen nicht ausreichen. Zudem wird deutlicher werden, wie dringend sich die Ausbildung für Lehrkräfte anpassen und Themen wie Didaktik im Digitalen behandeln muss. Themen wie Lehr- und Lernkonzepte im Digitalen werden uns begleiten und der Druck auf Bildungs- und Kultusminister:innen wird steigen, hier notwendige Mittel und Lösungen bereitzustellen. Auch das Thema Hardware in der Schule wird 2021 diskutiert werden. Denn bereitgestellte Hardware für Lehrkräfte und Schüler:innen will administriert und gewartet werden. Dafür braucht es zusätzliches Personal an den Schulen. Der Mangel an IT-Fachkräften wird auch hier zum Problem werden. Die Ad hoc-Lösungen im Bildungswesen während der Pandemie werden nachhaltigen und langfristigen Ersatz benötigen, um ein zeitgemäßes Lehren und Lernen gewährleisten zu können. Und auch der sogenannte Digital Divide wird uns umtreiben. Wenn Schüler:innen kein Endgerät von der Schule bereitgestellt werden kann, sind sie darauf angewiesen, dass die Familie sich genügend Endgeräte leisten kann, damit die Kinder Home Schooling machen können oder auch nach der Pandemie mit mobilen Geräten zu Hause arbeiten können. Das Recht auf Bildung darf insbesondere beim Home Schooling in der Pandemie weder durch fehlende digitale Lernplattformen noch durch fehlende Endgeräte verwehrt werden.

(Re:start21:) Krise als Chance: Zusammenschluss demokratischer Staaten

Das Pandemiejahr 2020 und die ersten Tage in 2021 haben uns erneut aufgezeigt, wie drängend das Thema Digitalisierung ist und dass Digitalpolitik längst kein Nischenthema mehr ist. Die Entwicklungen verdeutlichen zudem, wie wichtig es ist, dass demokratische Staaten diejenigen sein müssen, die Standards und Regulierung für den digitalen Raum festlegen. Dies darf weder Konzernen und damit der normativen Kraft des Faktischen überlassen werden, noch autoritären Staaten. Die beginnende Präsidentschaft Joe Bidens und die Erfahrungen und Erkenntnisse aus der Pandemie sollten daher der Aufruf für die größten demokratischen Staaten sein, sich zusammenzutun. Ähnlich wie das Bündnis der G7-Staaten müssen sie gemeinsam Lösungen für die digitalen Herausforderungen finden. Dazu gehören nicht nur die oben genannten – die keine abschließende Liste darstellen -, sondern auch Fragen des Umgangs mit Meinungsfreiheit und dem Datenaustausch zwischen den einzelnen Wirtschaftsräumen, insbesondere seitdem das Privacy Shield zwischen den Vereinigten Staaten und der Europäischen Union für ungültig erklärt wurde. Solch ein Zusammenschluss würde nicht nur die transatlantischen Beziehungen wieder auffrischen, sondern auch Chancen für eine lebenswerte, digital-nachhaltige Welt bieten, die auf offene Märkte und Multilateralismus setzt.

Dieser Text wurde zuerst auf freiheit.org veröffentlicht.
Bild von Thomas Ulrich auf Pixabay

Read More
Angriff auf das Kapitol: Eine Folge von Radikalisierung im Netz

Der gestrige Angriff auf das US-amerikanische Kapitol kann rückblickend nicht überraschen. Donald Trump hat seine Anhänger:innen mehrmals dazu aufgerufen, sich „bereitzumachen”. In den sozialen Medien wurde seit Tagen der 6. Januar 2021 genannt, um Gewalt auszuüben, falls der Kongress nicht die Ergebnisse der Präsidentschaftswahl von 2020 revidiere.

Auf Plattformen wie Parler, einem Twitter-Ersatz für viele Rechtsextremist:innen, dem Messenger Telegram und dem Online-Forum ‘TheDonald’ wurden seit Tagen Pläne geschmiedet, das Kapitol zu stürmen. Doch es sind nicht nur diese Nischennetzwerke, in denen öffentlich die Pläne geschmiedet werden, die gestern in die Tat umgesetzt wurden. Dies findet auch auf Twitter, TikTok und Facebook statt. Auf der letztgenannten Plattform in zahlreichen Gruppen mit tausenden von Mitgliedern, die – angestachelt von Donald Trump – die Wahl anzweifeln, Desinformationen und Verschwörungserzählungen verbreiten und eben auch zu Gewalt aufrufen.

Wie gefährlich es ist, dass diese Gruppen, Seiten und Accounts von Plattformen wie Facebook, TikTok, Twitter und Co nicht gelöscht werden, zeigt sich nun. Aber auch, wie drastisch die Auswirkungen sind, wenn ein Präsident kontinuierlich selber Desinformationen verbreitet und die freie Presse diffamiert. Zahlreiche Journalist:innen wurden gestern angegriffen, darunter auch deutsche Fernsehteams. Das Team der ARD musste die Live-Berichterstattung während der Tagesthemen abbrechen, die Ausrüstung mehrerer Fernsehteams wurde zerstört.

Diese Gewalt kommt nicht überraschend. Und sie kommt nicht aus dunklen Ecken des Internets, in die niemand Einsicht hat. Die Pläne werden nicht in verschlüsselten Messenger geschmiedet und die Aufrufe zur Gewalt nicht im ‘Dark Web’ verbreitet. Diverse Forscher und Expertinnen warnen seit langer Zeit vor der Radikalisierung im Netz, beobachten diese Seiten, weisen auf diese Foren und Plattformen hin und drängen darauf, dass Facebook und Co endlich aktiv werden müssen. Doch auch die Sicherheitsbehörden müssen endlich diese Ecken des Internets im Blick haben. Es darf nicht sein, dass wie im Falle des antisemitischen Terroranschlags von Halle, Beamt:innen des Bundeskriminalamts vor Gericht aussagen, dass sie weder die Plattformen, noch die Sprachcodes von Terroristen kennen, geschweige denn verstehen. Es braucht mehr Fortbildung und eine deutlich stärkere Beobachtung durch die Sicherheitsbehörden. Denn Plattformen wie ‘TheDonald’ werden sich sicher nicht an deutsche Gesetze halten. Wir müssen wissen, welche Radikalisierungen stattfinden und welche Pläne dort geschmiedet werden. Denn auch schon beim Angriff auf den Reichstag von Verschwörungsgläubigen, Reichsbürgerinnen und Rechtsextremisten haben wir mitlesen können, wie sie sich zu diesem Angriff verabredet haben. Nur wurde nichts dagegen unternommen.

Gestern hat Twitter mal wieder Warnlabels an ein Video von Donald Trump gesetzt, die davor warnen, dass dieser Inhalt zu Gewalt führen könnte. Das Liken und einfache Retweeten nicht aber das Zitieren, wurden verhindert. Es dauerte Stunden, bis Twitter den Account von Trump sperrte. Bis dahin hatte das Video mehr als 13 Millionen Aufrufe. Facebook hat sich relativ schnell dazu entschlossen, das Video zu löschen. Es dauerte aber auch hier Stunden, bis Facebook bekannt gab, aktiv gegen gewaltverherrlichende Inhalte auf der eigenen Plattform zu suchen.

Der Druck auf die Plattformen ihrer Verantwortung nachzukommen, wird nach den gestrigen Ereignissen zunehmen. Das ist richtig und überfällig. Es sollte uns aber zu denken geben, dass es Bilder aus Washington sind, die zum Umdenken führen. Während Gewalt und Morde, zu denen auf den bekannten Plattformen in Myanmar, in Indien oder in anderen Ländern aufgerufen wurde, zu keiner Reaktion führten.  Wer global agiert, muss auch sicherstellen, dass sein Geschäftsmodell nirgends Schäden verursacht.

Dass sogenanntes Deplatforming ein Aspekt bei der Lösung dieses gewaltigen und umfassenden Problems sein kann, hat jüngst eine Studie des IDZ Jena gezeigt. Die gern aufgestellte Forderung nach mehr Befugnissen, wie zum Beispiel Hintertüren in Messenger, wirkt wie eine Farce. Ist doch all dieser Hass, all diese Aufrufe zu Gewalt frei einsehbar im Netz. Sicherheitsbehörden müssen nur endlich lernen, das Netz zu verstehen.

Dieser Text wurde zuerst auf freiheit.org veröffentlicht.

Photo by Harun Tan on Pexels.com
Read More
Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt

20 Jahre nach Einführung der europäischen E-Commerce-Richtlinie, wird heute von der Europäischen Kommission der Digital Services Act (DSA) vorgestellt, der die in die Jahre gekommene Richtlinie ergänzen soll. Vor 20 Jahren, bei Einführung der E-Commerce-Richtlinie, die bis heute den Binnenmarkt für Online-Dienste regelt, gab es noch keine Social-Media-Plattformen, wie wir sie heute kennen. Regulierung, die auf die Anforderungen der Plattform-Ökonomie abzielt, ist also dringend notwendig. Neben dem Digital Services Act wird der Digital Markets Act (DMA) vorgestellt, der ebenfalls an Plattformen mit Gatekeeper-Funktion gerichtet ist. Der DMA ergänzt Regelungen zum Wettbewerbsrecht und soll die Marktmacht der großen Digitalkonzerne begrenzen. 

Die noch immer gültige E-Commerce-Richtlinie beinhaltet ein Instrument, das für das Funktionieren des Internets, insbesondere von Plattformen enorm wichtig ist: das sogenannte “Notice and take down”-Verfahren. Dies entbindet, kurz gesagt, Plattformen von ihrer Haftung für illegale Inhalte Dritter, sofern sie davon keine Kenntnis haben. Dies ändert sich aber, sobald sie darüber in Kenntnis gesetzt wurden. Mit der Kenntnisnahme müssen sie handeln und die Inhalte entfernen, ansonsten haften sie für diese. Der Digital Services Act baut auf der E-Commerce-Richtlinie auf und behält dieses Instrument bei. Dies ist sehr zu begrüßen, auch vor dem Hintergrund, dass in den USA heftig um eine vergleichbare Regelung, die sogenannte Section 230 gestritten wird und der gewählte Präsident Joe Biden diese gerne abschaffen möchte.

Der Digital Services Act soll unter anderem dazu dienen, illegale Inhalte auf Plattformen besser zu regulieren und diese unter Einhaltung der Europäischen Grundrechtecharta zu entfernen. Was sich erstmal gut anhört, wirft die gleichen Probleme auf, die wir schon vom deutschen Netzwerkdurchsetzungsgesetz (NetzDG) kennen: Plattformen sollen selber entscheiden, was illegal ist. Eine Aufgabe, die die Justiz zu übernehmen hat und keine privatwirtschaftlichen Unternehmen. Dabei macht der DSA keine Aussagen darüber, was “illegale Inhalte” sind. Diese werden – zu Recht – in anderen Gesetzeswerken auf europäischer beziehungsweise nationaler Ebene geregelt. Positiv ist allerdings, dass der DSA wie das NetzDG eine Ansprechperson des in der Europäischen Union operierenden Plattformbetreibers fordert. Ebenso haben die Mitgliedsstaaten einen “Digital Services Coordinator” zu bestimmen, der die Aufsicht über die Einhaltung der Regelungen im Mitgliedsstaat hat und sich auf europäischer Ebene zum “European Board for Digital Services” zusammenschließt, das der Europäischen Kommission als Beratungsgremium zur Seite steht. 

Mit dem Digital Services Act kommen allerdings auch einige Verbesserungen für Nutzer:innen von digitalen Plattformen, inbesondere in Bezug auf Inhalte, die nach den plattformeigenen Communitystandards entfernt wurden. So müssen beispielsweise Nutzer:innen darüber informiert werden, warum ihre Inhalte von der Plattform gelöscht wurden. Die Plattform muss nach dem DSA Möglichkeiten anbieten, zu der getroffenen Entscheidung Widerspruch einzulegen und eine Plattform zur Streitschlichtung bereithalten. Ebenso ist zu begrüßen, dass der DSA Schutzmaßnahmen vorsieht, um den Missbrauch der Meldefunktion für Beiträge zu verhindern – werden mit falschen Meldungen doch häufig versucht unliebsame Meinungen mundtot zu machen. Plattformen wird daher nahegelegt, Regelungen zu finden, diese Nutzer:innen temporär zu sperren, dieses Vorgehen aber auch in ihren AGB darzulegen. Ebenso soll in den AGB in verständlicher Sprache dargelegt werden, ob die Inhalte durch Menschen oder Algorithmen moderiert werden.

Der Digital Services Act unterscheidet bei den beabsichtigten Pflichten die Größe von Plattformen. Er nimmt explizit zur Kenntnis, dass “sehr große Plattformen” einen ganz anderen Impact auf die europäischen Gesellschaften haben. So definiert der DSA sehr große Plattformen als Plattformen, die mehr als 45 Millionnen Nutzer:innen haben, bzw. 10 Prozent der Unionsbürger:innen. Die Strafen, die Der Digital Services Act bei Verstößen vorsieht, sind beachtlich: Bis zu 6 Prozent des Jahresumsatzes sind hier bei äußerst schweren Verstößen möglich.

Nutzer:innen sollen besser verstehen können, wie sich die Inhalte, die ihnen angezeigt werden, zusammensetzen. Dazu sollen sehr große Plattformen darlegen, was ihre Parameter für Empfehlungssysteme (z.B. der News Feed) sind und ermöglichen , dass alternative Einstellungen vorgenommen werden können. Dazu gehört auch die Möglichkeit einer neutralen Anordnung der Inhalte, die nicht anhand der von der Plattform antizipierten Vorlieben der Nutzer:in erstellt wird. Auch soll Nutzer:innen erkennen können, warum ihnen Werbeanzeigen angezeigt werden, also nach welchen Parametern das sogenannte Micro-Targeting erfolgte. Ebenso soll erkennbar sein, wer für die Anzeige zahlte.

Wie bereits im Anfang Dezember vorgestellten “European Democracy Action Plan” erwähnt wurde, finden sich im Digital Services Act Regelungen , die die Verbreitung von Desinformation einhegen sollen. Online-Plattformen sind angehalten, einen Code of Conduct zu erstellen, in dem sie darlegen, wie sie mit Inhalten, die zwar nicht illegal aber dennoch schädlich sind, umgehen wollen. Dazu gehört auch der Umgang mit Fake-Accounts und Bots, die häufig dazu beitragen, Desinformationen und andere schädliche, aber nicht illegale Inhalte zu verbreiten. Plattformen, die keinen Code of Conduct haben und dies nicht begründen können, kann vorgeworfen werden, dass sie sich nicht an die Vorgaben des DSA halten.  Die im Action Plan angekündigte Pflicht zur Bereitstellung von Daten zu Forschungszwecken findet sich im DSA wieder.

Ebenfalls zu begrüßen ist, dass sehr große Plattformen Pläne für Krisenfälle vorhalten sollen, zum Beispiel Pandemien, Erdbeben oder terroristische Anschläge. Zur Risikobewertung und -minderung wird diesen Plattformen außerdem nahegelegt, Nutzer:innen, besonders betroffene Personen, unabhängige Expertinnen und Vertreter der Zivilgesellschaft in ihre Maßnahmen mit einzubeziehen. Dies ist insbesondere in Anbetracht des Genozids an den Rohingya in Myanmar, der durch Desinformation und Hate Speech auf Facebook befeuert wurde, auf den die Plattform lange keine Antwort fand, ein wichtiger Schritt.

Der Digital Services Act könnte auch für Kanäle (und ggf. auch Gruppen) auf Telegram greifen und damit umfassender sein, als das deutsche NetzDG, das bei Messengern wie Telegram, die auch eine öffentliche Kommunikation ermöglichen, eine Lücke aufweist. Die würde dazu führen, dass auch Telegram eine Ansprechperson in Europa benennen müsste. Keine Anwendung soll der DSA auf private Kommunikation über Messenger und  E-Mails finden, sondern nur auf  Gruppen , die für die Öffentlichkeit gedacht sind.

Mit dem Digital Services Act soll eine einheitliche Regulierung für den europäischen digitalen Binnenmarkt geschaffen werden, der auch eine Maßnahme gegen den Flickenteppich an nationaler Gesetzgebung sein soll, wie er zum Beispiel durch das deutsche NetzDG oder das französische “Avia Law” entstanden ist. Dabei löst er die nationalen Gesetze allerdings nicht ab, sondern ergänzt und vereinheitlicht sie. Der DSA erhebt den Anspruch, internationale Standards setzen zu wollen. Dass er dies mit der Privatisierung der Rechtsdurchsetzung an die Plattformen anstrebt – wie schon beim NetzDG –, ist scharf zu kritisieren. Es bleibt zu wünschen, dass sich das Europäische Parlament im Rahmen der Verhandlungen über den finalen Text der Richtlinie für eine sinnvollere Lösung einsetzt.

Dieser Artikel erschien zuerst auf freiheit.org.

Bild von Laurent Verdier auf Pixabay 

Read More
Publikation: The German Corona-App. In der Reihe “Rethinking Privacy and Mass Surveillance in the Information Age”

Im Rahmen des deutsch-israelischen Dialog-Projekts “Rethinking Privacy and Mass Surveillance in the Information Age” durfte ich für die Heinrich-Böll-Stiftung Israel und das Israel Public Policy Institute ein Papier über die Debatte zur deutschen Corona-Warn-App verfassen. Das Papier „The German Corona-App: Expectations, Debates and Results“ kann hier heruntergeladen werden. Es war Teil eines anschließenden Dialogs mit Eran Toch, der die israelische Perspektive einbrachte. Sein Papier „Eroding Trust: Contact Tracing Technologies in Israel“ kann hier heruntergeladen werden.

Read More
Gegen Hass im Netz: „Frauenhass und Herabwürdigung sitzen in unserer Gesellschaft tief“

Der jüngste, aufsehenerregende Vorfall passierte auf Instagram: Dank insbesondere der Berliner Influencerin Louisa Dellert und der feministischen Aktivistin Kristina Lunz, konnten wir miterleben, was Frauen regelmäßig ertragen müssen.

Im Netz werden sie mit Bedrohungen überhäuft – meist durch aufgestachelte Follower eines Nutzers. In diesem Fall von dem Comedian Hendrik Nitsch, besser bekannt als „Udo Bönstrup“, der sich vor einigen Tagen über ein Statement gegen sexistische Hassnachrichten lustig machte. Nur haben sich die betroffenen Frauen diesmal lautstark gewehrt.

Insbesondere bei Frauen, die sich öffentlich gegen Frauenfeindlichkeit aussprechen, wird häufig versucht, sie mundtot zu machen. Und dieser aktuelle Fall zeigt: Beim Thema digitale Gewalt ist noch viel zu tun. Hinweise von anderen Menschen, dass man sich nicht so darüber aufregen solle, tragen zu diesem sogenannten Silencing bei und verschlimmern die Gewalterfahrung. Zu viele Frauen ertragen diese digitale Gewalt. Das darf nicht sein.

Wussten Sie, dass 70 Prozent der Mädchen und jungen Frauen in Deutschland Bedrohungen, Beleidigungen und Diskriminierungen in sozialen Medien ausgesetzt sind? Das ergab eine Studie von Plan International unter 15- bis 24-Jährigen.

Weniger politisches Engagement wegen Bedrohungen und Beschimpfungen

Auch die neueste Studie der Initiative D21, „Digitales Leben““, kommt zu dem Ergebnis, dass Frauen häufiger unter (oft sexualisierten) Belästigungen im Netz leiden. Frauen nehmen laut der Studie weniger die Möglichkeiten des gesellschaftlichen und politischen Engagements auf sozialen Medien wahr als Männer. 

Die Europäische Akademie für Frauen in Politik und Wirtschaft (EAF) hat in ihren Analysen zur Kommunalpolitik herausgefunden, dass der Grund für ein geringeres Engagement in der Politik zu einem erheblichen Teil in den Bedrohungen und Beschimpfungen im digitalen Raum liege. Nach einer Auswertung des Guardian aus dem Jahr 2016 verstärken sich die Anfeindungen sogar noch, wenn ein Migrationshintergrund vorliegt.

Das sind erschreckende Befunde. Sie zeigen, dass Frauenfeindlichkeit noch weit verbreitet ist. Dabei dürfen wir nicht vergessen, dass dieser Hass von Menschen ausgeht, die auch in der analogen Welt agieren. Sie sind dort keine anderen Personen. Wir müssen allen Menschen einen sicheren – analogen wie digitalen – Raum bieten, in dem sie sich diskriminierungsfrei äußern können und damit auch, aber nicht nur, an demokratischen Diskursen teilnehmen können.

Sieben Vorschläge für einen sicheren digitalen Raum

Um einen sicheren digitalen Raum zu ermöglichen, müssen wir entschieden gegen digitale Gewalt vorgehen. Diese sieben Vorschläge sehen wir als wichtigen Anfang:

1. Zu Beginn steht Solidarität! Die braucht es nicht nur von Frauen. Gewalt gegen Frauen ist kein Frauenproblem, sondern ein gesellschaftliches Problem, meist ein Männerproblem. Tätern muss das Gefühl genommen werden, dass sie Macht über ihr Opfer haben. Ihnen muss klargemacht werden, dass ihr Verhalten – ob strafbar oder nicht – von einer offenen Gesellschaft nicht toleriert wird.

2. Hate Speech ist Gewalterfahrung. Opfer brauchen besondere Betreuung. Auch und gerade bei Straf- oder Zivilrechtsverfahren. Anlaufstellen, bei denen sie vorab Hilfe bekommen können und sich über ihre rechtlichen Möglichkeiten, aber auch Maßnahmen zum persönlichen Schutz informiert werden können, sind essenziell. Es braucht mehr von diesen Anlaufstellen. Bei schweren Ehrverletzungen sollte den Opfern zudem ein „Opferanwalt“ und eine psychosoziale Prozessbegleitung zur Seite gestellt werden. 

3. Straftaten im Netz müssen besser geahndet werden durch spezialisierte Kräfte in Polizei und Justiz. Zentralstellen der Staatsanwaltschaft wie sie zum Beispiel in Nordrhein-Westfalen schon eingerichtet wurden, sind hierfür sinnvoll. Polizei und Justiz müssen über technischen Sachverstand und modernste Ausstattung im digitalen Raum verfügen. Zudem müssen sie die Tragweite von Angriffen einschätzen und ernst nehmen können. Vorschläge, wie den Twitter- oder Instagram-Account zu löschen, dürfen nicht erfolgen. 

Es soll e-Courts für schnelle Verfahren geben

4. Strafanzeigen müssen einfach, online und anonymisiert gestellt werden können. In Zivilprozessen muss es für die Geschädigten möglich sein, das Verfahren auch ohne Nennung der privaten Anschrift zu betreiben, sondern derjenigen der beratenden Kanzlei oder NGO. Dies wird von Gerichten nach Angabe von Betroffenen nicht immer akzeptiert. Es ist aber von essentieller Bedeutung, da ansonsten der Täter über eine Akteneinsicht die Privatanschrift erfahren könnte. 

5. Das durch das Netzwerkdurchsetzungsgesetz geregelte eigenmächtige Löschen durch die Plattformen ohne Verfahren ist nicht zielführend. Vereinfachte Onlineverfahren, sogenannte e-Courts, können eine Beschleunigung von Verfahren ermöglichen. Zeit ist bei solchen Vorfällen von enormer Bedeutung. Onlineverfahren können nicht nur die Justiz entlasten. Zeitnahe Urteile sorgen auch bei Tätern für eine nachhaltige Wirkung.

6. Polizei und Justiz müssen effektiv und schnell mit den Plattformen und NGOs zusammenarbeiten. NGOs wie zum Beispeil „Hate Aid“, „Hassmelden“ und „Ich bin hier“ sollen die Möglichkeit bekommen, den Staatsanwaltschaften digital Strafanzeigen zuzuleiten. Sie verfügen über die Expertise der Beweissicherung und können so  schnell die Staatsanwaltschaft unterstützen und Betroffenen helfen.

Es braucht einen starken Staat und verantwortungsvolle Plattformen

7. Plattformen wie Instagram tragen Verantwortung. Sie müssen ihre eigenen Regeln durchsetzen und dürfen orchestrierten Hass nicht hinnehmen. Sie müssen mehr Content-Moderatorinnen und -Moderatoren einsetzen, die gemeldete Inhalte prüfen. Des Weiteren sollten Plattformen veröffentlichen, wie viele Moderatorinnen und Moderatoren sie beschäftigen. Schulungen zu geschlechtsspezifischem Hass und Silencing müssen für sie verpflichtend sein.

Es gibt noch viel zu tun. Wir dürfen bei den Problemen im digitalen Raum nie vergessen, dass diese nicht unabhängig von der analogen Welt passieren. Unser Justizwesen muss dafür gewappnet sein. Wir brauchen einen starken und modernen Rechtsstaat, der Opfer auch im digitalen Raum schützen kann. Hier sind vor allem die Länder in der Pflicht nachzubessern. Forderungen nach schärferen Gesetzen oder die alleinige Adressierung der Plattformen greifen zu kurz, denn das Problem ist umfassend. Frauenhass und die Herabwürdigung von Frauen sitzen in unserer Gesellschaft noch tief. Gehen wir es an!

Dieser Gastbeitrag erschient zuerst im Tagesspiegel (online und print) zusammen mit Maren Jasper-Winter am 25. November 2020.

Read More
Am Datenschutz scheitert die Corona-Bekämpfung nicht

Den Datenschutz lockern, um den Gesundheitsschutz zu stärken? Bei der Corona-Warn-App wird eine ritualisierte Debatte entlang der bekannten Lager geführt. Die wichtigen Fragen werden dabei meistens ausgeklammert: Was kann die App leisten? Wo liegen die Probleme und welche Daten brauchen wir, um die gewünschten Ziele zu erreichen? Zusätzlich wird die Debatte geführt, als würde die App im luftleeren Raum handeln, als würde das Verhalten des Menschen irrelevant sein. Daten und Technologie haben aber generell nur einen Zweck: Sie müssen dem Menschen nützen. Sie sind Werkzeug zur Erreichung seiner Ziele, nie die Lösung selbst. Die bloße Forderung nach “mehr Daten” wird nicht als Selbstläufer zum Erfolg bei der Virusbekämpfung führen. Die Debatte braucht also mehr Substanz.

Der überbordende Datenschutz scheint laut einigen Politiker:innen und Kommentator:innen der Grund zu sein, der Deutschland davon abhält, Vorreiter der Digitalisierung zu werden und die Corona-Pandemie in den Griff zu bekommen. Doch sind es ausschließlich Daten, die in anderen Ländern der Schlüsselfaktor sind, mit dem die Pandemie in den Griff bekommen wurde? Taiwan und Südkorea werden hier gerne als Beispiele angeführt. Nur gilt selbst in hochtechnologischen Ländern: Daten handeln nicht alleine. Viel zu häufig wird beim Blick nach Ostasien vergessen, dass diese Länder eben nicht bloß auf Technologie setzen, sondern auch zahlreiche andere — meist ganz analoge — Maßnahmen eingesetzt haben, die zum erfolgreichen Umgang mit der Pandemie beigetragen haben. Dazu gehören einfacher mögliche Einreisekontrollen sowie die allgemein viel bessere Vorbereitung auf Pandemien aufgrund vorhandener Erfahrungen mit SARS-Viren.

Wichtig ist, beim Verweis auf andere Länder präzise zu benennen, welche Daten dort verwendet und welche bürgerrechtlichen Einschränkungen dafür in Kauf genommen wurden. Taiwan hat beispielsweise nicht auf Tracking- oder Tracing-Apps gesetzt. Die Einhaltung der Quarantäne wurde über das Mobilfunknetz kontrolliert. Allerdings wurden in Taiwan auch digitale Zugänge zu Daten bereitgestellt, mit denen die Zivilgesellschaft hilfreiche Anwendungen entwickeln konnte. Zum Beispiel, wie viele Masken in der Apotheke in der Nachbarschaft noch vorrätig sind oder Visualisierungen über die Menge der ausgelieferten Masken. Solche Daten und Informationen — möglich gemacht durch Civic-Tech-Anwendungen — finden in Deutschland, wenn wir über die Nutzung von Daten bei der Eindämmung der Pandemie sprechen, quasi keine Beachtung (Stichwort: WirVsVirus). Die Debatten über Daten dürfen daher nicht lediglich darum gehen, ob wir viel oder wenig Datenschutz brauchen, sondern wo der Mensch sinnvolle Informationen aufgrund von Daten bekommen kann, bzw. braucht, um sein Verhalten zu ändern, sodass das Virus sich nicht weiter verbreiten kann.

Südkorea hat zahlreiche weitere Daten genutzt, um die Verbreitung des Virus einzuschränken — eben nicht nur Daten aus einer Tracking-App. Diese wurden angereichert mit Daten aus Überwachungskameras oder über Finanztransaktionen. Wer dies auch für Deutschland fordert, sollte sich bewusst sein, dass wir hier gar nicht so viele Kameraaufnahmen haben, die wir nutzen könnten — zum Glück! Auch ist in Deutschland Bargeld noch immer beliebter als das digitale Bezahlen. Die benötigten Daten für das Vorbild Südkorea wären also gar nicht in dem Ausmaß vorhanden, in dem man sie benötigen würde. Der Ruf nach mehr Daten und weniger Datenschutz verkennt daher, dass Daten auch generiert werden müssen und nicht plötzlich da sind, nur weil der Datenschutz gelockert wird. Hinzu kommt, dass gerade durch solche massiven Datensammlungen womöglich viel mehr Menschen so handeln würden, dass diese Daten nicht mehr von ihnen generiert werden würden. Statt mit der Kreditkarte, würden sie wieder bar bezahlen. Die Lockerung des Datenschutzes würde also ins Leere laufen.

Natürlich darf es bei dem Einsatz von Technologie zur Pandemiebekämpfung nicht nur um den Datenschutz gehen. Es ist klar, dass der Gesundheitsschutz äußerst wichtig ist und dass es eine angemessene Abwägung zwischen diesem und dem Grundrecht auf informationelle Selbstbestimmung geben muss. Nur: Es gibt seit dem Beginn der Debatte äußerst kluge und innovative Vorschläge, wie genau beides in Einklang gebracht werden kann. Aus einem entstand die App, wie wir sie heute nutzen. Ein datenschutzfreundliches und Privatsphäre schonendes Konzept, das die 20 Millionen Downloads und das Lob aus dem Ausland wohl erst möglich machte. Dass die Corona-Warn-App angeblich nicht funktioniere, liegt eher an der überfrachteten Erwartung an sie, die keine App je erfüllen könnte. Beispielhaft sei hier erwähnt, dass es im Frühjahr gerne hieß, dass wir mit der App unsere Freiheit wiedererlangen könnten. Dabei wird aber verkannt, dass keine App vor einer Ansteckung schützt, sondern immer nur retrospektiv wirken kann und selbst dies nur dann, wenn eine Infektion mittels Test bestätigt wurde. Abstandhalten, Kontakte reduzieren und einen Mund-Nase-Schutz tragen wird also auch durch Technologie nicht obsolet.

Eine anderer kluger Vorschlag ist die Entwicklung einer Cluster-Erkennung für die Corona-Warn-App — ebenfalls datenschutzkonform und Privatsphäre schonend. Doch dieser findet kaum Erwähnung bei denen, die weniger Datenschutz fordern und diesen als Schuldigen für das angebliche nicht-funktionieren der App anführen. Ebenso finden Probleme, die dringend einer Lösung bedürfen, wenig Gehör: die Digitalisierung der Gesundheitsämter an sich, fehlende Schnittstellen (Stichwort: Datenübermittlung per Fax an das RKI) oder fehlende Informationskampagnen der Bundeszentrale für gesundheitliche Aufklärung. Noch heute scheitern zu viele Ärztinnen und Patienten daran, das Testergebnis in die eigene Corona-Warn-App übermitteln zu lassen, damit andere gewarnt werden können, da ihnen nicht bekannt ist, dass unbedingt ein Kreuzchen auf dem Formular für das Labor gesetzt werden muss, das die Übermittlung des Ergebnisses in die App erlaubt. Statt mit einem Zwang zur Freigabe zu arbeiten und damit womöglich noch weitere Nutzer:innen der App zu verlieren, sollte an der Aufklärung der Menschen gearbeitet werden, sodass sie eine freiwillige, aufgeklärte Entscheidung treffen können, beziehungsweise auf das Setzen des Kreuzes hinweisen können. Hier liegen die Potenziale. Denn wir brauchen mehr Nutzer:innen der App.

Unsere Debatten brauchen mehr Substanz. Gerade, weil es um den Schutz von Menschenleben und einer Abwägung von Grundrechten geht brauchen wir mehr technologischen Sachverstand, mehr Fokus auf Prozesse und deren Optimierung. Blinder Technologieglaube führt nicht nur nicht zu den bestmöglichen Lösungen, er ist schlimmstenfalls sogar Steigbügelhalter für eine tiefgreifende digitale Überwachung. Der bloße Ruf nach mehr Daten und weniger Datenschutz wird keinen Erfolg bringen — schon gar nicht, wenn weder benannt werden kann, was für Daten gebraucht werden noch wie diese generiert und verarbeitet werden können. Daten schützen nicht vor einem Virus. Aus Daten gewonnene Informationen können dazu beitragen, dass Menschen ihr Verhalten ändern. Und schlussendlich kommt es genau darauf an, dass Menschen Informationen über das Virus und seine Verbreitungswege ernst nehmen und ihr Verhalten dadurch ändern. Wenn wir dazu nicht in der Lage sind, wird uns auch ein gelockerter Datenschutz nicht vor dem Virus schützen.

Dieser Text erschien zuerst auf freiheit.org.

Read More
Die EU reagiert auf neuste Terroranschläge mit noch mehr Überwachung

Die EU reagiert auf neuste Terroranschläge mit noch mehr Überwachung

Erst der Schock — dann die Panikreaktion. Die abscheulichen Anschläge in Paris, Nizza und Wien lassen die EU in leider gut bekannte Handlungsmuster verfallen: Auf Terror wird mit Einschränkungen unserer Freiheit reagiert, die angeblich mehr Sicherheit bringen. Wie nun bekannt wurde hat der Ministerrat eine Initiative vorbereitet, die die Ende-zu-Ende-Verschlüsselung von Messengerdiensten wie WhatsApp oder Signal aufweichen soll. Unter der deutschen Ratspräsidentschaft wird damit nicht nur noch weiter in unsere Grundrechte eingegriffen. Es wird auch die weltweite IT-Sicherheit unter dem Vorwand des Kampfs gegen den Terror aufs Spiel gesetzt.

“Sicherheit durch Verschlüsselung, Sicherheit trotz Verschlüsselung”, forderte schon der ehemalige Bundesinnenminister Thomas de Maizière und sorgte damit für viel Entsetzen bei Bürger- und Menschenrechtlern und IT-Expertinnen. Der gestern bekanntgewordene Vorstoß des Ministerrats folgt genau dieser Losung: Die Betreiber von Messengerdiensten sollen dazu verpflichtet werden, einen Generalschlüssel für den behördlichen Zugriff auf verschlüsselte Kommunikation zu hinterlegen. Genutzt werden soll offenbar die “Exceptional Access”-Methode des britischen Geheimdienstes GCHQ. Dies bedeutet aber, dass die sichere und verschwiegene Kommunikation von uns allen in Gefahr ist. Denn entgegen Verlautbarungen, dass diese Überwachung nur potenzielle Terrorist:innen beträfe, öffnet sie vielmehr ein Einfallstor für jegliche Cyber-Kriminelle oder Spione. Wir erinnern uns: selbst die NSA war nicht in der Lage, ihre genutzten Sicherheitslücken geheim zu halten. Weltweite Cyberattacken (Stichworte: WannayCry und NotPetya) mit Schäden in Milliardenhöhe und die Gefährdung von Menschenleben waren die Folge.

Abgesehen davon, dass Regulierungen dieser Art Auswirkungen auf die Nutzung von Technologie in der ganzen Welt haben, ist die Resolution des Ministerrats eine Einladung an autokratische Herrscher es der Europäischen Union gleichzutun und die Kommunikation ihrer Bürger:innen mitzulesen. Es darf nicht vergessen werden: Privatsphäre ist ein Menschenrecht, das auch in der europäischen Grundrechtecharta verankert ist. Wollen wir andere von unseren Werten überzeugen, so müssen wir hier mit gutem Beispiel vorangehen.

Aber auch das ewige Mantra, dass zusätzliche Überwachungsbefugnisse einen entscheidenden Beitrag zur Verhinderung solcher Terroranschläge beitragen muss endlich ernsthaft infrage gestellt werden. Seit mehr als 20 Jahren, spätestens seit den Anschlägen vom 11. September 2001, wird die diffuse Angst der Menschen dazu ausgenutzt immer neue Eingriffsbefugnisse durchzusetzen. Trotzdem sehen wir uns im Jahr 2020 einer noch komplexeren Sicherheitslage gegenüber und haben noch nicht einmal den Ansatz einer Vorstellung davon, was diese Zugriffsrechte überhaupt genau bringen und wofür wir unsere Freiheiten eingeschränkt haben.

Der Bundesdatenschutzbeauftragte Ulrich Kelber sagte erst kürzlich wieder: Das für eine Demokratie erträgliche Maß an Überwachung ist bereits überstiegen! Trotzdem soll in Deutschland und der EU die verfassungswidrige Vorratsdatenspeicherung wieder eingeführt werden, die Geheimdienste dürfen nun auch offiziell per Staatstrojaner schnüffeln, die neue EU Anti-Terror-Verordnung soll über Uploadfilter funktionieren und die regelmäßige Evaluierung von Sicherheitsgesetzen, die nach dem 11. September 2001 verabschiedet wurden, wurde gerade vom Bundestag aufgehoben.

Der entsetzliche Terroranschlag in Wien hätte verhindert werden können, wenn Sicherheitsbehörden mit den Informationen von Geheimdiensten, die ihnen vorlagen, gearbeitet hätten und diese ernst genommen hätten. Wie so häufig. Es gab auch hier, keinen Mangel an Befugnissen und Information. Wir sehen immer wieder, dass klassische Polizeiarbeit einer gut organisierten und vor allem personell gut ausgestatteten Truppe die größten Erfolge im Kampf gegen den Terror bringen.

Wir sind also auf einem falschen Weg im Kampf um mehr Sicherheit. Unter deutscher Führung scheint die EU diesen nun fortzusetzen. Sie droht dabei aber nicht nur ihre Grundwerte aufzugeben. Sie fällt auch all jenen Menschen in den Rücken, die sich weltweit für Demokratie und Rechtsstaatlichkeit einsetzen. Die Demonstranten, die in Hongkong oder Belarus gegen autokratische Herrschaft, Überwachung und Unterdrückung kämpfen und ihre Freiheit und ihr Leben aufs Spiel setzen, sind angewiesen auf sichere und integre Kommunikation. Die EU kann sich nicht einerseits mit ihnen solidarisieren und ihnen im gleichen Zug die Grundlage für ihren Einsatz entziehen.

Dieser Text erschien gemeinsam mit Dr. Maximilian Spohr zuerst auf freiheit.org.

Read More

Neueste Beiträge

  • Gastbeitrag: Wie viele Netzwerke braucht die Verwaltungstransformation?
  • Gastbeitrag: Zwischen Gesetz und Wirkung klafft eine digitale Lücke
  • Gastbeitrag: Politikfähigkeit braucht Führungsfähigkeit
  • Handelsblatt Gastbeitrag: Verwaltungstransformation: Ein Hebel für Vertrauen, Demokratie und Lebenschancen
  • Auszeichnung als Young Leader in GovTech 2025

Neueste Kommentare

    Archive

    • August 2025
    • April 2025
    • Februar 2025
    • Januar 2025
    • Dezember 2024
    • November 2024
    • August 2024
    • Juli 2024
    • Mai 2024
    • April 2024
    • November 2023
    • September 2023
    • Juli 2023
    • April 2023
    • März 2023
    • Dezember 2022
    • Oktober 2022
    • Juli 2022
    • Juni 2022
    • Mai 2022
    • April 2022
    • Februar 2022
    • November 2021
    • August 2021
    • Juni 2021
    • Mai 2021
    • April 2021
    • März 2021
    • Februar 2021
    • Januar 2021
    • Dezember 2020
    • November 2020
    • Oktober 2020
    • August 2020
    • Juli 2020
    • April 2020
    • Januar 2020
    • November 2019
    • Oktober 2019
    • September 2019
    • August 2019
    • Mai 2019

    Kategorien

    • Allgemein
    • Bundestagskandidatur
    • Digitale Bildung
    • Digitale Verwaltung
    • Digitalpolitik
    • Gastbeitrag
    • Internet Governance
    • News
    • Publikation
    • Social Media
    • Studio
    • Tutorial

    Seitennummerierung der Beiträge

    « 1 2 3 »
    Impressum Datenschutz