Portrait: Technologie muss den Menschen schützen
![](https://i0.wp.com/anncathrinriedel.de/wp-content/uploads/2020/10/392B9D44-5CCC-4A86-AA11-28654FA259AD_1_105_c-min.jpeg?resize=1024%2C683&ssl=1)
Im Rahmen meines digitalpolitischen Engagements und meiner Bundestagskandidatur hat mich das Portal „D3 – so geht digital“ der Stiftung Bürgermut porträtiert. Das Ergebnis ist hier nachzulesen.
Im Rahmen meines digitalpolitischen Engagements und meiner Bundestagskandidatur hat mich das Portal „D3 – so geht digital“ der Stiftung Bürgermut porträtiert. Das Ergebnis ist hier nachzulesen.
Ich freue mich wird außerordentlich, im Finale des diesjährigen FTAfelicitas-Preises ds Femtec.Alumnae e.V. in der Kategorie „Netzwerk leben“ zu stehen. Die weiteren Finalistinnen und Informationen zum Verein gibt es hier.
Über den Preis:
Der FTAfelicitas-Preis des Femtec.Alumnae e.V. soll die Frauenförderung in MINT-Berufen beschleunigen. Der Preis soll nicht nur die Preisträger:innen würdigen, sondern Mädchen und jungen Frauen bewusst machen, dass Frauen und Technik durchaus gut zusammen passen. Bis zum 30. November 2020 konnten sowohl Frauen als auch Männer nominiert werden, die Frauen in MINT-Berufen fördern. Aus diesen wird die diesjährige Jury aus Expert:innen sowie ausgewählten Mitgliedern des Femtec.Alumnae e.V. die Preisträger:innen auswählen. Die Preisverleihung findet im Frühjahr 2021 im Rahmen der FTAlive-Konferenz statt.
In Deutschland zeigt sich eine immer größere Ambivalenz: “Die Deutschen”, das sind die, die den Datenschutz immer so hoch und gerne über alles stellen, sagt man. Genauso sind “die Deutschen” diejenigen, die spätestens seit Beginn der Corona-Pandemie genauso davon überzeugt sind, dass der Datenschutz deutlich abgeschwächt werden müsse, damit man die Pandemie effektiv bekämpfen könne. Und so führen wir sie wieder, die ritualisierten Debatten, bei denen meist nicht mehr gesagt wird, als dass Datenschutz wichtig ist, oder dass er der Faktor ist, der für unseren digitalen Rückstand verantwortlich ist. Wir drehen uns im Kreis und ich möchte behaupten, es ist nicht der Datenschutz, der uns aufhält, sondern diese ritualisierten Debatten.
Vor genau 40 Jahren wurde die Europäische Datenschutzkonvention verabschiedet. Seit 2018 ist die Europäische Datenschutzgrundverordnung (DSGVO) in der gesamten Europäischen Union anzuwenden. Der heutige Europäische Datenschutztag soll die Europäerinnen und Europäer für den Datenschutz sensibilisieren. Das ist gut und wichtig, denn wir müssen dringend zu dem Punkt kommen, in dem wir alle aufgeklärt über Daten reden können, um diesem Hamsterrad entfliehen zu können. Schließlich müssen wir weiterdenken: wie wollen und können wir Daten nutzen, wie wollen und können wir sie für das Gemeinwohl und Geschäftsmodelle einsetzen und wie können wir eine liberale Datenpolitik zu einem weiteren Exportschlager machen. Die DSGVO manch einer mag es kaum glauben – ist es nämlich schon. Dazu braucht es erstmal nur drei kleine Schritte.
Der erste Schritt, um den ritualisierten Debatten zu entkommen, besteht darin, sich darüber klar zu werden, dass der Datenschutz nicht wirklich Daten schützt. Er schützt vieles – und ja, das ist je nach Betrachtungsweise unterschiedlich und nicht immer eindeutig. Er schützt die Privatsphäre, und damit auch Persönlichkeitsrechte. Der Datenschutz umfasst das Grundrecht auf informationelle Selbstbestimmung. Die DSGVO regelt auch die Datensicherheit – es ist nicht „einfach“. Und doch ist eine Sache recht klar: Der Datenschutz schützt personenbezogene Daten. Er bezieht sich nicht auf Geodaten, Wetterdaten, Verkehrsdaten oder sonstige Maschinendaten. Der erste Schritt ist also: Benennen wir die Daten, die wir meinen. Vielleicht erübrigt sich die Diskussion über den Datenschutz ja direkt.
Schritt zwei und drei sind dann die Folgenden: Sich zu überlegen – und bestenfalls zu benennen! – woher die Daten kommen, welche wir wirklich brauchen und wie sie generiert werden sollen. Und dann, wie sie verarbeitet werden können und wer dies tun kann. Die Frage stellt sich übrigens auch für nicht-personenbezogene Daten. Schließlich liegt es manchmal auch einfach am nicht-Vorhandensein von Geräten, die Daten generieren, oder an Geschäftsideen, um mit den Daten etwas anzufangen. Einen antizipierten Mangel am digitalen Fortschritt am Datenschutz festzumachen, greift viel zu kurz.
In Deutschland – übrigens auch gerade während der Pandemie – stellt sich viel zu häufig die Frage, warum wir Daten gar nicht erst generieren, beziehungsweise so zur Verfügung stellen, dass wir sie auch vielfältig nutzen können. Wir wissen kaum etwas über das Infektionsgeschehen. Nicht wegen des Datenschutzes, sondern weil wir die Daten nicht von Beginn an erfassten. Wir wissen auch so generell viel zu wenig über Bedarfe in unserer Stadt oder der Verwaltung, weil wir zu wenig Daten so aufbereiten, dass wir sie in Dashboards darstellen können und Prognosen zum Beispiel über benötigte Kita- oder Schulplätze für in drei oder sechs Jahren ablesen können. Weil wir zu wenige Daten erfassen, die wenigen in Silos lassen und auch zu wenige austauschen, zum Beispiel zwischen Universitäten – und das auch innerhalb der Europäischen Union -, haben wir erst viel später Erkenntnisse, vielleicht sogar gar keine, und somit viel weniger Möglichkeiten, innovative Geschäftsmodelle aufzubauen, künstliche Intelligenz zu trainieren und zu skalieren. All das geht bei offenen Daten, oder nicht-personenbezogenen Daten ganz ohne den Datenschutz und auch die DSGVO und Innovation sind wunderbar miteinander in Einklang zu bringen, wenn man denn will.
Wir Europäerinnen und Europäer müssen das noch stärker wollen. Datenschutz hat bei uns eine lange Tradition, weil uns Bürger- und Menschenrechte wichtig sind. Weil uns bewusst ist, dass eine freiheitliche Gesellschaft nur auf einem Fundament prosperieren kann, das die Rechte eines jeden Einzelnen schützt. Es ist nicht der Datenschutz, der uns im Weg steht, sondern wir selber. Wir haben Schatztruhen voller Daten – öffnen wir sie! Insbesondere in der Verwaltung und im Mittelstand. Wir haben die klügsten Köpfe – nutzen wir sie! Für innovative, datenschutzfreundliche digitale Produkte. Wir vergessen zu häufig, dass unsere Datenschutzgrundverordnung ein Exportschlager ist. Argentinien, Brasilien, Chile, Japan, Kenia, Südkorea oder Kalifornien sind Staaten, die sich an der DSGVO orientiert haben. Wir Europäerinnen und Europäer können und müssen stolz sein, den politischen Mut zu haben, den weltpolitischen Dynamiken zu trotzen und unseren Bürgerinnen und Bürgern in einer digitalisierten Welt ihre Freiheit und ihre Selbstbestimmung zu garantieren. Gleichzeitig müssen wir die nächsten Schritte gehen übrigens auch in anderen digitalpolitischen Feldern. Unser erster, nächster Schritt muss zu produktiveren Debatten über Daten und ihren möglichen Einsatz in der Öffentlichkeit führen.
Dieser Beitrag wurde zuerst auf freiheit.org veröffentlicht.
Bild von Pete Linforth auf Pixabay
Wer es nicht schon längst wusste, dem ist hoffentlich im Pandemiejahr 2020 bewusst geworden, wie wichtig die digitale Transformation ist. 2021 muss endlich das Jahr sein, in dem wir nicht nur mit großen Schritten bei der Digitalisierung vorankommen, sondern auch Grundlagen für ein Deutschland und Europa legen, das Bürger- und Menschenrechte im Digitalen schützt und globale digitale Standards setzt. Und damit auch ein „level playing field“ für fairen Wettbewerb schafft. Im Jahr 2021 werden aus liberaler Sicht folgende Themen wichtig.
Mit dem Digital Services Act und dem Digital Markets Act will die Europäische Kommission ein neues Grundgesetz für den digitalen Raum festlegen. Dabei soll es nicht nur um Spielregeln für Plattformen und die Inhalte auf diesen gehen. Auch das Wettbewerbs- und Kartellrecht soll angepasst werden, um der Marktmacht einiger Internetplattformen Herr zu werden. Die Diskussionen um die Rolle von Social-Media-Plattformen bei der Erstürmung des Kapitols in Washington werden den Druck auf eine Umsetzung des Digital Services Acts erhöhen, auch wenn dieser dieses Jahr voraussichtlich noch nicht verabschiedet wird. Es ist notwendig, dass Plattformbetreiber und der Gesetzgeber sich damit beschäftigen, was diese in Bezug auf das Löschen und Sperren von Funktionsträger:innen dürfen oder müssen. Zudem wurde abermals – und vor allem in der westlichen Welt – deutlich, welche analogen Auswirkungen Hass und Hetze, Desinformation und Verschwörungserzählungen, die im Netz verbreitet werden, haben können. Bislang ist keine vehemente Kritik am Vorschlag des Digital Services Acts zu vernehmen. Vielmehr sehen sowohl Akteure der Zivilgesellschaft als auch Unternehmen den ersten Vorschlag als gute Grundlage. Mit der Verabschiedung der Richtlinie ist zwar nicht in diesem Jahr zu rechnen, wichtige Weichenstellungen im Hinblick auf die Inhalte werden aber 2021 erfolgen.
Der Digital Markets Act greift hingegen stärker die aktuellen Geschäftsmodelle der Tech-Konzerne an, die als “Gatekeeper” gelten. So sollen bestimmte Praktiken verboten werden und Daten nicht mehr exklusiv von diesen Anbietern genutzt werden können. Zudem sollen bestimmte Praktiken, die als “unfair” definiert werden, stärker überwacht werden sowie digitale Dienste, wie zum Beispiel Messenger, zur Interoperabilität verpflichtet werden.
Abseits vom Digital Services und Digital Markets Act wird auch das Thema Steuern für Tech-Konzerne weiter diskutiert werden. Dies wird bereits auf OECD-Ebene diskutiert. Hier geht es darum, ein Steuermodell zu finden, bei dem die Körperschaftssteuer künftig nicht mehr nur am Firmensitz oder an Orten mit Betriebsstätte gezahlt wird, sondern zum Teil auch dort, wo Menschen die Produkte kaufen, also in den Marktstaaten. Dabei geht es insbesondere um die Besteuerung von allen multinationalen Konzernen, die mit immateriellen Wirtschaftsgütern Gewinne erzielen. Aus liberaler Sicht ist eine Doppelbesteuerung durch eine Digitalsteuer, die eine Art zweite Umsatzsteuer fungiert, abzulehnen. Ergebnisse zu diesem Thema sollen Mitte des Jahres vorgelegt werden.
Parallel zum Digital Services Act wird die neue Verordnung gegen terroristischen Online-Content (TERREG) verhandelt, die auf deutliche Kritik bei Digitalexpert:innen und Bürgerrechtler:innen stößt. Durch die Verordnung werden sogenannte Uploadfilter, also automatisierte algorithmische Systeme, überprüfen, ob ein Inhalt, der auf eine Plattform hochgeladen werden soll, zu beanstanden ist oder nicht. Die Vorgabe für große Plattformen, innerhalb einer Stunde terroristische Inhalte zu löschen, wird diese de facto dazu zwingen, diese Technologie einzusetzen. Zusätzlich zu der Problematik, dass solche automatisierten Systeme technisch nicht in der Lage sind, Inhalte präzise zu erkennen und einzuordnen, kommt im Falle der TERREG noch hinzu, dass es in der Europäischen Union keine einheitlichen Definitionen für Terror bzw. terroristische Organisationen gibt. Die Problematik wird in Ländern wie Ungarn deutlich, das Umweltaktivist:innen als “Öko-Terrorist:innen” verunglimpft und so die Verordnung dazu missbrauchen könnte, unliebsame Inhalte aus dem Netz verschwinden zu lassen. Ebenfalls werden uns die Uploadfilter aus der EU-Urheberrechtsreform weiter beschäftigen, die bis zum Sommer in nationales Recht umgesetzt werden müssen und in Deutschland zu heftigen Diskussionen zwischen Kreativen und Bürgerrechtler:innen, den einzelnen Ministerien, aber auch in den Regierungsparteien führt. Eine Klage Polens ist vor dem Europäischen Gerichtshof anhängig. Dort soll entschieden werden, ob Artikel 17 der EU-Urheberrechtsreform, der dazu führt, dass Webseitenbetreiber Upload-Filter einsetzen müssten, eine illegale „allgemeine Überwachungspflicht“ darstellt. Eine erste Stellungnahme der Generalstaatsanwaltschaft des Europäischen Gerichtshofs ist für den 22. April 2021 vorgesehen.
Zum Thema künstliche Intelligenz wurde vergangenes Jahr von der Europäischen Kommission ein Weißbuch veröffentlicht, das sich mit den „technologischen, ethischen, rechtlichen und sozioökonomischen Aspekten“ von künstlicher Intelligenz beschäftigt. Aus diesem sollen Folgemaßnahmen entwickelt werden. Die Entwicklung von Standards für künstliche Intelligenz ist wichtig, damit Europa eine ethische und rechtliche Grundlage für die Entwicklung und den Einsatz dieser Technologie bieten kann. Eine solche Regelung wäre nicht nur für Europäer:innen wichtig, sondern könnte auch weltweite Signalwirkung entfalten, um der Verbreitung chinesischer Überwachungstechnologien ein Gegengewicht bieten zu können. Dass dem Einsatz von künstlicher Intelligenz zum Beispiel bei Gesichtserkennungssoftware Grenzen aufgezeigt werden müssen, zeigen US-Städte wie San Francisco, die den Einsatz dieser Technologie im öffentlichen Raum bereits untersagt haben. Konzerne wie Amazon wollen entsprechende Software zukünftig nicht mehr Polizeibehörden verfügbar machen und IBM will die Erforschung dieser Technologie einstellen.
Hackerangriffe auf die Europäische Arzneimittel-Agentur (EMA), Tech-Unternehmen, Verlage und Krankenhäuser haben im vergangenen Jahr massiv zugenommen. Sie führen uns nicht nur vor Augen, wie vulnerabel unsere Unternehmen und Infrastruktur mittlerweile sind, sondern auch, dass an der IT-Sicherheit Menschenleben hängen. Ein Hacker-Angriff auf das Universitätsklinikum Düsseldorf hatte den Tod einer Patientin zur Folge. Die IT-Sicherheit muss durch politische Vorgaben gestärkt werden. Das Vorhaben der Innenminister:innen der EU-Mitgliedsstaaten, Hintertüren in die Verschlüsselung von Messengerdiensten einführen zu wollen, bedarf daher einer äußerst kritischen Begleitung. Schließlich geht es hier nicht nur um die Privatsphäre eines jeden, sondern auch um den Schutz der Pressefreiheit. Zudem sind Unternehmen gefährdet, denn Sicherheitslücken machen Angriffe auf die Unternehmens-IT wahrscheinlicher. Mit ihnen gehen teils enorme wirtschaftliche Schäden einher. Die EU-Kommission verwehrt sich zwar diesem Vorhaben, doch werden uns Forderungen nach Hintertüren in Verschlüsselungen auch dieses Jahr begleiten. 2021 muss das Jahr werden, in dem die Politik klarstellt, dass nur eine Verschlüsselung ohne Hintertüren Sicherheit bietet und Bürgerinnen und Bürgern ein Recht auf Verschlüsselung haben sollten.
Digitale Identitäten werden eines der wichtigsten und prägendsten Themen des Jahres. Neben der Überarbeitung der europäischen eIDAS-Verordnung, die die Standards der digitalen Identitäten regelt, möchte die Europäische Kommission auch eine Europäische-ID (EU-ID) einführen, die parallel zu nationalen eID-Systemen ausgerollt werden soll. Die Bundesregierung lehnt diesen Vorschlag der Kommission ab. Stattdessen werden Standards für ein Identitätsökosystem gefordert, also ein Wettbewerb der ID-Angebote. Durch die Errichtung eines Identitäten-Ökosystems, in das bestehende Lösungen integriert werden können, soll die Möglichkeit geschaffen werden, die bestmögliche Lösung zu finden. Wie der Vorschlag Deutschlands aufgenommen wird, wird sich im Laufe des Jahres zeigen. Er könnte insbesondere für diejenigen Mitgliedsstaaten attraktiv sein, die bereits eigene Lösungen für eIDs haben, da sich diese in das Ökosystem integrieren lassen. In Deutschland erwarten wir den digitalen Personalausweis auf dem Smartphone. Durch ihn sollen zum Beispiel Behördendienstleistungen einfacher digital in Anspruch genommen werden können. Aber auch das digitale Ausweisen bei der Eröffnung eines Bankkontos kann so leichter möglich sein.
Versäumnisse im Bildungswesen werden auch 2021 nicht aufgeholt werden können, nur die Brisanz des Themas Digitalisierung des Bildungswesens wird noch größer. Hier werden wir erkennen müssen, dass in der Not geborene Maßnahmen zur Bereitstellung digitaler Lernräume und Plattformen nicht ausreichen. Zudem wird deutlicher werden, wie dringend sich die Ausbildung für Lehrkräfte anpassen und Themen wie Didaktik im Digitalen behandeln muss. Themen wie Lehr- und Lernkonzepte im Digitalen werden uns begleiten und der Druck auf Bildungs- und Kultusminister:innen wird steigen, hier notwendige Mittel und Lösungen bereitzustellen. Auch das Thema Hardware in der Schule wird 2021 diskutiert werden. Denn bereitgestellte Hardware für Lehrkräfte und Schüler:innen will administriert und gewartet werden. Dafür braucht es zusätzliches Personal an den Schulen. Der Mangel an IT-Fachkräften wird auch hier zum Problem werden. Die Ad hoc-Lösungen im Bildungswesen während der Pandemie werden nachhaltigen und langfristigen Ersatz benötigen, um ein zeitgemäßes Lehren und Lernen gewährleisten zu können. Und auch der sogenannte Digital Divide wird uns umtreiben. Wenn Schüler:innen kein Endgerät von der Schule bereitgestellt werden kann, sind sie darauf angewiesen, dass die Familie sich genügend Endgeräte leisten kann, damit die Kinder Home Schooling machen können oder auch nach der Pandemie mit mobilen Geräten zu Hause arbeiten können. Das Recht auf Bildung darf insbesondere beim Home Schooling in der Pandemie weder durch fehlende digitale Lernplattformen noch durch fehlende Endgeräte verwehrt werden.
Das Pandemiejahr 2020 und die ersten Tage in 2021 haben uns erneut aufgezeigt, wie drängend das Thema Digitalisierung ist und dass Digitalpolitik längst kein Nischenthema mehr ist. Die Entwicklungen verdeutlichen zudem, wie wichtig es ist, dass demokratische Staaten diejenigen sein müssen, die Standards und Regulierung für den digitalen Raum festlegen. Dies darf weder Konzernen und damit der normativen Kraft des Faktischen überlassen werden, noch autoritären Staaten. Die beginnende Präsidentschaft Joe Bidens und die Erfahrungen und Erkenntnisse aus der Pandemie sollten daher der Aufruf für die größten demokratischen Staaten sein, sich zusammenzutun. Ähnlich wie das Bündnis der G7-Staaten müssen sie gemeinsam Lösungen für die digitalen Herausforderungen finden. Dazu gehören nicht nur die oben genannten – die keine abschließende Liste darstellen -, sondern auch Fragen des Umgangs mit Meinungsfreiheit und dem Datenaustausch zwischen den einzelnen Wirtschaftsräumen, insbesondere seitdem das Privacy Shield zwischen den Vereinigten Staaten und der Europäischen Union für ungültig erklärt wurde. Solch ein Zusammenschluss würde nicht nur die transatlantischen Beziehungen wieder auffrischen, sondern auch Chancen für eine lebenswerte, digital-nachhaltige Welt bieten, die auf offene Märkte und Multilateralismus setzt.
Dieser Text wurde zuerst auf freiheit.org veröffentlicht.
Bild von Thomas Ulrich auf Pixabay
Der gestrige Angriff auf das US-amerikanische Kapitol kann rückblickend nicht überraschen. Donald Trump hat seine Anhänger:innen mehrmals dazu aufgerufen, sich „bereitzumachen”. In den sozialen Medien wurde seit Tagen der 6. Januar 2021 genannt, um Gewalt auszuüben, falls der Kongress nicht die Ergebnisse der Präsidentschaftswahl von 2020 revidiere.
Auf Plattformen wie Parler, einem Twitter-Ersatz für viele Rechtsextremist:innen, dem Messenger Telegram und dem Online-Forum ‘TheDonald’ wurden seit Tagen Pläne geschmiedet, das Kapitol zu stürmen. Doch es sind nicht nur diese Nischennetzwerke, in denen öffentlich die Pläne geschmiedet werden, die gestern in die Tat umgesetzt wurden. Dies findet auch auf Twitter, TikTok und Facebook statt. Auf der letztgenannten Plattform in zahlreichen Gruppen mit tausenden von Mitgliedern, die – angestachelt von Donald Trump – die Wahl anzweifeln, Desinformationen und Verschwörungserzählungen verbreiten und eben auch zu Gewalt aufrufen.
Wie gefährlich es ist, dass diese Gruppen, Seiten und Accounts von Plattformen wie Facebook, TikTok, Twitter und Co nicht gelöscht werden, zeigt sich nun. Aber auch, wie drastisch die Auswirkungen sind, wenn ein Präsident kontinuierlich selber Desinformationen verbreitet und die freie Presse diffamiert. Zahlreiche Journalist:innen wurden gestern angegriffen, darunter auch deutsche Fernsehteams. Das Team der ARD musste die Live-Berichterstattung während der Tagesthemen abbrechen, die Ausrüstung mehrerer Fernsehteams wurde zerstört.
Diese Gewalt kommt nicht überraschend. Und sie kommt nicht aus dunklen Ecken des Internets, in die niemand Einsicht hat. Die Pläne werden nicht in verschlüsselten Messenger geschmiedet und die Aufrufe zur Gewalt nicht im ‘Dark Web’ verbreitet. Diverse Forscher und Expertinnen warnen seit langer Zeit vor der Radikalisierung im Netz, beobachten diese Seiten, weisen auf diese Foren und Plattformen hin und drängen darauf, dass Facebook und Co endlich aktiv werden müssen. Doch auch die Sicherheitsbehörden müssen endlich diese Ecken des Internets im Blick haben. Es darf nicht sein, dass wie im Falle des antisemitischen Terroranschlags von Halle, Beamt:innen des Bundeskriminalamts vor Gericht aussagen, dass sie weder die Plattformen, noch die Sprachcodes von Terroristen kennen, geschweige denn verstehen. Es braucht mehr Fortbildung und eine deutlich stärkere Beobachtung durch die Sicherheitsbehörden. Denn Plattformen wie ‘TheDonald’ werden sich sicher nicht an deutsche Gesetze halten. Wir müssen wissen, welche Radikalisierungen stattfinden und welche Pläne dort geschmiedet werden. Denn auch schon beim Angriff auf den Reichstag von Verschwörungsgläubigen, Reichsbürgerinnen und Rechtsextremisten haben wir mitlesen können, wie sie sich zu diesem Angriff verabredet haben. Nur wurde nichts dagegen unternommen.
Gestern hat Twitter mal wieder Warnlabels an ein Video von Donald Trump gesetzt, die davor warnen, dass dieser Inhalt zu Gewalt führen könnte. Das Liken und einfache Retweeten nicht aber das Zitieren, wurden verhindert. Es dauerte Stunden, bis Twitter den Account von Trump sperrte. Bis dahin hatte das Video mehr als 13 Millionen Aufrufe. Facebook hat sich relativ schnell dazu entschlossen, das Video zu löschen. Es dauerte aber auch hier Stunden, bis Facebook bekannt gab, aktiv gegen gewaltverherrlichende Inhalte auf der eigenen Plattform zu suchen.
Der Druck auf die Plattformen ihrer Verantwortung nachzukommen, wird nach den gestrigen Ereignissen zunehmen. Das ist richtig und überfällig. Es sollte uns aber zu denken geben, dass es Bilder aus Washington sind, die zum Umdenken führen. Während Gewalt und Morde, zu denen auf den bekannten Plattformen in Myanmar, in Indien oder in anderen Ländern aufgerufen wurde, zu keiner Reaktion führten. Wer global agiert, muss auch sicherstellen, dass sein Geschäftsmodell nirgends Schäden verursacht.
Dass sogenanntes Deplatforming ein Aspekt bei der Lösung dieses gewaltigen und umfassenden Problems sein kann, hat jüngst eine Studie des IDZ Jena gezeigt. Die gern aufgestellte Forderung nach mehr Befugnissen, wie zum Beispiel Hintertüren in Messenger, wirkt wie eine Farce. Ist doch all dieser Hass, all diese Aufrufe zu Gewalt frei einsehbar im Netz. Sicherheitsbehörden müssen nur endlich lernen, das Netz zu verstehen.
Dieser Text wurde zuerst auf freiheit.org veröffentlicht.
Photo by Harun Tan on Pexels.com20 Jahre nach Einführung der europäischen E-Commerce-Richtlinie, wird heute von der Europäischen Kommission der Digital Services Act (DSA) vorgestellt, der die in die Jahre gekommene Richtlinie ergänzen soll. Vor 20 Jahren, bei Einführung der E-Commerce-Richtlinie, die bis heute den Binnenmarkt für Online-Dienste regelt, gab es noch keine Social-Media-Plattformen, wie wir sie heute kennen. Regulierung, die auf die Anforderungen der Plattform-Ökonomie abzielt, ist also dringend notwendig. Neben dem Digital Services Act wird der Digital Markets Act (DMA) vorgestellt, der ebenfalls an Plattformen mit Gatekeeper-Funktion gerichtet ist. Der DMA ergänzt Regelungen zum Wettbewerbsrecht und soll die Marktmacht der großen Digitalkonzerne begrenzen.
Die noch immer gültige E-Commerce-Richtlinie beinhaltet ein Instrument, das für das Funktionieren des Internets, insbesondere von Plattformen enorm wichtig ist: das sogenannte “Notice and take down”-Verfahren. Dies entbindet, kurz gesagt, Plattformen von ihrer Haftung für illegale Inhalte Dritter, sofern sie davon keine Kenntnis haben. Dies ändert sich aber, sobald sie darüber in Kenntnis gesetzt wurden. Mit der Kenntnisnahme müssen sie handeln und die Inhalte entfernen, ansonsten haften sie für diese. Der Digital Services Act baut auf der E-Commerce-Richtlinie auf und behält dieses Instrument bei. Dies ist sehr zu begrüßen, auch vor dem Hintergrund, dass in den USA heftig um eine vergleichbare Regelung, die sogenannte Section 230 gestritten wird und der gewählte Präsident Joe Biden diese gerne abschaffen möchte.
Der Digital Services Act soll unter anderem dazu dienen, illegale Inhalte auf Plattformen besser zu regulieren und diese unter Einhaltung der Europäischen Grundrechtecharta zu entfernen. Was sich erstmal gut anhört, wirft die gleichen Probleme auf, die wir schon vom deutschen Netzwerkdurchsetzungsgesetz (NetzDG) kennen: Plattformen sollen selber entscheiden, was illegal ist. Eine Aufgabe, die die Justiz zu übernehmen hat und keine privatwirtschaftlichen Unternehmen. Dabei macht der DSA keine Aussagen darüber, was “illegale Inhalte” sind. Diese werden – zu Recht – in anderen Gesetzeswerken auf europäischer beziehungsweise nationaler Ebene geregelt. Positiv ist allerdings, dass der DSA wie das NetzDG eine Ansprechperson des in der Europäischen Union operierenden Plattformbetreibers fordert. Ebenso haben die Mitgliedsstaaten einen “Digital Services Coordinator” zu bestimmen, der die Aufsicht über die Einhaltung der Regelungen im Mitgliedsstaat hat und sich auf europäischer Ebene zum “European Board for Digital Services” zusammenschließt, das der Europäischen Kommission als Beratungsgremium zur Seite steht.
Mit dem Digital Services Act kommen allerdings auch einige Verbesserungen für Nutzer:innen von digitalen Plattformen, inbesondere in Bezug auf Inhalte, die nach den plattformeigenen Communitystandards entfernt wurden. So müssen beispielsweise Nutzer:innen darüber informiert werden, warum ihre Inhalte von der Plattform gelöscht wurden. Die Plattform muss nach dem DSA Möglichkeiten anbieten, zu der getroffenen Entscheidung Widerspruch einzulegen und eine Plattform zur Streitschlichtung bereithalten. Ebenso ist zu begrüßen, dass der DSA Schutzmaßnahmen vorsieht, um den Missbrauch der Meldefunktion für Beiträge zu verhindern – werden mit falschen Meldungen doch häufig versucht unliebsame Meinungen mundtot zu machen. Plattformen wird daher nahegelegt, Regelungen zu finden, diese Nutzer:innen temporär zu sperren, dieses Vorgehen aber auch in ihren AGB darzulegen. Ebenso soll in den AGB in verständlicher Sprache dargelegt werden, ob die Inhalte durch Menschen oder Algorithmen moderiert werden.
Der Digital Services Act unterscheidet bei den beabsichtigten Pflichten die Größe von Plattformen. Er nimmt explizit zur Kenntnis, dass “sehr große Plattformen” einen ganz anderen Impact auf die europäischen Gesellschaften haben. So definiert der DSA sehr große Plattformen als Plattformen, die mehr als 45 Millionnen Nutzer:innen haben, bzw. 10 Prozent der Unionsbürger:innen. Die Strafen, die Der Digital Services Act bei Verstößen vorsieht, sind beachtlich: Bis zu 6 Prozent des Jahresumsatzes sind hier bei äußerst schweren Verstößen möglich.
Nutzer:innen sollen besser verstehen können, wie sich die Inhalte, die ihnen angezeigt werden, zusammensetzen. Dazu sollen sehr große Plattformen darlegen, was ihre Parameter für Empfehlungssysteme (z.B. der News Feed) sind und ermöglichen , dass alternative Einstellungen vorgenommen werden können. Dazu gehört auch die Möglichkeit einer neutralen Anordnung der Inhalte, die nicht anhand der von der Plattform antizipierten Vorlieben der Nutzer:in erstellt wird. Auch soll Nutzer:innen erkennen können, warum ihnen Werbeanzeigen angezeigt werden, also nach welchen Parametern das sogenannte Micro-Targeting erfolgte. Ebenso soll erkennbar sein, wer für die Anzeige zahlte.
Wie bereits im Anfang Dezember vorgestellten “European Democracy Action Plan” erwähnt wurde, finden sich im Digital Services Act Regelungen , die die Verbreitung von Desinformation einhegen sollen. Online-Plattformen sind angehalten, einen Code of Conduct zu erstellen, in dem sie darlegen, wie sie mit Inhalten, die zwar nicht illegal aber dennoch schädlich sind, umgehen wollen. Dazu gehört auch der Umgang mit Fake-Accounts und Bots, die häufig dazu beitragen, Desinformationen und andere schädliche, aber nicht illegale Inhalte zu verbreiten. Plattformen, die keinen Code of Conduct haben und dies nicht begründen können, kann vorgeworfen werden, dass sie sich nicht an die Vorgaben des DSA halten. Die im Action Plan angekündigte Pflicht zur Bereitstellung von Daten zu Forschungszwecken findet sich im DSA wieder.
Ebenfalls zu begrüßen ist, dass sehr große Plattformen Pläne für Krisenfälle vorhalten sollen, zum Beispiel Pandemien, Erdbeben oder terroristische Anschläge. Zur Risikobewertung und -minderung wird diesen Plattformen außerdem nahegelegt, Nutzer:innen, besonders betroffene Personen, unabhängige Expertinnen und Vertreter der Zivilgesellschaft in ihre Maßnahmen mit einzubeziehen. Dies ist insbesondere in Anbetracht des Genozids an den Rohingya in Myanmar, der durch Desinformation und Hate Speech auf Facebook befeuert wurde, auf den die Plattform lange keine Antwort fand, ein wichtiger Schritt.
Der Digital Services Act könnte auch für Kanäle (und ggf. auch Gruppen) auf Telegram greifen und damit umfassender sein, als das deutsche NetzDG, das bei Messengern wie Telegram, die auch eine öffentliche Kommunikation ermöglichen, eine Lücke aufweist. Die würde dazu führen, dass auch Telegram eine Ansprechperson in Europa benennen müsste. Keine Anwendung soll der DSA auf private Kommunikation über Messenger und E-Mails finden, sondern nur auf Gruppen , die für die Öffentlichkeit gedacht sind.
Mit dem Digital Services Act soll eine einheitliche Regulierung für den europäischen digitalen Binnenmarkt geschaffen werden, der auch eine Maßnahme gegen den Flickenteppich an nationaler Gesetzgebung sein soll, wie er zum Beispiel durch das deutsche NetzDG oder das französische “Avia Law” entstanden ist. Dabei löst er die nationalen Gesetze allerdings nicht ab, sondern ergänzt und vereinheitlicht sie. Der DSA erhebt den Anspruch, internationale Standards setzen zu wollen. Dass er dies mit der Privatisierung der Rechtsdurchsetzung an die Plattformen anstrebt – wie schon beim NetzDG –, ist scharf zu kritisieren. Es bleibt zu wünschen, dass sich das Europäische Parlament im Rahmen der Verhandlungen über den finalen Text der Richtlinie für eine sinnvollere Lösung einsetzt.
Dieser Artikel erschien zuerst auf freiheit.org.
Bild von Laurent Verdier auf Pixabay
Während man in Deutschland häufig das Gefühl hat, dass Desinformationen für den gesellschaftlichen Zusammenhalt und den demokratischen Diskurs keine ernstzunehmende Bedrohung darstellen, ist man auf europäischer Ebene schon deutlich weiter. Mit dem am 3. Dezember 2020 vorgestellten “European Democracy Action Plan” zeigt die EU-Kommission, insbesondere die liberale Vize-Kommissionspräsidentin Věra Jourová, dass sie die Probleme, die durch Desinformationen entstehen, nicht nur verstanden hat, sondern auch richtige Regulierungsansätze wählt.
„Wir wollen kein Wahrheitsministerium schaffen, Redefreiheit ist wesentlich“, sagte Jourová bei der Vorstellung des Action Plans und dies spiegelt sich auch bei den vorgestellten Maßnahmen gegen Desinformation wider. Dazu gehört zum einen, dass davon abgesehen wird, Inhalte zu regulieren. Etwas, das man noch zu wenig bis gar nicht in der deutschen Debatte um Maßnahmen gegen Desinformationen hört. Hier spielt sich der Diskurs unter Politiker:innen – wenn er denn überhaupt stattfindet – meist zwischen “Fake News” strafbar machen und “Inhalte löschen” ab. Beide Pole sind aber weder praktikabel, noch rechtsstaatlich vertretbar oder nachhaltig in ihrer Wirkung.
So ist es nicht nur erfreulich, dass im Action Plan konsequent von Desinformation gesprochen wird und der unscharfe Kampfbegriff “Fake News” gar nicht erst auftaucht, sondern auch, dass von einer bislang wirkungslosen Selbstregulierung auf regulierte Selbstregulierung (Co-Regulierung) umgeschwenkt wird. Dazu sieht der Action Plan beispielsweise vor, dass das Fact-Checking durch Partnerorganisationen auf den Social-Media-Plattformen deutlich transparenter und durch festgelegte Standards zu erfolgen hat. Diese Standards sollen einen Rahmen bieten, nach denen die kooperierenden Fact-Checking-Organisationen Inhalte prüfen und gegebenenfalls als “irreführend” oder “falsch” markieren. Das würde nicht nur den Plattform-Nutzer:innen dienen, sondern auch die Basis für eine bessere Zusammenarbeit zwischen Social-Media-Plattformen und Faktencheckern sorgen. Auch sollen die Maßnahmen gegen Desinformationen der Plattformen stärker überwacht und deren Wirkung nach festgelegten Erfolgsfaktoren überprüft werden. Ebenso soll die längst überfällige Bereitstellung von Daten für die Forschung unter Einhaltung der Datenschutzgrundverordnung gewährleistet werden. Dazu soll ein entsprechender Rahmen unter Einbeziehung aller relevanter Interessensgruppen entwickelt werden.
Zu begrüßen ist außerdem, dass der Action Plan die Mechanismen in den Fokus nimmt, die zur Verbreitung von Desinformation beitragen. Hier wird richtig angesetzt, indem die Akteure, beziehungsweise die Verbreitungsmechanismen adressiert werden, und nicht die eigentlichen Inhalte. Diese zu regulieren ist schlicht nicht möglich – abseits von rechtswidrigen Inhalten – und würde auf ein Wahrheitsministerium hinauslaufen. Der Action Plan schlägt vor, dass Plattformen Maßnahmen ergreifen müssen, die eine künstliche Verstärkung der Verbreitung von Desinformationen verhindern. Twitter hat dies beispielsweise schon bei den US-Präsidentschaftswahlen umgesetzt, als es nicht mehr möglich war, die als “irreführend” oder “falsch” markierten Tweets von Donald Trump mit “gefällt mir” zu markieren oder zu retweeten. Facebook verzichtete auf solche Funktionen und markierte nur – auch das erst spät – falsche Informationen des Präsidenten.
Zusätzlich sollen Plattformen dafür sorgen, dass das Geldverdienen mit Desinformationen erschwert wird. Dies adressiert vor allem die Akteure, die in Desinformationen kein Werkzeug zur Spaltung von Gesellschaften sehen, sondern als Instrument, um sich finanziell zu bereichern. Dazu sollen die Plattformen dafür sorgen, dass beispielsweise in Videos, die als “irreführend” oder “falsch” eingestuft wurden, keine Werbeanzeigen mehr eingeblendet werden. Ebenso hatten in der Vergangenheit Kriminelle “Nachrichtenportale” erstellt, die mit reißerischen, erfundenen “Nachrichten” Klicks auf Webseiten generiert haben. Durch die auf Webseiten oder in Videos eingeblendeten Werbebanner von Werbenetzwerken wurden erhebliche Summen verdient. Diese Maßnahme zielt sowohl auf die Werbenetzwerke auf den Social-Media-Plattformen ab, als auch auf Netzwerke, die Werbung auf Seiten Dritter ausspielen, wie beispielsweise Googles AdSense.
Der vorgelegte Action Plan ist nicht mehr als ein Plan. Aber er macht Hoffnung, dass Mechanismen und Wirkweisen verstanden wurden, die zur Bedrohung von Demokratien im digitalen Raum beitragen. Er setzt an den Mechanismen an, die mit-ursächlich für die rasante digitale Verbreitung von Desinformationen auf Plattformen sind und nicht an den Inhalten. Damit schont er unsere Grund- und Bürgerrechte. Die vorgeschlagenen Maßnahmen können nur ein Anfang für eine gute Regulierung des digitalen Raums zum Schutze unserer Demokratien sein. Spannend wird dazu das Zusammenspiel mit dem Digital Services Act sein, der am 15. Dezember 2020 vorgestellt werden soll.
Dieser Text erschien zuerst auf freiheit.org.
Photo by Markus Spiske on Unsplash
Die Initiative #SheTransformsIT ist ein Zusammenschluss von 50 Erstunterzeichnerinnen die sich für mehr Diversität bei der Digitalisierung in den Bereichen Politik, Wirtschaft, Wissenschaft, Bildung und Medien einsetzen. Ich freue mich, eine dieser 50 Ersunterzeichnerinnen zu sein.
Die Initiative wurde mit auf dem Digital Gipfel der Bundesregierung 2020 vorgestellt.
Die 50 Erstunterzeichnerinnen sind:
Filiz Albrecht | Prof. Dr. Julia C. Arlinghaus | Dorothee Bär | Felicitas Birkner | Vanessa Cann |Dr. Anna Christmann | Valentina Daiber | Susanne Dehmel | Prof. Ira Diethelm | Anke Domscheit-Berg | Dr. Laura Sophie Dornheim | Saskia Esken | Elke Hannack | Maren Heltsche | Prof. Dr. Katharina Hölzle | Isabelle Hoyer | Carla Hustedt | Aya Jaff | Elizabeth Kaiser | Bettina Karsch | Ronja Kemmer | Viola Klein | Julia Kloiber | Daniela Kluckert | Prof. Julia Knopf | Christa Koenen | Elvan Korkmaz-Emre | Laura-Kristine Krause | Melanie Kreis | Mona Küppers | Franzi Kühne | Prof. Dr. Ulrike Lucke | Dr. Helga Lukoschat | Dr. Gesa Miczaika | Prof. Dr. Katharina Morik | Lena-Sophie Müller | Dr. Sigrid Nikutta | Tijen Onaran | Verena Pausder | Iris Plöger | Christine Regitz | Ann Cathrin Riedel | Tabea Rößner | Ulle Schauws | Nadine Schön | Prof. Dr. Martina Schraudner | Prof. Barbara Schwarze | Prof. Dr. Louisa Specht-Riemenschneider | Dr. Katrin Suder | Katja Suding | Miriam Wohlfarth
Im Rahmen des deutsch-israelischen Dialog-Projekts “Rethinking Privacy and Mass Surveillance in the Information Age” durfte ich für die Heinrich-Böll-Stiftung Israel und das Israel Public Policy Institute ein Papier über die Debatte zur deutschen Corona-Warn-App verfassen. Das Papier „The German Corona-App: Expectations, Debates and Results“ kann hier heruntergeladen werden. Es war Teil eines anschließenden Dialogs mit Eran Toch, der die israelische Perspektive einbrachte. Sein Papier „Eroding Trust: Contact Tracing Technologies in Israel“ kann hier heruntergeladen werden.
Der jüngste, aufsehenerregende Vorfall passierte auf Instagram: Dank insbesondere der Berliner Influencerin Louisa Dellert und der feministischen Aktivistin Kristina Lunz, konnten wir miterleben, was Frauen regelmäßig ertragen müssen.
Im Netz werden sie mit Bedrohungen überhäuft – meist durch aufgestachelte Follower eines Nutzers. In diesem Fall von dem Comedian Hendrik Nitsch, besser bekannt als „Udo Bönstrup“, der sich vor einigen Tagen über ein Statement gegen sexistische Hassnachrichten lustig machte. Nur haben sich die betroffenen Frauen diesmal lautstark gewehrt.
Insbesondere bei Frauen, die sich öffentlich gegen Frauenfeindlichkeit aussprechen, wird häufig versucht, sie mundtot zu machen. Und dieser aktuelle Fall zeigt: Beim Thema digitale Gewalt ist noch viel zu tun. Hinweise von anderen Menschen, dass man sich nicht so darüber aufregen solle, tragen zu diesem sogenannten Silencing bei und verschlimmern die Gewalterfahrung. Zu viele Frauen ertragen diese digitale Gewalt. Das darf nicht sein.
Wussten Sie, dass 70 Prozent der Mädchen und jungen Frauen in Deutschland Bedrohungen, Beleidigungen und Diskriminierungen in sozialen Medien ausgesetzt sind? Das ergab eine Studie von Plan International unter 15- bis 24-Jährigen.
Auch die neueste Studie der Initiative D21, „Digitales Leben““, kommt zu dem Ergebnis, dass Frauen häufiger unter (oft sexualisierten) Belästigungen im Netz leiden. Frauen nehmen laut der Studie weniger die Möglichkeiten des gesellschaftlichen und politischen Engagements auf sozialen Medien wahr als Männer.
Die Europäische Akademie für Frauen in Politik und Wirtschaft (EAF) hat in ihren Analysen zur Kommunalpolitik herausgefunden, dass der Grund für ein geringeres Engagement in der Politik zu einem erheblichen Teil in den Bedrohungen und Beschimpfungen im digitalen Raum liege. Nach einer Auswertung des Guardian aus dem Jahr 2016 verstärken sich die Anfeindungen sogar noch, wenn ein Migrationshintergrund vorliegt.
Das sind erschreckende Befunde. Sie zeigen, dass Frauenfeindlichkeit noch weit verbreitet ist. Dabei dürfen wir nicht vergessen, dass dieser Hass von Menschen ausgeht, die auch in der analogen Welt agieren. Sie sind dort keine anderen Personen. Wir müssen allen Menschen einen sicheren – analogen wie digitalen – Raum bieten, in dem sie sich diskriminierungsfrei äußern können und damit auch, aber nicht nur, an demokratischen Diskursen teilnehmen können.
Um einen sicheren digitalen Raum zu ermöglichen, müssen wir entschieden gegen digitale Gewalt vorgehen. Diese sieben Vorschläge sehen wir als wichtigen Anfang:
1. Zu Beginn steht Solidarität! Die braucht es nicht nur von Frauen. Gewalt gegen Frauen ist kein Frauenproblem, sondern ein gesellschaftliches Problem, meist ein Männerproblem. Tätern muss das Gefühl genommen werden, dass sie Macht über ihr Opfer haben. Ihnen muss klargemacht werden, dass ihr Verhalten – ob strafbar oder nicht – von einer offenen Gesellschaft nicht toleriert wird.
2. Hate Speech ist Gewalterfahrung. Opfer brauchen besondere Betreuung. Auch und gerade bei Straf- oder Zivilrechtsverfahren. Anlaufstellen, bei denen sie vorab Hilfe bekommen können und sich über ihre rechtlichen Möglichkeiten, aber auch Maßnahmen zum persönlichen Schutz informiert werden können, sind essenziell. Es braucht mehr von diesen Anlaufstellen. Bei schweren Ehrverletzungen sollte den Opfern zudem ein „Opferanwalt“ und eine psychosoziale Prozessbegleitung zur Seite gestellt werden.
3. Straftaten im Netz müssen besser geahndet werden durch spezialisierte Kräfte in Polizei und Justiz. Zentralstellen der Staatsanwaltschaft wie sie zum Beispiel in Nordrhein-Westfalen schon eingerichtet wurden, sind hierfür sinnvoll. Polizei und Justiz müssen über technischen Sachverstand und modernste Ausstattung im digitalen Raum verfügen. Zudem müssen sie die Tragweite von Angriffen einschätzen und ernst nehmen können. Vorschläge, wie den Twitter- oder Instagram-Account zu löschen, dürfen nicht erfolgen.
4. Strafanzeigen müssen einfach, online und anonymisiert gestellt werden können. In Zivilprozessen muss es für die Geschädigten möglich sein, das Verfahren auch ohne Nennung der privaten Anschrift zu betreiben, sondern derjenigen der beratenden Kanzlei oder NGO. Dies wird von Gerichten nach Angabe von Betroffenen nicht immer akzeptiert. Es ist aber von essentieller Bedeutung, da ansonsten der Täter über eine Akteneinsicht die Privatanschrift erfahren könnte.
5. Das durch das Netzwerkdurchsetzungsgesetz geregelte eigenmächtige Löschen durch die Plattformen ohne Verfahren ist nicht zielführend. Vereinfachte Onlineverfahren, sogenannte e-Courts, können eine Beschleunigung von Verfahren ermöglichen. Zeit ist bei solchen Vorfällen von enormer Bedeutung. Onlineverfahren können nicht nur die Justiz entlasten. Zeitnahe Urteile sorgen auch bei Tätern für eine nachhaltige Wirkung.
6. Polizei und Justiz müssen effektiv und schnell mit den Plattformen und NGOs zusammenarbeiten. NGOs wie zum Beispeil „Hate Aid“, „Hassmelden“ und „Ich bin hier“ sollen die Möglichkeit bekommen, den Staatsanwaltschaften digital Strafanzeigen zuzuleiten. Sie verfügen über die Expertise der Beweissicherung und können so schnell die Staatsanwaltschaft unterstützen und Betroffenen helfen.
7. Plattformen wie Instagram tragen Verantwortung. Sie müssen ihre eigenen Regeln durchsetzen und dürfen orchestrierten Hass nicht hinnehmen. Sie müssen mehr Content-Moderatorinnen und -Moderatoren einsetzen, die gemeldete Inhalte prüfen. Des Weiteren sollten Plattformen veröffentlichen, wie viele Moderatorinnen und Moderatoren sie beschäftigen. Schulungen zu geschlechtsspezifischem Hass und Silencing müssen für sie verpflichtend sein.
Es gibt noch viel zu tun. Wir dürfen bei den Problemen im digitalen Raum nie vergessen, dass diese nicht unabhängig von der analogen Welt passieren. Unser Justizwesen muss dafür gewappnet sein. Wir brauchen einen starken und modernen Rechtsstaat, der Opfer auch im digitalen Raum schützen kann. Hier sind vor allem die Länder in der Pflicht nachzubessern. Forderungen nach schärferen Gesetzen oder die alleinige Adressierung der Plattformen greifen zu kurz, denn das Problem ist umfassend. Frauenhass und die Herabwürdigung von Frauen sitzen in unserer Gesellschaft noch tief. Gehen wir es an!