Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt

Dezember 2020

Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt

20 Jahre nach Einführung der europäischen E-Commerce-Richtlinie, wird heute von der Europäischen Kommission der Digital Services Act (DSA) vorgestellt, der die in die Jahre gekommene Richtlinie ergänzen soll. Vor 20 Jahren, bei Einführung der E-Commerce-Richtlinie, die bis heute den Binnenmarkt für Online-Dienste regelt, gab es noch keine Social-Media-Plattformen, wie wir sie heute kennen. Regulierung, die auf die Anforderungen der Plattform-Ökonomie abzielt, ist also dringend notwendig. Neben dem Digital Services Act wird der Digital Markets Act (DMA) vorgestellt, der ebenfalls an Plattformen mit Gatekeeper-Funktion gerichtet ist. Der DMA ergänzt Regelungen zum Wettbewerbsrecht und soll die Marktmacht der großen Digitalkonzerne begrenzen. 

Die noch immer gültige E-Commerce-Richtlinie beinhaltet ein Instrument, das für das Funktionieren des Internets, insbesondere von Plattformen enorm wichtig ist: das sogenannte “Notice and take down”-Verfahren. Dies entbindet, kurz gesagt, Plattformen von ihrer Haftung für illegale Inhalte Dritter, sofern sie davon keine Kenntnis haben. Dies ändert sich aber, sobald sie darüber in Kenntnis gesetzt wurden. Mit der Kenntnisnahme müssen sie handeln und die Inhalte entfernen, ansonsten haften sie für diese. Der Digital Services Act baut auf der E-Commerce-Richtlinie auf und behält dieses Instrument bei. Dies ist sehr zu begrüßen, auch vor dem Hintergrund, dass in den USA heftig um eine vergleichbare Regelung, die sogenannte Section 230 gestritten wird und der gewählte Präsident Joe Biden diese gerne abschaffen möchte.

Der Digital Services Act soll unter anderem dazu dienen, illegale Inhalte auf Plattformen besser zu regulieren und diese unter Einhaltung der Europäischen Grundrechtecharta zu entfernen. Was sich erstmal gut anhört, wirft die gleichen Probleme auf, die wir schon vom deutschen Netzwerkdurchsetzungsgesetz (NetzDG) kennen: Plattformen sollen selber entscheiden, was illegal ist. Eine Aufgabe, die die Justiz zu übernehmen hat und keine privatwirtschaftlichen Unternehmen. Dabei macht der DSA keine Aussagen darüber, was “illegale Inhalte” sind. Diese werden – zu Recht – in anderen Gesetzeswerken auf europäischer beziehungsweise nationaler Ebene geregelt. Positiv ist allerdings, dass der DSA wie das NetzDG eine Ansprechperson des in der Europäischen Union operierenden Plattformbetreibers fordert. Ebenso haben die Mitgliedsstaaten einen “Digital Services Coordinator” zu bestimmen, der die Aufsicht über die Einhaltung der Regelungen im Mitgliedsstaat hat und sich auf europäischer Ebene zum “European Board for Digital Services” zusammenschließt, das der Europäischen Kommission als Beratungsgremium zur Seite steht. 

Mit dem Digital Services Act kommen allerdings auch einige Verbesserungen für Nutzer:innen von digitalen Plattformen, inbesondere in Bezug auf Inhalte, die nach den plattformeigenen Communitystandards entfernt wurden. So müssen beispielsweise Nutzer:innen darüber informiert werden, warum ihre Inhalte von der Plattform gelöscht wurden. Die Plattform muss nach dem DSA Möglichkeiten anbieten, zu der getroffenen Entscheidung Widerspruch einzulegen und eine Plattform zur Streitschlichtung bereithalten. Ebenso ist zu begrüßen, dass der DSA Schutzmaßnahmen vorsieht, um den Missbrauch der Meldefunktion für Beiträge zu verhindern – werden mit falschen Meldungen doch häufig versucht unliebsame Meinungen mundtot zu machen. Plattformen wird daher nahegelegt, Regelungen zu finden, diese Nutzer:innen temporär zu sperren, dieses Vorgehen aber auch in ihren AGB darzulegen. Ebenso soll in den AGB in verständlicher Sprache dargelegt werden, ob die Inhalte durch Menschen oder Algorithmen moderiert werden.

Der Digital Services Act unterscheidet bei den beabsichtigten Pflichten die Größe von Plattformen. Er nimmt explizit zur Kenntnis, dass “sehr große Plattformen” einen ganz anderen Impact auf die europäischen Gesellschaften haben. So definiert der DSA sehr große Plattformen als Plattformen, die mehr als 45 Millionnen Nutzer:innen haben, bzw. 10 Prozent der Unionsbürger:innen. Die Strafen, die Der Digital Services Act bei Verstößen vorsieht, sind beachtlich: Bis zu 6 Prozent des Jahresumsatzes sind hier bei äußerst schweren Verstößen möglich.

Nutzer:innen sollen besser verstehen können, wie sich die Inhalte, die ihnen angezeigt werden, zusammensetzen. Dazu sollen sehr große Plattformen darlegen, was ihre Parameter für Empfehlungssysteme (z.B. der News Feed) sind und ermöglichen , dass alternative Einstellungen vorgenommen werden können. Dazu gehört auch die Möglichkeit einer neutralen Anordnung der Inhalte, die nicht anhand der von der Plattform antizipierten Vorlieben der Nutzer:in erstellt wird. Auch soll Nutzer:innen erkennen können, warum ihnen Werbeanzeigen angezeigt werden, also nach welchen Parametern das sogenannte Micro-Targeting erfolgte. Ebenso soll erkennbar sein, wer für die Anzeige zahlte.

Wie bereits im Anfang Dezember vorgestellten “European Democracy Action Plan” erwähnt wurde, finden sich im Digital Services Act Regelungen , die die Verbreitung von Desinformation einhegen sollen. Online-Plattformen sind angehalten, einen Code of Conduct zu erstellen, in dem sie darlegen, wie sie mit Inhalten, die zwar nicht illegal aber dennoch schädlich sind, umgehen wollen. Dazu gehört auch der Umgang mit Fake-Accounts und Bots, die häufig dazu beitragen, Desinformationen und andere schädliche, aber nicht illegale Inhalte zu verbreiten. Plattformen, die keinen Code of Conduct haben und dies nicht begründen können, kann vorgeworfen werden, dass sie sich nicht an die Vorgaben des DSA halten.  Die im Action Plan angekündigte Pflicht zur Bereitstellung von Daten zu Forschungszwecken findet sich im DSA wieder.

Ebenfalls zu begrüßen ist, dass sehr große Plattformen Pläne für Krisenfälle vorhalten sollen, zum Beispiel Pandemien, Erdbeben oder terroristische Anschläge. Zur Risikobewertung und -minderung wird diesen Plattformen außerdem nahegelegt, Nutzer:innen, besonders betroffene Personen, unabhängige Expertinnen und Vertreter der Zivilgesellschaft in ihre Maßnahmen mit einzubeziehen. Dies ist insbesondere in Anbetracht des Genozids an den Rohingya in Myanmar, der durch Desinformation und Hate Speech auf Facebook befeuert wurde, auf den die Plattform lange keine Antwort fand, ein wichtiger Schritt.

Der Digital Services Act könnte auch für Kanäle (und ggf. auch Gruppen) auf Telegram greifen und damit umfassender sein, als das deutsche NetzDG, das bei Messengern wie Telegram, die auch eine öffentliche Kommunikation ermöglichen, eine Lücke aufweist. Die würde dazu führen, dass auch Telegram eine Ansprechperson in Europa benennen müsste. Keine Anwendung soll der DSA auf private Kommunikation über Messenger und  E-Mails finden, sondern nur auf  Gruppen , die für die Öffentlichkeit gedacht sind.

Mit dem Digital Services Act soll eine einheitliche Regulierung für den europäischen digitalen Binnenmarkt geschaffen werden, der auch eine Maßnahme gegen den Flickenteppich an nationaler Gesetzgebung sein soll, wie er zum Beispiel durch das deutsche NetzDG oder das französische “Avia Law” entstanden ist. Dabei löst er die nationalen Gesetze allerdings nicht ab, sondern ergänzt und vereinheitlicht sie. Der DSA erhebt den Anspruch, internationale Standards setzen zu wollen. Dass er dies mit der Privatisierung der Rechtsdurchsetzung an die Plattformen anstrebt – wie schon beim NetzDG –, ist scharf zu kritisieren. Es bleibt zu wünschen, dass sich das Europäische Parlament im Rahmen der Verhandlungen über den finalen Text der Richtlinie für eine sinnvollere Lösung einsetzt.

Dieser Artikel erschien zuerst auf freiheit.org.

Bild von Laurent Verdier auf Pixabay 

Read More
European Democracy Action Plan: Mechanismen statt Inhalte

Die EU-Kommission wählt die richtigen Ansätze zur Regulierung von Desinformation

Während man in Deutschland häufig das Gefühl hat, dass Desinformationen für den gesellschaftlichen Zusammenhalt und den demokratischen Diskurs keine ernstzunehmende Bedrohung darstellen, ist man auf europäischer Ebene schon deutlich weiter. Mit dem am 3. Dezember 2020 vorgestellten “European Democracy Action Plan” zeigt die EU-Kommission, insbesondere die liberale Vize-Kommissionspräsidentin Věra Jourová, dass sie die Probleme, die durch Desinformationen entstehen, nicht nur verstanden hat, sondern auch richtige Regulierungsansätze wählt.

„Wir wollen kein Wahrheitsministerium schaffen, Redefreiheit ist wesentlich“, sagte  Jourová bei der Vorstellung des Action Plans und dies spiegelt sich auch bei den vorgestellten Maßnahmen gegen Desinformation wider. Dazu gehört zum einen, dass davon abgesehen wird, Inhalte zu regulieren. Etwas, das man noch zu wenig bis gar nicht in der deutschen Debatte um Maßnahmen gegen Desinformationen hört. Hier spielt sich der Diskurs unter Politiker:innen – wenn er denn überhaupt stattfindet – meist zwischen “Fake News” strafbar machen und “Inhalte löschen” ab. Beide Pole sind aber weder praktikabel, noch rechtsstaatlich vertretbar oder nachhaltig in ihrer Wirkung.

So ist es nicht nur erfreulich, dass im Action Plan konsequent von Desinformation gesprochen wird und der unscharfe Kampfbegriff “Fake News” gar nicht erst auftaucht, sondern auch, dass von einer bislang wirkungslosen Selbstregulierung auf regulierte Selbstregulierung (Co-Regulierung) umgeschwenkt wird. Dazu sieht der Action Plan beispielsweise vor, dass das Fact-Checking durch Partnerorganisationen auf den Social-Media-Plattformen deutlich transparenter und durch festgelegte Standards zu erfolgen hat. Diese Standards sollen einen Rahmen bieten, nach denen die kooperierenden Fact-Checking-Organisationen Inhalte prüfen und gegebenenfalls als “irreführend” oder “falsch” markieren. Das würde nicht nur den Plattform-Nutzer:innen dienen, sondern auch die Basis für eine bessere Zusammenarbeit zwischen Social-Media-Plattformen und Faktencheckern sorgen. Auch sollen die Maßnahmen gegen Desinformationen der Plattformen stärker überwacht und deren Wirkung nach festgelegten Erfolgsfaktoren überprüft werden. Ebenso soll die längst überfällige Bereitstellung von Daten für die Forschung unter Einhaltung der Datenschutzgrundverordnung gewährleistet werden. Dazu soll ein entsprechender Rahmen unter Einbeziehung aller relevanter Interessensgruppen entwickelt werden.

Zu begrüßen ist außerdem, dass der Action Plan die Mechanismen in den Fokus nimmt, die zur Verbreitung von Desinformation beitragen. Hier wird richtig angesetzt, indem die Akteure, beziehungsweise die Verbreitungsmechanismen adressiert werden, und nicht die eigentlichen Inhalte. Diese zu regulieren ist schlicht nicht möglich – abseits von rechtswidrigen Inhalten – und würde auf ein Wahrheitsministerium hinauslaufen. Der Action Plan schlägt vor, dass Plattformen Maßnahmen ergreifen müssen, die eine künstliche Verstärkung der Verbreitung von Desinformationen verhindern. Twitter hat dies beispielsweise schon bei den US-Präsidentschaftswahlen umgesetzt, als es nicht mehr möglich war, die als “irreführend” oder “falsch” markierten Tweets von Donald Trump mit “gefällt mir” zu markieren oder zu retweeten. Facebook verzichtete auf solche Funktionen und markierte nur – auch das erst spät – falsche Informationen des Präsidenten.

Zusätzlich sollen Plattformen dafür sorgen, dass das Geldverdienen mit Desinformationen erschwert wird. Dies adressiert vor allem die Akteure, die in Desinformationen kein Werkzeug zur Spaltung von Gesellschaften sehen, sondern als Instrument, um sich finanziell zu bereichern. Dazu sollen die Plattformen dafür sorgen, dass beispielsweise in Videos, die als “irreführend” oder “falsch” eingestuft wurden, keine Werbeanzeigen mehr eingeblendet werden. Ebenso hatten in der Vergangenheit Kriminelle “Nachrichtenportale” erstellt, die mit reißerischen, erfundenen “Nachrichten” Klicks auf Webseiten generiert haben. Durch die auf Webseiten oder in Videos eingeblendeten Werbebanner von Werbenetzwerken wurden erhebliche Summen verdient. Diese Maßnahme zielt sowohl auf die Werbenetzwerke auf den Social-Media-Plattformen ab, als auch auf Netzwerke, die Werbung auf Seiten Dritter ausspielen, wie beispielsweise Googles AdSense.  

Der vorgelegte Action Plan ist nicht mehr als ein Plan. Aber er macht Hoffnung, dass Mechanismen und Wirkweisen verstanden wurden, die zur Bedrohung von Demokratien im digitalen Raum beitragen. Er setzt an den Mechanismen an, die mit-ursächlich für die rasante digitale Verbreitung von Desinformationen auf Plattformen sind und nicht an den Inhalten. Damit schont er unsere Grund- und Bürgerrechte. Die vorgeschlagenen Maßnahmen können nur ein Anfang für eine gute Regulierung des digitalen Raums zum Schutze unserer Demokratien sein. Spannend wird dazu das Zusammenspiel mit dem Digital Services Act sein, der am 15. Dezember 2020 vorgestellt werden soll. 

Dieser Text erschien zuerst auf freiheit.org.

Photo by Markus Spiske on Unsplash

Read More
Erstunterzeichnerin der Initiative #SheTransformsIT

Die Initiative #SheTransformsIT ist ein Zusammenschluss von 50 Erstunterzeichnerinnen die sich für mehr Diversität bei der Digitalisierung in den Bereichen Politik, Wirtschaft, Wissenschaft, Bildung und Medien einsetzen. Ich freue mich, eine dieser 50 Ersunterzeichnerinnen zu sein.

Die Initiative wurde mit auf dem Digital Gipfel der Bundesregierung 2020 vorgestellt.

Die 50 Erstunterzeichnerinnen sind:

Filiz Albrecht | Prof. Dr. Julia C. Arlinghaus | Dorothee Bär | Felicitas Birkner | Vanessa Cann |Dr. Anna Christmann | Valentina Daiber | Susanne Dehmel | Prof. Ira Diethelm | Anke Domscheit-Berg | Dr. Laura Sophie Dornheim | Saskia Esken | Elke Hannack | Maren Heltsche | Prof. Dr. Katharina Hölzle | Isabelle Hoyer | Carla Hustedt | Aya Jaff | Elizabeth Kaiser | Bettina Karsch | Ronja Kemmer | Viola Klein | Julia Kloiber | Daniela Kluckert | Prof. Julia Knopf | Christa Koenen | Elvan Korkmaz-Emre | Laura-Kristine Krause | Melanie Kreis | Mona Küppers | Franzi Kühne | Prof. Dr. Ulrike Lucke | Dr. Helga Lukoschat | Dr. Gesa Miczaika | Prof. Dr. Katharina Morik | Lena-Sophie Müller | Dr. Sigrid Nikutta | Tijen Onaran | Verena Pausder | Iris Plöger | Christine Regitz | Ann Cathrin Riedel | Tabea Rößner | Ulle Schauws | Nadine Schön | Prof. Dr. Martina Schraudner | Prof. Barbara Schwarze | Prof. Dr. Louisa Specht-Riemenschneider | Dr. Katrin Suder | Katja Suding | Miriam Wohlfarth

Read More

Neueste Beiträge

  • Seit März 2023: Geschäftsführerin des Next e.v.
  • Berufung in Digitalbeirat des Bundesministerium für digitales und verkehr
  • Mehr Digitale Souveränität
  • Internet Governance – Grundlage unserer Demokratien im digitalen Zeitalter
  • Mitglied im Sounding Board des Forschungsprojekts „Plattformräte zur Sicherung öffentlicher Werte in den Regeln und Praktiken von Plattformen“

Neueste Kommentare

  • Steffi bei Gender Data Gap – die unsichtbaren Frauen

Archive

  • März 2023
  • Dezember 2022
  • Oktober 2022
  • Juli 2022
  • Juni 2022
  • Mai 2022
  • April 2022
  • Februar 2022
  • November 2021
  • August 2021
  • Juni 2021
  • Mai 2021
  • April 2021
  • März 2021
  • Februar 2021
  • Januar 2021
  • Dezember 2020
  • November 2020
  • Oktober 2020
  • August 2020
  • Juli 2020
  • April 2020
  • Januar 2020
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • Mai 2019

Kategorien

  • Allgemein
  • Bundestagskandidatur
  • Digitale Bildung
  • Digitalpolitik
  • Gastbeitrag
  • Internet Governance
  • News
  • Publikation
  • Social Media
  • Studio
  • Tutorial
Impressum Datenschutz