20 Jahre nach Einführung der europäischen E-Commerce-Richtlinie, wird heute von der Europäischen Kommission der Digital Services Act (DSA) vorgestellt, der die in die Jahre gekommene Richtlinie ergänzen soll. Vor 20 Jahren, bei Einführung der E-Commerce-Richtlinie, die bis heute den Binnenmarkt für Online-Dienste regelt, gab es noch keine Social-Media-Plattformen, wie wir sie heute kennen. Regulierung, die auf die Anforderungen der Plattform-Ökonomie abzielt, ist also dringend notwendig. Neben dem Digital Services Act wird der Digital Markets Act (DMA) vorgestellt, der ebenfalls an Plattformen mit Gatekeeper-Funktion gerichtet ist. Der DMA ergänzt Regelungen zum Wettbewerbsrecht und soll die Marktmacht der großen Digitalkonzerne begrenzen.
Die noch immer gültige E-Commerce-Richtlinie beinhaltet ein Instrument, das für das Funktionieren des Internets, insbesondere von Plattformen enorm wichtig ist: das sogenannte “Notice and take down”-Verfahren. Dies entbindet, kurz gesagt, Plattformen von ihrer Haftung für illegale Inhalte Dritter, sofern sie davon keine Kenntnis haben. Dies ändert sich aber, sobald sie darüber in Kenntnis gesetzt wurden. Mit der Kenntnisnahme müssen sie handeln und die Inhalte entfernen, ansonsten haften sie für diese. Der Digital Services Act baut auf der E-Commerce-Richtlinie auf und behält dieses Instrument bei. Dies ist sehr zu begrüßen, auch vor dem Hintergrund, dass in den USA heftig um eine vergleichbare Regelung, die sogenannte Section 230 gestritten wird und der gewählte Präsident Joe Biden diese gerne abschaffen möchte.
Der Digital Services Act soll unter anderem dazu dienen, illegale Inhalte auf Plattformen besser zu regulieren und diese unter Einhaltung der Europäischen Grundrechtecharta zu entfernen. Was sich erstmal gut anhört, wirft die gleichen Probleme auf, die wir schon vom deutschen Netzwerkdurchsetzungsgesetz (NetzDG) kennen: Plattformen sollen selber entscheiden, was illegal ist. Eine Aufgabe, die die Justiz zu übernehmen hat und keine privatwirtschaftlichen Unternehmen. Dabei macht der DSA keine Aussagen darüber, was “illegale Inhalte” sind. Diese werden – zu Recht – in anderen Gesetzeswerken auf europäischer beziehungsweise nationaler Ebene geregelt. Positiv ist allerdings, dass der DSA wie das NetzDG eine Ansprechperson des in der Europäischen Union operierenden Plattformbetreibers fordert. Ebenso haben die Mitgliedsstaaten einen “Digital Services Coordinator” zu bestimmen, der die Aufsicht über die Einhaltung der Regelungen im Mitgliedsstaat hat und sich auf europäischer Ebene zum “European Board for Digital Services” zusammenschließt, das der Europäischen Kommission als Beratungsgremium zur Seite steht.
Mit dem Digital Services Act kommen allerdings auch einige Verbesserungen für Nutzer:innen von digitalen Plattformen, inbesondere in Bezug auf Inhalte, die nach den plattformeigenen Communitystandards entfernt wurden. So müssen beispielsweise Nutzer:innen darüber informiert werden, warum ihre Inhalte von der Plattform gelöscht wurden. Die Plattform muss nach dem DSA Möglichkeiten anbieten, zu der getroffenen Entscheidung Widerspruch einzulegen und eine Plattform zur Streitschlichtung bereithalten. Ebenso ist zu begrüßen, dass der DSA Schutzmaßnahmen vorsieht, um den Missbrauch der Meldefunktion für Beiträge zu verhindern – werden mit falschen Meldungen doch häufig versucht unliebsame Meinungen mundtot zu machen. Plattformen wird daher nahegelegt, Regelungen zu finden, diese Nutzer:innen temporär zu sperren, dieses Vorgehen aber auch in ihren AGB darzulegen. Ebenso soll in den AGB in verständlicher Sprache dargelegt werden, ob die Inhalte durch Menschen oder Algorithmen moderiert werden.
Der Digital Services Act unterscheidet bei den beabsichtigten Pflichten die Größe von Plattformen. Er nimmt explizit zur Kenntnis, dass “sehr große Plattformen” einen ganz anderen Impact auf die europäischen Gesellschaften haben. So definiert der DSA sehr große Plattformen als Plattformen, die mehr als 45 Millionnen Nutzer:innen haben, bzw. 10 Prozent der Unionsbürger:innen. Die Strafen, die Der Digital Services Act bei Verstößen vorsieht, sind beachtlich: Bis zu 6 Prozent des Jahresumsatzes sind hier bei äußerst schweren Verstößen möglich.
Nutzer:innen sollen besser verstehen können, wie sich die Inhalte, die ihnen angezeigt werden, zusammensetzen. Dazu sollen sehr große Plattformen darlegen, was ihre Parameter für Empfehlungssysteme (z.B. der News Feed) sind und ermöglichen , dass alternative Einstellungen vorgenommen werden können. Dazu gehört auch die Möglichkeit einer neutralen Anordnung der Inhalte, die nicht anhand der von der Plattform antizipierten Vorlieben der Nutzer:in erstellt wird. Auch soll Nutzer:innen erkennen können, warum ihnen Werbeanzeigen angezeigt werden, also nach welchen Parametern das sogenannte Micro-Targeting erfolgte. Ebenso soll erkennbar sein, wer für die Anzeige zahlte.
Wie bereits im Anfang Dezember vorgestellten “European Democracy Action Plan” erwähnt wurde, finden sich im Digital Services Act Regelungen , die die Verbreitung von Desinformation einhegen sollen. Online-Plattformen sind angehalten, einen Code of Conduct zu erstellen, in dem sie darlegen, wie sie mit Inhalten, die zwar nicht illegal aber dennoch schädlich sind, umgehen wollen. Dazu gehört auch der Umgang mit Fake-Accounts und Bots, die häufig dazu beitragen, Desinformationen und andere schädliche, aber nicht illegale Inhalte zu verbreiten. Plattformen, die keinen Code of Conduct haben und dies nicht begründen können, kann vorgeworfen werden, dass sie sich nicht an die Vorgaben des DSA halten. Die im Action Plan angekündigte Pflicht zur Bereitstellung von Daten zu Forschungszwecken findet sich im DSA wieder.
Ebenfalls zu begrüßen ist, dass sehr große Plattformen Pläne für Krisenfälle vorhalten sollen, zum Beispiel Pandemien, Erdbeben oder terroristische Anschläge. Zur Risikobewertung und -minderung wird diesen Plattformen außerdem nahegelegt, Nutzer:innen, besonders betroffene Personen, unabhängige Expertinnen und Vertreter der Zivilgesellschaft in ihre Maßnahmen mit einzubeziehen. Dies ist insbesondere in Anbetracht des Genozids an den Rohingya in Myanmar, der durch Desinformation und Hate Speech auf Facebook befeuert wurde, auf den die Plattform lange keine Antwort fand, ein wichtiger Schritt.
Der Digital Services Act könnte auch für Kanäle (und ggf. auch Gruppen) auf Telegram greifen und damit umfassender sein, als das deutsche NetzDG, das bei Messengern wie Telegram, die auch eine öffentliche Kommunikation ermöglichen, eine Lücke aufweist. Die würde dazu führen, dass auch Telegram eine Ansprechperson in Europa benennen müsste. Keine Anwendung soll der DSA auf private Kommunikation über Messenger und E-Mails finden, sondern nur auf Gruppen , die für die Öffentlichkeit gedacht sind.
Mit dem Digital Services Act soll eine einheitliche Regulierung für den europäischen digitalen Binnenmarkt geschaffen werden, der auch eine Maßnahme gegen den Flickenteppich an nationaler Gesetzgebung sein soll, wie er zum Beispiel durch das deutsche NetzDG oder das französische “Avia Law” entstanden ist. Dabei löst er die nationalen Gesetze allerdings nicht ab, sondern ergänzt und vereinheitlicht sie. Der DSA erhebt den Anspruch, internationale Standards setzen zu wollen. Dass er dies mit der Privatisierung der Rechtsdurchsetzung an die Plattformen anstrebt – wie schon beim NetzDG –, ist scharf zu kritisieren. Es bleibt zu wünschen, dass sich das Europäische Parlament im Rahmen der Verhandlungen über den finalen Text der Richtlinie für eine sinnvollere Lösung einsetzt.
Dieser Artikel erschien zuerst auf freiheit.org.
Bild von Laurent Verdier auf Pixabay