Internet Governance – Grundlage unserer Demokratien im digitalen Zeitalter Internet Governance – Grundlage unserer Demokratien im digitalen Zeitalter
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt

DSA

Tag: DSA

Internet Governance – Grundlage unserer Demokratien im digitalen Zeitalter

Bei der Friedrich-Naumann-Stiftung für die Freiheit haben meine Kolleg:innen und ich ein Impulspapier unter dem Titel „Allianzen für Demokratie – Liberale Ansätze für den neuen Systemwettbewerb“ herausgebracht. Bereichert wurde das Papier mit Beiträgen von Johannes Vogel MdB, erster parlamentarischer Geschäftsführer der Fraktion der Freien Demokraten im Deutschen Bundestag, Michael Link MdB dem Koordinator der Bundesregierung für die transatlantischen Beziehungen, sowie dem Demokratieexperten Dr. Christopher Gohl.

Mein Beitrag handelt über die Bedeutung der Internet Governance als Grundlage von Demokratien im digitalen Zeitalter. Ich argumentiere hier, dass dieses Thema leider zu häufig vergessen wird, bzw. keine Attraktivität hat, um die Stimmen von Wähler:innen für sich zu gewinnen. Dabei wird durch die digitale Infrastruktur im weitesten Sinne (also inkl. Regulierung) das Fundament für unsere Zukunft gelegt; die Straßen und Regeln für unser Zusammenleben auch über nationalstaatliche Grenzen hinweg. Daher ist es umso wichtiger, dass hier demokratische und menschenrechtliche Werte verankert werden, denn nur so können wir auch in Zukunft auf Basis dieser und damit in Freiheit leben.

Die Publikation kann hier kostenfrei heruntergeladen werden.

Read More
Mitglied im Sounding Board des Forschungsprojekts „Plattformräte zur Sicherung öffentlicher Werte in den Regeln und Praktiken von Plattformen“

Ich freue mich sehr, seit dem 7. Juni 2022 Mitglied des hochkarätigen Sounding Boards zu sein, das die Arbeit des Forschungsprojekts „Plattformräte zur Sicherung öffentlicher Werte in den Regeln und Praktiken von Plattformen“ begleiten wird. Das Projekt am Leibnitz Institut für Medienforschung Hans-Bredow-Institut, steht unter der Leitung von Prof. Matthias C. Kettemann und wird von der Stiftung Mercator gefördert.

Den Auftakt für das Projekt machte eine Diskussionsrunde in den Räumen des Projektzentrums der Stiftung Mercator in Berlin mit Prof. Matthias C. Kettemann, Misbah Khan MdB (B90/Grüne) und Prof. Leonhard Dobusch, die ich moderieren durfte.

Eine der Grundlagen für dieses Projekt ist ein von mir betreutes Gutachten von Prof. Kettemann und Martin Fertmann für die Friedrich-Naumann-Stiftung für die Freiheit: Die Demokratie plattformfest machen.

Weitere Informationen zum Projekt und die Pressemitteilung findet sich hier.

Read More
Expertinnen-Statement für den D21 Index 2021/22 zur Lage der digitalen Gesellschaft

Die Nutzung sozialer Medien durchdringt mittlerweile alle Teile der Gesellschaft und nimmt einen immer größeren Raum in unserer alltäglichen Kommunikation und Information ein. Doch Phänomene wie Hass, Hetze und gezielte Desinformationen dort stellen uns auch vor immense Herausforderungen. Eines ist klar: Tech-Konzerne brauchen Tech-Regulierung. Leider fokussieren wir uns in Deutschland bei der Diskussion um die Regulierung von Social-Media-Plattformen – insbesondere, um Maßnahmen gegen Hass und Hetze zu ergreifen – zu sehr auf die Inhalte. Natürlich sind Inhalte ein wichtiger Faktor. Sind sie es doch, die die Morddrohungen, Beleidigungen und rassistische Hetze transportieren.

Nur kommen wir niemals auf einen grünen Zweig, wenn wir uns ausschließlich mit der Regulierung von Inhalten beschäftigen. Sprache und Meinung sind nicht nur kompliziert – gerade, wenn es um die häufig diffizile Bewertung geht, was noch rechtmäßige Meinungsäußerung ist und was nicht. Es werden auch sekündlich viel zu viele Inhalte ins Netz gestellt, als dass wir sie alle adäquat prüfen könnten. Das heißt nicht – nochmal in aller Deutlichkeit –, dass uns diese Inhalte nicht kümmern sollten. Der Rechtsstaat muss unbedingt durchgreifen und VerfasserInnen müssen sich vor Gericht für ihre mutmaßlich rechtswidrigen Inhalte verantworten.

Warum daher der Fokus auf Tech­Regulierung?

Das Problem bei Social-Media-Plattformen ist vor allem, dass sie Hass und Hetze, Desinformationen und Verschwörungserzählungen durch ihre algorith- mischen Systeme verstärken und damit den Men- schen gezielt zuspielen. Zudem haben sie oftmals nur ungenügende Mechanismen, um die Rechte der NutzerInnen zu stärken, wenn Inhalte unrechtmäßig entfernt oder Accounts gesperrt wurden. Starre Fristen und Zeitdruck erschweren in Deutschland das sorgfältige Abwägen, bei welchen Inhalten und Accounts eine Blockierung legitim ist und wo nicht. So kommt es auch immer wieder zum sogenannten »Overblocking«. Das Reaktivieren solcher Beiträge oder NutzerInnen-Konten ist ein langwieriger und mühseliger Prozess. Deshalb brauchen wir gerade im Digitalen eine Gesetzgebung, die Strukturen, Prozesse und Verbraucherrechte in den Fokus nimmt.

Das wird der Digital-Service-Act (DSA), so scheint es gerade, gut umsetzen. Damit er kein zahnloser Tiger wird, ist es wichtig, dass wir uns in der gesellschaftlichen und politischen Debatte stärker mit ihm beschäftigen. Wer über notwendige Regulierung wegen Hass und Hetze auf Telegram und in sozialen Netzwerken spricht, darf daher das Gesetzeswerk aus Brüssel nicht ignorieren. Die Europäische Union wird mit dem DSA globale Standards setzen und im besten Falle darin unterstützen, dass sich weltweit Hass und Hetze weniger verbreiten.

Dieser Text erschien als Expertinnenstatement im D21 Index zur Lage der digitalen Gesellschaft der Initiative D21.

Read More
Medienauftritte zu Telegram

Anfang 2022 war die Notwendigkeit eines effektiven Umgangs mit Telegram, insbesondere den dortigen illegalen Inhalten ein viel diskutiertes Thema in der deutschen Politik. Als FDP-Digitalpolitikerin und Vorsitzende von LOAD e.V. durfte ich in zahlreichen Fernseh- und sonstigen Medienbeiträgen dazu Stellung nehmen. Einige meiner wichtigsten Positionen:

TV Auftritt bei „Angeklickt“, WDR Aktuelle Stunde
  • Auf Telegram passiert Illegales, aber die weitaus überwiegende Nutzung ist sehr wahrscheinlich harmlos. Durch eine Sperrung von Telegram werden Menschen Kommunikationswege genommen, ich halte dies für nicht verhältnismäßig.
  • Sperrungen von Diensten werden vor allem von autoritären Staaten durchgeführt. Für einen Rechtsstaat und eine Demokratie ziemt sich so etwas nicht – wir wären damit auch ein schlechtes Vorbild.
  • Rechtsextremismus und Gewalt gegen Amts- und Mandatsträger:innen existiert nicht wegen Telegram. Es war bereits vorher da. Die Probleme, ebenso wie Antisemitismus und Rassismus, lassen sich nicht lösen, weil Telegram verschwindet. Hier muss klassische Sozialarbeit und Bildung ansetzen. Bei rechtswidrigen Inhalten muss der Rechtsstaat tätig werden. Da Journalist:innen illegale Inhalte finden können, muss auch die Polizei dazu in der Lage sein. Hierfür braucht sie Personal und sonstige Ressourcen.
  • Mit dem Digital Services Act werden wir ein Gesetz bekommen, durch den deutlich mehr Druck auf Anbieter wie Telegram ausgeübt werden kann. Diesem Gesetz aus der Europäischen Union sollten wir hier mehr Beachtung schenken.

Medienauftritte zum Thema (Auswahl)

  • SRF1 (09.02.2022): Immer mehr Hassbotschaften im Dark Social
  • Tagesthemen (29.01.2022): Anti-Corona-Demonstrationen: Wie kann Telegram kontrolliert werden?
  • ZAPP (20. Januar 2022): Digital Services Act: „Total krasses Vorhaben“(Video/TV)
  • Deutsche Welle (19. Januar 2022): Germany takes on Telegram to fight extremism
  • WDR Aktuelle Stunde (7. Januar 2022): Angeklickt: Der Hass-Messenger Telegram
  • Netzpolitik (16. Dezember 2021): Interview zu Telegram: „Netzsperren und Rausschmiss aus den App-Stores – das ist mir zu platt“
Read More
Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt

20 Jahre nach Einführung der europäischen E-Commerce-Richtlinie, wird heute von der Europäischen Kommission der Digital Services Act (DSA) vorgestellt, der die in die Jahre gekommene Richtlinie ergänzen soll. Vor 20 Jahren, bei Einführung der E-Commerce-Richtlinie, die bis heute den Binnenmarkt für Online-Dienste regelt, gab es noch keine Social-Media-Plattformen, wie wir sie heute kennen. Regulierung, die auf die Anforderungen der Plattform-Ökonomie abzielt, ist also dringend notwendig. Neben dem Digital Services Act wird der Digital Markets Act (DMA) vorgestellt, der ebenfalls an Plattformen mit Gatekeeper-Funktion gerichtet ist. Der DMA ergänzt Regelungen zum Wettbewerbsrecht und soll die Marktmacht der großen Digitalkonzerne begrenzen. 

Die noch immer gültige E-Commerce-Richtlinie beinhaltet ein Instrument, das für das Funktionieren des Internets, insbesondere von Plattformen enorm wichtig ist: das sogenannte “Notice and take down”-Verfahren. Dies entbindet, kurz gesagt, Plattformen von ihrer Haftung für illegale Inhalte Dritter, sofern sie davon keine Kenntnis haben. Dies ändert sich aber, sobald sie darüber in Kenntnis gesetzt wurden. Mit der Kenntnisnahme müssen sie handeln und die Inhalte entfernen, ansonsten haften sie für diese. Der Digital Services Act baut auf der E-Commerce-Richtlinie auf und behält dieses Instrument bei. Dies ist sehr zu begrüßen, auch vor dem Hintergrund, dass in den USA heftig um eine vergleichbare Regelung, die sogenannte Section 230 gestritten wird und der gewählte Präsident Joe Biden diese gerne abschaffen möchte.

Der Digital Services Act soll unter anderem dazu dienen, illegale Inhalte auf Plattformen besser zu regulieren und diese unter Einhaltung der Europäischen Grundrechtecharta zu entfernen. Was sich erstmal gut anhört, wirft die gleichen Probleme auf, die wir schon vom deutschen Netzwerkdurchsetzungsgesetz (NetzDG) kennen: Plattformen sollen selber entscheiden, was illegal ist. Eine Aufgabe, die die Justiz zu übernehmen hat und keine privatwirtschaftlichen Unternehmen. Dabei macht der DSA keine Aussagen darüber, was “illegale Inhalte” sind. Diese werden – zu Recht – in anderen Gesetzeswerken auf europäischer beziehungsweise nationaler Ebene geregelt. Positiv ist allerdings, dass der DSA wie das NetzDG eine Ansprechperson des in der Europäischen Union operierenden Plattformbetreibers fordert. Ebenso haben die Mitgliedsstaaten einen “Digital Services Coordinator” zu bestimmen, der die Aufsicht über die Einhaltung der Regelungen im Mitgliedsstaat hat und sich auf europäischer Ebene zum “European Board for Digital Services” zusammenschließt, das der Europäischen Kommission als Beratungsgremium zur Seite steht. 

Mit dem Digital Services Act kommen allerdings auch einige Verbesserungen für Nutzer:innen von digitalen Plattformen, inbesondere in Bezug auf Inhalte, die nach den plattformeigenen Communitystandards entfernt wurden. So müssen beispielsweise Nutzer:innen darüber informiert werden, warum ihre Inhalte von der Plattform gelöscht wurden. Die Plattform muss nach dem DSA Möglichkeiten anbieten, zu der getroffenen Entscheidung Widerspruch einzulegen und eine Plattform zur Streitschlichtung bereithalten. Ebenso ist zu begrüßen, dass der DSA Schutzmaßnahmen vorsieht, um den Missbrauch der Meldefunktion für Beiträge zu verhindern – werden mit falschen Meldungen doch häufig versucht unliebsame Meinungen mundtot zu machen. Plattformen wird daher nahegelegt, Regelungen zu finden, diese Nutzer:innen temporär zu sperren, dieses Vorgehen aber auch in ihren AGB darzulegen. Ebenso soll in den AGB in verständlicher Sprache dargelegt werden, ob die Inhalte durch Menschen oder Algorithmen moderiert werden.

Der Digital Services Act unterscheidet bei den beabsichtigten Pflichten die Größe von Plattformen. Er nimmt explizit zur Kenntnis, dass “sehr große Plattformen” einen ganz anderen Impact auf die europäischen Gesellschaften haben. So definiert der DSA sehr große Plattformen als Plattformen, die mehr als 45 Millionnen Nutzer:innen haben, bzw. 10 Prozent der Unionsbürger:innen. Die Strafen, die Der Digital Services Act bei Verstößen vorsieht, sind beachtlich: Bis zu 6 Prozent des Jahresumsatzes sind hier bei äußerst schweren Verstößen möglich.

Nutzer:innen sollen besser verstehen können, wie sich die Inhalte, die ihnen angezeigt werden, zusammensetzen. Dazu sollen sehr große Plattformen darlegen, was ihre Parameter für Empfehlungssysteme (z.B. der News Feed) sind und ermöglichen , dass alternative Einstellungen vorgenommen werden können. Dazu gehört auch die Möglichkeit einer neutralen Anordnung der Inhalte, die nicht anhand der von der Plattform antizipierten Vorlieben der Nutzer:in erstellt wird. Auch soll Nutzer:innen erkennen können, warum ihnen Werbeanzeigen angezeigt werden, also nach welchen Parametern das sogenannte Micro-Targeting erfolgte. Ebenso soll erkennbar sein, wer für die Anzeige zahlte.

Wie bereits im Anfang Dezember vorgestellten “European Democracy Action Plan” erwähnt wurde, finden sich im Digital Services Act Regelungen , die die Verbreitung von Desinformation einhegen sollen. Online-Plattformen sind angehalten, einen Code of Conduct zu erstellen, in dem sie darlegen, wie sie mit Inhalten, die zwar nicht illegal aber dennoch schädlich sind, umgehen wollen. Dazu gehört auch der Umgang mit Fake-Accounts und Bots, die häufig dazu beitragen, Desinformationen und andere schädliche, aber nicht illegale Inhalte zu verbreiten. Plattformen, die keinen Code of Conduct haben und dies nicht begründen können, kann vorgeworfen werden, dass sie sich nicht an die Vorgaben des DSA halten.  Die im Action Plan angekündigte Pflicht zur Bereitstellung von Daten zu Forschungszwecken findet sich im DSA wieder.

Ebenfalls zu begrüßen ist, dass sehr große Plattformen Pläne für Krisenfälle vorhalten sollen, zum Beispiel Pandemien, Erdbeben oder terroristische Anschläge. Zur Risikobewertung und -minderung wird diesen Plattformen außerdem nahegelegt, Nutzer:innen, besonders betroffene Personen, unabhängige Expertinnen und Vertreter der Zivilgesellschaft in ihre Maßnahmen mit einzubeziehen. Dies ist insbesondere in Anbetracht des Genozids an den Rohingya in Myanmar, der durch Desinformation und Hate Speech auf Facebook befeuert wurde, auf den die Plattform lange keine Antwort fand, ein wichtiger Schritt.

Der Digital Services Act könnte auch für Kanäle (und ggf. auch Gruppen) auf Telegram greifen und damit umfassender sein, als das deutsche NetzDG, das bei Messengern wie Telegram, die auch eine öffentliche Kommunikation ermöglichen, eine Lücke aufweist. Die würde dazu führen, dass auch Telegram eine Ansprechperson in Europa benennen müsste. Keine Anwendung soll der DSA auf private Kommunikation über Messenger und  E-Mails finden, sondern nur auf  Gruppen , die für die Öffentlichkeit gedacht sind.

Mit dem Digital Services Act soll eine einheitliche Regulierung für den europäischen digitalen Binnenmarkt geschaffen werden, der auch eine Maßnahme gegen den Flickenteppich an nationaler Gesetzgebung sein soll, wie er zum Beispiel durch das deutsche NetzDG oder das französische “Avia Law” entstanden ist. Dabei löst er die nationalen Gesetze allerdings nicht ab, sondern ergänzt und vereinheitlicht sie. Der DSA erhebt den Anspruch, internationale Standards setzen zu wollen. Dass er dies mit der Privatisierung der Rechtsdurchsetzung an die Plattformen anstrebt – wie schon beim NetzDG –, ist scharf zu kritisieren. Es bleibt zu wünschen, dass sich das Europäische Parlament im Rahmen der Verhandlungen über den finalen Text der Richtlinie für eine sinnvollere Lösung einsetzt.

Dieser Artikel erschien zuerst auf freiheit.org.

Bild von Laurent Verdier auf Pixabay 

Read More

Neueste Beiträge

  • Seit März 2023: Geschäftsführerin des Next e.v.
  • Berufung in Digitalbeirat des Bundesministerium für digitales und verkehr
  • Mehr Digitale Souveränität
  • Internet Governance – Grundlage unserer Demokratien im digitalen Zeitalter
  • Mitglied im Sounding Board des Forschungsprojekts „Plattformräte zur Sicherung öffentlicher Werte in den Regeln und Praktiken von Plattformen“

Neueste Kommentare

  • Steffi bei Gender Data Gap – die unsichtbaren Frauen

Archive

  • März 2023
  • Dezember 2022
  • Oktober 2022
  • Juli 2022
  • Juni 2022
  • Mai 2022
  • April 2022
  • Februar 2022
  • November 2021
  • August 2021
  • Juni 2021
  • Mai 2021
  • April 2021
  • März 2021
  • Februar 2021
  • Januar 2021
  • Dezember 2020
  • November 2020
  • Oktober 2020
  • August 2020
  • Juli 2020
  • April 2020
  • Januar 2020
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • Mai 2019

Kategorien

  • Allgemein
  • Bundestagskandidatur
  • Digitale Bildung
  • Digitalpolitik
  • Gastbeitrag
  • Internet Governance
  • News
  • Publikation
  • Social Media
  • Studio
  • Tutorial
Impressum Datenschutz