Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt
  • Home
  • Vita
  • Publizistin
  • Speakerin
  • Moderatorin
  • Newsletter
  • Presse
  • Kontakt
  • Home
  • Vita
  • Publizistin
  • Speakerin
  • Moderatorin
  • Newsletter
  • Presse
  • Kontakt

Publikation

Category: Publikation

Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt

20 Jahre nach Einführung der europäischen E-Commerce-Richtlinie, wird heute von der Europäischen Kommission der Digital Services Act (DSA) vorgestellt, der die in die Jahre gekommene Richtlinie ergänzen soll. Vor 20 Jahren, bei Einführung der E-Commerce-Richtlinie, die bis heute den Binnenmarkt für Online-Dienste regelt, gab es noch keine Social-Media-Plattformen, wie wir sie heute kennen. Regulierung, die auf die Anforderungen der Plattform-Ökonomie abzielt, ist also dringend notwendig. Neben dem Digital Services Act wird der Digital Markets Act (DMA) vorgestellt, der ebenfalls an Plattformen mit Gatekeeper-Funktion gerichtet ist. Der DMA ergänzt Regelungen zum Wettbewerbsrecht und soll die Marktmacht der großen Digitalkonzerne begrenzen. 

Die noch immer gültige E-Commerce-Richtlinie beinhaltet ein Instrument, das für das Funktionieren des Internets, insbesondere von Plattformen enorm wichtig ist: das sogenannte “Notice and take down”-Verfahren. Dies entbindet, kurz gesagt, Plattformen von ihrer Haftung für illegale Inhalte Dritter, sofern sie davon keine Kenntnis haben. Dies ändert sich aber, sobald sie darüber in Kenntnis gesetzt wurden. Mit der Kenntnisnahme müssen sie handeln und die Inhalte entfernen, ansonsten haften sie für diese. Der Digital Services Act baut auf der E-Commerce-Richtlinie auf und behält dieses Instrument bei. Dies ist sehr zu begrüßen, auch vor dem Hintergrund, dass in den USA heftig um eine vergleichbare Regelung, die sogenannte Section 230 gestritten wird und der gewählte Präsident Joe Biden diese gerne abschaffen möchte.

Der Digital Services Act soll unter anderem dazu dienen, illegale Inhalte auf Plattformen besser zu regulieren und diese unter Einhaltung der Europäischen Grundrechtecharta zu entfernen. Was sich erstmal gut anhört, wirft die gleichen Probleme auf, die wir schon vom deutschen Netzwerkdurchsetzungsgesetz (NetzDG) kennen: Plattformen sollen selber entscheiden, was illegal ist. Eine Aufgabe, die die Justiz zu übernehmen hat und keine privatwirtschaftlichen Unternehmen. Dabei macht der DSA keine Aussagen darüber, was “illegale Inhalte” sind. Diese werden – zu Recht – in anderen Gesetzeswerken auf europäischer beziehungsweise nationaler Ebene geregelt. Positiv ist allerdings, dass der DSA wie das NetzDG eine Ansprechperson des in der Europäischen Union operierenden Plattformbetreibers fordert. Ebenso haben die Mitgliedsstaaten einen “Digital Services Coordinator” zu bestimmen, der die Aufsicht über die Einhaltung der Regelungen im Mitgliedsstaat hat und sich auf europäischer Ebene zum “European Board for Digital Services” zusammenschließt, das der Europäischen Kommission als Beratungsgremium zur Seite steht. 

Mit dem Digital Services Act kommen allerdings auch einige Verbesserungen für Nutzer:innen von digitalen Plattformen, inbesondere in Bezug auf Inhalte, die nach den plattformeigenen Communitystandards entfernt wurden. So müssen beispielsweise Nutzer:innen darüber informiert werden, warum ihre Inhalte von der Plattform gelöscht wurden. Die Plattform muss nach dem DSA Möglichkeiten anbieten, zu der getroffenen Entscheidung Widerspruch einzulegen und eine Plattform zur Streitschlichtung bereithalten. Ebenso ist zu begrüßen, dass der DSA Schutzmaßnahmen vorsieht, um den Missbrauch der Meldefunktion für Beiträge zu verhindern – werden mit falschen Meldungen doch häufig versucht unliebsame Meinungen mundtot zu machen. Plattformen wird daher nahegelegt, Regelungen zu finden, diese Nutzer:innen temporär zu sperren, dieses Vorgehen aber auch in ihren AGB darzulegen. Ebenso soll in den AGB in verständlicher Sprache dargelegt werden, ob die Inhalte durch Menschen oder Algorithmen moderiert werden.

Der Digital Services Act unterscheidet bei den beabsichtigten Pflichten die Größe von Plattformen. Er nimmt explizit zur Kenntnis, dass “sehr große Plattformen” einen ganz anderen Impact auf die europäischen Gesellschaften haben. So definiert der DSA sehr große Plattformen als Plattformen, die mehr als 45 Millionnen Nutzer:innen haben, bzw. 10 Prozent der Unionsbürger:innen. Die Strafen, die Der Digital Services Act bei Verstößen vorsieht, sind beachtlich: Bis zu 6 Prozent des Jahresumsatzes sind hier bei äußerst schweren Verstößen möglich.

Nutzer:innen sollen besser verstehen können, wie sich die Inhalte, die ihnen angezeigt werden, zusammensetzen. Dazu sollen sehr große Plattformen darlegen, was ihre Parameter für Empfehlungssysteme (z.B. der News Feed) sind und ermöglichen , dass alternative Einstellungen vorgenommen werden können. Dazu gehört auch die Möglichkeit einer neutralen Anordnung der Inhalte, die nicht anhand der von der Plattform antizipierten Vorlieben der Nutzer:in erstellt wird. Auch soll Nutzer:innen erkennen können, warum ihnen Werbeanzeigen angezeigt werden, also nach welchen Parametern das sogenannte Micro-Targeting erfolgte. Ebenso soll erkennbar sein, wer für die Anzeige zahlte.

Wie bereits im Anfang Dezember vorgestellten “European Democracy Action Plan” erwähnt wurde, finden sich im Digital Services Act Regelungen , die die Verbreitung von Desinformation einhegen sollen. Online-Plattformen sind angehalten, einen Code of Conduct zu erstellen, in dem sie darlegen, wie sie mit Inhalten, die zwar nicht illegal aber dennoch schädlich sind, umgehen wollen. Dazu gehört auch der Umgang mit Fake-Accounts und Bots, die häufig dazu beitragen, Desinformationen und andere schädliche, aber nicht illegale Inhalte zu verbreiten. Plattformen, die keinen Code of Conduct haben und dies nicht begründen können, kann vorgeworfen werden, dass sie sich nicht an die Vorgaben des DSA halten.  Die im Action Plan angekündigte Pflicht zur Bereitstellung von Daten zu Forschungszwecken findet sich im DSA wieder.

Ebenfalls zu begrüßen ist, dass sehr große Plattformen Pläne für Krisenfälle vorhalten sollen, zum Beispiel Pandemien, Erdbeben oder terroristische Anschläge. Zur Risikobewertung und -minderung wird diesen Plattformen außerdem nahegelegt, Nutzer:innen, besonders betroffene Personen, unabhängige Expertinnen und Vertreter der Zivilgesellschaft in ihre Maßnahmen mit einzubeziehen. Dies ist insbesondere in Anbetracht des Genozids an den Rohingya in Myanmar, der durch Desinformation und Hate Speech auf Facebook befeuert wurde, auf den die Plattform lange keine Antwort fand, ein wichtiger Schritt.

Der Digital Services Act könnte auch für Kanäle (und ggf. auch Gruppen) auf Telegram greifen und damit umfassender sein, als das deutsche NetzDG, das bei Messengern wie Telegram, die auch eine öffentliche Kommunikation ermöglichen, eine Lücke aufweist. Die würde dazu führen, dass auch Telegram eine Ansprechperson in Europa benennen müsste. Keine Anwendung soll der DSA auf private Kommunikation über Messenger und  E-Mails finden, sondern nur auf  Gruppen , die für die Öffentlichkeit gedacht sind.

Mit dem Digital Services Act soll eine einheitliche Regulierung für den europäischen digitalen Binnenmarkt geschaffen werden, der auch eine Maßnahme gegen den Flickenteppich an nationaler Gesetzgebung sein soll, wie er zum Beispiel durch das deutsche NetzDG oder das französische “Avia Law” entstanden ist. Dabei löst er die nationalen Gesetze allerdings nicht ab, sondern ergänzt und vereinheitlicht sie. Der DSA erhebt den Anspruch, internationale Standards setzen zu wollen. Dass er dies mit der Privatisierung der Rechtsdurchsetzung an die Plattformen anstrebt – wie schon beim NetzDG –, ist scharf zu kritisieren. Es bleibt zu wünschen, dass sich das Europäische Parlament im Rahmen der Verhandlungen über den finalen Text der Richtlinie für eine sinnvollere Lösung einsetzt.

Dieser Artikel erschien zuerst auf freiheit.org.

Bild von Laurent Verdier auf Pixabay 

Read More
European Democracy Action Plan: Mechanismen statt Inhalte

Die EU-Kommission wählt die richtigen Ansätze zur Regulierung von Desinformation

Während man in Deutschland häufig das Gefühl hat, dass Desinformationen für den gesellschaftlichen Zusammenhalt und den demokratischen Diskurs keine ernstzunehmende Bedrohung darstellen, ist man auf europäischer Ebene schon deutlich weiter. Mit dem am 3. Dezember 2020 vorgestellten “European Democracy Action Plan” zeigt die EU-Kommission, insbesondere die liberale Vize-Kommissionspräsidentin Věra Jourová, dass sie die Probleme, die durch Desinformationen entstehen, nicht nur verstanden hat, sondern auch richtige Regulierungsansätze wählt.

„Wir wollen kein Wahrheitsministerium schaffen, Redefreiheit ist wesentlich“, sagte  Jourová bei der Vorstellung des Action Plans und dies spiegelt sich auch bei den vorgestellten Maßnahmen gegen Desinformation wider. Dazu gehört zum einen, dass davon abgesehen wird, Inhalte zu regulieren. Etwas, das man noch zu wenig bis gar nicht in der deutschen Debatte um Maßnahmen gegen Desinformationen hört. Hier spielt sich der Diskurs unter Politiker:innen – wenn er denn überhaupt stattfindet – meist zwischen “Fake News” strafbar machen und “Inhalte löschen” ab. Beide Pole sind aber weder praktikabel, noch rechtsstaatlich vertretbar oder nachhaltig in ihrer Wirkung.

So ist es nicht nur erfreulich, dass im Action Plan konsequent von Desinformation gesprochen wird und der unscharfe Kampfbegriff “Fake News” gar nicht erst auftaucht, sondern auch, dass von einer bislang wirkungslosen Selbstregulierung auf regulierte Selbstregulierung (Co-Regulierung) umgeschwenkt wird. Dazu sieht der Action Plan beispielsweise vor, dass das Fact-Checking durch Partnerorganisationen auf den Social-Media-Plattformen deutlich transparenter und durch festgelegte Standards zu erfolgen hat. Diese Standards sollen einen Rahmen bieten, nach denen die kooperierenden Fact-Checking-Organisationen Inhalte prüfen und gegebenenfalls als “irreführend” oder “falsch” markieren. Das würde nicht nur den Plattform-Nutzer:innen dienen, sondern auch die Basis für eine bessere Zusammenarbeit zwischen Social-Media-Plattformen und Faktencheckern sorgen. Auch sollen die Maßnahmen gegen Desinformationen der Plattformen stärker überwacht und deren Wirkung nach festgelegten Erfolgsfaktoren überprüft werden. Ebenso soll die längst überfällige Bereitstellung von Daten für die Forschung unter Einhaltung der Datenschutzgrundverordnung gewährleistet werden. Dazu soll ein entsprechender Rahmen unter Einbeziehung aller relevanter Interessensgruppen entwickelt werden.

Zu begrüßen ist außerdem, dass der Action Plan die Mechanismen in den Fokus nimmt, die zur Verbreitung von Desinformation beitragen. Hier wird richtig angesetzt, indem die Akteure, beziehungsweise die Verbreitungsmechanismen adressiert werden, und nicht die eigentlichen Inhalte. Diese zu regulieren ist schlicht nicht möglich – abseits von rechtswidrigen Inhalten – und würde auf ein Wahrheitsministerium hinauslaufen. Der Action Plan schlägt vor, dass Plattformen Maßnahmen ergreifen müssen, die eine künstliche Verstärkung der Verbreitung von Desinformationen verhindern. Twitter hat dies beispielsweise schon bei den US-Präsidentschaftswahlen umgesetzt, als es nicht mehr möglich war, die als “irreführend” oder “falsch” markierten Tweets von Donald Trump mit “gefällt mir” zu markieren oder zu retweeten. Facebook verzichtete auf solche Funktionen und markierte nur – auch das erst spät – falsche Informationen des Präsidenten.

Zusätzlich sollen Plattformen dafür sorgen, dass das Geldverdienen mit Desinformationen erschwert wird. Dies adressiert vor allem die Akteure, die in Desinformationen kein Werkzeug zur Spaltung von Gesellschaften sehen, sondern als Instrument, um sich finanziell zu bereichern. Dazu sollen die Plattformen dafür sorgen, dass beispielsweise in Videos, die als “irreführend” oder “falsch” eingestuft wurden, keine Werbeanzeigen mehr eingeblendet werden. Ebenso hatten in der Vergangenheit Kriminelle “Nachrichtenportale” erstellt, die mit reißerischen, erfundenen “Nachrichten” Klicks auf Webseiten generiert haben. Durch die auf Webseiten oder in Videos eingeblendeten Werbebanner von Werbenetzwerken wurden erhebliche Summen verdient. Diese Maßnahme zielt sowohl auf die Werbenetzwerke auf den Social-Media-Plattformen ab, als auch auf Netzwerke, die Werbung auf Seiten Dritter ausspielen, wie beispielsweise Googles AdSense.  

Der vorgelegte Action Plan ist nicht mehr als ein Plan. Aber er macht Hoffnung, dass Mechanismen und Wirkweisen verstanden wurden, die zur Bedrohung von Demokratien im digitalen Raum beitragen. Er setzt an den Mechanismen an, die mit-ursächlich für die rasante digitale Verbreitung von Desinformationen auf Plattformen sind und nicht an den Inhalten. Damit schont er unsere Grund- und Bürgerrechte. Die vorgeschlagenen Maßnahmen können nur ein Anfang für eine gute Regulierung des digitalen Raums zum Schutze unserer Demokratien sein. Spannend wird dazu das Zusammenspiel mit dem Digital Services Act sein, der am 15. Dezember 2020 vorgestellt werden soll. 

Dieser Text erschien zuerst auf freiheit.org.

Photo by Markus Spiske on Unsplash

Read More
Publikation: The German Corona-App. In der Reihe “Rethinking Privacy and Mass Surveillance in the Information Age”

Im Rahmen des deutsch-israelischen Dialog-Projekts “Rethinking Privacy and Mass Surveillance in the Information Age” durfte ich für die Heinrich-Böll-Stiftung Israel und das Israel Public Policy Institute ein Papier über die Debatte zur deutschen Corona-Warn-App verfassen. Das Papier „The German Corona-App: Expectations, Debates and Results“ kann hier heruntergeladen werden. Es war Teil eines anschließenden Dialogs mit Eran Toch, der die israelische Perspektive einbrachte. Sein Papier „Eroding Trust: Contact Tracing Technologies in Israel“ kann hier heruntergeladen werden.

Read More
Am Datenschutz scheitert die Corona-Bekämpfung nicht

Den Datenschutz lockern, um den Gesundheitsschutz zu stärken? Bei der Corona-Warn-App wird eine ritualisierte Debatte entlang der bekannten Lager geführt. Die wichtigen Fragen werden dabei meistens ausgeklammert: Was kann die App leisten? Wo liegen die Probleme und welche Daten brauchen wir, um die gewünschten Ziele zu erreichen? Zusätzlich wird die Debatte geführt, als würde die App im luftleeren Raum handeln, als würde das Verhalten des Menschen irrelevant sein. Daten und Technologie haben aber generell nur einen Zweck: Sie müssen dem Menschen nützen. Sie sind Werkzeug zur Erreichung seiner Ziele, nie die Lösung selbst. Die bloße Forderung nach “mehr Daten” wird nicht als Selbstläufer zum Erfolg bei der Virusbekämpfung führen. Die Debatte braucht also mehr Substanz.

Der überbordende Datenschutz scheint laut einigen Politiker:innen und Kommentator:innen der Grund zu sein, der Deutschland davon abhält, Vorreiter der Digitalisierung zu werden und die Corona-Pandemie in den Griff zu bekommen. Doch sind es ausschließlich Daten, die in anderen Ländern der Schlüsselfaktor sind, mit dem die Pandemie in den Griff bekommen wurde? Taiwan und Südkorea werden hier gerne als Beispiele angeführt. Nur gilt selbst in hochtechnologischen Ländern: Daten handeln nicht alleine. Viel zu häufig wird beim Blick nach Ostasien vergessen, dass diese Länder eben nicht bloß auf Technologie setzen, sondern auch zahlreiche andere — meist ganz analoge — Maßnahmen eingesetzt haben, die zum erfolgreichen Umgang mit der Pandemie beigetragen haben. Dazu gehören einfacher mögliche Einreisekontrollen sowie die allgemein viel bessere Vorbereitung auf Pandemien aufgrund vorhandener Erfahrungen mit SARS-Viren.

Wichtig ist, beim Verweis auf andere Länder präzise zu benennen, welche Daten dort verwendet und welche bürgerrechtlichen Einschränkungen dafür in Kauf genommen wurden. Taiwan hat beispielsweise nicht auf Tracking- oder Tracing-Apps gesetzt. Die Einhaltung der Quarantäne wurde über das Mobilfunknetz kontrolliert. Allerdings wurden in Taiwan auch digitale Zugänge zu Daten bereitgestellt, mit denen die Zivilgesellschaft hilfreiche Anwendungen entwickeln konnte. Zum Beispiel, wie viele Masken in der Apotheke in der Nachbarschaft noch vorrätig sind oder Visualisierungen über die Menge der ausgelieferten Masken. Solche Daten und Informationen — möglich gemacht durch Civic-Tech-Anwendungen — finden in Deutschland, wenn wir über die Nutzung von Daten bei der Eindämmung der Pandemie sprechen, quasi keine Beachtung (Stichwort: WirVsVirus). Die Debatten über Daten dürfen daher nicht lediglich darum gehen, ob wir viel oder wenig Datenschutz brauchen, sondern wo der Mensch sinnvolle Informationen aufgrund von Daten bekommen kann, bzw. braucht, um sein Verhalten zu ändern, sodass das Virus sich nicht weiter verbreiten kann.

Südkorea hat zahlreiche weitere Daten genutzt, um die Verbreitung des Virus einzuschränken — eben nicht nur Daten aus einer Tracking-App. Diese wurden angereichert mit Daten aus Überwachungskameras oder über Finanztransaktionen. Wer dies auch für Deutschland fordert, sollte sich bewusst sein, dass wir hier gar nicht so viele Kameraaufnahmen haben, die wir nutzen könnten — zum Glück! Auch ist in Deutschland Bargeld noch immer beliebter als das digitale Bezahlen. Die benötigten Daten für das Vorbild Südkorea wären also gar nicht in dem Ausmaß vorhanden, in dem man sie benötigen würde. Der Ruf nach mehr Daten und weniger Datenschutz verkennt daher, dass Daten auch generiert werden müssen und nicht plötzlich da sind, nur weil der Datenschutz gelockert wird. Hinzu kommt, dass gerade durch solche massiven Datensammlungen womöglich viel mehr Menschen so handeln würden, dass diese Daten nicht mehr von ihnen generiert werden würden. Statt mit der Kreditkarte, würden sie wieder bar bezahlen. Die Lockerung des Datenschutzes würde also ins Leere laufen.

Natürlich darf es bei dem Einsatz von Technologie zur Pandemiebekämpfung nicht nur um den Datenschutz gehen. Es ist klar, dass der Gesundheitsschutz äußerst wichtig ist und dass es eine angemessene Abwägung zwischen diesem und dem Grundrecht auf informationelle Selbstbestimmung geben muss. Nur: Es gibt seit dem Beginn der Debatte äußerst kluge und innovative Vorschläge, wie genau beides in Einklang gebracht werden kann. Aus einem entstand die App, wie wir sie heute nutzen. Ein datenschutzfreundliches und Privatsphäre schonendes Konzept, das die 20 Millionen Downloads und das Lob aus dem Ausland wohl erst möglich machte. Dass die Corona-Warn-App angeblich nicht funktioniere, liegt eher an der überfrachteten Erwartung an sie, die keine App je erfüllen könnte. Beispielhaft sei hier erwähnt, dass es im Frühjahr gerne hieß, dass wir mit der App unsere Freiheit wiedererlangen könnten. Dabei wird aber verkannt, dass keine App vor einer Ansteckung schützt, sondern immer nur retrospektiv wirken kann und selbst dies nur dann, wenn eine Infektion mittels Test bestätigt wurde. Abstandhalten, Kontakte reduzieren und einen Mund-Nase-Schutz tragen wird also auch durch Technologie nicht obsolet.

Eine anderer kluger Vorschlag ist die Entwicklung einer Cluster-Erkennung für die Corona-Warn-App — ebenfalls datenschutzkonform und Privatsphäre schonend. Doch dieser findet kaum Erwähnung bei denen, die weniger Datenschutz fordern und diesen als Schuldigen für das angebliche nicht-funktionieren der App anführen. Ebenso finden Probleme, die dringend einer Lösung bedürfen, wenig Gehör: die Digitalisierung der Gesundheitsämter an sich, fehlende Schnittstellen (Stichwort: Datenübermittlung per Fax an das RKI) oder fehlende Informationskampagnen der Bundeszentrale für gesundheitliche Aufklärung. Noch heute scheitern zu viele Ärztinnen und Patienten daran, das Testergebnis in die eigene Corona-Warn-App übermitteln zu lassen, damit andere gewarnt werden können, da ihnen nicht bekannt ist, dass unbedingt ein Kreuzchen auf dem Formular für das Labor gesetzt werden muss, das die Übermittlung des Ergebnisses in die App erlaubt. Statt mit einem Zwang zur Freigabe zu arbeiten und damit womöglich noch weitere Nutzer:innen der App zu verlieren, sollte an der Aufklärung der Menschen gearbeitet werden, sodass sie eine freiwillige, aufgeklärte Entscheidung treffen können, beziehungsweise auf das Setzen des Kreuzes hinweisen können. Hier liegen die Potenziale. Denn wir brauchen mehr Nutzer:innen der App.

Unsere Debatten brauchen mehr Substanz. Gerade, weil es um den Schutz von Menschenleben und einer Abwägung von Grundrechten geht brauchen wir mehr technologischen Sachverstand, mehr Fokus auf Prozesse und deren Optimierung. Blinder Technologieglaube führt nicht nur nicht zu den bestmöglichen Lösungen, er ist schlimmstenfalls sogar Steigbügelhalter für eine tiefgreifende digitale Überwachung. Der bloße Ruf nach mehr Daten und weniger Datenschutz wird keinen Erfolg bringen — schon gar nicht, wenn weder benannt werden kann, was für Daten gebraucht werden noch wie diese generiert und verarbeitet werden können. Daten schützen nicht vor einem Virus. Aus Daten gewonnene Informationen können dazu beitragen, dass Menschen ihr Verhalten ändern. Und schlussendlich kommt es genau darauf an, dass Menschen Informationen über das Virus und seine Verbreitungswege ernst nehmen und ihr Verhalten dadurch ändern. Wenn wir dazu nicht in der Lage sind, wird uns auch ein gelockerter Datenschutz nicht vor dem Virus schützen.

Dieser Text erschien zuerst auf freiheit.org.

Read More
Die EU reagiert auf neuste Terroranschläge mit noch mehr Überwachung

Die EU reagiert auf neuste Terroranschläge mit noch mehr Überwachung

Erst der Schock — dann die Panikreaktion. Die abscheulichen Anschläge in Paris, Nizza und Wien lassen die EU in leider gut bekannte Handlungsmuster verfallen: Auf Terror wird mit Einschränkungen unserer Freiheit reagiert, die angeblich mehr Sicherheit bringen. Wie nun bekannt wurde hat der Ministerrat eine Initiative vorbereitet, die die Ende-zu-Ende-Verschlüsselung von Messengerdiensten wie WhatsApp oder Signal aufweichen soll. Unter der deutschen Ratspräsidentschaft wird damit nicht nur noch weiter in unsere Grundrechte eingegriffen. Es wird auch die weltweite IT-Sicherheit unter dem Vorwand des Kampfs gegen den Terror aufs Spiel gesetzt.

“Sicherheit durch Verschlüsselung, Sicherheit trotz Verschlüsselung”, forderte schon der ehemalige Bundesinnenminister Thomas de Maizière und sorgte damit für viel Entsetzen bei Bürger- und Menschenrechtlern und IT-Expertinnen. Der gestern bekanntgewordene Vorstoß des Ministerrats folgt genau dieser Losung: Die Betreiber von Messengerdiensten sollen dazu verpflichtet werden, einen Generalschlüssel für den behördlichen Zugriff auf verschlüsselte Kommunikation zu hinterlegen. Genutzt werden soll offenbar die “Exceptional Access”-Methode des britischen Geheimdienstes GCHQ. Dies bedeutet aber, dass die sichere und verschwiegene Kommunikation von uns allen in Gefahr ist. Denn entgegen Verlautbarungen, dass diese Überwachung nur potenzielle Terrorist:innen beträfe, öffnet sie vielmehr ein Einfallstor für jegliche Cyber-Kriminelle oder Spione. Wir erinnern uns: selbst die NSA war nicht in der Lage, ihre genutzten Sicherheitslücken geheim zu halten. Weltweite Cyberattacken (Stichworte: WannayCry und NotPetya) mit Schäden in Milliardenhöhe und die Gefährdung von Menschenleben waren die Folge.

Abgesehen davon, dass Regulierungen dieser Art Auswirkungen auf die Nutzung von Technologie in der ganzen Welt haben, ist die Resolution des Ministerrats eine Einladung an autokratische Herrscher es der Europäischen Union gleichzutun und die Kommunikation ihrer Bürger:innen mitzulesen. Es darf nicht vergessen werden: Privatsphäre ist ein Menschenrecht, das auch in der europäischen Grundrechtecharta verankert ist. Wollen wir andere von unseren Werten überzeugen, so müssen wir hier mit gutem Beispiel vorangehen.

Aber auch das ewige Mantra, dass zusätzliche Überwachungsbefugnisse einen entscheidenden Beitrag zur Verhinderung solcher Terroranschläge beitragen muss endlich ernsthaft infrage gestellt werden. Seit mehr als 20 Jahren, spätestens seit den Anschlägen vom 11. September 2001, wird die diffuse Angst der Menschen dazu ausgenutzt immer neue Eingriffsbefugnisse durchzusetzen. Trotzdem sehen wir uns im Jahr 2020 einer noch komplexeren Sicherheitslage gegenüber und haben noch nicht einmal den Ansatz einer Vorstellung davon, was diese Zugriffsrechte überhaupt genau bringen und wofür wir unsere Freiheiten eingeschränkt haben.

Der Bundesdatenschutzbeauftragte Ulrich Kelber sagte erst kürzlich wieder: Das für eine Demokratie erträgliche Maß an Überwachung ist bereits überstiegen! Trotzdem soll in Deutschland und der EU die verfassungswidrige Vorratsdatenspeicherung wieder eingeführt werden, die Geheimdienste dürfen nun auch offiziell per Staatstrojaner schnüffeln, die neue EU Anti-Terror-Verordnung soll über Uploadfilter funktionieren und die regelmäßige Evaluierung von Sicherheitsgesetzen, die nach dem 11. September 2001 verabschiedet wurden, wurde gerade vom Bundestag aufgehoben.

Der entsetzliche Terroranschlag in Wien hätte verhindert werden können, wenn Sicherheitsbehörden mit den Informationen von Geheimdiensten, die ihnen vorlagen, gearbeitet hätten und diese ernst genommen hätten. Wie so häufig. Es gab auch hier, keinen Mangel an Befugnissen und Information. Wir sehen immer wieder, dass klassische Polizeiarbeit einer gut organisierten und vor allem personell gut ausgestatteten Truppe die größten Erfolge im Kampf gegen den Terror bringen.

Wir sind also auf einem falschen Weg im Kampf um mehr Sicherheit. Unter deutscher Führung scheint die EU diesen nun fortzusetzen. Sie droht dabei aber nicht nur ihre Grundwerte aufzugeben. Sie fällt auch all jenen Menschen in den Rücken, die sich weltweit für Demokratie und Rechtsstaatlichkeit einsetzen. Die Demonstranten, die in Hongkong oder Belarus gegen autokratische Herrschaft, Überwachung und Unterdrückung kämpfen und ihre Freiheit und ihr Leben aufs Spiel setzen, sind angewiesen auf sichere und integre Kommunikation. Die EU kann sich nicht einerseits mit ihnen solidarisieren und ihnen im gleichen Zug die Grundlage für ihren Einsatz entziehen.

Dieser Text erschien gemeinsam mit Dr. Maximilian Spohr zuerst auf freiheit.org.

Read More
Publikation: Behind Closed Curtains

Bei der Friedrich-Naumann-Stiftung für die Freiheit ist meine Studie „Behind Closed Curtains – Desinformation auf Messengerdiensten“ auf Deutsch und Englisch erschienen. Die Süddeutsche Zeitung begleitete die Veröffentlichung mit einem Interview mit mir.

Desinformation ist kein neues Phänomen, das erst mit der Digitalisierung aufkam. Vielmehr wurden Desinformationen wohl schon immer eingesetzt, um politischen Gegnern zu schaden, Gesellschaften zu destabilisieren und Regime zu legitimieren. Neu ist, dass sich Desinformationen dank der Digitalisierung mit rasanter Geschwindigkeit verbreiten. Alle können potenzielle Absender – vor allem auch ungewollt – von Desinformationen sein können. Sinkendes Vertrauen in staatliche Akteure und Medien, sowie eine Disruption der gesamten Medienlandschaft und schnellere, einfachere und günstigere Zugänge zu Smartphones und zum Internet unterstützen die Entwicklungen weltweit. Desinformation und die Bedrohung, die durch sie ausgeht, haben es mittlerweile auf die politische Tagesordnung geschafft: Es wird heftig diskutiert,was Desinformation innerhalb von Gesellschaften anrichtet, aber auch welche Gefahr von außerhalb durch einen sogenannten Information Warfare droht. Dass Messenger zur Verbreitung von Desinformation und Verschwörungserzählungen genutzt werden, ist in Deutschland noch recht unbekannt. Erst durch das Bekanntwerden von Netzwerken Rechtsextremer auf diesen Plattformen und zusätzlich durch das Coronavirus kommt das Thema Desinformation auf Messengern langsam in der deutschen Öffentlichkeit an.

Desinformation muss in seiner Vielfältigkeit näher betrachtet werden. Denn das Thema ist für die innere Sicherheit, aber auch für den gesellschaftlichen Zusammenhalt und Frieden von enormer Bedeutung. Viel zu oft wird vergessen, dass gerade im nicht-politischen Bereich verbreitete Desinformation ein hohes Risiko birgt: Rund um das Coronavirus ist Anfang 2020 weltweit eine große Menge an Desinformation im Umlauf. Von falschen Studien, angeblichen Selbsttests und wirkungslosen Präventionsmaßnahmen ist alles dabei. Die Weltgesundheitsorganisation spricht daher von einer Infodemie. Diese Infodemie birgt ein erhebliches Gesundheitsrisiko für alle Menschen.

2022 werden drei Milliarden Menschen Messengerdienste weltweit nutzen. Viele davon werden keine dem digitalen Zeitalter angemessene Medienkompetenz besitzen oder gar Analphabeten sein. Das gilt für Nutzerinnen und Nutzer weltweit. Nicht nur die Art, wie wir kommunizieren, ändert sich rasant, sondern auch, wie wir Medien und Nachrichten konsumieren. Die Zeitung vom Küchentisch, das gemeinsame Nachrichten schauen am Abend, das Telefongespräch – all das verlagert sich in nicht mehr von außen wahrnehmbares Kommunizieren und Konsumieren. Damit müssen wir als Gesellschaft(en) lernen umzugehen. Welche Erfahrungen und Erkenntnisse haben wir weltweit mit Desinformation via Messenger? Wie komplex ist dieses Phänomen und wird der Komplexität bisher in der öffentlichen Diskussion ausreichend Rechnung getragen? Welche Ansätze können zu einer aufgeklärteren, resilienteren Gesellschaft beitragen?

Read More
Wir brauchen eine faktenbasierte Digital- und Medienpolitik

Regulierung von “Social Bots” im neuen Medienstaatsvertrag

“European tech policies need to be based on facts, not emotions.”, habe ich kürzlich in diesem Artikel über “Tech populsim” gelesen und ich stimme nicht mit allem in diesem Text überein, mit dieser Aussage aber zu hundert Prozent. Und sie gilt nicht nur für Digitalpolitik, sondern auch für viele andere Politikbereiche, aber ganz besonders für die Digitalpolitik. Das haben wir bei der DSGVO gesehen und das haben wir bei der Diskussion um die EU-Urheberrechtsreform, insbesondere Uploadfilter und Leistungsschutzrecht gesehen und das sehen wir jetzt wieder beim Medienstaatsvertrag und der Kennzeichnungspflicht von “Social Bots”.

“Social Bots” sollen Menschen auf Plattformen (vermutlich vornehmlich Twitter) manipulieren und ihnen eine andere Meinung aufdrängen. Gefunden wurden bisher noch keine — Michael Kreil und Florian Gallwitz haben dazu bereits ausführlich geschrieben. Der Entwurf des Medienstaatsvertrags definiert “Social Bots” in § 55 Abs. 3 wie folgt:

“Anbieter von Telemedien in sozialen Netzwerke sind verpflichtet, bei mittels eines Computerprogramms automatisiert erstellten Inhalten oder Mitteilungen den Umstand der Automatisierung kenntlich zu machen, sofern das hierfür verwandte Nutzerkonto seinem äußeren Erscheinungsbild nach für die Nutzung durch natürliche Personen bereitgestellt wurde. Dem geteilten Inhalt oder der Mitteilung ist der Hinweis gut lesbar bei- oder voranzustellen, dass diese unter Einsatz eines das Nutzerkonto steuernden Computerprogrammes automatisiert erstellt und versandt wurde. Ein Erstellen im Sinne dieser Vorschrift liegt nicht nur vor, wenn Inhalte und Mitteilungen unmittelbar vor dem Versenden automatisiert generiert werden, sondern auch, wenn bei dem Versand automatisiert auf einen vorgefertigten Inhalt oder eine vorprogrammierte Mitteilung zurückgegriffen wird.”

Das heißt, jeder Account, der das Profilfoto eines Menschen hat (und vermutlich auch einen Namen, der wirkt, als sei da ein Mensch) und automatisiert postet oder twittert, ist ein “Social Bot”. Aha. Heißt, sobald ich mit beispielsweise Hootsuite einen Tweet einplane, weil der aus welchen Gründen auch immer, zu einer bestimmten Uhrzeit getwittert werden soll, bin ich ein Social Bot? Dass dieser Tweet dann über Hootsuite auf Twitter ausgespielt wurde, steht übrigens schon jetzt unter jedem Tweet (wie auch dort steht, ob ich mit Twitter für iOS oder über Twitter im Browser getwittert habe) — aber dennoch fordern hier die Länder in ihrem Medienstaatsvertrag eine Kennzeichnungspflicht. Warum?

Schon heute zeigt Twitter an, über welchen Zugang ein Tweet gesendet wurde.

Über Erkenntnisse einer Manipulation über solche automatisiert erstellten Tweets findet sich übrigens nichts im Medienstaatsvertrag. Auch nicht in den Stellungnahmen, die eine Kennzeichnung befürworten (zu den Befürwortern zählen Deutscher Bundesjugendring, Digitale Gesellschaft (unter Vorbehalt) und VAUNET Verband Privater Medien) und vorab angefragt wurden. Es finden sich hier auch nicht wirklich Erklärungen, warum man diese Kennzeichnung befürwortet (beispielsweise schreibt der Deutsche Bundesjugendring lediglich “Die Social Bots in sozialen Netzwerken einzubeziehen macht Sinn.”) Und obwohl mehr Interessenvertreter eine Kennzeichnungspflicht ablehnen (dazu gehören eco Verband der Internetwirtschaft, Hans Bredow Institut, Verdi und ZDF, das Mainzer Medieninstitut hält die Kennzeichnungspflicht für juristisch nicht sinnvoll, politisch hingegen schon. Die restlichen Stellungnahmen äußern sich nicht zu § 55 Abs. 3) ist man hier dennoch der Meinung, dass eine Kennzeichnungspflicht solcher Accounts sinnvoll sei. Dabei kam selbst das Büro für Technikfolgenabschätzung beim Deutschen Bundestag zu der Erkenntnis: “Eine Kennzeichnungspflicht von Bots erscheint zum jetzigen Zeitpunkt u.a. aufgrund der Schwierigkeiten bei der zuverlässigen Detektion von Bots, mangelnder Sanktionierungs-möglichkeiten sowie von Konflikten mit dem Datenschutz eher ungeeignet.” Also: was bedarf es noch, um vor schwachsinniger, überflüssiger Regulierung abzuweichen? Hier wird wieder eine Regulierung gefordert, ohne das Problem verstanden zu haben. Ohne, dass evidenzbasierte Forschung besteht und ohne sich mit den wirklichen Problemen auseinander gesetzt wurde.

Die wirklichen Probleme sind nämlich sogenannte “Trolle”, also Menschen, die versuchen zu manipulieren oder Desinformationen zu verbreiten. Das hat man bereits sehr schön bei der “Internet Research Agency” aufgezeigt, die aus dem russischen St. Petersburg versuchte (und wahrscheinlich auch Erfolg hatte), beispielsweise Afroamerikaner durch destruktive Kommentierungen unter Videos auf YouTube davon abzuhalten zur Wahl zu gehen. Auch in Deutschland waren nicht automatisierte Bots unterwegs, als während des Kanzlerduells Stimmung auf Twitter gemacht wurde. Das hat Karsten Schmehl in diesem Artikel sehr schön aufgezeigt. Den kommt man aber nicht mit der Regulierung von Technologie bei. Es sind Menschen, die sich zu koordinierten Aktionen versammeln und versuchen, Stimmungen zu erzeugen oder zu manipulieren. Automatisch generierte Inhalte sind heute noch gar nicht in der Lage, vorzugaukeln, sie seien echte Menschen — insbesondere dann nicht, wenn es um Interaktion, d.h. Diskurs geht.

Was wir brauchen, sind bessere Daten(-zugänge) bei den Plattformen für Wissenschaftler:innen, um besser raus zu finden, wer wann wie manipuliert und ob überhaupt. Hier lohnt es sich, gesetzgeberisch einzuwirken. Der neuste Report des amerikanischen Senate Select Committee on Intelligence hat beispielsweise gerade herausgefunden, dass nicht in erster Linie bezahlte Anzeigen (so auch sogenannte “Dark Ads”) ein Problem darstellen, sondern ganz normale, organische Posts. Letztere insbesondere dann, wenn die von relevanten Personen geteilt wurden: “numerous high-profile” Americans, including Trump campaign aide Roger Stone, former ambassador to Russia Michael McFaul, and Fox News host Sean Hannity, “unwittingly spread IRA [Internet Research Agency] content by liking IRA tweets or engaging with other IRA social media content, enhancing the potential audience for IRA content by millions of Americans.”

Probleme beim Thema Desinformation liegen nicht bei “Social Bots”, oder gar “Bots”. Manipulation erfolgt durch gesteuerte Kampagnen von Menschen oder durch unachtsames Teilen von Beiträgen durch Menschen des öffentlichen Lebens, unter anderem auch Politiker:innen. Hier hilft keine Regulierung von “Social Bots”, hier — und nicht nur hier — hilft nur eine faktenbasierte Regulierung, sofern denn notwendig.

Read More
Urheberrechtsreform: „Ein Angriff auf unsere Meinungsfreiheit“

„Eine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern, um von Nutzern hochgeladene Inhalte nach urheberrechtsverletzenden Inhalten zu ‚filtern‘, lehnen wir als unverhältnismäßig ab.“
So steht es unmissverständlich im Koalitionsvertrag von CDU, CSU und SPD. Und doch sollen mit der EU-Urheberrechtsrichtlinie, die vermutlich am 26. oder 27. März verabschiedet wird, vor allem aufgrund von Bestrebungen aus Deutschland und Frankreich, genau diese kommen. Wenn auch nicht explizit, ist doch mittlerweile auch dem Letzten klar, dass Artikel 13 – der jetzt Artikel 17 heißt – nichts anderes bedeuten wird. Selbst die Bundesjustizministerin Katarina Barley hat diese Erkenntnis zuletzt öffentlich eingestanden.

Die EU-Urheberrechtsreform ist ein Baustein eines wichtigen Projekts: ein einheitlicher europäischer digitaler Binnenmarkt. Gerade wenn Europa ein Gegengewicht zu digitalen Unternehmen und Geschäftsmodellen aus den USA oder China werden möchte, ist diese Harmonisierung enorm wichtig. Doch die Artikel 11 (das Leistungsschutzrecht für Presseverleger) und Artikel 13 (Uploadfilter) sind nicht nur ein Hindernis für die digitale Zukunft Europas, sie sind auch ein Angriff auf unsere Meinungsfreiheit.

Die Rechte von Urheberinnen und Urhebern gelten auch im digitalen Raum. Daran gibt es keinen Zweifel und sie gelten dort auch schon heute. Plattformen wie YouTube und Facebook fallen unter ein Haftungsprivileg. Das heißt, sie haften erst, wenn sie über diese Kenntnis erlangen und nicht handeln. Nach dem sogenannten Notice-and-Takedown-Verfahren müssen Plattformen, nachdem sie auf eine Rechtsverletzung aufmerksam gemacht wurden, die entsprechenden Inhalte entfernen. Das funktionierte bislang gut. Plattformen haben in der Regel kein Interesse daran, dass Rechtsverletzungen auf ihren Plattformen stattfinden. YouTube hat daher zum Beispiel das ContentID-System entwickelt, mit dem Urheberrechtsverletzungen aufgespürt werden können und Urheberinnen und Urheber entscheiden können, ob sie eine Urheberrechtsverletzung zulassen möchten, oder eben nicht. Ebenso können sie zum Beispiel ihre Inhalte zur Nutzung freigeben, aber die Werbeeinnahmen, die mit ihrem urheberrechtlich geschützten Werk erzielt werden, für sich beanspruchen. Das funktioniert mehr oder weniger gut. Obwohl YouTube über 100 Millionen Dollar in die Entwicklung dieses Systems (das ja, auch filtert) gesteckt hat, funktioniert es bei Weitem nicht einwandfrei. So hat dieses System beispielsweise ein Video des bekannten deutschen Journalisten und YouTubers Herr Newstime von einer Demo gegen Artikel 13 nicht veröffentlicht, weil im Hintergrund Musik lief. Diese Musik ist natürlich urheberrechtlich geschützt, aber sie ist in dem Video nur Beiwerk gewesen – rechtlich also einwandfrei. Nur konnte das System dies nicht richtig erkennen. Womit wir beim Problem von Artikel 13 wären.

Mit der EU-Urheberrechtsreform sollen Plattformen die volle Haftung für Inhalte und damit auch für Urheberrechtsverletzungen tragen. Um dieser Haftung zu entgehen, sollen sie Lizenzen erwerben, sodass Nutzerinnen und Nutzer weiterhin alles hochladen können, Urheberinnen und Urheber aber durch die Lizenzgebühren für die Nutzung ihrer Inhalte entlohnt werden. So weit so gut, denn natürlich sollen Urheberrechte nicht verletzt werden und natürlich sollen Urheberinnen und Urheber fair entlohnt werden. Nur stößt jetzt die Theorie auf die Praxis. Denn Lizenzen für alle urheberrechtlich geschützten Werke zu erwerben ist schier unmöglich. Zunächst, weil längst nicht alle Inhalte von den Urhebern lizensiert werden (dass Hollywood Lizenzen an YouTube vergibt, darf bezweifelt werden). Auch, weil wir jeden einzelnen privaten Upload lizenzieren müssten. Denn schließlich habe auch ich Urheberrechte auf meine Fotos, die ich bei Instagram hochlade.

Parodien auf Star Wars Videos, bei denen kurze Videosequenzen aus diesen Filmen gezeigt werden, wären so, obwohl ggf. vom Urheberrecht gedeckt, nicht mehr möglich. Denn Videoplattformen bräuchten umfassende Lizenzvereinbarung und müssten beim Upload das Video mit einem Uploadfilter scannen, um zu überprüfen, ob es für alle Inhalte eine Lizenz hat und das Video gegebenenfalls sperren, wenn für die Star Wars-Sequenz keine Lizenz vorliegt. Wer meint, dass Technologie heute oder in absehbarer Zeit so weit wäre, dass sie Parodien, Zitate oder andere, legale Verwendungen erkennen kann, der sei nochmal auf das Beispiel von Herr Newstime verwiesen. Weitere Beispiele sind dieses Video von Pinkstinks, diese Montage von Mario Barth und “Die Anstalt” oder das nicht Erkennen gemeinfreier Werke. Bei einem Upload von 400 Stunden Videomaterial pro Minute(!) alleine auf YouTube, würde schon ein einstelliger Fehlerquotient eines Filtersystems eine enorme Menge an fehlerhaften (Nicht-)Uploads verursachen.

Die EU-Urheberrechtsreform soll die Marktmacht von Google, Facebook und Co  brechen. Axel Voss (CDU), Berichterstatter für die Urheberrechtsrichtlinie, behauptet immer wieder, dass Plattformen wie YouTube ihre Marktmacht auf Urheberrechtsverletzungen aufgebaut hätten. Abgesehen davon, dass dafür eigentlich das Kartellrecht zuständig wäre, wird mit der Reform genau das Gegenteil erreicht. Die großen Konzerne sind die einzigen, die die finanziellen Möglichkeiten haben, ein System zu entwickeln, das die hochgeladenen Inhalte auf Urheberrechtsverstöße überprüft oder Lizenzen zu verhandeln und möglichst pauschal zu erwerben. Zwar gibt es Ausnahmen für Startups, diese greifen aber bereits ab einem Unternehmensalter von drei Jahren nicht mehr. Mit Sicherheit nicht der Zeitpunkt, bei dem ein Startup 100 Mio. Dollar übrig hat, um so ein System zu entwickeln. Außerdem entstünde bei der Überprüfung eine enorme Datenflut, die nicht nur dem Bundesdatenschutzbeauftragten Ulrich Kelber Sorge bereitet. Allen kleinen Plattformen wird also nichts anderes übrigen bleiben, als diese Technologie bei Anbietern einzukaufen, die sich deren Entwicklung leisten können: Google und Facebook.

Das Internet ist kein rechtsfreier Raum. Das Internet ist aber auch ein Versprechen von Freiheit. Diese, insbesondere die Meinungsfreiheit, wird aber durch die EU-Urheberrechtsreform in ihrer jetzigen Form enorm eingeschränkt. Das sieht auch der UN-Sonderberichterstatter für Meinungsfreiheit David Kaye so. Wir brauchen ein Urheberrecht, das den Bedürfnissen der digitalen Welt gerecht wird und einen Interessenausgleich zwischen allen Beteiligten schafft. Als LOAD rufen wir daher dringend dazu auf, Artikel 13 und auch Artikel 11 abzulehnen und am 23. März 2019 europaweit zu demonstrieren.

 

Dieser Beitrag erschien zuerst auf #FreiheitDigital der Friedrich-Naumann-Stiftung.

Read More
Digital-Gipfel oder EDV-Gipfel?

Ist das noch der Digital-Gipfel oder schon eine Selbsthilfegruppe, die sich der Vergangenheitsbewältigung verschrieben hat? Nicht umsonst wurde über den „#EDVGipfel” in Nürnberg gespottet. Immerhin haben die fast ausschließlich aus Politik und Konzernen bestehenden Gäste über Ethik in Bezug auf Künstliche Intelligenz diskutiert. Richtigerweise stellten sie fest, dass wir als Europa ein Gegengewicht zu den KI-Anwendungen aus den USA und China brauchen. Der Erhalt unserer europäischen Werte, insbesondere der Bürgerrechte, ist in einer digitalisierten Welt enorm wichtig.

Dabei stellt sich die Frage, warum sich Deutschland nicht intensiver um eine europäische KI-Strategie kümmert. Neben Phrasen in der vorgelegten Strategie zu Europa und einer nunmehr nur noch losen Zusammenarbeit mit Frankreich, zeigt auch die Fokussierung auf das Label „KI ‚Made in Germany‘” und die fast nicht vorhandene europäische Beteiligung am Digital-Gipfel, dass man die Wichtigkeit eines europäischen Projekts bei diesem Thema nicht erkannt hat. Deutschland wird nicht als Einzelkämpfer bestehen können. Peter Altmaiers Vision eines europäischen „Airbus-Projekts” für KI hilft da wenig; er verkennt dabei, dass KI kein Produkt oder Dienstleistung an sich ist, sondern diese in der Umsetzung unterstützt.

KI-Strategie ohne Zielsetzung

Essentiell für eine Strategie wären Zielvorgaben, Milestones, eine Überprüfung. Es ist auch unklar, ob und wie nachgesteuert wird, wenn die KI-Strategie in der Praxis nicht tragfähig ist. Angela Merkel bewies dabei erst jüngst im Bundestag, dass sie weiß, wie wichtig Agilität bei Digitalprojekten ist. Dies fehlt im Papier der Bundesregierung. Bei vielen Projekten der Bundesregierung lässt sich konkrete Erfolgsmessung abseits der reinen Umsetzung vermissen. Auch auf Rückfrage bei der Vorstellung der „Once Only 2.0”-Plattform konnte nicht konkret gesagt, werden, wann diese Plattform – sofern sie denn jemals kommt, ein Erfolg sei. Bereits die eID im Personalausweis zeigte, dass es mit dem einfachen Abschließen eines Projekts bei weitem nicht getan ist.

Ebenfalls wichtig beim Thema Werte und ebenfalls nicht mitbedacht beim Digital Gipfel ist die Zivilgesellschaft. Dabei liefert sie wertvolle Impulse und trägt die Entwicklung in die Breite. Auf den viel zu groß und viel zu männlich besetzten Panels und bei den Impulsvorträgen fehlte sie nahezu vollständig. Stattdessen diskutierten hauptsächlich Vertreterinnen und Vertreter von Konzernen. Innovationen werden aber von jungen Startups getrieben. Aber Jugendlichkeit und Zukunftsvision war scheinbar ohnehin nicht gefragt.

Testosteron statt Innovation

Viel zu groß und viel zu männlich war auch das Panel zu „KI und Cybersecurity” mit Bundesinnenminister Horst Seehofer, der sich in solch einem Umfeld aber bekanntlich sehr wohl fühlt. Weniger wohl fühlte er sich aber sichtlich mit dem Thema. Seine Keynote hielt er größtenteils frei und ebenso frei von Inhalten.

KI sei Thema in seinem Ministerium, das BSI mache gute und international anerkannte Arbeit. Mehr substanziellen Inhalt zu dem Thema des Nachmittags konnte auch das bereits erwähnte anschließende Panel nicht aus ihm herauslocken. Es offenbarte allerdings, dass das Thema nicht wirklich wichtig zu sein schien. Mit wirklicher Expertise stach vor allem Jörn Müller-Quade vom Karlsruher Institut für Technologie (KIT) hervor, der dankenswerterweise darauf hinwies, dass das Offenhalten von Sicherheitslücken schädlich für die Cyber-Sicherheit sei, und dass der von Seehofer angedeutete Gegenschlag nach Angriffen auf Kritische Infrastrukturen, ebenfalls kein sinnvoller Teil einer Cyber-Sicherheitsstrategie sein sollte. Eine gute Cyber-Sicherheitsstrategie muss aber die Basis für eine digitalisierte Welt sein. Die Flapsigkeit, mit der das Panel vor einem Fachpublikum auch noch moderiert wurde, zeugt nicht davon, dass dem Veranstalter die Relevanz dieses Themas bewusst ist.

Not macht erfinderisch

Zu wenig Beachtung findet auch die Praxis. Ein Positivbeispiel lieferte das Bundesamt für Migration und Flüchtlinge (BAMF). Die Behörde, die Gastgeberin für die Vorstellung der Plattform „Once Only 2.0“ war, wurde bei der Digitalisierung der Verwaltung vom Getriebenen zum Treiber. Das hohe Aufkommen von Asyl-Anträgen seit dem Jahr 2015 zwang die Behörde, möglichst schnell Prozesse zu optimieren und damit auch zu digitalisieren. KI und Automatisierungsprozesse werden nun erfolgreich eingesetzt; unter anderem Anträge und Anfragen dadurch zügiger beantwortet und nicht zuletzt Papier gespart.

Dass Vorzeigeprojekte im Bereich der Digitalisierung so wenig Beachtung finden zeigt nicht nur, dass dem Thema noch zu wenig Brisanz und Relevanz beigemessen wird, es zeigt auch dass es der Bundesregierung an Geschichten fehlt, die erzählen, was die Digitalisierung für jede Einzelne und jeden Einzelnen bedeuten kann und wie wir sie in unserem Alltag erfahren können.

Visionen fehlen auch bei der KI-Strategie. Wo geht es hin? Wo stehen wir in 50 Jahren? Wie sieht unsere Welt dann konkret aus? Mit klaren Bildern und Geschichten könnten Ängste genommen und Chancen aufgezeigt werden. KI ist nur eine Technologie, erst ihr tatsächlicher Einsatz an Produkten oder Dienstleistungen macht sie nützlich und sichtbar. Wie Künstliche Intelligenz zum Umweltschutz beitragen kann – das wäre ein spannendes und enorm wichtiges Thema. Dies wäre ein Themenschwerpunkt, den die Bundesregierung visionär angehen könnte. Aber bitte nicht erst zum nächsten Digital-Gipfel.

 

Dieser Beitrag erschien zuerst in der Aausgabe vom 5. Dezember 2018 des Tagesspiegel Baground Digitalisierung & KI

Read More

Neueste Beiträge

  • Nach 2024 erneut „GolD“ beim WIN Award in der Kategorie eGovernment/CxO gewonnen
  • Erneut top 40 under 40 des Capital Magazins
  • Digitale Souveränität: Machtfrage statt Moralfrage
  • Gastbeitrag: Wie viele Netzwerke braucht die Verwaltungstransformation?
  • Gastbeitrag: Zwischen Gesetz und Wirkung klafft eine digitale Lücke

Neueste Kommentare

    Archiv

    • November 2025
    • August 2025
    • April 2025
    • Februar 2025
    • Januar 2025
    • Dezember 2024
    • November 2024
    • August 2024
    • Juli 2024
    • Mai 2024
    • April 2024
    • November 2023
    • September 2023
    • Juli 2023
    • April 2023
    • März 2023
    • Dezember 2022
    • Oktober 2022
    • Juli 2022
    • Juni 2022
    • Mai 2022
    • April 2022
    • Februar 2022
    • November 2021
    • August 2021
    • Juni 2021
    • Mai 2021
    • April 2021
    • März 2021
    • Februar 2021
    • Januar 2021
    • Dezember 2020
    • November 2020
    • Oktober 2020
    • August 2020
    • Juli 2020
    • April 2020
    • Februar 2020
    • Januar 2020
    • November 2019
    • Oktober 2019
    • September 2019
    • August 2019
    • Mai 2019

    Kategorien

    • Allgemein
    • Digitale Verwaltung
    • Digitalpolitik
    • Gastbeitrag
    • Internet Governance
    • Publikation

    Seitennummerierung der Beiträge

    « 1 2
    Impressum Datenschutz