Mehr Digitale Souveränität Mehr Digitale Souveränität
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt

Digitalpolitik

Tag: Digitalpolitik

Mehr Digitale Souveränität

Zusammen mit meiner Kollegin Teresa Widlok habe ich einen Beitrag für die liberal der Friedrich-Naumann-Stiftung für die Freiheit zu digitaler Souveränität verfasst und warum sie so wichtig für uns in Deutschland und Europa ist.

Am Ende präsentieren wir zehn Punkte für mehr digitale Souveränität:

1️⃣ Digitale Souveränität als Moonshot-Projekt begreifen und europäisch angehen.

2️⃣ Abhängigkeiten im Bereich von Technologien und digitalen Diensten erkennen und ein umfassendes Verständnis von digitaler Souveränität etablieren.

3️⃣ Fähigkeiten-Lücken im Digitalen erkennen und (bestenfalls europäisch) Strategien aufbauen, um diese zu schließen.

4️⃣ Strategische Technologien fördern, um Abhängigkeiten entlang globaler Lieferketten zu verringern und Kompetenzen aufzubauen (z. B. bei Chips, KI, Edge- und Quantencomputing und 5G/6G).

5️⃣ Den Transfer zu marktreifen digi-talen Produkten und Technologien fördern, die das „Made in Germany“ oder „Made in Europe“ des 21. Jahrhunderts werden können.

6️⃣ Die Hoheit über physische und -logische Infrastrukturen beibehalten und fördern.

7️⃣ Weitere globale rechtliche Standardsetzung über digitale Regulierung aus der EU heraus betreiben.

8️⃣ Gemeinsam mit Partnern demokratische und menschenrechtsbasierte Werte in globale technische Standardisierungsprozesse einbringen.

9️⃣ Allianzen mit gleichgesinnten Partnern aufbauen und fördern (z. B. im Rahmen des Trade and Technology Council, TTC).

🔟 Internationale Zusammenarbeit, auch mit dem globalen Süden, auf Augenhöhe betreiben, um Entscheider bei Standards auf unsere Seite zu bringen.

Der gesamte Artikel kann hier nachgelesen werden.

Read More
Gastbeitrag in der WAMS: Die EU-Kommission bedroht unsere Freiheit im Netz

Den folgenden Gastbeitrag habe ich zusammen mit der stv. LOAD Vorsitzenden Teresa Widlok für die Welt am Sonntag verfasst. Dort erschien er am 29. Mai 2022, bzw. in der Frühausgabe vom 28. Mai 2022.

Tempolimit, Veggie-Day, Genderstern – an vielen Stellen sehen wir Deutsche unsere Freiheit, um die wir so leidenschaftlich ringen, bedroht. Allzu oft endet das in leichtliberalen Schlagwortdebatten. Doch an einer Stelle, an der unsere Freiheitsrechte so massiv bedroht sind wie selten zuvor, ist es auffallend still: Mit der sogenannten Chatkontrolle hat die Europäische Kommission einen Gesetzentwurf vorgelegt, der unsere Kommunikationsfreiheit, unser digitales Briefgeheimnis und unsere Privatsphäre im Kern erschüttern wird.

Sollte der Entwurf verabschiedet werden, dürfte die EU-Kommission Kommunikation im Internet umfassend kontrollieren: Sämtliche Nachrichten und andere Inhalte könnten überwacht werden. Dadurch möchte die EU-Kommission Missbrauchsdarstellungen von Kindern und Jugendlichen finden. Mit der Intention, Kindesmissbrauch zu verhindern, schafft die EU-Kommission damit aber den krassesten Fall anlassloser Massenüberwachung, den wir seit der NSA-Affäre erleben.

Nur sind es dieses Mal nicht fremde Geheimdienste, die uns bespitzeln, es ist die Europäische Union. Und selbst Kinderschutzorganisationen bezeichnen den Vorschlag zur Chatkontrolle wegen der flächendeckenden Scans privater Kommunikation als unverhältnismäßig.

Von Massenüberwachung ist im Kommissionsentwurf wortwörtlich natürlich nicht die Rede. Die „Verordnung zur Prävention und Bekämpfung der Verbreitung von Kindesmissbrauchsdarstellung“ spricht stattdessen lieber von Möglichkeiten, bestimmte Inhalte in digitalen Diensten zu erkennen und zu entfernen.

Dabei geht es nicht nur um Chats, die auf Messengern oder über Direktnachrichten geführt werden – verschlüsselt oder unverschlüsselt. Sondern auch um E-Mails, Chatnachrichten in Online-Games oder Inhalte in App Stores und bei Hosting-Anbietern jeglicher Art, wie zum Beispiel Inhalte in der Cloud.

All diese Anbieter sollen auf Anordnung automatisch bereits bekannte oder neue Darstellungen von Kindesmissbrauch durch das konstante Scannen von Nachrichten entdecken. Auch Text soll durchleuchtet und ausgewertet werden, um Grooming zu erkennen – die Kontaktaufnahme von Erwachsenen mit Minderjährigen, um sexuellen Missbrauch anzubahnen.

Fehlerquote von zwölf Prozent

Es ist allerdings völlig unklar, wie das technisch und im Detail funktionieren soll. Wie kann man bei Bildern unterscheiden, ob es sich um Strandfotos eines Kindes handelt, die aus dem Sommerurlaub in die Familien-WhatsApp-Gruppe gepostet werden – oder um Kinderpornografie? Zwischen Urlaubsfotos, auf denen Kinder nackt am Strand rumlaufen, und Kinderpornografie ist oft ein schmaler Grat. Oder wie bei Textnachrichten, ob es sich um einvernehmliches Sexting zwischen zwei 16-Jährigen handelt – oder um Grooming? Diese fundamentalen Fragen sind ungelöst.

Ohne eine weitreichende Identifizierungspflicht aller Kommunikationsteilnehmer und genaues Wissen um den Kontext, in dem ein Bild verschickt wird, liegt auch der beste Filter oder Scanner in zu vielen Fällen daneben. Der von der EU-Kommission selbst zitierte Industriestandard geht bei der Texterkennung von einer Fehlerquote von zwölf Prozent aus. Bei Milliarden von täglich versendeten Nachrichten summiert sich das schnell.

Debatten im Spannungsfeld zwischen Freiheit und Sicherheit finden selten auf einer objektiven Basis statt. Die Frage, ob wir mehr Freiheit oder mehr Sicherheit gewährleisten wollen oder können, lässt sich nie vollständig zufriedenstellend für beide Seiten lösen. Doch die Fraktion der Sicherheitslogik hat es mit diesem Gesetzentwurf übertrieben.

Zwar wird von allen Seiten beteuert, dass verschlüsselte Kommunikation weiterhin verschlüsselt bleiben darf. Private Kommunikation ist aber immer privat, egal ob verschlüsselt oder nicht. Digitale Bürgerrechte sind keine Bürgerrechte zweiter Klasse – auch nicht das digitale Briefgeheimnis. Der Staat dampft schließlich auch keine Briefe auf oder hört massenhaft Telefongespräche ab.

Netzaktivisten wird vorgehalten, es gehe ihnen lediglich um die Privatsphäre und nicht um den Schutz von Kindern. Das ist unfair. Auch, weil die drei üblichen sicherheitspolitischen Narrative für beide Seiten gelten können. Das erste Narrativ: Das Internet ist kein rechtsfreier Raum. Das bedeutet, dass natürlich das Strafrecht gilt, aber ebenso Freiheitsrechte. Das Zweite: Was im Analogen gilt, muss auch im Digitalen gelten. Das Briefgeheimnis gilt also sowohl auf dem Postweg als auch im Internet.

Das Dritte: Sicherheitsbehörden müssen auf Augenhöhe mit Kriminellen agieren können. Anstatt also Ressourcen damit zu verschwenden, falschen Verdachtsmeldungen nachzujagen und bewegungsunfähig im Datenmüll zu ertrinken, sollten Sicherheitsbehörden präzise und effiziente digitale Hilfsmittel zur Verfügung stehen.

Die Meldungen der vergangenen Wochen, dass immer mehr Missbrauchsdarstellungen im europäischen Teil des Internets gefunden werden, lassen niemanden kalt. Netzaktivisten fordern daher schon seit Jahren, als solche erkannte Missbrauchsdarstellungen zu löschen, anstatt sie zu sperren und Webseiten lediglich mit einem Stoppschild zu versehen. Die Verbreitung von einmal im Netz befindlichen Bildern kann nur durch Löschen aufgehalten werden.

Es geht auch ohne neue Befugnisse

Bei aller Faszination für Technologie und der Hoffnung, dass diese gesellschaftliche Probleme löst, darf die klassische Ermittlungsarbeit nicht vergessen werden. Prominent ist etwa der Fall, den die spezielle Polizeiermittlungsgruppe „Berg“ seit Oktober 2019 in einem weitverzweigten Missbrauchskomplex ermittelt hat. Im Haus eines Mannes aus Bergisch Gladbach waren damals Unmengen kinderpornografischer Daten gefunden worden. Durch ihn stießen die Ermittler auf weitere Täter, die im Netz Videos und Abbildungen schweren sexuellen Kindesmissbrauchs austauschten.

Diese Erfolge zeigen, wie handlungsfähig Ermittlungsbehörden auch ohne neue Befugnisse und Meldepflichten sind. Hierfür muss Technologie flächendeckend eingesetzt werden, um etwa bei der psychisch äußerst anspruchsvollen Ermittlungsarbeit zu unterstützen und zu entlasten. Denkbar sind etwa KI-gestützte Tools zur Auswertung von Bildmaterial oder der Erkennung von Netzwerken.

Zu all dem schweigt der Kommissionsentwurf. Stattdessen stellt er private Kommunikation umfassend infrage – und um diesen Kern sollte unsere Freiheitsdebatte kreisen. Denn unsere Freiheitsrechte sind wirklich in Gefahr.

Ann Cathrin Riedel ist Vorsitzende und Teresa Widlok stellvertretende Vorsitzende von LOAD e.V. – Verein für liberale Netzpolitik.

Dieser Gastbeitrag erschien zuerst im Print der Welt am Sonntag am 29. Mai 2022 und später online auf welt.de

Read More
Gastbeitrag: Plädoyer für eine wertebasierte Digitalisierung: Resilienz gegen Hatespeech und Trolle

Soll ein Milliardär wie Elon Musk Twitter alleine besitzen dürfen? Welche Macht hat Facebook über den öffentlichen Diskurs und welche Rolle spielt TikTok in Wahlkämpfen? Wir diskutieren in Politik und Gesellschaft häufig über den Einfluss privatwirtschaftlicher Unternehmen auf den öffentlichen Diskurs und die Demokratie im digitalen Raum. Dabei gerät es oft in den Hintergrund, dass wir als demokratische Staaten die Macht haben, diese Plattformen zu regulieren und uns damit für ein offenes, freies und menschenrechtsbasiertes Internet einzusetzen. 

Wie notwendig eine wertebasierte Digitalisierung ist, zeigen uns vor allem der russische Angriffskrieg in der Ukraine sowie die Ereignisse in Belarus und Hongkong. Dort gehören staatliche Desinformationskampagnen, Internet-Shutdowns und Netzsperren sowie digitale Überwachung zu den staatlichen Repressionen, die die Bürgerinnen und Bürger dieser autoritären Regime in ihren eigenen Ländern erfahren. Die Einschränkungen von Bürgerrechten im digitalen Raum haben nicht nur Folgen für die eigene Bevölkerung, sondern weit über die Landesgrenzen hinaus. Folglich bedarf es eine international koordinierte Digitalpolitik, um diesen Herausforderungen zu begegnen. Das Treffen der G7-Digitalminister:innen in Düsseldorf bietet eine hervorragende Plattform für die Abstimmung im Hinblick auf eine globale digitale Weltordnung.

Spätestens seit der Bundestagswahl 2017 diskutieren wir hierzulande die Gefahr, die von Desinformationen ausgeht. Obgleich wir uns bewusster werden, sind wir uns der Gefahren durch gezielte staatliche Desinformationskampagnen und strategische Informationskampagnen noch immer nicht genügend bewusst – geschweige denn dagegen gewappnet. Dennoch wirken wir als Politik und Zivilgesellschaft beständig daraufhin, dass Social-Media-Plattformen sich ihrer Verantwortung bewusst werden. Wir fordern, dass sie Maßnahmen gegen solche Kampagnen ergreifen und beispielsweise gezielt Netzwerke, die diese Desinformationen verbreiten, ausschalten oder dafür sorgen, dass ihre Algorithmen Desinformationen nicht weiter verbreiten. Wir sind mit den rechtlichen Vorgaben, zum Beispiel durch den Digital Services Act (DSA), noch ganz am Anfang. Doch der bisherige politische und gesellschaftliche Druck zeigte bereits Wirkung und Besuche der Facebook-Whistleblowerin Frances Haugen in europäischen Parlamenten taten ihr Übriges. 

Als Europäer:innen haben wir das Glück, dass wir aufgrund unserer wirtschaftlichen Relevanz und unseres politischen Gewichts bei diesen Plattformen Gehör finden und entsprechenden Druck ausüben können – nicht nur durch Gesetzgebungen. In Ländern wie Myanmar, Äthiopien oder ganz aktuell den Philippinen, sieht dies leider anders aus. Nicht nur, dass hier seit Jahren Desinformationen, Hate Speech und Trollnetzwerke einen demokratischen Diskurs im Digitalen vollkommen unmöglich machen und dies vor allem autoritären Herrschern und Regimen in die Hände spielt. Schlimmer noch: solche​​ Desinformationen und unkontrollierte Hasssprache schürt und verschärft bestehende Konflikte – bis hin zum Genozid, wie an den Rohingya in Myanmar. All dies passiert auch, weil Plattformen weder auf die dort gesprochenen Sprachen ausreichend trainierte algorithmische Systeme haben, die schädliche Inhalte erkennen und vorsortieren könnten – ein Thema, das auch bei uns in Europa mit unseren vielen kleinen Sprachen von höchster Relevanz ist. Noch beschäftigen sie ausreichend Content-Moderator:innen, die die betreffenden Inhalte entsprechend bewerten und nach den eigenen Community-Richtlinien entfernen könnten. Es sollte in unserem Interesse sein, dass Plattformen nicht nur ihre eigenen Standards weltweit durchsetzen, sondern sich auch für den Schutz von Menschenrechten in ihren Netzwerken einsetzen. Das kann durch legislativen Druck, wie den DSA gehen, der hoffentlich global wirken wird. Das muss aber auch durch gesellschaftlichen Druck passieren. Welche realen Auswirkungen Desinformationen und Hate Speech haben kann, können wir hierzulande nicht nur intensiv seit der Corona-Pandemie sehen. Wir sehen es auch ganz deutlich seit der russischen Besetzung der Krim bis hin zum immer noch andauernden Angriffskrieg Russlands auf die Ukraine in unserer unmittelbaren Nachbarschaft.  

Russland fördert und verbreitet gezielte Desinformationen und Verunsicherung im Ausland und damit auch bei uns. Eine der größten Fehden im Informationskrieg wird allerdings gegen die eigene Bevölkerung geführt: nebst der Staatspropaganda aus der Duma soll die russische Bevölkerung möglichst keine faktenbasierten Informationen bekommen. Das Putin-Regime zensiert nicht nur die freie Presse, sondern auch ganz das Internet. Facebook und Instagram sind verboten, Twitter ist gesperrt, der Kurzvideodienst TikTok ist in Russland auf dem Vor-Kriegsstand eingefroren. Das russische Regime bereitet schon seit Jahren weitreichendere Maßnahmen vor:  Der Kreml versucht ein eigenes russisches Internet zu kreieren und das Land vom weltweiten offenen und freien Internet abzukapseln. Das gelingt Russland nicht so durchgreifend wie China, das mit seiner Great Firewall die eigene Bevölkerung seit Jahren erfolgreich vom Rest der Welt abschirmt und jegliche Kommunikation, insbesondere Kritik an der Kommunistischen Partei, zensiert. Kritiker:innen werden in Windeseile identifiziert, aufgespürt – und verschwinden. 

Beide Staaten treiben die Zersplitterung des Internets, das sogenannte “Splinternet” intensiv voran. Doch die staatliche Kontrolle des Internets und der digitalen Inhalte ist kein Alleinstellungsmerkmal von autoritären Regimen, die damit das Ziel verfolgen, ihre Bevölkerung komplett zu überwachen. Zu häufig lassen sich demokratische Staaten – auch die Europäische Union – dazu verleiten, Überwachungstechnologien zur Durchsetzung vermeintlich edler Motive zu adaptieren. Nicht umsonst wurden Digitalgesetze auch aus Europa vom früheren UN-Sonderberichterstatter für Meinungsfreiheit, David Kaye, scharf kritisiert, was hierzulande allerdings nur auf wenig Gehör stieß. Wenn unser Interesse eine wertebasierte Digitalisierung ist, müssen wir solche Kritik künftig ernster nehmen, um ein Vorbild sein zu können. Denn auch liberale Demokratien sind nicht davor gefeit, Freiheits- und Menschenrechte stückchenweise, und häufig unbemerkt, zu beschränken.

Die Bundesregierung hat sich in den Koalitionsvertrag geschrieben, dass sie sich für eine aktive digitale Außenpolitik und ein offenes, globales Internet einsetzen will. Damit zeigt die Ampelkoalition, dass sie erkannt hat, dass wir nicht nur Interessen im digitalen Raum haben, sondern diese auch aktiv vertreten werden müssen. Das G7-Digitalminister:innentreffen in Düsseldorf unter der deutschen Präsidentschaft kann nur ein Auftakt sein, um hier als Politik und Gesellschaft entschlossener und strategischer vorzugehen. Der Krieg gegen die Ukraine und die Abstimmungen bei den UN zeigen deutlich, dass Abhängigkeiten gegenüber autoritären Regimen etwas entgegengesetzt werden muss – auch im Digitalen. Das Engagement der G7 oder jener demokratischen Staaten, die jüngst die Erklärung für die Freiheit des Internets unterschrieben haben, ist dafür unerlässlich. Doch schlussendlich braucht es eine Allianz gegen den “digitalen Autoritarismus”, die die Länder des Globalen Südens einschließt und deren Interessen berücksichtigt. Daher ist es sinnvoll – bei aller notwendigen Kritik an der Modi-Regierung – dass Bundeskanzler Olaf Scholz gerade Indien zum G7-Gipfel im Juni auf Schloss Elmau eingeladen hat. 

Das Treffen der Digitalminister:innen der G7 muss deutlich machen, dass wir die Gefahr des “digitalen Autoritarismus” ernst nehmen und wir erkennen, dass es nicht nur unser Interesse, sondern auch unsere Verantwortung ist, in Zusammenarbeit mit Partnern des Globalen Südens einen vertrauenswürdigen, sicheren und gleichzeitig offenen und freien digitalen Raum zu kreieren, von dem alle wirtschaftlich und gesellschaftlich profitieren können. Daher ist es richtig, dass im Digital Track der G7 ein Fokus auf die Konnektivität und den fairen Wettbewerb gelegt wird, der Cyber-Kapazitätsaufbau vorangetrieben und Ungleichheiten wie dem “digital divide” entgegengewirkt werden soll. Damit einhergehend ist wichtig, dass der sichere grenzüberschreitende Austausch von Daten gerade mit den Ländern des Globalen Südens möglich gemacht wird. Der Stärkung eines verantwortlichen Verhaltens von Staaten im Cyberraum kommt dieser Tage nochmals eine besondere Bedeutung zu. 

Eine Zeitenwende verlangt, dass Deutschland eine neue Rolle in der Welt einnimmt. Dass wir stärker global Verantwortung übernehmen und uns sowohl dieser, als auch unserer eigenen Interessen bewusst sind. Wir mögen noch eine Weile über uns selber spotten, dass das Internet für uns “Neuland” wäre. Aber das ist es schon längst nicht mehr. Deutschland und die Europäische Union gelten als Vorreiter bei der digitalen Gesetzgebung – die Europäische Datenschutzgrundverordnung baute auf dem deutschen Bundesdatenschutzgesetz auf, der DSA lernte vom deutschen NetzDG (und wiederholt nicht dessen Fehler) und vom Medienstaatsvertrag. Wir müssen im Interesse aller dazu einladen, gemeinsam für einen besseren – das heißt freien, offenen, demokratischen und menschenrechtsbasierten – digitalen Raum einzutreten. Frei von Überwachung und Zensur. Denn all das ist die Grundlage für Demokratien heute und morgen. Dass die Menschen weltweit danach verlangen und streben, sehen wir an den bewundernswerten Menschen in Hongkong, Belarus und der Ukraine. Demokratie ist uns nicht gegeben, sie ist uns aufgegeben. 

Tobias B. Bacherle MdB ist Obmann für Bündnis 90/DIE GRÜNEN im Ausschuss für Digitales.

Armand Zorn MdB ist Mitglied für die SPD im Ausschuss für Digitales.

Ann Cathrin Riedel ist FDP-Mitglied und Vorsitzende von LOAD e.V. – Verein für liberale Netzpolitik. 

Dieser Gastbeitrag erschien zuerst bei watson.

Read More
Gastbeitrag zum Liberalismus bei ZEIT Online: Was das Tiananmen-Massaker mit Pornoseiten zu tun hat

Wie macht man Menschen begreifbar, was Freiheit im Netz bedeutet? Warum Bürger- und Menschenrechte die Grundlage für die Digitalisierung sein müssen und nichts drängender ist, als diese auch im Digitalen zu schützen? Auf Warnungen hinzuweisen von UN-Sonderberichterstattern für Meinungsfreiheit, die die Gesetzgebung in Deutschland und Europa, zum Beispiel beim Netzwerkdurchsetzungsgesetz und der EU-Urheberrechtsrichtlinie kritisieren, habe ich versucht. Mit Verweisen auf die Freiheitskämpferinnen und -kämpfer in Hongkong und Belarus, die auf sichere, verschlüsselte Messenger angewiesen sind, ebenfalls. Aber das Thema, bei dem man plötzlich die volle Aufmerksamkeit hat, ist: Pornos.

Freiheit spürt man erst, wenn sie weg ist
Gleich zwei Pornowebsites sind unter den 25 meistbesuchten Seiten Deutschlands, auch wenn natürlich nie irgendwer drauf geklickt haben will. Pornos und der Zugang zu ihnen haben also eine gesellschaftliche Relevanz. Und gleichzeitig immer noch ein Schmuddel-Image. Deshalb versteht plötzlich an diesem Beispiel jede und jeder, warum Datenschutz, Anonymität und freier Zugang zum Netz so wichtig sind. Denn irgendwie wollen ja doch viele Pornos gucken – und sollen es auch können (unter Einhaltung der Jugendschutzgesetze) –, aber eben ohne, dass irgendjemand weiß, was man gerne guckt, wo und wie lange.

Freiheit spürt man häufig erst dann, wenn sie einem genommen wird. In Russland fiel die Zensur vielen erst auf, als die russische Medienaufsicht Roskomnadzor die zwei beliebtesten Pornoseiten im Land sperrte. In einem Talk auf der Konferenz für Menschenrechte im Digitalen, der RightsCon, veranstaltet von der Friedrich-Naumann-Stiftung, berichtete der russische Journalist Andrej Soldatow, dass die Menschen erst durch diese Sperre bemerkten, wie wichtig und nützlich ein VPN-Zugang ist – und wie wertvoll ein Internet ohne Zensur.


Nun ist Freiheit viel mehr als der Zugang zu Pornografie. Aber Sie merken, worum es geht. Solange Sie nichts Illegales tun, geht es niemanden etwas an, was Sie tun. Freiheit, das bedeutet auch, die Freiheit vor Überwachung, der freie Zugang zu Information und das Recht auf informationelle Selbstbestimmung.


Auch wenn der Datenschutz hierzulande bisweilen nach Bedenkenträgerei klingt: Warum er wichtig ist – und Freiheitsrechte sichert –, zeigt sich im Kleinen und Alltäglichen. Und in der Weltpolitik, im Umgang mit autoritären Systemen.

In der Corona-Pandemie hat Deutschland einiges geleistet, worauf wir stolz sein könnten. Wir haben es beispielsweise geschafft, eine Corona-Warn-App zu entwickeln, die funktioniert. Lassen Sie sich bitte nichts anderes erzählen! Es ist eine App, die eben nicht den einzelnen Menschen und sein Verhalten ganz genau trackt und deren Daten dann doch zu anderen Zwecken verwendet werden, wie es etwa in Singapur passierte. Dort darf nun doch die Polizei auf die Bewegungsprofile der Nutzerinnen und Nutzer zugreifen. Das Grundrecht auf informationelle Selbstbestimmung, garantiert unter anderem durch die Datenschutzgrundverordnung, ist auch in Zeiten einer Pandemie wichtig.

Ich gebe zu, ich bin in einer privilegierten Situation. Ich habe keine Kinder und musste mich nicht mit nicht funktionierenden Lernplattformen, Schul-Clouds und Videoplattformen, die zwingend DSGVO-konform sein müssen, herumschlagen. Und ich verstehe wirklich jeden, den das alles unglaublich wütend macht. Ehrlich. Nur ist nicht der Datenschutz schuld daran, dass vieles nicht läuft. Es ist die seit 20 Jahren verschleppte Digitalisierung unseres Bildungswesens, des Gesundheitswesens und der Verwaltung. Eine leistungsstarke digitale Infrastruktur geht auch mit Datenschutz.


Chinas Zensur wirkt schon jetzt global
Während wir auf die DSGVO schimpfen, ist uns kaum bewusst, dass sie mittlerweile Vorbild ist. Kenia kopiert sie, auch Chile und Japan haben wie viele andere Länder eine ganz ähnliche Gesetzgebung eingeführt. Auch die USA, insbesondere Kalifornien, setzen immer mehr auf Datenschutz und Privatsphäre. Wer in der Europäischen Union mit seinen digitalen Produkten auf den Markt kommen möchte, muss sich an die DSGVO halten. Europa hat global Strahlkraft. Mit dem Digital Markets Act und dem Digital Services Act sind zwei Gesetze in Arbeit, die hoffentlich eine ähnliche Wirkung haben werden.

Freiheit im Netz wird wichtiger. Und datenschutzkonforme Tools in der Schule sind zentral. Denn einmal implementiert, gehen sie nicht mehr weg. Hier geht es nicht um die Schulaufgaben der 5b, die sich die NSA angucken könnte. Hier geht es um biometrische Daten von Kindern, die aufgezeichnet, verarbeitet und gespeichert werden können – ohne dass wir das wissen. Und ohne dass wir das wirklich kontrollieren können, denn wir können sehr häufig nicht in den Quellcode der Software hineingucken. Wir wissen auch nicht, was mit diesen Daten vielleicht irgendwann mal passiert, wo sie landen und welche Restriktionen die Kinder irgendwann mal als Erwachsene erfahren, weil Daten falsch interpretiert oder kombiniert werden.

China darf nicht die Standards setzen
Wir müssen heute Bürger- und Menschenrechte im digitalen Raum schützen, um auch morgen in Freiheit leben zu können. Als Liberale wünsche ich mir möglichst wenig Regulierung. Aber ich sage auch als Liberale deutlich: Es geht nicht ohne. Unsere größte Herausforderung besteht darin, unsere analogen Prinzipien in die digitale Welt zu übertragen. Regulierung zu schaffen, die das Recht auf Meinungs- und Informationsfreiheit schützt. Die Märkte fair und sozial macht, zum Beispiel durch die Besteuerung von großen Techkonzernen. Oder den Wettbewerb ermöglicht und Monopolbildungen entgegenwirkt.

Der Soziologe Andreas Reckwitz beschreibt in seinem Essay über die Krise des Liberalismus einen Paradigmenwechsel. Der apertistische, also der öffnende, Liberalismus wird zum einbettenden. Dominierten bis zuletzt die Dynamiken der Märkte und der Globalisierung, werden diese nun nicht eliminiert, sondern in neu zu schaffenden Rahmenbedingungen eingehegt. Dem Mangel an Ordnung wird mit neuen Formen der Regulierung begegnet. Das gilt auch fürs Netz.

Wenn wir es nicht machen, setzen global andere die Standards. Vor wenigen Tagen wurde an das Tiananmen-Massaker erinnert, das zweite Jahr in Folge online. Solche Mahnwachen sind in der Volksrepublik China nicht möglich. Auch nicht digital hinter der chinesischen Firewall. 2020 sollten einige Mahnwachen auf der Videokonferenzplattform Zoom stattfinden. Drei davon wurden von Zoom auf Bitten der chinesischen Regierung gecancelt. Das Unternehmen sperrte sogar die Accounts der Veranstalterinnen und Veranstalter, obwohl diese alle außerhalb Chinas ansässig waren; vier von ihnen sogar in den USA.

Das US-Justizministerium leitete eine Untersuchung ein und erhob Anklage. Zoom gestand ein, dass die Zensurvorgaben Chinas keine Auswirkungen auf Menschen außerhalb der Volksrepublik haben dürften und dass das Unternehmen diesbezüglich „versagt“ habe. Dieses Jahr funktionierte die Mahnwache über Zoom. Die Angst, dass wieder unrechtmäßig auf chinesischen Druck zensiert wird, bleibt.

Der Staatstrojaner untergräbt Deutschlands Glaubwürdigkeit
Der Einfluss Chinas ist längst weltweit spürbar. In diesem Jahr klagten Nutzerinnen und Nutzer der Suchmaschine Bing von Microsoft darüber, dass sie am Jahrestag des Massakers unter dem Suchwort „tank man“ kein einziges Bild von dem chinesischen Mann finden konnten, der sich vor die Panzer auf dem Tiananmen-Platz stellte. Bing ist eine der wenigen westlichen Suchmaschinen, die auch in China operieren und sich dort den Zensurvorgaben unterwerfen. Es sei ein „versehentliches menschliches Versagen“ gewesen, dass die chinesischen Filtervorgaben auch außerhalb Chinas griffen. Dass das innerhalb weniger Tage behoben wurde, beruhigt nicht. Schließlich merken wir in vielen Fällen womöglich nicht mal, wenn ein digitales Tool zensiert wird – und sei es aus Versehen.

Europa muss Antworten geben, um die Freiheit in einer digital transformierten Welt zu schützen; um liberale Demokratien an sich zu schützen. „Die größten Demokratien der Welt werden eine hochwertige Alternative zu China für die Modernisierung der physischen, digitalen und gesundheitlichen Infrastruktur bieten, die widerstandsfähiger ist und die globale Entwicklung unterstützt“, schrieb US-Präsident Joe Biden kürzlich in einem Gastbeitrag für die Washington Post. Genau das sollte die gemeinsame Aufgabe sein.

Deutschland ist eine vertrauenswürdige Verteidigerin der Freiheit. Dazu muss aber auch jeder und jede Einzelne den unschätzbaren Wert der Freiheit in allem erkennen – und das nicht nur dann, wenn es um Pornos geht. Glaubwürdig können wir nur bleiben, wenn wir nicht gleichzeitig verfassungsrechtlich bedenkliche Gesetze verabschieden, die die Freiheit im Digitalen unterminieren: den Staatstrojaner etwa, die Vorratsdatenspeicherung oder die Netzsperren. Innovation und Bürgerrechte miteinander in Einklang zu bringen, das kann gelingen. Und dann wird Freiheit – ganz nach Hannah Arendt – auch im Netz weltliche Realität.

Dieser Gastbeitrag erschien am 21. Juni 2021 auf ZEIT Online

Read More
Digitale Transformation: Deutschland und Europa müssen globale Standards setzen

Wer es nicht schon längst wusste, dem ist hoffentlich im Pandemiejahr 2020 bewusst geworden, wie wichtig die digitale Transformation ist. 2021 muss endlich das Jahr sein, in dem wir nicht nur mit großen Schritten bei der Digitalisierung vorankommen, sondern auch Grundlagen für ein Deutschland und Europa legen, das Bürger- und Menschenrechte im Digitalen schützt und globale digitale Standards setzt. Und damit auch ein „level playing field“ für fairen Wettbewerb schafft. Im Jahr 2021 werden aus liberaler Sicht folgende Themen wichtig.

Regeln für Tech-Konzerne

Mit dem Digital Services Act und dem Digital Markets Act will die Europäische Kommission ein neues Grundgesetz für den digitalen Raum festlegen. Dabei soll es nicht nur um Spielregeln für Plattformen und die Inhalte auf diesen gehen. Auch das Wettbewerbs- und Kartellrecht soll angepasst werden, um der Marktmacht einiger Internetplattformen Herr zu werden. Die Diskussionen um die Rolle von Social-Media-Plattformen bei der Erstürmung des Kapitols in Washington werden den Druck auf eine Umsetzung des Digital Services Acts erhöhen, auch wenn dieser dieses Jahr voraussichtlich noch nicht verabschiedet wird. Es ist notwendig, dass Plattformbetreiber und der Gesetzgeber sich damit beschäftigen, was diese in Bezug auf das Löschen und Sperren von Funktionsträger:innen dürfen oder müssen. Zudem wurde abermals – und vor allem in der westlichen Welt – deutlich, welche analogen Auswirkungen Hass und Hetze, Desinformation und Verschwörungserzählungen, die im Netz verbreitet werden, haben können. Bislang ist keine vehemente Kritik am Vorschlag des Digital Services Acts zu vernehmen. Vielmehr sehen sowohl Akteure der Zivilgesellschaft als auch Unternehmen den ersten Vorschlag als gute Grundlage. Mit der Verabschiedung der Richtlinie ist zwar nicht in diesem Jahr zu rechnen, wichtige Weichenstellungen im Hinblick auf die Inhalte werden aber 2021 erfolgen.

Der Digital Markets Act greift hingegen stärker die aktuellen Geschäftsmodelle der Tech-Konzerne an, die als “Gatekeeper” gelten. So sollen bestimmte Praktiken verboten werden und Daten nicht mehr exklusiv von diesen Anbietern genutzt werden können. Zudem sollen bestimmte Praktiken, die als “unfair” definiert werden, stärker überwacht werden sowie digitale Dienste, wie zum Beispiel Messenger, zur Interoperabilität verpflichtet werden.

Abseits vom Digital Services und Digital Markets Act wird auch das Thema Steuern für Tech-Konzerne weiter diskutiert werden. Dies wird bereits auf OECD-Ebene diskutiert. Hier geht es darum, ein Steuermodell zu finden, bei dem die Körperschaftssteuer künftig nicht mehr nur am Firmensitz oder an Orten mit Betriebsstätte gezahlt wird, sondern zum Teil auch dort, wo Menschen die Produkte kaufen, also in den Marktstaaten. Dabei geht es insbesondere um die Besteuerung von allen multinationalen Konzernen, die mit immateriellen Wirtschaftsgütern Gewinne erzielen. Aus liberaler Sicht ist eine Doppelbesteuerung durch eine Digitalsteuer, die eine Art zweite Umsatzsteuer fungiert, abzulehnen. Ergebnisse zu diesem Thema sollen Mitte des Jahres vorgelegt werden.

Uploadfilter gegen Terror und beim Urheberrecht

Parallel zum Digital Services Act wird die neue Verordnung gegen terroristischen Online-Content (TERREG) verhandelt, die auf deutliche Kritik bei Digitalexpert:innen und Bürgerrechtler:innen stößt. Durch die Verordnung werden sogenannte Uploadfilter, also automatisierte algorithmische Systeme, überprüfen, ob ein Inhalt, der auf eine Plattform hochgeladen werden soll, zu beanstanden ist oder nicht. Die Vorgabe für große Plattformen, innerhalb einer Stunde terroristische Inhalte zu löschen, wird diese de facto dazu zwingen, diese Technologie einzusetzen. Zusätzlich zu der Problematik, dass solche automatisierten Systeme technisch nicht in der Lage sind, Inhalte präzise zu erkennen und einzuordnen, kommt im Falle der TERREG noch hinzu, dass es in der Europäischen Union keine einheitlichen Definitionen für Terror bzw. terroristische Organisationen gibt. Die Problematik wird in Ländern wie Ungarn deutlich, das Umweltaktivist:innen als “Öko-Terrorist:innen” verunglimpft und so die Verordnung dazu missbrauchen könnte, unliebsame Inhalte aus dem Netz verschwinden zu lassen. Ebenfalls werden uns die Uploadfilter aus der EU-Urheberrechtsreform weiter beschäftigen, die bis zum Sommer in nationales Recht umgesetzt werden müssen und in Deutschland zu heftigen Diskussionen zwischen Kreativen und Bürgerrechtler:innen, den einzelnen Ministerien, aber auch in den Regierungsparteien führt. Eine Klage Polens ist vor dem Europäischen Gerichtshof anhängig. Dort soll entschieden werden, ob Artikel 17 der EU-Urheberrechtsreform, der dazu führt, dass Webseitenbetreiber Upload-Filter einsetzen müssten, eine illegale „allgemeine Überwachungspflicht“ darstellt. Eine erste Stellungnahme der Generalstaatsanwaltschaft des Europäischen Gerichtshofs ist für den 22. April 2021 vorgesehen.

Künstliche Intelligenz und biometrische Überwachung

Zum Thema künstliche Intelligenz wurde vergangenes Jahr von der Europäischen Kommission ein Weißbuch veröffentlicht, das sich mit den „technologischen, ethischen, rechtlichen und sozioökonomischen Aspekten“ von künstlicher Intelligenz beschäftigt. Aus diesem sollen Folgemaßnahmen entwickelt werden. Die Entwicklung von Standards für künstliche Intelligenz ist wichtig, damit Europa eine ethische und rechtliche Grundlage für die Entwicklung und den Einsatz dieser Technologie bieten kann. Eine solche Regelung wäre nicht nur für Europäer:innen wichtig, sondern könnte auch weltweite Signalwirkung entfalten, um der Verbreitung chinesischer Überwachungstechnologien ein Gegengewicht bieten zu können. Dass dem Einsatz von künstlicher Intelligenz zum Beispiel bei Gesichtserkennungssoftware Grenzen aufgezeigt werden müssen, zeigen US-Städte wie San Francisco, die den Einsatz dieser Technologie im öffentlichen Raum bereits untersagt haben. Konzerne wie Amazon wollen entsprechende Software zukünftig nicht mehr Polizeibehörden verfügbar machen und IBM will die Erforschung dieser Technologie einstellen.

Cybersicherheit und Verschlüsselung

Hackerangriffe auf die Europäische Arzneimittel-Agentur (EMA), Tech-Unternehmen, Verlage und Krankenhäuser haben im vergangenen Jahr massiv zugenommen. Sie führen uns nicht nur vor Augen, wie vulnerabel unsere Unternehmen und Infrastruktur mittlerweile sind, sondern auch, dass an der IT-Sicherheit Menschenleben hängen. Ein Hacker-Angriff auf das Universitätsklinikum Düsseldorf hatte den Tod einer Patientin zur Folge. Die IT-Sicherheit muss durch politische Vorgaben gestärkt werden. Das Vorhaben der Innenminister:innen der EU-Mitgliedsstaaten, Hintertüren in die Verschlüsselung von Messengerdiensten einführen zu wollen, bedarf daher einer äußerst kritischen Begleitung. Schließlich geht es hier nicht nur um die Privatsphäre eines jeden, sondern auch um den Schutz der Pressefreiheit. Zudem sind Unternehmen gefährdet, denn Sicherheitslücken machen Angriffe auf die Unternehmens-IT wahrscheinlicher. Mit ihnen gehen teils enorme wirtschaftliche Schäden einher. Die EU-Kommission verwehrt sich zwar diesem Vorhaben, doch werden uns Forderungen nach Hintertüren in Verschlüsselungen auch dieses Jahr begleiten. 2021 muss das Jahr werden, in dem die Politik klarstellt, dass nur eine Verschlüsselung ohne Hintertüren Sicherheit bietet und Bürgerinnen und Bürgern ein Recht auf Verschlüsselung haben sollten. 

Digitale Identitäten

Digitale Identitäten werden eines der wichtigsten und prägendsten Themen des Jahres. Neben der Überarbeitung der europäischen eIDAS-Verordnung, die die Standards der digitalen Identitäten regelt, möchte die Europäische Kommission auch eine Europäische-ID (EU-ID) einführen, die parallel zu nationalen eID-Systemen ausgerollt werden soll. Die Bundesregierung lehnt diesen Vorschlag der Kommission ab. Stattdessen werden Standards für ein Identitätsökosystem gefordert, also ein Wettbewerb der ID-Angebote. Durch die Errichtung eines Identitäten-Ökosystems, in das bestehende Lösungen integriert werden können, soll die Möglichkeit geschaffen werden, die bestmögliche Lösung zu finden. Wie der Vorschlag Deutschlands aufgenommen wird, wird sich im Laufe des Jahres zeigen. Er könnte insbesondere für diejenigen Mitgliedsstaaten attraktiv sein, die bereits eigene Lösungen für eIDs haben, da sich diese in das Ökosystem integrieren lassen. In Deutschland erwarten wir den digitalen Personalausweis auf dem Smartphone. Durch ihn sollen zum Beispiel Behördendienstleistungen einfacher digital in Anspruch genommen werden können. Aber auch das digitale Ausweisen bei der Eröffnung eines Bankkontos kann so leichter möglich sein.

Digitale Bildung und der Digital Divide

Versäumnisse im Bildungswesen werden auch 2021 nicht aufgeholt werden können, nur die Brisanz des Themas Digitalisierung des Bildungswesens wird noch größer. Hier werden wir erkennen müssen, dass in der Not geborene Maßnahmen zur Bereitstellung digitaler Lernräume und Plattformen nicht ausreichen. Zudem wird deutlicher werden, wie dringend sich die Ausbildung für Lehrkräfte anpassen und Themen wie Didaktik im Digitalen behandeln muss. Themen wie Lehr- und Lernkonzepte im Digitalen werden uns begleiten und der Druck auf Bildungs- und Kultusminister:innen wird steigen, hier notwendige Mittel und Lösungen bereitzustellen. Auch das Thema Hardware in der Schule wird 2021 diskutiert werden. Denn bereitgestellte Hardware für Lehrkräfte und Schüler:innen will administriert und gewartet werden. Dafür braucht es zusätzliches Personal an den Schulen. Der Mangel an IT-Fachkräften wird auch hier zum Problem werden. Die Ad hoc-Lösungen im Bildungswesen während der Pandemie werden nachhaltigen und langfristigen Ersatz benötigen, um ein zeitgemäßes Lehren und Lernen gewährleisten zu können. Und auch der sogenannte Digital Divide wird uns umtreiben. Wenn Schüler:innen kein Endgerät von der Schule bereitgestellt werden kann, sind sie darauf angewiesen, dass die Familie sich genügend Endgeräte leisten kann, damit die Kinder Home Schooling machen können oder auch nach der Pandemie mit mobilen Geräten zu Hause arbeiten können. Das Recht auf Bildung darf insbesondere beim Home Schooling in der Pandemie weder durch fehlende digitale Lernplattformen noch durch fehlende Endgeräte verwehrt werden.

(Re:start21:) Krise als Chance: Zusammenschluss demokratischer Staaten

Das Pandemiejahr 2020 und die ersten Tage in 2021 haben uns erneut aufgezeigt, wie drängend das Thema Digitalisierung ist und dass Digitalpolitik längst kein Nischenthema mehr ist. Die Entwicklungen verdeutlichen zudem, wie wichtig es ist, dass demokratische Staaten diejenigen sein müssen, die Standards und Regulierung für den digitalen Raum festlegen. Dies darf weder Konzernen und damit der normativen Kraft des Faktischen überlassen werden, noch autoritären Staaten. Die beginnende Präsidentschaft Joe Bidens und die Erfahrungen und Erkenntnisse aus der Pandemie sollten daher der Aufruf für die größten demokratischen Staaten sein, sich zusammenzutun. Ähnlich wie das Bündnis der G7-Staaten müssen sie gemeinsam Lösungen für die digitalen Herausforderungen finden. Dazu gehören nicht nur die oben genannten – die keine abschließende Liste darstellen -, sondern auch Fragen des Umgangs mit Meinungsfreiheit und dem Datenaustausch zwischen den einzelnen Wirtschaftsräumen, insbesondere seitdem das Privacy Shield zwischen den Vereinigten Staaten und der Europäischen Union für ungültig erklärt wurde. Solch ein Zusammenschluss würde nicht nur die transatlantischen Beziehungen wieder auffrischen, sondern auch Chancen für eine lebenswerte, digital-nachhaltige Welt bieten, die auf offene Märkte und Multilateralismus setzt.

Dieser Text wurde zuerst auf freiheit.org veröffentlicht.
Bild von Thomas Ulrich auf Pixabay

Read More
Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt

20 Jahre nach Einführung der europäischen E-Commerce-Richtlinie, wird heute von der Europäischen Kommission der Digital Services Act (DSA) vorgestellt, der die in die Jahre gekommene Richtlinie ergänzen soll. Vor 20 Jahren, bei Einführung der E-Commerce-Richtlinie, die bis heute den Binnenmarkt für Online-Dienste regelt, gab es noch keine Social-Media-Plattformen, wie wir sie heute kennen. Regulierung, die auf die Anforderungen der Plattform-Ökonomie abzielt, ist also dringend notwendig. Neben dem Digital Services Act wird der Digital Markets Act (DMA) vorgestellt, der ebenfalls an Plattformen mit Gatekeeper-Funktion gerichtet ist. Der DMA ergänzt Regelungen zum Wettbewerbsrecht und soll die Marktmacht der großen Digitalkonzerne begrenzen. 

Die noch immer gültige E-Commerce-Richtlinie beinhaltet ein Instrument, das für das Funktionieren des Internets, insbesondere von Plattformen enorm wichtig ist: das sogenannte “Notice and take down”-Verfahren. Dies entbindet, kurz gesagt, Plattformen von ihrer Haftung für illegale Inhalte Dritter, sofern sie davon keine Kenntnis haben. Dies ändert sich aber, sobald sie darüber in Kenntnis gesetzt wurden. Mit der Kenntnisnahme müssen sie handeln und die Inhalte entfernen, ansonsten haften sie für diese. Der Digital Services Act baut auf der E-Commerce-Richtlinie auf und behält dieses Instrument bei. Dies ist sehr zu begrüßen, auch vor dem Hintergrund, dass in den USA heftig um eine vergleichbare Regelung, die sogenannte Section 230 gestritten wird und der gewählte Präsident Joe Biden diese gerne abschaffen möchte.

Der Digital Services Act soll unter anderem dazu dienen, illegale Inhalte auf Plattformen besser zu regulieren und diese unter Einhaltung der Europäischen Grundrechtecharta zu entfernen. Was sich erstmal gut anhört, wirft die gleichen Probleme auf, die wir schon vom deutschen Netzwerkdurchsetzungsgesetz (NetzDG) kennen: Plattformen sollen selber entscheiden, was illegal ist. Eine Aufgabe, die die Justiz zu übernehmen hat und keine privatwirtschaftlichen Unternehmen. Dabei macht der DSA keine Aussagen darüber, was “illegale Inhalte” sind. Diese werden – zu Recht – in anderen Gesetzeswerken auf europäischer beziehungsweise nationaler Ebene geregelt. Positiv ist allerdings, dass der DSA wie das NetzDG eine Ansprechperson des in der Europäischen Union operierenden Plattformbetreibers fordert. Ebenso haben die Mitgliedsstaaten einen “Digital Services Coordinator” zu bestimmen, der die Aufsicht über die Einhaltung der Regelungen im Mitgliedsstaat hat und sich auf europäischer Ebene zum “European Board for Digital Services” zusammenschließt, das der Europäischen Kommission als Beratungsgremium zur Seite steht. 

Mit dem Digital Services Act kommen allerdings auch einige Verbesserungen für Nutzer:innen von digitalen Plattformen, inbesondere in Bezug auf Inhalte, die nach den plattformeigenen Communitystandards entfernt wurden. So müssen beispielsweise Nutzer:innen darüber informiert werden, warum ihre Inhalte von der Plattform gelöscht wurden. Die Plattform muss nach dem DSA Möglichkeiten anbieten, zu der getroffenen Entscheidung Widerspruch einzulegen und eine Plattform zur Streitschlichtung bereithalten. Ebenso ist zu begrüßen, dass der DSA Schutzmaßnahmen vorsieht, um den Missbrauch der Meldefunktion für Beiträge zu verhindern – werden mit falschen Meldungen doch häufig versucht unliebsame Meinungen mundtot zu machen. Plattformen wird daher nahegelegt, Regelungen zu finden, diese Nutzer:innen temporär zu sperren, dieses Vorgehen aber auch in ihren AGB darzulegen. Ebenso soll in den AGB in verständlicher Sprache dargelegt werden, ob die Inhalte durch Menschen oder Algorithmen moderiert werden.

Der Digital Services Act unterscheidet bei den beabsichtigten Pflichten die Größe von Plattformen. Er nimmt explizit zur Kenntnis, dass “sehr große Plattformen” einen ganz anderen Impact auf die europäischen Gesellschaften haben. So definiert der DSA sehr große Plattformen als Plattformen, die mehr als 45 Millionnen Nutzer:innen haben, bzw. 10 Prozent der Unionsbürger:innen. Die Strafen, die Der Digital Services Act bei Verstößen vorsieht, sind beachtlich: Bis zu 6 Prozent des Jahresumsatzes sind hier bei äußerst schweren Verstößen möglich.

Nutzer:innen sollen besser verstehen können, wie sich die Inhalte, die ihnen angezeigt werden, zusammensetzen. Dazu sollen sehr große Plattformen darlegen, was ihre Parameter für Empfehlungssysteme (z.B. der News Feed) sind und ermöglichen , dass alternative Einstellungen vorgenommen werden können. Dazu gehört auch die Möglichkeit einer neutralen Anordnung der Inhalte, die nicht anhand der von der Plattform antizipierten Vorlieben der Nutzer:in erstellt wird. Auch soll Nutzer:innen erkennen können, warum ihnen Werbeanzeigen angezeigt werden, also nach welchen Parametern das sogenannte Micro-Targeting erfolgte. Ebenso soll erkennbar sein, wer für die Anzeige zahlte.

Wie bereits im Anfang Dezember vorgestellten “European Democracy Action Plan” erwähnt wurde, finden sich im Digital Services Act Regelungen , die die Verbreitung von Desinformation einhegen sollen. Online-Plattformen sind angehalten, einen Code of Conduct zu erstellen, in dem sie darlegen, wie sie mit Inhalten, die zwar nicht illegal aber dennoch schädlich sind, umgehen wollen. Dazu gehört auch der Umgang mit Fake-Accounts und Bots, die häufig dazu beitragen, Desinformationen und andere schädliche, aber nicht illegale Inhalte zu verbreiten. Plattformen, die keinen Code of Conduct haben und dies nicht begründen können, kann vorgeworfen werden, dass sie sich nicht an die Vorgaben des DSA halten.  Die im Action Plan angekündigte Pflicht zur Bereitstellung von Daten zu Forschungszwecken findet sich im DSA wieder.

Ebenfalls zu begrüßen ist, dass sehr große Plattformen Pläne für Krisenfälle vorhalten sollen, zum Beispiel Pandemien, Erdbeben oder terroristische Anschläge. Zur Risikobewertung und -minderung wird diesen Plattformen außerdem nahegelegt, Nutzer:innen, besonders betroffene Personen, unabhängige Expertinnen und Vertreter der Zivilgesellschaft in ihre Maßnahmen mit einzubeziehen. Dies ist insbesondere in Anbetracht des Genozids an den Rohingya in Myanmar, der durch Desinformation und Hate Speech auf Facebook befeuert wurde, auf den die Plattform lange keine Antwort fand, ein wichtiger Schritt.

Der Digital Services Act könnte auch für Kanäle (und ggf. auch Gruppen) auf Telegram greifen und damit umfassender sein, als das deutsche NetzDG, das bei Messengern wie Telegram, die auch eine öffentliche Kommunikation ermöglichen, eine Lücke aufweist. Die würde dazu führen, dass auch Telegram eine Ansprechperson in Europa benennen müsste. Keine Anwendung soll der DSA auf private Kommunikation über Messenger und  E-Mails finden, sondern nur auf  Gruppen , die für die Öffentlichkeit gedacht sind.

Mit dem Digital Services Act soll eine einheitliche Regulierung für den europäischen digitalen Binnenmarkt geschaffen werden, der auch eine Maßnahme gegen den Flickenteppich an nationaler Gesetzgebung sein soll, wie er zum Beispiel durch das deutsche NetzDG oder das französische “Avia Law” entstanden ist. Dabei löst er die nationalen Gesetze allerdings nicht ab, sondern ergänzt und vereinheitlicht sie. Der DSA erhebt den Anspruch, internationale Standards setzen zu wollen. Dass er dies mit der Privatisierung der Rechtsdurchsetzung an die Plattformen anstrebt – wie schon beim NetzDG –, ist scharf zu kritisieren. Es bleibt zu wünschen, dass sich das Europäische Parlament im Rahmen der Verhandlungen über den finalen Text der Richtlinie für eine sinnvollere Lösung einsetzt.

Dieser Artikel erschien zuerst auf freiheit.org.

Bild von Laurent Verdier auf Pixabay 

Read More
Am Datenschutz scheitert die Corona-Bekämpfung nicht

Den Datenschutz lockern, um den Gesundheitsschutz zu stärken? Bei der Corona-Warn-App wird eine ritualisierte Debatte entlang der bekannten Lager geführt. Die wichtigen Fragen werden dabei meistens ausgeklammert: Was kann die App leisten? Wo liegen die Probleme und welche Daten brauchen wir, um die gewünschten Ziele zu erreichen? Zusätzlich wird die Debatte geführt, als würde die App im luftleeren Raum handeln, als würde das Verhalten des Menschen irrelevant sein. Daten und Technologie haben aber generell nur einen Zweck: Sie müssen dem Menschen nützen. Sie sind Werkzeug zur Erreichung seiner Ziele, nie die Lösung selbst. Die bloße Forderung nach “mehr Daten” wird nicht als Selbstläufer zum Erfolg bei der Virusbekämpfung führen. Die Debatte braucht also mehr Substanz.

Der überbordende Datenschutz scheint laut einigen Politiker:innen und Kommentator:innen der Grund zu sein, der Deutschland davon abhält, Vorreiter der Digitalisierung zu werden und die Corona-Pandemie in den Griff zu bekommen. Doch sind es ausschließlich Daten, die in anderen Ländern der Schlüsselfaktor sind, mit dem die Pandemie in den Griff bekommen wurde? Taiwan und Südkorea werden hier gerne als Beispiele angeführt. Nur gilt selbst in hochtechnologischen Ländern: Daten handeln nicht alleine. Viel zu häufig wird beim Blick nach Ostasien vergessen, dass diese Länder eben nicht bloß auf Technologie setzen, sondern auch zahlreiche andere — meist ganz analoge — Maßnahmen eingesetzt haben, die zum erfolgreichen Umgang mit der Pandemie beigetragen haben. Dazu gehören einfacher mögliche Einreisekontrollen sowie die allgemein viel bessere Vorbereitung auf Pandemien aufgrund vorhandener Erfahrungen mit SARS-Viren.

Wichtig ist, beim Verweis auf andere Länder präzise zu benennen, welche Daten dort verwendet und welche bürgerrechtlichen Einschränkungen dafür in Kauf genommen wurden. Taiwan hat beispielsweise nicht auf Tracking- oder Tracing-Apps gesetzt. Die Einhaltung der Quarantäne wurde über das Mobilfunknetz kontrolliert. Allerdings wurden in Taiwan auch digitale Zugänge zu Daten bereitgestellt, mit denen die Zivilgesellschaft hilfreiche Anwendungen entwickeln konnte. Zum Beispiel, wie viele Masken in der Apotheke in der Nachbarschaft noch vorrätig sind oder Visualisierungen über die Menge der ausgelieferten Masken. Solche Daten und Informationen — möglich gemacht durch Civic-Tech-Anwendungen — finden in Deutschland, wenn wir über die Nutzung von Daten bei der Eindämmung der Pandemie sprechen, quasi keine Beachtung (Stichwort: WirVsVirus). Die Debatten über Daten dürfen daher nicht lediglich darum gehen, ob wir viel oder wenig Datenschutz brauchen, sondern wo der Mensch sinnvolle Informationen aufgrund von Daten bekommen kann, bzw. braucht, um sein Verhalten zu ändern, sodass das Virus sich nicht weiter verbreiten kann.

Südkorea hat zahlreiche weitere Daten genutzt, um die Verbreitung des Virus einzuschränken — eben nicht nur Daten aus einer Tracking-App. Diese wurden angereichert mit Daten aus Überwachungskameras oder über Finanztransaktionen. Wer dies auch für Deutschland fordert, sollte sich bewusst sein, dass wir hier gar nicht so viele Kameraaufnahmen haben, die wir nutzen könnten — zum Glück! Auch ist in Deutschland Bargeld noch immer beliebter als das digitale Bezahlen. Die benötigten Daten für das Vorbild Südkorea wären also gar nicht in dem Ausmaß vorhanden, in dem man sie benötigen würde. Der Ruf nach mehr Daten und weniger Datenschutz verkennt daher, dass Daten auch generiert werden müssen und nicht plötzlich da sind, nur weil der Datenschutz gelockert wird. Hinzu kommt, dass gerade durch solche massiven Datensammlungen womöglich viel mehr Menschen so handeln würden, dass diese Daten nicht mehr von ihnen generiert werden würden. Statt mit der Kreditkarte, würden sie wieder bar bezahlen. Die Lockerung des Datenschutzes würde also ins Leere laufen.

Natürlich darf es bei dem Einsatz von Technologie zur Pandemiebekämpfung nicht nur um den Datenschutz gehen. Es ist klar, dass der Gesundheitsschutz äußerst wichtig ist und dass es eine angemessene Abwägung zwischen diesem und dem Grundrecht auf informationelle Selbstbestimmung geben muss. Nur: Es gibt seit dem Beginn der Debatte äußerst kluge und innovative Vorschläge, wie genau beides in Einklang gebracht werden kann. Aus einem entstand die App, wie wir sie heute nutzen. Ein datenschutzfreundliches und Privatsphäre schonendes Konzept, das die 20 Millionen Downloads und das Lob aus dem Ausland wohl erst möglich machte. Dass die Corona-Warn-App angeblich nicht funktioniere, liegt eher an der überfrachteten Erwartung an sie, die keine App je erfüllen könnte. Beispielhaft sei hier erwähnt, dass es im Frühjahr gerne hieß, dass wir mit der App unsere Freiheit wiedererlangen könnten. Dabei wird aber verkannt, dass keine App vor einer Ansteckung schützt, sondern immer nur retrospektiv wirken kann und selbst dies nur dann, wenn eine Infektion mittels Test bestätigt wurde. Abstandhalten, Kontakte reduzieren und einen Mund-Nase-Schutz tragen wird also auch durch Technologie nicht obsolet.

Eine anderer kluger Vorschlag ist die Entwicklung einer Cluster-Erkennung für die Corona-Warn-App — ebenfalls datenschutzkonform und Privatsphäre schonend. Doch dieser findet kaum Erwähnung bei denen, die weniger Datenschutz fordern und diesen als Schuldigen für das angebliche nicht-funktionieren der App anführen. Ebenso finden Probleme, die dringend einer Lösung bedürfen, wenig Gehör: die Digitalisierung der Gesundheitsämter an sich, fehlende Schnittstellen (Stichwort: Datenübermittlung per Fax an das RKI) oder fehlende Informationskampagnen der Bundeszentrale für gesundheitliche Aufklärung. Noch heute scheitern zu viele Ärztinnen und Patienten daran, das Testergebnis in die eigene Corona-Warn-App übermitteln zu lassen, damit andere gewarnt werden können, da ihnen nicht bekannt ist, dass unbedingt ein Kreuzchen auf dem Formular für das Labor gesetzt werden muss, das die Übermittlung des Ergebnisses in die App erlaubt. Statt mit einem Zwang zur Freigabe zu arbeiten und damit womöglich noch weitere Nutzer:innen der App zu verlieren, sollte an der Aufklärung der Menschen gearbeitet werden, sodass sie eine freiwillige, aufgeklärte Entscheidung treffen können, beziehungsweise auf das Setzen des Kreuzes hinweisen können. Hier liegen die Potenziale. Denn wir brauchen mehr Nutzer:innen der App.

Unsere Debatten brauchen mehr Substanz. Gerade, weil es um den Schutz von Menschenleben und einer Abwägung von Grundrechten geht brauchen wir mehr technologischen Sachverstand, mehr Fokus auf Prozesse und deren Optimierung. Blinder Technologieglaube führt nicht nur nicht zu den bestmöglichen Lösungen, er ist schlimmstenfalls sogar Steigbügelhalter für eine tiefgreifende digitale Überwachung. Der bloße Ruf nach mehr Daten und weniger Datenschutz wird keinen Erfolg bringen — schon gar nicht, wenn weder benannt werden kann, was für Daten gebraucht werden noch wie diese generiert und verarbeitet werden können. Daten schützen nicht vor einem Virus. Aus Daten gewonnene Informationen können dazu beitragen, dass Menschen ihr Verhalten ändern. Und schlussendlich kommt es genau darauf an, dass Menschen Informationen über das Virus und seine Verbreitungswege ernst nehmen und ihr Verhalten dadurch ändern. Wenn wir dazu nicht in der Lage sind, wird uns auch ein gelockerter Datenschutz nicht vor dem Virus schützen.

Dieser Text erschien zuerst auf freiheit.org.

Read More
Urheberrechtsreform: „Ein Angriff auf unsere Meinungsfreiheit“

„Eine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern, um von Nutzern hochgeladene Inhalte nach urheberrechtsverletzenden Inhalten zu ‚filtern‘, lehnen wir als unverhältnismäßig ab.“
So steht es unmissverständlich im Koalitionsvertrag von CDU, CSU und SPD. Und doch sollen mit der EU-Urheberrechtsrichtlinie, die vermutlich am 26. oder 27. März verabschiedet wird, vor allem aufgrund von Bestrebungen aus Deutschland und Frankreich, genau diese kommen. Wenn auch nicht explizit, ist doch mittlerweile auch dem Letzten klar, dass Artikel 13 – der jetzt Artikel 17 heißt – nichts anderes bedeuten wird. Selbst die Bundesjustizministerin Katarina Barley hat diese Erkenntnis zuletzt öffentlich eingestanden.

Die EU-Urheberrechtsreform ist ein Baustein eines wichtigen Projekts: ein einheitlicher europäischer digitaler Binnenmarkt. Gerade wenn Europa ein Gegengewicht zu digitalen Unternehmen und Geschäftsmodellen aus den USA oder China werden möchte, ist diese Harmonisierung enorm wichtig. Doch die Artikel 11 (das Leistungsschutzrecht für Presseverleger) und Artikel 13 (Uploadfilter) sind nicht nur ein Hindernis für die digitale Zukunft Europas, sie sind auch ein Angriff auf unsere Meinungsfreiheit.

Die Rechte von Urheberinnen und Urhebern gelten auch im digitalen Raum. Daran gibt es keinen Zweifel und sie gelten dort auch schon heute. Plattformen wie YouTube und Facebook fallen unter ein Haftungsprivileg. Das heißt, sie haften erst, wenn sie über diese Kenntnis erlangen und nicht handeln. Nach dem sogenannten Notice-and-Takedown-Verfahren müssen Plattformen, nachdem sie auf eine Rechtsverletzung aufmerksam gemacht wurden, die entsprechenden Inhalte entfernen. Das funktionierte bislang gut. Plattformen haben in der Regel kein Interesse daran, dass Rechtsverletzungen auf ihren Plattformen stattfinden. YouTube hat daher zum Beispiel das ContentID-System entwickelt, mit dem Urheberrechtsverletzungen aufgespürt werden können und Urheberinnen und Urheber entscheiden können, ob sie eine Urheberrechtsverletzung zulassen möchten, oder eben nicht. Ebenso können sie zum Beispiel ihre Inhalte zur Nutzung freigeben, aber die Werbeeinnahmen, die mit ihrem urheberrechtlich geschützten Werk erzielt werden, für sich beanspruchen. Das funktioniert mehr oder weniger gut. Obwohl YouTube über 100 Millionen Dollar in die Entwicklung dieses Systems (das ja, auch filtert) gesteckt hat, funktioniert es bei Weitem nicht einwandfrei. So hat dieses System beispielsweise ein Video des bekannten deutschen Journalisten und YouTubers Herr Newstime von einer Demo gegen Artikel 13 nicht veröffentlicht, weil im Hintergrund Musik lief. Diese Musik ist natürlich urheberrechtlich geschützt, aber sie ist in dem Video nur Beiwerk gewesen – rechtlich also einwandfrei. Nur konnte das System dies nicht richtig erkennen. Womit wir beim Problem von Artikel 13 wären.

Mit der EU-Urheberrechtsreform sollen Plattformen die volle Haftung für Inhalte und damit auch für Urheberrechtsverletzungen tragen. Um dieser Haftung zu entgehen, sollen sie Lizenzen erwerben, sodass Nutzerinnen und Nutzer weiterhin alles hochladen können, Urheberinnen und Urheber aber durch die Lizenzgebühren für die Nutzung ihrer Inhalte entlohnt werden. So weit so gut, denn natürlich sollen Urheberrechte nicht verletzt werden und natürlich sollen Urheberinnen und Urheber fair entlohnt werden. Nur stößt jetzt die Theorie auf die Praxis. Denn Lizenzen für alle urheberrechtlich geschützten Werke zu erwerben ist schier unmöglich. Zunächst, weil längst nicht alle Inhalte von den Urhebern lizensiert werden (dass Hollywood Lizenzen an YouTube vergibt, darf bezweifelt werden). Auch, weil wir jeden einzelnen privaten Upload lizenzieren müssten. Denn schließlich habe auch ich Urheberrechte auf meine Fotos, die ich bei Instagram hochlade.

Parodien auf Star Wars Videos, bei denen kurze Videosequenzen aus diesen Filmen gezeigt werden, wären so, obwohl ggf. vom Urheberrecht gedeckt, nicht mehr möglich. Denn Videoplattformen bräuchten umfassende Lizenzvereinbarung und müssten beim Upload das Video mit einem Uploadfilter scannen, um zu überprüfen, ob es für alle Inhalte eine Lizenz hat und das Video gegebenenfalls sperren, wenn für die Star Wars-Sequenz keine Lizenz vorliegt. Wer meint, dass Technologie heute oder in absehbarer Zeit so weit wäre, dass sie Parodien, Zitate oder andere, legale Verwendungen erkennen kann, der sei nochmal auf das Beispiel von Herr Newstime verwiesen. Weitere Beispiele sind dieses Video von Pinkstinks, diese Montage von Mario Barth und “Die Anstalt” oder das nicht Erkennen gemeinfreier Werke. Bei einem Upload von 400 Stunden Videomaterial pro Minute(!) alleine auf YouTube, würde schon ein einstelliger Fehlerquotient eines Filtersystems eine enorme Menge an fehlerhaften (Nicht-)Uploads verursachen.

Die EU-Urheberrechtsreform soll die Marktmacht von Google, Facebook und Co  brechen. Axel Voss (CDU), Berichterstatter für die Urheberrechtsrichtlinie, behauptet immer wieder, dass Plattformen wie YouTube ihre Marktmacht auf Urheberrechtsverletzungen aufgebaut hätten. Abgesehen davon, dass dafür eigentlich das Kartellrecht zuständig wäre, wird mit der Reform genau das Gegenteil erreicht. Die großen Konzerne sind die einzigen, die die finanziellen Möglichkeiten haben, ein System zu entwickeln, das die hochgeladenen Inhalte auf Urheberrechtsverstöße überprüft oder Lizenzen zu verhandeln und möglichst pauschal zu erwerben. Zwar gibt es Ausnahmen für Startups, diese greifen aber bereits ab einem Unternehmensalter von drei Jahren nicht mehr. Mit Sicherheit nicht der Zeitpunkt, bei dem ein Startup 100 Mio. Dollar übrig hat, um so ein System zu entwickeln. Außerdem entstünde bei der Überprüfung eine enorme Datenflut, die nicht nur dem Bundesdatenschutzbeauftragten Ulrich Kelber Sorge bereitet. Allen kleinen Plattformen wird also nichts anderes übrigen bleiben, als diese Technologie bei Anbietern einzukaufen, die sich deren Entwicklung leisten können: Google und Facebook.

Das Internet ist kein rechtsfreier Raum. Das Internet ist aber auch ein Versprechen von Freiheit. Diese, insbesondere die Meinungsfreiheit, wird aber durch die EU-Urheberrechtsreform in ihrer jetzigen Form enorm eingeschränkt. Das sieht auch der UN-Sonderberichterstatter für Meinungsfreiheit David Kaye so. Wir brauchen ein Urheberrecht, das den Bedürfnissen der digitalen Welt gerecht wird und einen Interessenausgleich zwischen allen Beteiligten schafft. Als LOAD rufen wir daher dringend dazu auf, Artikel 13 und auch Artikel 11 abzulehnen und am 23. März 2019 europaweit zu demonstrieren.

 

Dieser Beitrag erschien zuerst auf #FreiheitDigital der Friedrich-Naumann-Stiftung.

Read More
Digital-Gipfel oder EDV-Gipfel?

Ist das noch der Digital-Gipfel oder schon eine Selbsthilfegruppe, die sich der Vergangenheitsbewältigung verschrieben hat? Nicht umsonst wurde über den „#EDVGipfel” in Nürnberg gespottet. Immerhin haben die fast ausschließlich aus Politik und Konzernen bestehenden Gäste über Ethik in Bezug auf Künstliche Intelligenz diskutiert. Richtigerweise stellten sie fest, dass wir als Europa ein Gegengewicht zu den KI-Anwendungen aus den USA und China brauchen. Der Erhalt unserer europäischen Werte, insbesondere der Bürgerrechte, ist in einer digitalisierten Welt enorm wichtig.

Dabei stellt sich die Frage, warum sich Deutschland nicht intensiver um eine europäische KI-Strategie kümmert. Neben Phrasen in der vorgelegten Strategie zu Europa und einer nunmehr nur noch losen Zusammenarbeit mit Frankreich, zeigt auch die Fokussierung auf das Label „KI ‚Made in Germany‘” und die fast nicht vorhandene europäische Beteiligung am Digital-Gipfel, dass man die Wichtigkeit eines europäischen Projekts bei diesem Thema nicht erkannt hat. Deutschland wird nicht als Einzelkämpfer bestehen können. Peter Altmaiers Vision eines europäischen „Airbus-Projekts” für KI hilft da wenig; er verkennt dabei, dass KI kein Produkt oder Dienstleistung an sich ist, sondern diese in der Umsetzung unterstützt.

KI-Strategie ohne Zielsetzung

Essentiell für eine Strategie wären Zielvorgaben, Milestones, eine Überprüfung. Es ist auch unklar, ob und wie nachgesteuert wird, wenn die KI-Strategie in der Praxis nicht tragfähig ist. Angela Merkel bewies dabei erst jüngst im Bundestag, dass sie weiß, wie wichtig Agilität bei Digitalprojekten ist. Dies fehlt im Papier der Bundesregierung. Bei vielen Projekten der Bundesregierung lässt sich konkrete Erfolgsmessung abseits der reinen Umsetzung vermissen. Auch auf Rückfrage bei der Vorstellung der „Once Only 2.0”-Plattform konnte nicht konkret gesagt, werden, wann diese Plattform – sofern sie denn jemals kommt, ein Erfolg sei. Bereits die eID im Personalausweis zeigte, dass es mit dem einfachen Abschließen eines Projekts bei weitem nicht getan ist.

Ebenfalls wichtig beim Thema Werte und ebenfalls nicht mitbedacht beim Digital Gipfel ist die Zivilgesellschaft. Dabei liefert sie wertvolle Impulse und trägt die Entwicklung in die Breite. Auf den viel zu groß und viel zu männlich besetzten Panels und bei den Impulsvorträgen fehlte sie nahezu vollständig. Stattdessen diskutierten hauptsächlich Vertreterinnen und Vertreter von Konzernen. Innovationen werden aber von jungen Startups getrieben. Aber Jugendlichkeit und Zukunftsvision war scheinbar ohnehin nicht gefragt.

Testosteron statt Innovation

Viel zu groß und viel zu männlich war auch das Panel zu „KI und Cybersecurity” mit Bundesinnenminister Horst Seehofer, der sich in solch einem Umfeld aber bekanntlich sehr wohl fühlt. Weniger wohl fühlte er sich aber sichtlich mit dem Thema. Seine Keynote hielt er größtenteils frei und ebenso frei von Inhalten.

KI sei Thema in seinem Ministerium, das BSI mache gute und international anerkannte Arbeit. Mehr substanziellen Inhalt zu dem Thema des Nachmittags konnte auch das bereits erwähnte anschließende Panel nicht aus ihm herauslocken. Es offenbarte allerdings, dass das Thema nicht wirklich wichtig zu sein schien. Mit wirklicher Expertise stach vor allem Jörn Müller-Quade vom Karlsruher Institut für Technologie (KIT) hervor, der dankenswerterweise darauf hinwies, dass das Offenhalten von Sicherheitslücken schädlich für die Cyber-Sicherheit sei, und dass der von Seehofer angedeutete Gegenschlag nach Angriffen auf Kritische Infrastrukturen, ebenfalls kein sinnvoller Teil einer Cyber-Sicherheitsstrategie sein sollte. Eine gute Cyber-Sicherheitsstrategie muss aber die Basis für eine digitalisierte Welt sein. Die Flapsigkeit, mit der das Panel vor einem Fachpublikum auch noch moderiert wurde, zeugt nicht davon, dass dem Veranstalter die Relevanz dieses Themas bewusst ist.

Not macht erfinderisch

Zu wenig Beachtung findet auch die Praxis. Ein Positivbeispiel lieferte das Bundesamt für Migration und Flüchtlinge (BAMF). Die Behörde, die Gastgeberin für die Vorstellung der Plattform „Once Only 2.0“ war, wurde bei der Digitalisierung der Verwaltung vom Getriebenen zum Treiber. Das hohe Aufkommen von Asyl-Anträgen seit dem Jahr 2015 zwang die Behörde, möglichst schnell Prozesse zu optimieren und damit auch zu digitalisieren. KI und Automatisierungsprozesse werden nun erfolgreich eingesetzt; unter anderem Anträge und Anfragen dadurch zügiger beantwortet und nicht zuletzt Papier gespart.

Dass Vorzeigeprojekte im Bereich der Digitalisierung so wenig Beachtung finden zeigt nicht nur, dass dem Thema noch zu wenig Brisanz und Relevanz beigemessen wird, es zeigt auch dass es der Bundesregierung an Geschichten fehlt, die erzählen, was die Digitalisierung für jede Einzelne und jeden Einzelnen bedeuten kann und wie wir sie in unserem Alltag erfahren können.

Visionen fehlen auch bei der KI-Strategie. Wo geht es hin? Wo stehen wir in 50 Jahren? Wie sieht unsere Welt dann konkret aus? Mit klaren Bildern und Geschichten könnten Ängste genommen und Chancen aufgezeigt werden. KI ist nur eine Technologie, erst ihr tatsächlicher Einsatz an Produkten oder Dienstleistungen macht sie nützlich und sichtbar. Wie Künstliche Intelligenz zum Umweltschutz beitragen kann – das wäre ein spannendes und enorm wichtiges Thema. Dies wäre ein Themenschwerpunkt, den die Bundesregierung visionär angehen könnte. Aber bitte nicht erst zum nächsten Digital-Gipfel.

 

Dieser Beitrag erschien zuerst in der Aausgabe vom 5. Dezember 2018 des Tagesspiegel Baground Digitalisierung & KI

Read More

Neueste Beiträge

  • Seit März 2023: Geschäftsführerin des Next e.v.
  • Berufung in Digitalbeirat des Bundesministerium für digitales und verkehr
  • Mehr Digitale Souveränität
  • Internet Governance – Grundlage unserer Demokratien im digitalen Zeitalter
  • Mitglied im Sounding Board des Forschungsprojekts „Plattformräte zur Sicherung öffentlicher Werte in den Regeln und Praktiken von Plattformen“

Neueste Kommentare

  • Steffi bei Gender Data Gap – die unsichtbaren Frauen

Archive

  • März 2023
  • Dezember 2022
  • Oktober 2022
  • Juli 2022
  • Juni 2022
  • Mai 2022
  • April 2022
  • Februar 2022
  • November 2021
  • August 2021
  • Juni 2021
  • Mai 2021
  • April 2021
  • März 2021
  • Februar 2021
  • Januar 2021
  • Dezember 2020
  • November 2020
  • Oktober 2020
  • August 2020
  • Juli 2020
  • April 2020
  • Januar 2020
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • Mai 2019

Kategorien

  • Allgemein
  • Bundestagskandidatur
  • Digitale Bildung
  • Digitalpolitik
  • Gastbeitrag
  • Internet Governance
  • News
  • Publikation
  • Social Media
  • Studio
  • Tutorial
Impressum Datenschutz