Digitale Transformation: Deutschland und Europa müssen globale Standards setzen Digitale Transformation: Deutschland und Europa müssen globale Standards setzen
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Blog
  • Newsletter
  • Presse
  • Kontakt
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Blog
  • Newsletter
  • Presse
  • Kontakt

Digitalpolitik

Tag: Digitalpolitik

Digitale Transformation: Deutschland und Europa müssen globale Standards setzen

Wer es nicht schon längst wusste, dem ist hoffentlich im Pandemiejahr 2020 bewusst geworden, wie wichtig die digitale Transformation ist. 2021 muss endlich das Jahr sein, in dem wir nicht nur mit großen Schritten bei der Digitalisierung vorankommen, sondern auch Grundlagen für ein Deutschland und Europa legen, das Bürger- und Menschenrechte im Digitalen schützt und globale digitale Standards setzt. Und damit auch ein „level playing field“ für fairen Wettbewerb schafft. Im Jahr 2021 werden aus liberaler Sicht folgende Themen wichtig.

Regeln für Tech-Konzerne

Mit dem Digital Services Act und dem Digital Markets Act will die Europäische Kommission ein neues Grundgesetz für den digitalen Raum festlegen. Dabei soll es nicht nur um Spielregeln für Plattformen und die Inhalte auf diesen gehen. Auch das Wettbewerbs- und Kartellrecht soll angepasst werden, um der Marktmacht einiger Internetplattformen Herr zu werden. Die Diskussionen um die Rolle von Social-Media-Plattformen bei der Erstürmung des Kapitols in Washington werden den Druck auf eine Umsetzung des Digital Services Acts erhöhen, auch wenn dieser dieses Jahr voraussichtlich noch nicht verabschiedet wird. Es ist notwendig, dass Plattformbetreiber und der Gesetzgeber sich damit beschäftigen, was diese in Bezug auf das Löschen und Sperren von Funktionsträger:innen dürfen oder müssen. Zudem wurde abermals – und vor allem in der westlichen Welt – deutlich, welche analogen Auswirkungen Hass und Hetze, Desinformation und Verschwörungserzählungen, die im Netz verbreitet werden, haben können. Bislang ist keine vehemente Kritik am Vorschlag des Digital Services Acts zu vernehmen. Vielmehr sehen sowohl Akteure der Zivilgesellschaft als auch Unternehmen den ersten Vorschlag als gute Grundlage. Mit der Verabschiedung der Richtlinie ist zwar nicht in diesem Jahr zu rechnen, wichtige Weichenstellungen im Hinblick auf die Inhalte werden aber 2021 erfolgen.

Der Digital Markets Act greift hingegen stärker die aktuellen Geschäftsmodelle der Tech-Konzerne an, die als “Gatekeeper” gelten. So sollen bestimmte Praktiken verboten werden und Daten nicht mehr exklusiv von diesen Anbietern genutzt werden können. Zudem sollen bestimmte Praktiken, die als “unfair” definiert werden, stärker überwacht werden sowie digitale Dienste, wie zum Beispiel Messenger, zur Interoperabilität verpflichtet werden.

Abseits vom Digital Services und Digital Markets Act wird auch das Thema Steuern für Tech-Konzerne weiter diskutiert werden. Dies wird bereits auf OECD-Ebene diskutiert. Hier geht es darum, ein Steuermodell zu finden, bei dem die Körperschaftssteuer künftig nicht mehr nur am Firmensitz oder an Orten mit Betriebsstätte gezahlt wird, sondern zum Teil auch dort, wo Menschen die Produkte kaufen, also in den Marktstaaten. Dabei geht es insbesondere um die Besteuerung von allen multinationalen Konzernen, die mit immateriellen Wirtschaftsgütern Gewinne erzielen. Aus liberaler Sicht ist eine Doppelbesteuerung durch eine Digitalsteuer, die eine Art zweite Umsatzsteuer fungiert, abzulehnen. Ergebnisse zu diesem Thema sollen Mitte des Jahres vorgelegt werden.

Uploadfilter gegen Terror und beim Urheberrecht

Parallel zum Digital Services Act wird die neue Verordnung gegen terroristischen Online-Content (TERREG) verhandelt, die auf deutliche Kritik bei Digitalexpert:innen und Bürgerrechtler:innen stößt. Durch die Verordnung werden sogenannte Uploadfilter, also automatisierte algorithmische Systeme, überprüfen, ob ein Inhalt, der auf eine Plattform hochgeladen werden soll, zu beanstanden ist oder nicht. Die Vorgabe für große Plattformen, innerhalb einer Stunde terroristische Inhalte zu löschen, wird diese de facto dazu zwingen, diese Technologie einzusetzen. Zusätzlich zu der Problematik, dass solche automatisierten Systeme technisch nicht in der Lage sind, Inhalte präzise zu erkennen und einzuordnen, kommt im Falle der TERREG noch hinzu, dass es in der Europäischen Union keine einheitlichen Definitionen für Terror bzw. terroristische Organisationen gibt. Die Problematik wird in Ländern wie Ungarn deutlich, das Umweltaktivist:innen als “Öko-Terrorist:innen” verunglimpft und so die Verordnung dazu missbrauchen könnte, unliebsame Inhalte aus dem Netz verschwinden zu lassen. Ebenfalls werden uns die Uploadfilter aus der EU-Urheberrechtsreform weiter beschäftigen, die bis zum Sommer in nationales Recht umgesetzt werden müssen und in Deutschland zu heftigen Diskussionen zwischen Kreativen und Bürgerrechtler:innen, den einzelnen Ministerien, aber auch in den Regierungsparteien führt. Eine Klage Polens ist vor dem Europäischen Gerichtshof anhängig. Dort soll entschieden werden, ob Artikel 17 der EU-Urheberrechtsreform, der dazu führt, dass Webseitenbetreiber Upload-Filter einsetzen müssten, eine illegale „allgemeine Überwachungspflicht“ darstellt. Eine erste Stellungnahme der Generalstaatsanwaltschaft des Europäischen Gerichtshofs ist für den 22. April 2021 vorgesehen.

Künstliche Intelligenz und biometrische Überwachung

Zum Thema künstliche Intelligenz wurde vergangenes Jahr von der Europäischen Kommission ein Weißbuch veröffentlicht, das sich mit den „technologischen, ethischen, rechtlichen und sozioökonomischen Aspekten“ von künstlicher Intelligenz beschäftigt. Aus diesem sollen Folgemaßnahmen entwickelt werden. Die Entwicklung von Standards für künstliche Intelligenz ist wichtig, damit Europa eine ethische und rechtliche Grundlage für die Entwicklung und den Einsatz dieser Technologie bieten kann. Eine solche Regelung wäre nicht nur für Europäer:innen wichtig, sondern könnte auch weltweite Signalwirkung entfalten, um der Verbreitung chinesischer Überwachungstechnologien ein Gegengewicht bieten zu können. Dass dem Einsatz von künstlicher Intelligenz zum Beispiel bei Gesichtserkennungssoftware Grenzen aufgezeigt werden müssen, zeigen US-Städte wie San Francisco, die den Einsatz dieser Technologie im öffentlichen Raum bereits untersagt haben. Konzerne wie Amazon wollen entsprechende Software zukünftig nicht mehr Polizeibehörden verfügbar machen und IBM will die Erforschung dieser Technologie einstellen.

Cybersicherheit und Verschlüsselung

Hackerangriffe auf die Europäische Arzneimittel-Agentur (EMA), Tech-Unternehmen, Verlage und Krankenhäuser haben im vergangenen Jahr massiv zugenommen. Sie führen uns nicht nur vor Augen, wie vulnerabel unsere Unternehmen und Infrastruktur mittlerweile sind, sondern auch, dass an der IT-Sicherheit Menschenleben hängen. Ein Hacker-Angriff auf das Universitätsklinikum Düsseldorf hatte den Tod einer Patientin zur Folge. Die IT-Sicherheit muss durch politische Vorgaben gestärkt werden. Das Vorhaben der Innenminister:innen der EU-Mitgliedsstaaten, Hintertüren in die Verschlüsselung von Messengerdiensten einführen zu wollen, bedarf daher einer äußerst kritischen Begleitung. Schließlich geht es hier nicht nur um die Privatsphäre eines jeden, sondern auch um den Schutz der Pressefreiheit. Zudem sind Unternehmen gefährdet, denn Sicherheitslücken machen Angriffe auf die Unternehmens-IT wahrscheinlicher. Mit ihnen gehen teils enorme wirtschaftliche Schäden einher. Die EU-Kommission verwehrt sich zwar diesem Vorhaben, doch werden uns Forderungen nach Hintertüren in Verschlüsselungen auch dieses Jahr begleiten. 2021 muss das Jahr werden, in dem die Politik klarstellt, dass nur eine Verschlüsselung ohne Hintertüren Sicherheit bietet und Bürgerinnen und Bürgern ein Recht auf Verschlüsselung haben sollten. 

Digitale Identitäten

Digitale Identitäten werden eines der wichtigsten und prägendsten Themen des Jahres. Neben der Überarbeitung der europäischen eIDAS-Verordnung, die die Standards der digitalen Identitäten regelt, möchte die Europäische Kommission auch eine Europäische-ID (EU-ID) einführen, die parallel zu nationalen eID-Systemen ausgerollt werden soll. Die Bundesregierung lehnt diesen Vorschlag der Kommission ab. Stattdessen werden Standards für ein Identitätsökosystem gefordert, also ein Wettbewerb der ID-Angebote. Durch die Errichtung eines Identitäten-Ökosystems, in das bestehende Lösungen integriert werden können, soll die Möglichkeit geschaffen werden, die bestmögliche Lösung zu finden. Wie der Vorschlag Deutschlands aufgenommen wird, wird sich im Laufe des Jahres zeigen. Er könnte insbesondere für diejenigen Mitgliedsstaaten attraktiv sein, die bereits eigene Lösungen für eIDs haben, da sich diese in das Ökosystem integrieren lassen. In Deutschland erwarten wir den digitalen Personalausweis auf dem Smartphone. Durch ihn sollen zum Beispiel Behördendienstleistungen einfacher digital in Anspruch genommen werden können. Aber auch das digitale Ausweisen bei der Eröffnung eines Bankkontos kann so leichter möglich sein.

Digitale Bildung und der Digital Divide

Versäumnisse im Bildungswesen werden auch 2021 nicht aufgeholt werden können, nur die Brisanz des Themas Digitalisierung des Bildungswesens wird noch größer. Hier werden wir erkennen müssen, dass in der Not geborene Maßnahmen zur Bereitstellung digitaler Lernräume und Plattformen nicht ausreichen. Zudem wird deutlicher werden, wie dringend sich die Ausbildung für Lehrkräfte anpassen und Themen wie Didaktik im Digitalen behandeln muss. Themen wie Lehr- und Lernkonzepte im Digitalen werden uns begleiten und der Druck auf Bildungs- und Kultusminister:innen wird steigen, hier notwendige Mittel und Lösungen bereitzustellen. Auch das Thema Hardware in der Schule wird 2021 diskutiert werden. Denn bereitgestellte Hardware für Lehrkräfte und Schüler:innen will administriert und gewartet werden. Dafür braucht es zusätzliches Personal an den Schulen. Der Mangel an IT-Fachkräften wird auch hier zum Problem werden. Die Ad hoc-Lösungen im Bildungswesen während der Pandemie werden nachhaltigen und langfristigen Ersatz benötigen, um ein zeitgemäßes Lehren und Lernen gewährleisten zu können. Und auch der sogenannte Digital Divide wird uns umtreiben. Wenn Schüler:innen kein Endgerät von der Schule bereitgestellt werden kann, sind sie darauf angewiesen, dass die Familie sich genügend Endgeräte leisten kann, damit die Kinder Home Schooling machen können oder auch nach der Pandemie mit mobilen Geräten zu Hause arbeiten können. Das Recht auf Bildung darf insbesondere beim Home Schooling in der Pandemie weder durch fehlende digitale Lernplattformen noch durch fehlende Endgeräte verwehrt werden.

(Re:start21:) Krise als Chance: Zusammenschluss demokratischer Staaten

Das Pandemiejahr 2020 und die ersten Tage in 2021 haben uns erneut aufgezeigt, wie drängend das Thema Digitalisierung ist und dass Digitalpolitik längst kein Nischenthema mehr ist. Die Entwicklungen verdeutlichen zudem, wie wichtig es ist, dass demokratische Staaten diejenigen sein müssen, die Standards und Regulierung für den digitalen Raum festlegen. Dies darf weder Konzernen und damit der normativen Kraft des Faktischen überlassen werden, noch autoritären Staaten. Die beginnende Präsidentschaft Joe Bidens und die Erfahrungen und Erkenntnisse aus der Pandemie sollten daher der Aufruf für die größten demokratischen Staaten sein, sich zusammenzutun. Ähnlich wie das Bündnis der G7-Staaten müssen sie gemeinsam Lösungen für die digitalen Herausforderungen finden. Dazu gehören nicht nur die oben genannten – die keine abschließende Liste darstellen -, sondern auch Fragen des Umgangs mit Meinungsfreiheit und dem Datenaustausch zwischen den einzelnen Wirtschaftsräumen, insbesondere seitdem das Privacy Shield zwischen den Vereinigten Staaten und der Europäischen Union für ungültig erklärt wurde. Solch ein Zusammenschluss würde nicht nur die transatlantischen Beziehungen wieder auffrischen, sondern auch Chancen für eine lebenswerte, digital-nachhaltige Welt bieten, die auf offene Märkte und Multilateralismus setzt.

Dieser Text wurde zuerst auf freiheit.org veröffentlicht.
Bild von Thomas Ulrich auf Pixabay

Read More
Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt

20 Jahre nach Einführung der europäischen E-Commerce-Richtlinie, wird heute von der Europäischen Kommission der Digital Services Act (DSA) vorgestellt, der die in die Jahre gekommene Richtlinie ergänzen soll. Vor 20 Jahren, bei Einführung der E-Commerce-Richtlinie, die bis heute den Binnenmarkt für Online-Dienste regelt, gab es noch keine Social-Media-Plattformen, wie wir sie heute kennen. Regulierung, die auf die Anforderungen der Plattform-Ökonomie abzielt, ist also dringend notwendig. Neben dem Digital Services Act wird der Digital Markets Act (DMA) vorgestellt, der ebenfalls an Plattformen mit Gatekeeper-Funktion gerichtet ist. Der DMA ergänzt Regelungen zum Wettbewerbsrecht und soll die Marktmacht der großen Digitalkonzerne begrenzen. 

Die noch immer gültige E-Commerce-Richtlinie beinhaltet ein Instrument, das für das Funktionieren des Internets, insbesondere von Plattformen enorm wichtig ist: das sogenannte “Notice and take down”-Verfahren. Dies entbindet, kurz gesagt, Plattformen von ihrer Haftung für illegale Inhalte Dritter, sofern sie davon keine Kenntnis haben. Dies ändert sich aber, sobald sie darüber in Kenntnis gesetzt wurden. Mit der Kenntnisnahme müssen sie handeln und die Inhalte entfernen, ansonsten haften sie für diese. Der Digital Services Act baut auf der E-Commerce-Richtlinie auf und behält dieses Instrument bei. Dies ist sehr zu begrüßen, auch vor dem Hintergrund, dass in den USA heftig um eine vergleichbare Regelung, die sogenannte Section 230 gestritten wird und der gewählte Präsident Joe Biden diese gerne abschaffen möchte.

Der Digital Services Act soll unter anderem dazu dienen, illegale Inhalte auf Plattformen besser zu regulieren und diese unter Einhaltung der Europäischen Grundrechtecharta zu entfernen. Was sich erstmal gut anhört, wirft die gleichen Probleme auf, die wir schon vom deutschen Netzwerkdurchsetzungsgesetz (NetzDG) kennen: Plattformen sollen selber entscheiden, was illegal ist. Eine Aufgabe, die die Justiz zu übernehmen hat und keine privatwirtschaftlichen Unternehmen. Dabei macht der DSA keine Aussagen darüber, was “illegale Inhalte” sind. Diese werden – zu Recht – in anderen Gesetzeswerken auf europäischer beziehungsweise nationaler Ebene geregelt. Positiv ist allerdings, dass der DSA wie das NetzDG eine Ansprechperson des in der Europäischen Union operierenden Plattformbetreibers fordert. Ebenso haben die Mitgliedsstaaten einen “Digital Services Coordinator” zu bestimmen, der die Aufsicht über die Einhaltung der Regelungen im Mitgliedsstaat hat und sich auf europäischer Ebene zum “European Board for Digital Services” zusammenschließt, das der Europäischen Kommission als Beratungsgremium zur Seite steht. 

Mit dem Digital Services Act kommen allerdings auch einige Verbesserungen für Nutzer:innen von digitalen Plattformen, inbesondere in Bezug auf Inhalte, die nach den plattformeigenen Communitystandards entfernt wurden. So müssen beispielsweise Nutzer:innen darüber informiert werden, warum ihre Inhalte von der Plattform gelöscht wurden. Die Plattform muss nach dem DSA Möglichkeiten anbieten, zu der getroffenen Entscheidung Widerspruch einzulegen und eine Plattform zur Streitschlichtung bereithalten. Ebenso ist zu begrüßen, dass der DSA Schutzmaßnahmen vorsieht, um den Missbrauch der Meldefunktion für Beiträge zu verhindern – werden mit falschen Meldungen doch häufig versucht unliebsame Meinungen mundtot zu machen. Plattformen wird daher nahegelegt, Regelungen zu finden, diese Nutzer:innen temporär zu sperren, dieses Vorgehen aber auch in ihren AGB darzulegen. Ebenso soll in den AGB in verständlicher Sprache dargelegt werden, ob die Inhalte durch Menschen oder Algorithmen moderiert werden.

Der Digital Services Act unterscheidet bei den beabsichtigten Pflichten die Größe von Plattformen. Er nimmt explizit zur Kenntnis, dass “sehr große Plattformen” einen ganz anderen Impact auf die europäischen Gesellschaften haben. So definiert der DSA sehr große Plattformen als Plattformen, die mehr als 45 Millionnen Nutzer:innen haben, bzw. 10 Prozent der Unionsbürger:innen. Die Strafen, die Der Digital Services Act bei Verstößen vorsieht, sind beachtlich: Bis zu 6 Prozent des Jahresumsatzes sind hier bei äußerst schweren Verstößen möglich.

Nutzer:innen sollen besser verstehen können, wie sich die Inhalte, die ihnen angezeigt werden, zusammensetzen. Dazu sollen sehr große Plattformen darlegen, was ihre Parameter für Empfehlungssysteme (z.B. der News Feed) sind und ermöglichen , dass alternative Einstellungen vorgenommen werden können. Dazu gehört auch die Möglichkeit einer neutralen Anordnung der Inhalte, die nicht anhand der von der Plattform antizipierten Vorlieben der Nutzer:in erstellt wird. Auch soll Nutzer:innen erkennen können, warum ihnen Werbeanzeigen angezeigt werden, also nach welchen Parametern das sogenannte Micro-Targeting erfolgte. Ebenso soll erkennbar sein, wer für die Anzeige zahlte.

Wie bereits im Anfang Dezember vorgestellten “European Democracy Action Plan” erwähnt wurde, finden sich im Digital Services Act Regelungen , die die Verbreitung von Desinformation einhegen sollen. Online-Plattformen sind angehalten, einen Code of Conduct zu erstellen, in dem sie darlegen, wie sie mit Inhalten, die zwar nicht illegal aber dennoch schädlich sind, umgehen wollen. Dazu gehört auch der Umgang mit Fake-Accounts und Bots, die häufig dazu beitragen, Desinformationen und andere schädliche, aber nicht illegale Inhalte zu verbreiten. Plattformen, die keinen Code of Conduct haben und dies nicht begründen können, kann vorgeworfen werden, dass sie sich nicht an die Vorgaben des DSA halten.  Die im Action Plan angekündigte Pflicht zur Bereitstellung von Daten zu Forschungszwecken findet sich im DSA wieder.

Ebenfalls zu begrüßen ist, dass sehr große Plattformen Pläne für Krisenfälle vorhalten sollen, zum Beispiel Pandemien, Erdbeben oder terroristische Anschläge. Zur Risikobewertung und -minderung wird diesen Plattformen außerdem nahegelegt, Nutzer:innen, besonders betroffene Personen, unabhängige Expertinnen und Vertreter der Zivilgesellschaft in ihre Maßnahmen mit einzubeziehen. Dies ist insbesondere in Anbetracht des Genozids an den Rohingya in Myanmar, der durch Desinformation und Hate Speech auf Facebook befeuert wurde, auf den die Plattform lange keine Antwort fand, ein wichtiger Schritt.

Der Digital Services Act könnte auch für Kanäle (und ggf. auch Gruppen) auf Telegram greifen und damit umfassender sein, als das deutsche NetzDG, das bei Messengern wie Telegram, die auch eine öffentliche Kommunikation ermöglichen, eine Lücke aufweist. Die würde dazu führen, dass auch Telegram eine Ansprechperson in Europa benennen müsste. Keine Anwendung soll der DSA auf private Kommunikation über Messenger und  E-Mails finden, sondern nur auf  Gruppen , die für die Öffentlichkeit gedacht sind.

Mit dem Digital Services Act soll eine einheitliche Regulierung für den europäischen digitalen Binnenmarkt geschaffen werden, der auch eine Maßnahme gegen den Flickenteppich an nationaler Gesetzgebung sein soll, wie er zum Beispiel durch das deutsche NetzDG oder das französische “Avia Law” entstanden ist. Dabei löst er die nationalen Gesetze allerdings nicht ab, sondern ergänzt und vereinheitlicht sie. Der DSA erhebt den Anspruch, internationale Standards setzen zu wollen. Dass er dies mit der Privatisierung der Rechtsdurchsetzung an die Plattformen anstrebt – wie schon beim NetzDG –, ist scharf zu kritisieren. Es bleibt zu wünschen, dass sich das Europäische Parlament im Rahmen der Verhandlungen über den finalen Text der Richtlinie für eine sinnvollere Lösung einsetzt.

Dieser Artikel erschien zuerst auf freiheit.org.

Bild von Laurent Verdier auf Pixabay 

Read More
Am Datenschutz scheitert die Corona-Bekämpfung nicht

Den Datenschutz lockern, um den Gesundheitsschutz zu stärken? Bei der Corona-Warn-App wird eine ritualisierte Debatte entlang der bekannten Lager geführt. Die wichtigen Fragen werden dabei meistens ausgeklammert: Was kann die App leisten? Wo liegen die Probleme und welche Daten brauchen wir, um die gewünschten Ziele zu erreichen? Zusätzlich wird die Debatte geführt, als würde die App im luftleeren Raum handeln, als würde das Verhalten des Menschen irrelevant sein. Daten und Technologie haben aber generell nur einen Zweck: Sie müssen dem Menschen nützen. Sie sind Werkzeug zur Erreichung seiner Ziele, nie die Lösung selbst. Die bloße Forderung nach “mehr Daten” wird nicht als Selbstläufer zum Erfolg bei der Virusbekämpfung führen. Die Debatte braucht also mehr Substanz.

Der überbordende Datenschutz scheint laut einigen Politiker:innen und Kommentator:innen der Grund zu sein, der Deutschland davon abhält, Vorreiter der Digitalisierung zu werden und die Corona-Pandemie in den Griff zu bekommen. Doch sind es ausschließlich Daten, die in anderen Ländern der Schlüsselfaktor sind, mit dem die Pandemie in den Griff bekommen wurde? Taiwan und Südkorea werden hier gerne als Beispiele angeführt. Nur gilt selbst in hochtechnologischen Ländern: Daten handeln nicht alleine. Viel zu häufig wird beim Blick nach Ostasien vergessen, dass diese Länder eben nicht bloß auf Technologie setzen, sondern auch zahlreiche andere — meist ganz analoge — Maßnahmen eingesetzt haben, die zum erfolgreichen Umgang mit der Pandemie beigetragen haben. Dazu gehören einfacher mögliche Einreisekontrollen sowie die allgemein viel bessere Vorbereitung auf Pandemien aufgrund vorhandener Erfahrungen mit SARS-Viren.

Wichtig ist, beim Verweis auf andere Länder präzise zu benennen, welche Daten dort verwendet und welche bürgerrechtlichen Einschränkungen dafür in Kauf genommen wurden. Taiwan hat beispielsweise nicht auf Tracking- oder Tracing-Apps gesetzt. Die Einhaltung der Quarantäne wurde über das Mobilfunknetz kontrolliert. Allerdings wurden in Taiwan auch digitale Zugänge zu Daten bereitgestellt, mit denen die Zivilgesellschaft hilfreiche Anwendungen entwickeln konnte. Zum Beispiel, wie viele Masken in der Apotheke in der Nachbarschaft noch vorrätig sind oder Visualisierungen über die Menge der ausgelieferten Masken. Solche Daten und Informationen — möglich gemacht durch Civic-Tech-Anwendungen — finden in Deutschland, wenn wir über die Nutzung von Daten bei der Eindämmung der Pandemie sprechen, quasi keine Beachtung (Stichwort: WirVsVirus). Die Debatten über Daten dürfen daher nicht lediglich darum gehen, ob wir viel oder wenig Datenschutz brauchen, sondern wo der Mensch sinnvolle Informationen aufgrund von Daten bekommen kann, bzw. braucht, um sein Verhalten zu ändern, sodass das Virus sich nicht weiter verbreiten kann.

Südkorea hat zahlreiche weitere Daten genutzt, um die Verbreitung des Virus einzuschränken — eben nicht nur Daten aus einer Tracking-App. Diese wurden angereichert mit Daten aus Überwachungskameras oder über Finanztransaktionen. Wer dies auch für Deutschland fordert, sollte sich bewusst sein, dass wir hier gar nicht so viele Kameraaufnahmen haben, die wir nutzen könnten — zum Glück! Auch ist in Deutschland Bargeld noch immer beliebter als das digitale Bezahlen. Die benötigten Daten für das Vorbild Südkorea wären also gar nicht in dem Ausmaß vorhanden, in dem man sie benötigen würde. Der Ruf nach mehr Daten und weniger Datenschutz verkennt daher, dass Daten auch generiert werden müssen und nicht plötzlich da sind, nur weil der Datenschutz gelockert wird. Hinzu kommt, dass gerade durch solche massiven Datensammlungen womöglich viel mehr Menschen so handeln würden, dass diese Daten nicht mehr von ihnen generiert werden würden. Statt mit der Kreditkarte, würden sie wieder bar bezahlen. Die Lockerung des Datenschutzes würde also ins Leere laufen.

Natürlich darf es bei dem Einsatz von Technologie zur Pandemiebekämpfung nicht nur um den Datenschutz gehen. Es ist klar, dass der Gesundheitsschutz äußerst wichtig ist und dass es eine angemessene Abwägung zwischen diesem und dem Grundrecht auf informationelle Selbstbestimmung geben muss. Nur: Es gibt seit dem Beginn der Debatte äußerst kluge und innovative Vorschläge, wie genau beides in Einklang gebracht werden kann. Aus einem entstand die App, wie wir sie heute nutzen. Ein datenschutzfreundliches und Privatsphäre schonendes Konzept, das die 20 Millionen Downloads und das Lob aus dem Ausland wohl erst möglich machte. Dass die Corona-Warn-App angeblich nicht funktioniere, liegt eher an der überfrachteten Erwartung an sie, die keine App je erfüllen könnte. Beispielhaft sei hier erwähnt, dass es im Frühjahr gerne hieß, dass wir mit der App unsere Freiheit wiedererlangen könnten. Dabei wird aber verkannt, dass keine App vor einer Ansteckung schützt, sondern immer nur retrospektiv wirken kann und selbst dies nur dann, wenn eine Infektion mittels Test bestätigt wurde. Abstandhalten, Kontakte reduzieren und einen Mund-Nase-Schutz tragen wird also auch durch Technologie nicht obsolet.

Eine anderer kluger Vorschlag ist die Entwicklung einer Cluster-Erkennung für die Corona-Warn-App — ebenfalls datenschutzkonform und Privatsphäre schonend. Doch dieser findet kaum Erwähnung bei denen, die weniger Datenschutz fordern und diesen als Schuldigen für das angebliche nicht-funktionieren der App anführen. Ebenso finden Probleme, die dringend einer Lösung bedürfen, wenig Gehör: die Digitalisierung der Gesundheitsämter an sich, fehlende Schnittstellen (Stichwort: Datenübermittlung per Fax an das RKI) oder fehlende Informationskampagnen der Bundeszentrale für gesundheitliche Aufklärung. Noch heute scheitern zu viele Ärztinnen und Patienten daran, das Testergebnis in die eigene Corona-Warn-App übermitteln zu lassen, damit andere gewarnt werden können, da ihnen nicht bekannt ist, dass unbedingt ein Kreuzchen auf dem Formular für das Labor gesetzt werden muss, das die Übermittlung des Ergebnisses in die App erlaubt. Statt mit einem Zwang zur Freigabe zu arbeiten und damit womöglich noch weitere Nutzer:innen der App zu verlieren, sollte an der Aufklärung der Menschen gearbeitet werden, sodass sie eine freiwillige, aufgeklärte Entscheidung treffen können, beziehungsweise auf das Setzen des Kreuzes hinweisen können. Hier liegen die Potenziale. Denn wir brauchen mehr Nutzer:innen der App.

Unsere Debatten brauchen mehr Substanz. Gerade, weil es um den Schutz von Menschenleben und einer Abwägung von Grundrechten geht brauchen wir mehr technologischen Sachverstand, mehr Fokus auf Prozesse und deren Optimierung. Blinder Technologieglaube führt nicht nur nicht zu den bestmöglichen Lösungen, er ist schlimmstenfalls sogar Steigbügelhalter für eine tiefgreifende digitale Überwachung. Der bloße Ruf nach mehr Daten und weniger Datenschutz wird keinen Erfolg bringen — schon gar nicht, wenn weder benannt werden kann, was für Daten gebraucht werden noch wie diese generiert und verarbeitet werden können. Daten schützen nicht vor einem Virus. Aus Daten gewonnene Informationen können dazu beitragen, dass Menschen ihr Verhalten ändern. Und schlussendlich kommt es genau darauf an, dass Menschen Informationen über das Virus und seine Verbreitungswege ernst nehmen und ihr Verhalten dadurch ändern. Wenn wir dazu nicht in der Lage sind, wird uns auch ein gelockerter Datenschutz nicht vor dem Virus schützen.

Dieser Text erschien zuerst auf freiheit.org.

Read More
Urheberrechtsreform: „Ein Angriff auf unsere Meinungsfreiheit“

„Eine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern, um von Nutzern hochgeladene Inhalte nach urheberrechtsverletzenden Inhalten zu ‚filtern‘, lehnen wir als unverhältnismäßig ab.“
So steht es unmissverständlich im Koalitionsvertrag von CDU, CSU und SPD. Und doch sollen mit der EU-Urheberrechtsrichtlinie, die vermutlich am 26. oder 27. März verabschiedet wird, vor allem aufgrund von Bestrebungen aus Deutschland und Frankreich, genau diese kommen. Wenn auch nicht explizit, ist doch mittlerweile auch dem Letzten klar, dass Artikel 13 – der jetzt Artikel 17 heißt – nichts anderes bedeuten wird. Selbst die Bundesjustizministerin Katarina Barley hat diese Erkenntnis zuletzt öffentlich eingestanden.

Die EU-Urheberrechtsreform ist ein Baustein eines wichtigen Projekts: ein einheitlicher europäischer digitaler Binnenmarkt. Gerade wenn Europa ein Gegengewicht zu digitalen Unternehmen und Geschäftsmodellen aus den USA oder China werden möchte, ist diese Harmonisierung enorm wichtig. Doch die Artikel 11 (das Leistungsschutzrecht für Presseverleger) und Artikel 13 (Uploadfilter) sind nicht nur ein Hindernis für die digitale Zukunft Europas, sie sind auch ein Angriff auf unsere Meinungsfreiheit.

Die Rechte von Urheberinnen und Urhebern gelten auch im digitalen Raum. Daran gibt es keinen Zweifel und sie gelten dort auch schon heute. Plattformen wie YouTube und Facebook fallen unter ein Haftungsprivileg. Das heißt, sie haften erst, wenn sie über diese Kenntnis erlangen und nicht handeln. Nach dem sogenannten Notice-and-Takedown-Verfahren müssen Plattformen, nachdem sie auf eine Rechtsverletzung aufmerksam gemacht wurden, die entsprechenden Inhalte entfernen. Das funktionierte bislang gut. Plattformen haben in der Regel kein Interesse daran, dass Rechtsverletzungen auf ihren Plattformen stattfinden. YouTube hat daher zum Beispiel das ContentID-System entwickelt, mit dem Urheberrechtsverletzungen aufgespürt werden können und Urheberinnen und Urheber entscheiden können, ob sie eine Urheberrechtsverletzung zulassen möchten, oder eben nicht. Ebenso können sie zum Beispiel ihre Inhalte zur Nutzung freigeben, aber die Werbeeinnahmen, die mit ihrem urheberrechtlich geschützten Werk erzielt werden, für sich beanspruchen. Das funktioniert mehr oder weniger gut. Obwohl YouTube über 100 Millionen Dollar in die Entwicklung dieses Systems (das ja, auch filtert) gesteckt hat, funktioniert es bei Weitem nicht einwandfrei. So hat dieses System beispielsweise ein Video des bekannten deutschen Journalisten und YouTubers Herr Newstime von einer Demo gegen Artikel 13 nicht veröffentlicht, weil im Hintergrund Musik lief. Diese Musik ist natürlich urheberrechtlich geschützt, aber sie ist in dem Video nur Beiwerk gewesen – rechtlich also einwandfrei. Nur konnte das System dies nicht richtig erkennen. Womit wir beim Problem von Artikel 13 wären.

Mit der EU-Urheberrechtsreform sollen Plattformen die volle Haftung für Inhalte und damit auch für Urheberrechtsverletzungen tragen. Um dieser Haftung zu entgehen, sollen sie Lizenzen erwerben, sodass Nutzerinnen und Nutzer weiterhin alles hochladen können, Urheberinnen und Urheber aber durch die Lizenzgebühren für die Nutzung ihrer Inhalte entlohnt werden. So weit so gut, denn natürlich sollen Urheberrechte nicht verletzt werden und natürlich sollen Urheberinnen und Urheber fair entlohnt werden. Nur stößt jetzt die Theorie auf die Praxis. Denn Lizenzen für alle urheberrechtlich geschützten Werke zu erwerben ist schier unmöglich. Zunächst, weil längst nicht alle Inhalte von den Urhebern lizensiert werden (dass Hollywood Lizenzen an YouTube vergibt, darf bezweifelt werden). Auch, weil wir jeden einzelnen privaten Upload lizenzieren müssten. Denn schließlich habe auch ich Urheberrechte auf meine Fotos, die ich bei Instagram hochlade.

Parodien auf Star Wars Videos, bei denen kurze Videosequenzen aus diesen Filmen gezeigt werden, wären so, obwohl ggf. vom Urheberrecht gedeckt, nicht mehr möglich. Denn Videoplattformen bräuchten umfassende Lizenzvereinbarung und müssten beim Upload das Video mit einem Uploadfilter scannen, um zu überprüfen, ob es für alle Inhalte eine Lizenz hat und das Video gegebenenfalls sperren, wenn für die Star Wars-Sequenz keine Lizenz vorliegt. Wer meint, dass Technologie heute oder in absehbarer Zeit so weit wäre, dass sie Parodien, Zitate oder andere, legale Verwendungen erkennen kann, der sei nochmal auf das Beispiel von Herr Newstime verwiesen. Weitere Beispiele sind dieses Video von Pinkstinks, diese Montage von Mario Barth und “Die Anstalt” oder das nicht Erkennen gemeinfreier Werke. Bei einem Upload von 400 Stunden Videomaterial pro Minute(!) alleine auf YouTube, würde schon ein einstelliger Fehlerquotient eines Filtersystems eine enorme Menge an fehlerhaften (Nicht-)Uploads verursachen.

Die EU-Urheberrechtsreform soll die Marktmacht von Google, Facebook und Co  brechen. Axel Voss (CDU), Berichterstatter für die Urheberrechtsrichtlinie, behauptet immer wieder, dass Plattformen wie YouTube ihre Marktmacht auf Urheberrechtsverletzungen aufgebaut hätten. Abgesehen davon, dass dafür eigentlich das Kartellrecht zuständig wäre, wird mit der Reform genau das Gegenteil erreicht. Die großen Konzerne sind die einzigen, die die finanziellen Möglichkeiten haben, ein System zu entwickeln, das die hochgeladenen Inhalte auf Urheberrechtsverstöße überprüft oder Lizenzen zu verhandeln und möglichst pauschal zu erwerben. Zwar gibt es Ausnahmen für Startups, diese greifen aber bereits ab einem Unternehmensalter von drei Jahren nicht mehr. Mit Sicherheit nicht der Zeitpunkt, bei dem ein Startup 100 Mio. Dollar übrig hat, um so ein System zu entwickeln. Außerdem entstünde bei der Überprüfung eine enorme Datenflut, die nicht nur dem Bundesdatenschutzbeauftragten Ulrich Kelber Sorge bereitet. Allen kleinen Plattformen wird also nichts anderes übrigen bleiben, als diese Technologie bei Anbietern einzukaufen, die sich deren Entwicklung leisten können: Google und Facebook.

Das Internet ist kein rechtsfreier Raum. Das Internet ist aber auch ein Versprechen von Freiheit. Diese, insbesondere die Meinungsfreiheit, wird aber durch die EU-Urheberrechtsreform in ihrer jetzigen Form enorm eingeschränkt. Das sieht auch der UN-Sonderberichterstatter für Meinungsfreiheit David Kaye so. Wir brauchen ein Urheberrecht, das den Bedürfnissen der digitalen Welt gerecht wird und einen Interessenausgleich zwischen allen Beteiligten schafft. Als LOAD rufen wir daher dringend dazu auf, Artikel 13 und auch Artikel 11 abzulehnen und am 23. März 2019 europaweit zu demonstrieren.

 

Dieser Beitrag erschien zuerst auf #FreiheitDigital der Friedrich-Naumann-Stiftung.

Read More
Digital-Gipfel oder EDV-Gipfel?

Ist das noch der Digital-Gipfel oder schon eine Selbsthilfegruppe, die sich der Vergangenheitsbewältigung verschrieben hat? Nicht umsonst wurde über den „#EDVGipfel” in Nürnberg gespottet. Immerhin haben die fast ausschließlich aus Politik und Konzernen bestehenden Gäste über Ethik in Bezug auf Künstliche Intelligenz diskutiert. Richtigerweise stellten sie fest, dass wir als Europa ein Gegengewicht zu den KI-Anwendungen aus den USA und China brauchen. Der Erhalt unserer europäischen Werte, insbesondere der Bürgerrechte, ist in einer digitalisierten Welt enorm wichtig.

Dabei stellt sich die Frage, warum sich Deutschland nicht intensiver um eine europäische KI-Strategie kümmert. Neben Phrasen in der vorgelegten Strategie zu Europa und einer nunmehr nur noch losen Zusammenarbeit mit Frankreich, zeigt auch die Fokussierung auf das Label „KI ‚Made in Germany‘” und die fast nicht vorhandene europäische Beteiligung am Digital-Gipfel, dass man die Wichtigkeit eines europäischen Projekts bei diesem Thema nicht erkannt hat. Deutschland wird nicht als Einzelkämpfer bestehen können. Peter Altmaiers Vision eines europäischen „Airbus-Projekts” für KI hilft da wenig; er verkennt dabei, dass KI kein Produkt oder Dienstleistung an sich ist, sondern diese in der Umsetzung unterstützt.

KI-Strategie ohne Zielsetzung

Essentiell für eine Strategie wären Zielvorgaben, Milestones, eine Überprüfung. Es ist auch unklar, ob und wie nachgesteuert wird, wenn die KI-Strategie in der Praxis nicht tragfähig ist. Angela Merkel bewies dabei erst jüngst im Bundestag, dass sie weiß, wie wichtig Agilität bei Digitalprojekten ist. Dies fehlt im Papier der Bundesregierung. Bei vielen Projekten der Bundesregierung lässt sich konkrete Erfolgsmessung abseits der reinen Umsetzung vermissen. Auch auf Rückfrage bei der Vorstellung der „Once Only 2.0”-Plattform konnte nicht konkret gesagt, werden, wann diese Plattform – sofern sie denn jemals kommt, ein Erfolg sei. Bereits die eID im Personalausweis zeigte, dass es mit dem einfachen Abschließen eines Projekts bei weitem nicht getan ist.

Ebenfalls wichtig beim Thema Werte und ebenfalls nicht mitbedacht beim Digital Gipfel ist die Zivilgesellschaft. Dabei liefert sie wertvolle Impulse und trägt die Entwicklung in die Breite. Auf den viel zu groß und viel zu männlich besetzten Panels und bei den Impulsvorträgen fehlte sie nahezu vollständig. Stattdessen diskutierten hauptsächlich Vertreterinnen und Vertreter von Konzernen. Innovationen werden aber von jungen Startups getrieben. Aber Jugendlichkeit und Zukunftsvision war scheinbar ohnehin nicht gefragt.

Testosteron statt Innovation

Viel zu groß und viel zu männlich war auch das Panel zu „KI und Cybersecurity” mit Bundesinnenminister Horst Seehofer, der sich in solch einem Umfeld aber bekanntlich sehr wohl fühlt. Weniger wohl fühlte er sich aber sichtlich mit dem Thema. Seine Keynote hielt er größtenteils frei und ebenso frei von Inhalten.

KI sei Thema in seinem Ministerium, das BSI mache gute und international anerkannte Arbeit. Mehr substanziellen Inhalt zu dem Thema des Nachmittags konnte auch das bereits erwähnte anschließende Panel nicht aus ihm herauslocken. Es offenbarte allerdings, dass das Thema nicht wirklich wichtig zu sein schien. Mit wirklicher Expertise stach vor allem Jörn Müller-Quade vom Karlsruher Institut für Technologie (KIT) hervor, der dankenswerterweise darauf hinwies, dass das Offenhalten von Sicherheitslücken schädlich für die Cyber-Sicherheit sei, und dass der von Seehofer angedeutete Gegenschlag nach Angriffen auf Kritische Infrastrukturen, ebenfalls kein sinnvoller Teil einer Cyber-Sicherheitsstrategie sein sollte. Eine gute Cyber-Sicherheitsstrategie muss aber die Basis für eine digitalisierte Welt sein. Die Flapsigkeit, mit der das Panel vor einem Fachpublikum auch noch moderiert wurde, zeugt nicht davon, dass dem Veranstalter die Relevanz dieses Themas bewusst ist.

Not macht erfinderisch

Zu wenig Beachtung findet auch die Praxis. Ein Positivbeispiel lieferte das Bundesamt für Migration und Flüchtlinge (BAMF). Die Behörde, die Gastgeberin für die Vorstellung der Plattform „Once Only 2.0“ war, wurde bei der Digitalisierung der Verwaltung vom Getriebenen zum Treiber. Das hohe Aufkommen von Asyl-Anträgen seit dem Jahr 2015 zwang die Behörde, möglichst schnell Prozesse zu optimieren und damit auch zu digitalisieren. KI und Automatisierungsprozesse werden nun erfolgreich eingesetzt; unter anderem Anträge und Anfragen dadurch zügiger beantwortet und nicht zuletzt Papier gespart.

Dass Vorzeigeprojekte im Bereich der Digitalisierung so wenig Beachtung finden zeigt nicht nur, dass dem Thema noch zu wenig Brisanz und Relevanz beigemessen wird, es zeigt auch dass es der Bundesregierung an Geschichten fehlt, die erzählen, was die Digitalisierung für jede Einzelne und jeden Einzelnen bedeuten kann und wie wir sie in unserem Alltag erfahren können.

Visionen fehlen auch bei der KI-Strategie. Wo geht es hin? Wo stehen wir in 50 Jahren? Wie sieht unsere Welt dann konkret aus? Mit klaren Bildern und Geschichten könnten Ängste genommen und Chancen aufgezeigt werden. KI ist nur eine Technologie, erst ihr tatsächlicher Einsatz an Produkten oder Dienstleistungen macht sie nützlich und sichtbar. Wie Künstliche Intelligenz zum Umweltschutz beitragen kann – das wäre ein spannendes und enorm wichtiges Thema. Dies wäre ein Themenschwerpunkt, den die Bundesregierung visionär angehen könnte. Aber bitte nicht erst zum nächsten Digital-Gipfel.

 

Dieser Beitrag erschien zuerst in der Aausgabe vom 5. Dezember 2018 des Tagesspiegel Baground Digitalisierung & KI

Read More

Neueste Beiträge

  • Gastbeitrag: Politikfähigkeit braucht Führungsfähigkeit
  • Handelsblatt Gastbeitrag: Verwaltungstransformation: Ein Hebel für Vertrauen, Demokratie und Lebenschancen
  • Auszeichnung als Young Leader in GovTech 2025
  • Gastbeitrag: Von Estland lernen? Vielleicht lieber von uns selbst
  • Abschlussbericht des Beirats zur Umsetzung der Digitalstrategie Deutschlands

Neueste Kommentare

    Archive

    • April 2025
    • Februar 2025
    • Januar 2025
    • Dezember 2024
    • November 2024
    • August 2024
    • Juli 2024
    • Mai 2024
    • April 2024
    • November 2023
    • September 2023
    • Juli 2023
    • April 2023
    • März 2023
    • Dezember 2022
    • Oktober 2022
    • Juli 2022
    • Juni 2022
    • Mai 2022
    • April 2022
    • Februar 2022
    • November 2021
    • August 2021
    • Juni 2021
    • Mai 2021
    • April 2021
    • März 2021
    • Februar 2021
    • Januar 2021
    • Dezember 2020
    • November 2020
    • Oktober 2020
    • August 2020
    • Juli 2020
    • April 2020
    • Januar 2020
    • November 2019
    • Oktober 2019
    • September 2019
    • August 2019
    • Mai 2019

    Kategorien

    • Allgemein
    • Bundestagskandidatur
    • Digitale Bildung
    • Digitale Verwaltung
    • Digitalpolitik
    • Gastbeitrag
    • Internet Governance
    • News
    • Publikation
    • Social Media
    • Studio
    • Tutorial

    Seitennummerierung der Beiträge

    « 1 2
    Impressum Datenschutz