Blog Blog
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Blog
  • Newsletter
  • Presse
  • Kontakt
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Blog
  • Newsletter
  • Presse
  • Kontakt

Blog

                                   

Neueste Nachrichten von mir

Auszeichnung „Junge Elite“ Top 40 unter 40 des Capital Magazins

Es ehrt mich sehr, auf der #Top40unter40 „Junge Elite 2020“ Liste des Capital Magazins zu sein. Es ist mir ein persönliches Anliegen, dass Bürgerrechte im Digitalen kein Nischenthema sind, sondern in die Breite getragen werden.
Die Auszeichnung zeigt mir, dass ich auf dem richtigen Weg bin. Denn Bürgerrechte gehen uns alle an – jeden Tag. Wir alle müssen dazu beitragen, dass wir eine lebenswerte Zukunft gestalten. Und dazu gehört eben auch der digitale Raum. Freiheit ist keine Selbstverständlichkeit. Sie erhalten wir nur, wenn wir uns für Verschlüsselung, informationelle Selbstbestimmung, gegen Hate Speech und so vieles anderes einsetzen.

In den letzten zweieinhalb Jahren als Vorsitzende von LOAD e.V. – Verein für liberale Netzpolitik habe ich so viel wie nie zuvor in meinem Leben gelernt. Über mich, aber auch an Inhalten. Bei all denen, deren Beitrag zu meiner Arbeit viel zu oft ungesehen ist, möchte ich mich an dieser Stelle bedanken. Meine LOADies und Freund:innen, die ihre Zeit investieren, um mir Dinge zu erklären, meine Ideen zu challengen oder die einfach nur miteinander diskutieren und ich durch stilles zuhören oder lesen wahnsinnig viel mitnehmen kann. Ich danke Euch von Herzen!

Glückwünsche auch an alle anderen Ausgezeichneten. Die Liste gibt es hier.

Read More
Die EU reagiert auf neuste Terroranschläge mit noch mehr Überwachung

Die EU reagiert auf neuste Terroranschläge mit noch mehr Überwachung

Erst der Schock — dann die Panikreaktion. Die abscheulichen Anschläge in Paris, Nizza und Wien lassen die EU in leider gut bekannte Handlungsmuster verfallen: Auf Terror wird mit Einschränkungen unserer Freiheit reagiert, die angeblich mehr Sicherheit bringen. Wie nun bekannt wurde hat der Ministerrat eine Initiative vorbereitet, die die Ende-zu-Ende-Verschlüsselung von Messengerdiensten wie WhatsApp oder Signal aufweichen soll. Unter der deutschen Ratspräsidentschaft wird damit nicht nur noch weiter in unsere Grundrechte eingegriffen. Es wird auch die weltweite IT-Sicherheit unter dem Vorwand des Kampfs gegen den Terror aufs Spiel gesetzt.

“Sicherheit durch Verschlüsselung, Sicherheit trotz Verschlüsselung”, forderte schon der ehemalige Bundesinnenminister Thomas de Maizière und sorgte damit für viel Entsetzen bei Bürger- und Menschenrechtlern und IT-Expertinnen. Der gestern bekanntgewordene Vorstoß des Ministerrats folgt genau dieser Losung: Die Betreiber von Messengerdiensten sollen dazu verpflichtet werden, einen Generalschlüssel für den behördlichen Zugriff auf verschlüsselte Kommunikation zu hinterlegen. Genutzt werden soll offenbar die “Exceptional Access”-Methode des britischen Geheimdienstes GCHQ. Dies bedeutet aber, dass die sichere und verschwiegene Kommunikation von uns allen in Gefahr ist. Denn entgegen Verlautbarungen, dass diese Überwachung nur potenzielle Terrorist:innen beträfe, öffnet sie vielmehr ein Einfallstor für jegliche Cyber-Kriminelle oder Spione. Wir erinnern uns: selbst die NSA war nicht in der Lage, ihre genutzten Sicherheitslücken geheim zu halten. Weltweite Cyberattacken (Stichworte: WannayCry und NotPetya) mit Schäden in Milliardenhöhe und die Gefährdung von Menschenleben waren die Folge.

Abgesehen davon, dass Regulierungen dieser Art Auswirkungen auf die Nutzung von Technologie in der ganzen Welt haben, ist die Resolution des Ministerrats eine Einladung an autokratische Herrscher es der Europäischen Union gleichzutun und die Kommunikation ihrer Bürger:innen mitzulesen. Es darf nicht vergessen werden: Privatsphäre ist ein Menschenrecht, das auch in der europäischen Grundrechtecharta verankert ist. Wollen wir andere von unseren Werten überzeugen, so müssen wir hier mit gutem Beispiel vorangehen.

Aber auch das ewige Mantra, dass zusätzliche Überwachungsbefugnisse einen entscheidenden Beitrag zur Verhinderung solcher Terroranschläge beitragen muss endlich ernsthaft infrage gestellt werden. Seit mehr als 20 Jahren, spätestens seit den Anschlägen vom 11. September 2001, wird die diffuse Angst der Menschen dazu ausgenutzt immer neue Eingriffsbefugnisse durchzusetzen. Trotzdem sehen wir uns im Jahr 2020 einer noch komplexeren Sicherheitslage gegenüber und haben noch nicht einmal den Ansatz einer Vorstellung davon, was diese Zugriffsrechte überhaupt genau bringen und wofür wir unsere Freiheiten eingeschränkt haben.

Der Bundesdatenschutzbeauftragte Ulrich Kelber sagte erst kürzlich wieder: Das für eine Demokratie erträgliche Maß an Überwachung ist bereits überstiegen! Trotzdem soll in Deutschland und der EU die verfassungswidrige Vorratsdatenspeicherung wieder eingeführt werden, die Geheimdienste dürfen nun auch offiziell per Staatstrojaner schnüffeln, die neue EU Anti-Terror-Verordnung soll über Uploadfilter funktionieren und die regelmäßige Evaluierung von Sicherheitsgesetzen, die nach dem 11. September 2001 verabschiedet wurden, wurde gerade vom Bundestag aufgehoben.

Der entsetzliche Terroranschlag in Wien hätte verhindert werden können, wenn Sicherheitsbehörden mit den Informationen von Geheimdiensten, die ihnen vorlagen, gearbeitet hätten und diese ernst genommen hätten. Wie so häufig. Es gab auch hier, keinen Mangel an Befugnissen und Information. Wir sehen immer wieder, dass klassische Polizeiarbeit einer gut organisierten und vor allem personell gut ausgestatteten Truppe die größten Erfolge im Kampf gegen den Terror bringen.

Wir sind also auf einem falschen Weg im Kampf um mehr Sicherheit. Unter deutscher Führung scheint die EU diesen nun fortzusetzen. Sie droht dabei aber nicht nur ihre Grundwerte aufzugeben. Sie fällt auch all jenen Menschen in den Rücken, die sich weltweit für Demokratie und Rechtsstaatlichkeit einsetzen. Die Demonstranten, die in Hongkong oder Belarus gegen autokratische Herrschaft, Überwachung und Unterdrückung kämpfen und ihre Freiheit und ihr Leben aufs Spiel setzen, sind angewiesen auf sichere und integre Kommunikation. Die EU kann sich nicht einerseits mit ihnen solidarisieren und ihnen im gleichen Zug die Grundlage für ihren Einsatz entziehen.

Dieser Text erschien gemeinsam mit Dr. Maximilian Spohr zuerst auf freiheit.org.

Read More
Bewerbung zum Deutschen Bundestag

Liebe Liberale,

Mein Name ist Ann Cathrin Riedel, und ich bewerbe mich heute um Euren Auftrag, unsere gemeinsame liberale Agenda in Friedrichshain-Kreuzberg als Kandidatin der FDP zur Bundestagswahl 2021 zu vertreten. Denn Deutschland braucht eine liberale Modernisierung, und unser Bezirk braucht sie besonders dringend. Dafür will ich mit meiner Person und meinen Themen einstehen.

Ich bin Berlinerin nicht durch Geburt, sondern mit dem Herzen: Weil ich diese Stadt und ihr Potenzial liebe. Geboren wurde ich vor 33 Jahren bei Hamburg. In Tübingen habe ich Islamwissenschaft, Politikwissenschaft studiert und dort bin ich auch zur Politik gekommen: Aus Wut über das Umfallen der SPD bei der Vorratsdatenspeicherung bin ich 2015 bei den Freien Demokraten eingetreten, um mich für Bürgerrechte und Datenschutz, aber eben auch für eine durchgängig liberale Politik einzusetzen: Für Chancen für jeden Menschen, ein selbstbestimmtes Leben zu führen. Für faire und echte Aufstiegschancen, für Ideen, Initiative und Innovationen, für Toleranz und Offenheit und Optimismus.

Der Beitritt zur FDP war schon eine gute Idee. Aber noch besser war die Idee, nach meinem Umzug 2015 zunächst nach Berlin-Mitte die Aufnahme im Bezirksverband Friedrichshain-Kreuzberg anzustreben, in der Oppositionszeit und bis heute das viel beachtete „Labor der Bundespartei“. Denn hier ist das liberale Lebensgefühl daheim, dass unser Bezirk, unsere Stadt und Deutschland so dringend brauchen. Und ich konnte im Vorstand gleich mit anpacken, zuletzt als stellvertretende Bezirksvorsitzende: Ich habe unsere digitale Kampagne bei den Wahlen zum Abgeordnetenhaus geleitet und konnte mit der innovativen digitalen Aufbereitung unseres Wahlprogramms über Berlin hinaus Impulse für einen modernen Wahlkampf setzen. Ich habe gelernt, wie man Plakate klebt und wie man auch in einem linken, grünen und oft selbstzufriedenem Bezirk die gute liberale Laune behält und Liebe ausstrahlt.

Ich habe in Berlin auch zu meiner Leidenschaft für die Digital- und Bürgerrechtspolitik gefunden. Vor zwei Jahren habe ich mein Amt als stellvertretende Vorsitzende im Bezirk zurückgegeben, um Bundesvorsitzende von LOAD e.V. zu werden, dem Verein für liberale Netzpolitik. Dieser Verein war das Herzensprojekt von Jimmy Schulz, der bis zu seinem viel zu frühen Tod letzten Herbst ein Pionier der Digitalpolitik war – anerkannt über alle Parteigrenzen hinweg. Als seine Nachfolgerin bleibe ich ihm nicht nur fachlich, sondern auch menschlich verpflichtet. Die Nachfrage nach liberalen Positionen in der Digitalpolitik hat mich die vergangenen zwei Jahre schon quer durch die Republik und die Welt geführt, im Osten über Sibirien bis Hongkong und im Süden bis nach Südafrika. Am vergangenen Wochenende bin ich für weitere zwei Jahre als Vorsitzende von LOAD einstimmig bestätigt worden.

Mein Wissen, meine Erfahrung und Kontakte möchte ich in eine Agenda für den Wahlkampf umsetzen. Denn vom Bezirk bis zum Bund ist Digitalpolitik ein Schlüsselthema. Digitalpolitik ist mehr als Infrastruktur. Digitalpolitik ist Chancenpolitik, Außen- und Sicherheitspolitik und immer auch Bürger- und Menschenrechtspolitik. Dies ist das Spannungsfeld, aus dem ich meine Expertise einbringen möchte. Das will ich für drei Politikfelder verdeutlichen.

Erstens: Bürgerrechte

Von der Vorratsdatenspeicherung über Staatstrojaner bis zum Netzwerkdurchsetzungsgesetz müssen viel zu häufig  Gesetze auf ihre Verfassungsmäßigkeit vom Bundesverfassungsgericht überprüft werden, oder werden sogar von UN-Sonderberichterstattern kritisiert, weil sie die Meinungsfreiheit einschränken. Die Einschränkung von Bürger- und Menschenrechten im digitalen Raum dürfen wir nicht hinnehmen. Stattdessen müssen wir uns für kluge Regulierungsansätze einsetzen, die wirkliche Lösungen für Probleme wie Kriminalität, Terrorismus und Persönlichkeitsrechtsverletzungen bieten und nicht bloß als weiße Salbe dienen.

Nicht nur, weil uns selbst etwas an unseren Bürger- und Menschenrechten liegen sollte, sondern auch, weil wir als Deutsche und Europäer:innen Vorbild für die Welt sind. Wir können nicht nur davon sprechen, mehr Wahlfreiheit und mehr Unabhängigkeit bei der Wahl unserer Technologien erlangen zu wollen. Wir müssen auch zeigen können, dass unsere Werte und Ideen Teil unserer technischen und digitalen Neuerungen sind. Ganz so, wie wir es bereits bei der Datenschutzgrundverordnung geschafft haben.

Zweitens: Bildung

Bildung ist hier ein Grundpfeiler, um Chancen im Leben ergreifen zu können. Es reicht aber bei Weitem nicht, unsere allgemein- und berufsbildenden Schulen mit Hardware auszustatten. Wir müssen die Ausbildung von Lehrkräften modernisieren und Fort- und Weiterbildungen stärker anbieten und fordern, die vermitteln, wie digitale Tools eingesetzt werden können, um den Unterricht zeitgemäß zu gestalten. Im gleichen Zug müssen wir aber auch die Schulträger verpflichten und mit den nötigen Mitteln ausstatten, damit diese den Schulen und Lehrkräften sichere digitale Lernplattformen anbieten können und Ansprechpersonen für die IT-Administration zur Verfügung stellen. Denn Pädagog:innen sollen Pädagog:innen sein, und sich nicht um Datenschutzbestimmungen bei der Auswahl von Cloud-Services kümmern.

Zu Bildung gehört auch, dass wir uns um Menschen jeden Alters kümmern. Das digitale Zeitalter ist so schnelllebig, dass wir alle kontinuierlich lernen werden müssen und dürfen, was neue Technologien für uns bereithalten. Medienkompetenz wird daher ein Teil lebenslangen Lernens. Eine Bundeszentrale für digitale Bildung, ähnlich zur Bundeszentrale für politische Bildung, halte ich dabei für einen notwendigen nächsten Schritt. Sie soll nicht nur dazu dienen Menschen darüber aufzuklären, warum Datenschutz und IT-Sicherheit wichtig sind, sondern auch, was algorithmische Systeme und Künstliche Intelligenz sind. Aufgeklärte Menschen haben nicht nur weniger Angst vor neuen Technologie, sie können auch kritischer mit ihnen umgehen.

Drittens: Unser Bezirk

Chancen soll auch unser Bezirk und die Stadt Berlin ergreifen. Als Smart City wird Berlin zu einer Stadt, die ihre Ressourcen nachhaltig nutzt und sie lebenswert für die unterschiedlichsten Lebensmodelle macht. Berlin ist ein Magnet und Sehnsuchtsort für Menschen aus aller Welt – und das soll auch so bleiben. Dafür braucht es genügend und bezahlbaren Wohnraum, sichere Verkehrswege für jedes Fortbewegungsmittel und genügend Grün- und Erholungsflächen. Wie wir diese Stadt und unseren Bezirk gestalten, das sollten wir alle mitbestimmen. Mit verbindlicher Partizipation durch die Berliner:innen durch digitale und analoge Plattformen und durch Daten, durch die wir unsere Stadt besser verstehen und evidenzbasierte Entscheidungen treffen können. Dabei muss gewährleistet werden, dass die Souveränität über die generierten Daten unserer Smart City Berlin auch immer hier in dieser Stadt liegt.

Ich bin Optimistin. Ich glaube, dass das Beste noch vor uns liegt. Dafür möchte ich heute mehr Verantwortung übernehmen. Nicht nur als Themenmanagerin “Digitalisierung und Innovation” auf globaler Ebene bei der Friedrich-Naumann-Stiftung für die Freiheit, nicht nur in diversen Kommissionen der FDP, nicht nur als LOAD-Vorsitzende. Sondern als Wahlkreiskandidatin für Friedrichshain-Kreuzberg/Prenzlauer Berg Ost. Hier können wir Digitalpolitik konkret machen. Hier möchte ich zeigen, was ein liberales Modernisierungsprogramm ist. Das ist Pionierarbeit, die ich mit Euch leisten will.

Freiheit ist Verheißung und Auftrag zugleich. Ich meine „freedom you can use“, wie Helen Zille gerne sagt, die große südafrikanische Liberale mit Berliner Wurzeln. Freiheit soll weltliche Wirklichkeit werden, um mit Hannah Arendt zu sprechen. Mich inspirieren diese großen liberalen Frauen. Ich will mit dieser Inspiration und mit Euch zusammen die FDP zur Bundestagswahl vertreten. Dafür bitte ich Euch um Euren Auftrag!

Eure Ann Cathrin Riedel


Foto: Paul Alexander Probst

Read More
Publikation: Behind Closed Curtains

Bei der Friedrich-Naumann-Stiftung für die Freiheit ist meine Studie „Behind Closed Curtains – Desinformation auf Messengerdiensten“ auf Deutsch und Englisch erschienen. Die Süddeutsche Zeitung begleitete die Veröffentlichung mit einem Interview mit mir.

Desinformation ist kein neues Phänomen, das erst mit der Digitalisierung aufkam. Vielmehr wurden Desinformationen wohl schon immer eingesetzt, um politischen Gegnern zu schaden, Gesellschaften zu destabilisieren und Regime zu legitimieren. Neu ist, dass sich Desinformationen dank der Digitalisierung mit rasanter Geschwindigkeit verbreiten. Alle können potenzielle Absender – vor allem auch ungewollt – von Desinformationen sein können. Sinkendes Vertrauen in staatliche Akteure und Medien, sowie eine Disruption der gesamten Medienlandschaft und schnellere, einfachere und günstigere Zugänge zu Smartphones und zum Internet unterstützen die Entwicklungen weltweit. Desinformation und die Bedrohung, die durch sie ausgeht, haben es mittlerweile auf die politische Tagesordnung geschafft: Es wird heftig diskutiert,was Desinformation innerhalb von Gesellschaften anrichtet, aber auch welche Gefahr von außerhalb durch einen sogenannten Information Warfare droht. Dass Messenger zur Verbreitung von Desinformation und Verschwörungserzählungen genutzt werden, ist in Deutschland noch recht unbekannt. Erst durch das Bekanntwerden von Netzwerken Rechtsextremer auf diesen Plattformen und zusätzlich durch das Coronavirus kommt das Thema Desinformation auf Messengern langsam in der deutschen Öffentlichkeit an.

Desinformation muss in seiner Vielfältigkeit näher betrachtet werden. Denn das Thema ist für die innere Sicherheit, aber auch für den gesellschaftlichen Zusammenhalt und Frieden von enormer Bedeutung. Viel zu oft wird vergessen, dass gerade im nicht-politischen Bereich verbreitete Desinformation ein hohes Risiko birgt: Rund um das Coronavirus ist Anfang 2020 weltweit eine große Menge an Desinformation im Umlauf. Von falschen Studien, angeblichen Selbsttests und wirkungslosen Präventionsmaßnahmen ist alles dabei. Die Weltgesundheitsorganisation spricht daher von einer Infodemie. Diese Infodemie birgt ein erhebliches Gesundheitsrisiko für alle Menschen.

2022 werden drei Milliarden Menschen Messengerdienste weltweit nutzen. Viele davon werden keine dem digitalen Zeitalter angemessene Medienkompetenz besitzen oder gar Analphabeten sein. Das gilt für Nutzerinnen und Nutzer weltweit. Nicht nur die Art, wie wir kommunizieren, ändert sich rasant, sondern auch, wie wir Medien und Nachrichten konsumieren. Die Zeitung vom Küchentisch, das gemeinsame Nachrichten schauen am Abend, das Telefongespräch – all das verlagert sich in nicht mehr von außen wahrnehmbares Kommunizieren und Konsumieren. Damit müssen wir als Gesellschaft(en) lernen umzugehen. Welche Erfahrungen und Erkenntnisse haben wir weltweit mit Desinformation via Messenger? Wie komplex ist dieses Phänomen und wird der Komplexität bisher in der öffentlichen Diskussion ausreichend Rechnung getragen? Welche Ansätze können zu einer aufgeklärteren, resilienteren Gesellschaft beitragen?

Read More
Ann Cathrin Riedel erhält den ersten For..Net Media Award

Ich freue mich wirklich sehr, den ersten for..net Media Award für meinen Newsletter „Ann Cathrin’s Digital Digest“ erhalten zu haben. Der for..net Media Award zeichnet Einzelpersonen, Projekte oder Institutionen für besonderes Engagement zur Vermittlung der Herausforderungen und Chancen der Digitalisierung und damit für Verdienste um eine gemeinwohlorientierte Digitalisierung aus. Die Pressemitteilung kann hier nachgelesen werden.

Read More
Tracking-App: Was in der Debatte bisher fehlt

In der Diskussion um eine Tracking-App zur Rückverfolgung von Kontakten geht es um Privatsphäre und IT-Sicherheit. Dabei müsste eigentlich der Mensch im Zentrum stehen, fordern Christin Schäfer von acs plus und Ann Cathrin Riedel von LOAD. Hilft die Information auf diesem Weg? Was sind die Folgen für den Einzelnen?

Bisher fokussiert sich die Diskussion zur Ausgestaltung einer möglichen App zur Rückverfolgung von Kontakten auf Datenschutz und IT-Sicherheit. So wichtig diese Aspekte sind, wird damit ein Kernelement des Systems vergessen: der Mensch. Ganz unabhängig von der Maßnahme, muss der Mensch im Mittelpunkt stehen. Nehmen wir an, eine App kann die notwendigen Anforderungen an Datenschutz, Privatsphäre und IT-Sicherheit erfüllen, dann lautet eine wesentliche Ausgestaltungsfrage: wie kommuniziert die Corona-App mit den Menschen? Wie wird das Ergebnis konkret mitgeteilt? Ein mögliches Infektionsrisiko mittels einer App zu berechnen ist das eine. Das Ergebnis dieser Berechnungen mitzuteilen, ist etwas ganz anderes. Gesundheit und Wohlergehen hat auch eine psychische Komponente, die bei der Ausgestaltung des Gesamtsystems rund um eine Maßnahme nicht vergessen werden darf.

Eine wesentliche Frage beim Design, nicht nur einer App lautet: wie geht der Empfänger oder die Empfängerin mit einer solchen, kritischen Nachricht um? Insbesondere, wenn diese im Wirrwarr von allen andere möglichen Push-Mitteilungen auf dem Smartphone erscheint; zwischen WhatsApp-Nachrichten, den neuesten „Breaking News“ und der Erinnerung an einen Termin.

„Sehr geehrte Nutzerin, sehr geehrter Nutzer, wir haben bei Ihnen ein Covid-19 Risiko von 69% ermittelt. Freundliche Grüße, Ihr App-Anbieter.“ Unpersönlicher und weniger empathisch können schlechte Nachrichten nicht überbracht werden.

Was wissen wir über die Vermittlung dieser Art von Nachricht zum Beispiel aus dem Bereich der Krebsvorsorge? Ein Infekt mit Corona ist zum Glück kein Todesurteil. Aber für einige Personengruppen kommt es einem solchen schon erschreckend nahe. Wer älter, geschwächt und vielleicht zeitlebens mit Lungenproblemen gestraft ist, weiß, was die Stunde geschlagen hat. Zudem: nur wenige Menschen können mit Wahrscheinlichkeiten umgehen. Fragen Sie sich doch mal selber: bei einer Regenwahrscheinlichkeit von 60% – nehmen Sie den Regenschirm mit oder lassen Sie ihn zuhause? Ist ein „Risk Score“, dessen Ableitung unklar ist, eine kluge Wahl in der Mitteilung an den Nutzer der App? Werden sich nicht viele vor allem verunsichert fühlen?

Eine persönliche Ansprache bei der Meldung ist außerdem nicht möglich – soll die App doch anonym nutzbar sein. Wie sicher kann sich der Nutzer oder die Nutzerin sein, dass hier nicht ein Fehler passierte? Dass eigentlich eine andere Person diese Mitteilung bekommen sollte? Solch fehlgeleitete Informationen sind nicht auszuschließen. Vor allem dann nicht, wenn eine App neu ist und nicht ausreichend getestet wurde.

Quarantäne muss man sich leisten können

Der gesamte Budenzauber mit allen hingenommenen Einschränkungen der Privatsphäre, so freiwillig sie auch sein mögen, bringt nichts, wenn sich zu wenige beteiligen und insbesondere wenn das Ergebnis der App zu nichts führt. An Nachrichten zu potentiellen Infizierungen müssen sich vielfältige und personalisierte Maßnahmen anschließen.

An die Benachrichtigung muss notwendig der zeitnahe und aufwandsarme Zugang zu Tests folgen. Hierzu sind die Testkapazitäten aufzubauen. Es muss geklärt werden, was passiert, wenn sich Alleinerziehende anstecken. Wer kümmert sich – auch in Phase des Wartens auf das Testergebnis – um die Kinder? Wie verfahren Familien, bei denen sich ein Elternteil angesteckt hat, aber die Wohnverhältnisse eine Separierung nicht zulassen? Die Benachrichtigten sehen sich schweren emotionalen Konflikten ausgesetzt. Die eigenen Kinder womöglich gefährden? Die eigenen Kinder Dritten überlassen? Wem? Wer zahlt? Wer organisiert? Es muss sichergestellt werden, dass man sich die Tests, Wartezeiten und Quarantäne auch leisten kann; nicht nur finanziell.

Es bedarf zudem einer gesonderten Regelung für den Umgang von Fehlzeiten für Arbeitnehmer und Arbeitnehmerinnen. Gerade Personengruppen, die bei ihrer Arbeit viel reisen oder viel Publikumsverkehr ausgesetzt sind, werden häufiger im Covid-19-Alarm leben. Diese Alarme kommen überraschend und sind nicht planbar. Es ist davon auszugehen, dass sie zu signifikant erhöhten Fehltagen im Vergleich zu anderen Gruppen von Erwerbstätigen führen. Besonders hart betroffen sind zudem Solo-Selbständige, deren Verdienstausfälle existenziell bedrohlich sein können.

Die gesamte Gesellschaft muss sehr schnell lernen, flexibel und positiv mit kurzfristigen Absagen von Terminen umzugehen. Handwerker sagen am Morgen wegen eines Covid-19 Alarms ab. Die Wartungsarbeiten an einer Maschine müssen kurzfristig verschoben werden. Der Friseurtermin entfällt. Die Reihe ist definitiv nicht abschließend.

Der Zugang zu Lebenschancen darf nicht von sozio-ökonomischen Faktoren abhängig sein

Gut aufgesetzt kann eine Corona-App eine Maßnahme für die Überwindung der Krise sein. 79% der Deutschen besitzen ein Smartphone und haben damit die Chance, eine solche App zu nutzen. Der Zugang zu einer Corona-App darf jedoch nicht von sozio-ökonomischen Faktoren abhängig sein. Allen Bürgern und Bürgerinnen sollte es möglich sein zu partizipieren, Meldungen zu einer möglichen Infektion zu erhalten, um daraufhin geeignete Maßnahmen – Lebenschancen – zu ergreifen und wahrzunehmen.

Dies bedeutet, dass ein Smartphone und ein Internetvertrag zur Grundversorgung eines jeden Einzelnen gehören müsste. Es gilt vorab zu klären, welche Möglichkeiten Smartphone Besitzer:innen haben, deren Gerät nicht die notwendige Bluetooth LE oder GPS-Technologie hat oder auf einem älteren Betriebssystem läuft, das die App nicht unterstützt. Was ist mit denjenigen Mitbürgern und Mitbürgerinnen, die noch zu jung für ein eigenes Smartphone sind, oder allen, die die Benutzung überfordert? Wie inkludieren wir Menschen mit geistigen oder körperlichen Beeinträchtigungen? Welche Möglichkeit der Teilhabe erhalten ausländische Touristen und Geschäftsreisende?

Europäische Herausforderungen

Die Bedrohung durch das Coronavirus besteht weltweit. Kein Nationalstaat, keine Region wird im Alleingang in der Lage sein, sein Gebiet zu schützen. Wie bei jeder Maßnahme bedarf es der Absprache mit Nachbarn und Partnern, damit die Wirksamkeit sich einstellen kann. Dies gilt auch und insbesondere für eine datengetriebene Technologie, wie eine Corona-App. Es wird eine Anwendung für ganz Europa, besser sogar die ganze Welt benötigt, die einheitliche Standards für Daten und Austauschprotokolle verwendet. Dagegen können Berechnungsmethodiken, etwa für Abstand und Risiko, länderspezifisch als Service angeboten werden. Unsere Aufgabe besteht darin, ein System aufzusetzen, dass eben nicht nur für deutsche Bürgern und Bürgerinnen Mehrwert liefert, sondern auch die Bürger und Bürgerinnen in Staaten schützt und ermächtigt, deren Gesellschaft weniger demokratisch und weniger rechtsstaatlich ist. Wir dürfen autokratischen Regimen keinen Corona-App-Standard präsentieren, der es den Staatschefs leicht macht, ihr Volk zu überwachen und zu drangsalieren.

Es geht nicht um Verhinderung, sondern Ermöglichung

Für all diese beschriebenen Herausforderungen haben wir heute noch keine Lösungen. Vor allem, weil wir noch nicht nach ihnen gesucht haben.

Es geht uns nicht darum, eine sinnvolle Corona-App-Lösung zu verhindern, sondern vielmehr, sie herbeizuführen. Zunächst ist dafür aber der Nachweis zu erbringen, dass eine digitalisierte und automatisierte Kontaktverfolgung helfen kann, die Infektionszahlen signifikant zu senken. Dann sind die weiteren Designdetails zu klären. Wie die Ausführungen verdeutlichten, kann eine kurzfristig und schnell aufgesetzte App die in sie gesetzten Erwartungen nur verfehlen. Daher plädieren wir dafür, ein solches datengetriebenes System zur Information über einen potenziellen Infekt sauber, durchdacht und im Verbund mit einem abgestimmten Maßnahmenpaket  zu entwickeln, welches uns auf dem langen Weg zurück in eine Normalität, wie sie vor Corona-Zeiten bestand, begleitet.

Christin Schäfer ist Gründerin und Geschäftsführerin der Berliner Data Science Boutique „acs plus“. Die studierte Statistikerin war Mitglied der Datenethikkommission der Bundesregierung. Ann Cathrin Riedel ist Vorsitzende von LOAD e.V. – Verein für liberale Netzpolitik.

 

Dieser Beitrag erschien zuerst im Tagesspiegel Background Digitalisierung & KI am 8. April 2020.

Read More
Der Cyberkrieg hat längst begonnen

Durch die gezielte Tötung Qassem Soleimanis, dem Kommandeur der iranischen Quds-Einheit, ist das Risiko einer militärischen Eskalation im Konflikt zwischen den USA und Iran gestiegen. Die zentrale Rolle des getöteten Generals in der iranischen Regionalpolitik zwingt die iranische Führung zu einer Antwort. Untätigkeit in dieser Frage käme gerade wegen der vom iranischen Regime in den vergangenen Jahren betriebenen Stilisierung Soleimanis zur Lichtgestalt einem Gesichtsverlust gleich.

Andererseits weiß die iranische Führung spätestens jetzt, welch weitreichende Konsequenzen ihre militärischen Provokationen haben können. Der Tod Soleimanis war eine direkte Folge monatelanger Raketenangriffe pro-iranischer Milizen auf US-Militärstützpunkte in Irak, bei denen am 27. Dezember erstmals ein US-Bürger getötet wurde.

Iran und USA befinden sich bereits seit Jahren in einem Cyberkonflikt

Vor dem Hintergrund der potenziellen Folgen weiterer Anschläge auf US-amerikanische Militärstellungen — Präsident Donald Trump droht bereits mit US-Angriffen auf 52 ausgesuchte iranische Ziele — könnte sich die Islamische Republik auf aus ihrer Sicht weniger provokante Optionen einlassen. Als Alternative zu direkten Militärschlägen auf US-Ziele ist eine Hinwendung zu Cyberattacken plausibel. Ohnehin ist der Konflikt zwischen den USA und Iran bereits jetzt auch ein Cyberkrieg, in dem beide Seiten die digitale Infrastruktur des Gegners ins Visier nehmen.

So wurde im Juni 2019 bekannt, dass Trump als Reaktion auf den Abschuss einer US-Drohne einen Cyberangriff auf eine iranische Geheimdiensteinheit autorisierte. Die Geheimdiensteinheit wiederum plante ihrerseits Attacken auf Öltanker im Persischen Golf. Zur Erinnerung: Bereits unter George W. Bush und Barack Obama setzten die USA auf eine millionenschwere Cyber-Sabotageaktion gegen das iranische Atomprogramm, in deren Zuge der Computerwurm „Stuxnet“ die iranische Urananreicherung erheblich behinderte.

Iran hackte Casino-Unternehmen

Auch das iranische Regime hat in der Vergangenheit verschiedene Cyberangriffe gegen die USA und seine Verbündeten durchgeführt. So starteten iranische Hacker 2014 eine Attacke auf das Casino-Unternehmen des irankritischen US-Milliardärs Sheldon Adelson. Auch US-Verbündete sind bereits zur Zielscheibe iranischer Sabotageaktionen geworden. Nach Saudi-Arabien, Kuwait und den Vereinigten Arabischen Emiraten könnten sich diese Aktionen nach der Tötung Soleimanis nun auch auf europäische US-Verbündete ausweiten.

Das iranische Außenministerium hat bereits den Geschäftsträger der deutschen Botschaft in Teheran wegen kritischer Äußerungen einbestellt. Die jüngste Ankündigung der iranischen Regierung, sich in einem weiteren Schritt von Verpflichtungen aus dem Atomabkommen (JCPOA) zurückzuziehen, deutet auf das iranische Kalkül hin, weiterhin Druck auf Europa auszuüben.

Deutschland muss bei IT-Sicherheit aufrüsten

Die aktuelle Bedrohungslage kann sich auch auf Deutschland auswirken, wenngleich sie momentan nicht akut ist. Das zeigt umso deutlicher, wie dringend notwendig es ist, dass Deutschland beim Thema IT-Sicherheit aufrüstet. In den USA warnte man schon mehrfach vor möglichen Cyberangriffen durch iranische Hacker auf Kritische Infrastrukturen (KRITIS) — auch deutsche KRITIS kann ein interessantes Ziel sein.

Es ist daher Zeit, dass die Bundesregierung das IT-Sicherheitsgesetz 2.0 verabschiedet, das deutlich höhere Sicherheitsanforderungen an Kritische Infrastrukturen stellt, diese umfassender definiert, „Infrastrukturen im besonderen öffentlichen Interesse“ hinzufügt und BSI-zertifizierte Mindeststandards für Hardware definiert. Ebenso wichtig sind die drastisch höheren Geldbußen und weiteren Befugnisse des BSI. Für eine wirkliche Durchsetzung von IT-Sicherheit und Vertrauen brauchen wir aber ein vom Bundesinnenministerium unabhängiges BSI.

Konsequent auf defensive Cyberabwehrstrategie setzen

Hackergruppen aus Iran nutzten bereits mehrfach Sicherheitslücken, unter anderem in Microsoft Office, um die USA und ihre Alliierten auszuspionieren. Auch jetzt müssen die USA und ihre Bündnispartner mit Spionageattacken, Datendiebstahl, Distributed-Denial-of-Service-Attacken (DDoS) und den bereits erwähnten Angriffen auf Kritische Infrastrukturen und Desinformationskampagnen rechnen. Ansätze für Propaganda-Aktionen im Netz finden sich bereits. Sie laufen etwa unter dem Hashtag „#hardrevenge“ und können auch für Amerikaner und Amerikanerinnen, Israelis und Israelinnen, Juden und Jüdinnen, sowie Exil-Iranerinnen und -Iraner hier in Deutschland gefährlich werden, wenn Regime-Anhänger hierzulande Anschläge verüben. Es sei an dieser Stelle an das Mykonos-Attentat in Berlin von 1992 erinnert.

Die sich überschlagenden Ereignisse im Nahen und Mittleren Osten, angetrieben vom USA-Iran-Konflikt, verdeutlichen nochmals die Dringlichkeit, mit der sich Deutschland mit der Bedrohung durch Cyberangriffe beschäftigen sollte. Dabei sollten wir ausdrücklich nicht sogenannte „Hackbacks“ in Betracht ziehen, sondern konsequent auf eine defensive Cyberabwehrstrategie setzen. Zudem sollte die Bundesregierung alle ihr zur Verfügung stehenden Mittel der Diplomatie einsetzen, um Iran von Vergeltungsschlägen aller Art abzubringen. Auch von Cyberangriffen.

Dieser Artikel erschien zusammen mit dem Politikwissenschaftler und Experten für US-Außenpolitik, Dr. Payam Ghalehdar, am 7. Januar 2020 als Gastbeitrag im Tagesspiegel Background Digitalisierung & KI

Read More
Ready to set Sails — A Vision for Europe

I gave this speech as a keynote at the Transcultural Leadership Summit in Friedrichshafen on 15 November 2019. I publish my whole vision here because due to time restrictions, I had to shorten it for the speech. Special thanks again to the students who organised the summit and especially to Kristi Grund and Laura Trattner who allowed me to talk about this important topic.

In the year of the Friday’s for Future movement against the climate crisis, I gained my Frequent Traveler status. I’m not proud of that. Rather, I am humbled and thankful. I learned how privileged I am in being a white German woman, how luxurious it is to be an owner of a German passport. I think we often forget that. I am thankful because I have several sponsors who financed these journeys, mostly the political foundations here in Germany and first and foremost the Friedrich-Naumann-Foundation for Freedom. They also made it possible that way more people from countries from all over the world came to Germany and discussed with several organisations, such as mine, about a topic that in my opinion is as important as the climate crisis but barely on the table: Civil Liberties.

I was asked to give a keynote about a vision for Europe regarding Europe’s challenges and opportunities concerning digitalisation. As this is a summit on transcultural leadership — and digitalisation and the internet is nothing that ends at one’s national borders nor at the ones of the European Union, it is today even more important to think about the German, the European role in the world as a role model. As well as to work with others and get inspired by their ideas and experiences.

I’d like to quote the Islamic Scholar Abū ʿAbdallāh Muhammad Ibn Battūta who said: “travelling it leaves you speechless then turns you into a storyteller.”

So here is my story:

Russia is a beautiful country. I didn’t expect that, honestly. I learned that minus 17 degrees aren’t as cold as one would guess and that the special blue of rivers in Siberia can’t be caught by my iPhone’s camera. I learned about the beautiful tradition of giving a toast at the dinner table and that politicians and political actors form the opposition are sometimes stopped to hold a conference due to coincidental crackdowns of hotels in a whole area. I learned that people are afraid to join political discussions of liberal parties where they are asked to register in advance. They are scared because they are working for the police, therefore the state and are too afraid because they don’t know what might happen with the data later on.

Russia is not only famous for their cyber-attacks which are quite likely driven by the Kremlin or the “Internet Research Agency” in St. Petersburg which manipulated the US election with their troll army — also commissioned by the Kremlin with a very high probability. Russia is also, sadly, famous for the pressure on and the criminalisation of journalists and activists who are fighting for press freedom, freedom of speech, against surveillance, against corruption, and for LGBTQ rights.

The Kremlin copied a law which helps them to ban unlawful content easily from the Web. Unlawful can be caricatures of Vladimir Putin or LGBTQ content. The copied law is the German Network Enforcement Act, or Netzwerkdurchsetzungsgesetz, short NetzDG or also well known as the “Facebook Bill”. It’s a law launched by the former Minister of Justice Heiko Maas and criticised by several organisations such as journalists without borders, the Amadeus Antonio Foundation, several business associations, the Association of Journalists in Germany, Wikimedia, the Open Knowledge Foundation and several others, also mine. Amongst them even the UN special rapporteur for freedom of expression, David Kaye. Think about that: A German Law gets criticised by a UN special rapporteur for freedom of expression.

This law was installed to do something against hate speech, but after almost two years, we see clearly: it doesn’t help. Hate is often not unlawful. Death threads are — that’s right, but hate? Hate speech is not even a term that is defined by our German law. And we saw it at the decision regarding the case of the politician Renate Künast by the Landgericht of Berlin that judges make decisions most people and lawyers can’t understand. And we want private companies to decide within 24 hours what is unlawful and what is not? Want them to be forced by law to delete what is in their opinion unlawful? Renate Künast has the right to appeal her judgement, and luckily she did that. If Facebook, Twitter or YouTube removed some content because of the Network Enforcement Act, you have no right to appeal against that. This is not how the rule of law should work in a constitutional state. But this is the law that Russia and several other countries who are according to Freedom House “not free” or just “partly free” copied.

Moreover, several of these countries, including Venezuela, Vietnam, India, Russia, Malaysia, and Kenya, require intermediaries to remove vague categories of content that include “fake news,” “defamation of religions,” and “anti-government propaganda,” and many of them include overly broad definitions of hate speech that go much further than the German law. Responding to criticism, Kremlin representatives argued that false information “is regulated fairly harshly in many countries of the world including Europe. It is therefore of course necessary to do it in our country too.”

We need better laws that help against unlawful content on platforms. Journalists like Margarethe Stokowski and Richard Gutjahr showed us in several articles and speeches that the Network Enforcement Act neither helps them nor does in bring perpetrators to justice.

In Russia, one can only access “free” wifi if one registered in advance with the telephone or passport number. Of course, one gets only a SIM card if one presents one’s passport — by the way, it’s the same here in Germany since a few years. Anonymous web surfing is therefore nearly impossible. The Kremlin wants to have its own internet, the RuNet. They just passed a bill that should protect them from cyber-attacks but instead, it enables the Kremlin to expand the surveillance measures. With their own Domain Name System — imagine it as the telephone numbers of the Web — they can root someone of the websites the state wants. For example, if you type in google.com the state can root you to Yandex, the Russian search engine. They are also planning to install a so-called “Deep Packaging Inspection” at every Russian internet provider. This allows the Kremlin to look into each data package which is sent through the internet, to track it and to slow down the speed of the internet.

From Russia to the land of the free, the United States. Maybe we can’t talk about digitalisation in Europe without looking jealously to the Bay Area, Redmond, and Seattle. I haven’t been to any of these places. I have been in Portland, Oregon at the re:publica sequencer tour and spoke about civil rights and digitalisation.

When we talk about the US and how they shape the digital economy, we barely talk about the algorithmic systems that are used by the government. That surveil its people that make wrong decisions on well-fare, that supports unfair decisions in court, and that promote a racial bias towards black Americans.

A bias per se is nothing wrong. We all are biased. Everyone who says he or she isn’t is entirely wrong. And that is the problem with bias: being unaware of it, not able or not willing to reflect and to act on it. And, even more problematic, to not be able to do something against a biased decision. This is a problem we see often, not only in the US but also in other countries, such as Australia and also in Europe. I will present you one example from the United States.

COMPAS, that is an algorithmic decision system that helps judges to identify if a defendant should go into prison or can be released on bail. It doesn’t use the date “race” — according to the law — but discriminates either way against it. The problem is fairness. Yes, fairness, a word like so many more we often use but never really think about what it means. What is fair?

The COMPAS algorithmic system scores each defendant and recommends to send to pre-trial jail who has a risk score higher than seven. Seems fair, right? But in reality, that means that way more black people get arrested even though their personal probability to relapse is lower. Specifically, this means that 45% of the black defendants are false-positives and just half as many white defendants are false-positives. Whereas the rate of false-negatives of white defendants who got criminal again, even though the system said they wouldn’t, was 48%.

So instead it would be fair to have a threshold for each race and keep the error rates low for both, but that is against the 14th Amendment of the US constitution — of course, for good reasons. There shouldn’t be laws or thresholds for each race. There are two definitions of fairness: keep the error rates comparable between groups, and treat people with the same risk scores in the same way. Both of these definitions are totally defensible! But satisfying both at the same time is mathematically impossible.

But aren’t humans making the same mistakes? Yes, they do. And how they make their decisions is also not transparent. But COMPAS, which is made by a private company, is a trade secret that cannot be publicly reviewed or interrogated. Defendants can no longer question its outcomes, and government agencies lose the ability to scrutinise the decision-making process. There is no more public accountability.

The more significant question about using systems like COMPAS — or any algorithms to rank people — is whether they reduce existing inequities or make them worse. We shouldn’t overestimate the power and “neutrality” of technology, nor it’s “intelligence” especially when it comes to decisions over human beings which need more intelligence than making statistical approximations based on data of the past. Please keep that in mind.

The discussions about ethics in digitalisation need to be more holistic than just about the algorithm itself. It’s about the data, the definitions we make in advance and the environments in which we implement these systems. In my opinion, creating a valuable digital world is more than financial efficiency. It’s about ensuring values such as comprehensible decisions by the state which one can appeal. It’s about the rule of law and humans ruling about humans. Algorithmic systems should be used very carefully in this area.

Most impressively was my journey to Hongkong at the beginning of this year. You might haven’t seen it on the map because it’s too small, but I didn’t want to mark China as both “countries” are very different. I’m also lucky that I was able to meet Hongkongers from the front-line in Berlin last week. These guys are showing us what happens when a digitalised state and public sphere is used to suppress its people and is not anymore in the hands of democrats.

Because they are afraid who gets access to the data they stopped using their Octopus card in Hongkong, a card with which you can buy nearly everything especially in the 7/11 stores, and you buy your ride with public transportation with it. It is connected with your credit card, and therefore one can find out who exits the metro stations of the places of the protests and who probably takes part in it. They pulled down surveillance cameras with face recognition because they haven’t had the feeling that they can exercise their democratic right to demonstrate without the fear of suppression later on.

The activists deleted the Chinese App WeChat from their phones and used Telegram as their favourite messenger because one can use it without revealing one’s own telephone number. This is necessary for the case of moles in the group or if phones get confiscated by the police. Staying as anonymous as possible is essential for their fight right now. They also switched to Telegram because they need encryption they can rely on, and Telegram also responded to their requests to change some features for Hongkongers so they can act safe and according to their motto: be like water.

“Be like water” means several things for them. This movement is different from the occupy movement. They are “flooding” areas and disappear again. They have no leader; they are using open-source technology to coordinate their protest and to vote for the next actions. They are crowd-sourced and get several financial or material donations.

And they use Apples AirDrop to communicate with each other at places where they are gathering to inform about the next plans. AirDrop works with Bluetooth and just with people near you. And it also works during internet or mobile network shut down. Hongkong shows us what happens when democracy is in severe danger; data and surveillance cameras are used against its citizens, and secure communication is uncertain.

Please don’t get the impression that I am a sceptic of the digitalisation. I’m definitely not. I am also a huge optimist, and I am willing to shape our digital future for the better. But: Ensuring democracy and civil liberties is essential when we want to live in a liveable future. Yes, China and the US might be faster in developing and implementing new technologies. But we shouldn’t only focus on speed. Instead, we should focus on building resilient democracies for the 21st century. Democratic decisions need time and that is okay, as long as they are good ones. We should focus more on the quality of policies. That is how a digitalised world will be worth living.

So here is my vision for Europe:

I want a Europe that uses digitalisation to empower its people and to strengthen democracy.

A Europe that is sovereign but does not separate itself from the world. Instead, it sets standards that open chances for everyone.

I want a Europe that makes laws that protect people from threads but also finds the balance to secure civil liberties.

And a Europe that puts content in the phrase “ethical digitalisation”. Ensuring Human Rights might be a good start.

Let’s start from the back. Why do I include Human Rights in my vision for Europe? Because too often the already mentioned UN rapporteur for freedom of expression, David Kaye, has to criticise laws from the European Union or its member states. Not only the Network Enforcement Act got criticised by him but also the European Copyright Directive — you might have heard of it or taken part in the demonstrations against Article 13, and the upload filters. The same thing is about to happen when the European Commission goes on with their plants to demand upload filters against terrorist content.

And here we see again what I mean when I say we need to talk more holistic about the implementation of algorithmic systems. Banning “terrorism” is easy, but what exactly is terrorism? When does terrorism start? Just look at the case of the “Hizbullah” and the disagreement between European member states and the European Union itself. Is the Hizbullah entirely a terrorist organisation or just the military arm and not the political one? How should a system based on mathematics and statistics — call it Artificial Intelligence, but AI and algorithms are not more than that — decide what is still political and what is already military? How should it differentiate between propaganda and legitimate coverage? All of this is obviously not only about human rights. The rights of freedom of expression and freedom of information are also enshrined in the Charter of Fundamental Rights of the European Union and here in Germany in our Grundgesetz.

The same counts for the Human Right of privacy. I don’t want a European Union or European member states that want to force messenger services to put backdoors in the encryption of messages. Also here mathematics prove to us that it is impossible to weaken encryption just for potential terrorists and not everyone else. Just look at the people of Hongkong and how urgent they need reliable encryption in their fight for democracy and civil liberties. Look at all the people who are fighting authoritarian regimes in their countries and look at all the businesses with their legitimate interests to keep their business secrets. All of their communication might be accessed by criminals or authoritarian system. The European Union must be a role model in ensuring human rights like these. These are our values; this is the ethical digitalisation we need to push forward.

Europe also needs to push forward regarding digital sovereignty. That means not being dependant on China and the United States regarding Hard- and Software. We are relying on both and are barely able to produce them on our own conditions and under our own control. We see the problems now with the 5G technology, cloud services and the dependence on software in our administrations. We saw through the revelations of Edward Snowden that the United States are spying on us and we can expect this from the Chinese. We see what happens when Donald Trump puts sanctions on states and software companies aren’t able anymore to deliver software or updates of it to some countries. Digital sovereignty does not mean that we should not use hard- or software from other parts of the world. But it means that we should be able to switch hard- and software easily, diversify it for security reasons and be not entirely dependant on others. Promoting open-source software, open and standardised interfaces, and security standards is a good start as well as fostering a European industrial policy for hardware.

The Arab Spring is long ago. Now we don’t see Social Media as a tool to empower people anymore. Instead, it is used to influence and manipulate people and elections — and I could hold another talk about online manipulation and why we can not only blame social media alone. But, the fact is that the dream of empowering the powerless through the internet started to fade. Luckily the internet is more than social media and the digitalisation is more than the internet. But also including social media and the internet itself, I still believe that we can empower the powerless. I think this will work based on three points:

First, Europe needs to support innovation for the common good and help civil society organisations to prepare for the digital age. We need special fonds for that. Thinking about digitalisation solely in the business sector is too short-sighted. And we have amazing organisations here that will create a valuable digital Europe for everyone.

Second, the person that impressed me most is Taiwan’s digital minister Audrey Tang. She shows us how we can digitalise democracy, and by that, I don’t mean voting online. Audrey Tang fosters radical transparency of the government to the people, offers regulatory sandboxes for innovative companies and asks the Taiwanese people through an online consultation about their thoughts and feelings regarding new business ideas and necessary regulations so that the acceptance of new laws and businesses are very high. With the Presidential Hackathon, the state invites civil society to invent new tools that provide a better and efficient state from which everyone benefits. We should get inspired by Taiwan and implement more ideas to strengthen democracy for the 21st century.

Third, a vision for Europe is nothing without each of you. My generation, the generation Y and the younger ones, the generation Z, grew not only up with the naturalness of the internet, but also with the imagination of the irrevocability of civil liberties. But they aren’t. We need to fight for them every day and not only every four years at the ballot box. We need to show people here in our country, in Europe, and all over the world that we are standing with them and supporting them in ensuring freedom.

Travelling the world and talking to people in their countries and here in Germany helped me to understand the importance of Europe as a role model in democracy and ensuring civil liberties in general but especially in the digital sphere. We need to preserve that. Not only for us but for everyone. Enduring freedom and civil liberties is often hard, but it is necessary so that everyone can evolve as he or she wants as long as the rule of law covers it. The author Juli Zeh just wrote for the ZEIT what also my vision is in one markable sentence. And this is also my pledge to you: Democracy, and I add “Europe”, need democrats, otherwise, it dies from within.

Thank you.

Read More
Wir brauchen eine faktenbasierte Digital- und Medienpolitik

Regulierung von “Social Bots” im neuen Medienstaatsvertrag

“European tech policies need to be based on facts, not emotions.”, habe ich kürzlich in diesem Artikel über “Tech populsim” gelesen und ich stimme nicht mit allem in diesem Text überein, mit dieser Aussage aber zu hundert Prozent. Und sie gilt nicht nur für Digitalpolitik, sondern auch für viele andere Politikbereiche, aber ganz besonders für die Digitalpolitik. Das haben wir bei der DSGVO gesehen und das haben wir bei der Diskussion um die EU-Urheberrechtsreform, insbesondere Uploadfilter und Leistungsschutzrecht gesehen und das sehen wir jetzt wieder beim Medienstaatsvertrag und der Kennzeichnungspflicht von “Social Bots”.

“Social Bots” sollen Menschen auf Plattformen (vermutlich vornehmlich Twitter) manipulieren und ihnen eine andere Meinung aufdrängen. Gefunden wurden bisher noch keine — Michael Kreil und Florian Gallwitz haben dazu bereits ausführlich geschrieben. Der Entwurf des Medienstaatsvertrags definiert “Social Bots” in § 55 Abs. 3 wie folgt:

“Anbieter von Telemedien in sozialen Netzwerke sind verpflichtet, bei mittels eines Computerprogramms automatisiert erstellten Inhalten oder Mitteilungen den Umstand der Automatisierung kenntlich zu machen, sofern das hierfür verwandte Nutzerkonto seinem äußeren Erscheinungsbild nach für die Nutzung durch natürliche Personen bereitgestellt wurde. Dem geteilten Inhalt oder der Mitteilung ist der Hinweis gut lesbar bei- oder voranzustellen, dass diese unter Einsatz eines das Nutzerkonto steuernden Computerprogrammes automatisiert erstellt und versandt wurde. Ein Erstellen im Sinne dieser Vorschrift liegt nicht nur vor, wenn Inhalte und Mitteilungen unmittelbar vor dem Versenden automatisiert generiert werden, sondern auch, wenn bei dem Versand automatisiert auf einen vorgefertigten Inhalt oder eine vorprogrammierte Mitteilung zurückgegriffen wird.”

Das heißt, jeder Account, der das Profilfoto eines Menschen hat (und vermutlich auch einen Namen, der wirkt, als sei da ein Mensch) und automatisiert postet oder twittert, ist ein “Social Bot”. Aha. Heißt, sobald ich mit beispielsweise Hootsuite einen Tweet einplane, weil der aus welchen Gründen auch immer, zu einer bestimmten Uhrzeit getwittert werden soll, bin ich ein Social Bot? Dass dieser Tweet dann über Hootsuite auf Twitter ausgespielt wurde, steht übrigens schon jetzt unter jedem Tweet (wie auch dort steht, ob ich mit Twitter für iOS oder über Twitter im Browser getwittert habe) — aber dennoch fordern hier die Länder in ihrem Medienstaatsvertrag eine Kennzeichnungspflicht. Warum?

Schon heute zeigt Twitter an, über welchen Zugang ein Tweet gesendet wurde.

Über Erkenntnisse einer Manipulation über solche automatisiert erstellten Tweets findet sich übrigens nichts im Medienstaatsvertrag. Auch nicht in den Stellungnahmen, die eine Kennzeichnung befürworten (zu den Befürwortern zählen Deutscher Bundesjugendring, Digitale Gesellschaft (unter Vorbehalt) und VAUNET Verband Privater Medien) und vorab angefragt wurden. Es finden sich hier auch nicht wirklich Erklärungen, warum man diese Kennzeichnung befürwortet (beispielsweise schreibt der Deutsche Bundesjugendring lediglich “Die Social Bots in sozialen Netzwerken einzubeziehen macht Sinn.”) Und obwohl mehr Interessenvertreter eine Kennzeichnungspflicht ablehnen (dazu gehören eco Verband der Internetwirtschaft, Hans Bredow Institut, Verdi und ZDF, das Mainzer Medieninstitut hält die Kennzeichnungspflicht für juristisch nicht sinnvoll, politisch hingegen schon. Die restlichen Stellungnahmen äußern sich nicht zu § 55 Abs. 3) ist man hier dennoch der Meinung, dass eine Kennzeichnungspflicht solcher Accounts sinnvoll sei. Dabei kam selbst das Büro für Technikfolgenabschätzung beim Deutschen Bundestag zu der Erkenntnis: “Eine Kennzeichnungspflicht von Bots erscheint zum jetzigen Zeitpunkt u.a. aufgrund der Schwierigkeiten bei der zuverlässigen Detektion von Bots, mangelnder Sanktionierungs-möglichkeiten sowie von Konflikten mit dem Datenschutz eher ungeeignet.” Also: was bedarf es noch, um vor schwachsinniger, überflüssiger Regulierung abzuweichen? Hier wird wieder eine Regulierung gefordert, ohne das Problem verstanden zu haben. Ohne, dass evidenzbasierte Forschung besteht und ohne sich mit den wirklichen Problemen auseinander gesetzt wurde.

Die wirklichen Probleme sind nämlich sogenannte “Trolle”, also Menschen, die versuchen zu manipulieren oder Desinformationen zu verbreiten. Das hat man bereits sehr schön bei der “Internet Research Agency” aufgezeigt, die aus dem russischen St. Petersburg versuchte (und wahrscheinlich auch Erfolg hatte), beispielsweise Afroamerikaner durch destruktive Kommentierungen unter Videos auf YouTube davon abzuhalten zur Wahl zu gehen. Auch in Deutschland waren nicht automatisierte Bots unterwegs, als während des Kanzlerduells Stimmung auf Twitter gemacht wurde. Das hat Karsten Schmehl in diesem Artikel sehr schön aufgezeigt. Den kommt man aber nicht mit der Regulierung von Technologie bei. Es sind Menschen, die sich zu koordinierten Aktionen versammeln und versuchen, Stimmungen zu erzeugen oder zu manipulieren. Automatisch generierte Inhalte sind heute noch gar nicht in der Lage, vorzugaukeln, sie seien echte Menschen — insbesondere dann nicht, wenn es um Interaktion, d.h. Diskurs geht.

Was wir brauchen, sind bessere Daten(-zugänge) bei den Plattformen für Wissenschaftler:innen, um besser raus zu finden, wer wann wie manipuliert und ob überhaupt. Hier lohnt es sich, gesetzgeberisch einzuwirken. Der neuste Report des amerikanischen Senate Select Committee on Intelligence hat beispielsweise gerade herausgefunden, dass nicht in erster Linie bezahlte Anzeigen (so auch sogenannte “Dark Ads”) ein Problem darstellen, sondern ganz normale, organische Posts. Letztere insbesondere dann, wenn die von relevanten Personen geteilt wurden: “numerous high-profile” Americans, including Trump campaign aide Roger Stone, former ambassador to Russia Michael McFaul, and Fox News host Sean Hannity, “unwittingly spread IRA [Internet Research Agency] content by liking IRA tweets or engaging with other IRA social media content, enhancing the potential audience for IRA content by millions of Americans.”

Probleme beim Thema Desinformation liegen nicht bei “Social Bots”, oder gar “Bots”. Manipulation erfolgt durch gesteuerte Kampagnen von Menschen oder durch unachtsames Teilen von Beiträgen durch Menschen des öffentlichen Lebens, unter anderem auch Politiker:innen. Hier hilft keine Regulierung von “Social Bots”, hier — und nicht nur hier — hilft nur eine faktenbasierte Regulierung, sofern denn notwendig.

Read More
Kein „Wilder Westen“. Freiheit und Verantwortung im Internet

Das Internet ist ein Versprechen von Freiheit. Doch Freiheit funktioniert nicht ohne Verantwortung. Das Internet war noch nie Wilder Westen – ein Raum, in dem keine Gesetze, keine Regulierung gegriffen hätten. Dieses Internet existierte und existiert auch heute nicht im luftleeren Raum, sondern funktioniert nur durch Server und Übertragungsmittel, die auf staatlichem Territorium stehen und damit örtlichen Gesetzen unterliegen. Natürlich müssen Gesetze für das digitale Zeitalter angepasst werden, manche auch neu geschaffen werden, wenn erkannt wird, dass neue Möglichkeiten zum Nachteil der Gesellschaft genutzt werden. Grundlage hierfür sollten immer die Werte und Prinzipien sein, die wir bereits in der analogen Welt als unseren Maßstab ansetzen. Gute Regulierung, Verantwortung, für das Internet kann nur gelingen, wenn wir es als das betrachten, was es ist: ein weltweiter Verbund von Rechnernetzwerken. Leider schauen wir zu häufig ausschließlich auf Plattformen, die im Internet existieren und versuchen diese zu regulieren, als wären sie “das Internet”. Freilich tragen Plattformen Verantwortung und gehören reguliert. Aber die Regulierung der Plattformen darf eben nicht außer Acht lassen, dass das Internet weit mehr ist als diese.

Um über Freiheit und Verantwortung im Netz zu sprechen, möchte ich das Internet verlassen und den Blick auf die gesamte digitalisierte oder noch zu digitalisierende Welt richten. Uns begegnet hier zunehmend die Frage: Wie wollen wir im Zeitalter der Digitalisierung leben? Selbst Bundespräsident Frank-Walter Steinmeier appellierte an die Besucher des Evangelischen Kirchentags 2019, dass sie sich intensiver mit dieser Fragestellung auseinandersetzen und sich einbringen sollen. Die Digitalisierung stellt uns nicht vor gänzlich neue ethische Fragen. Sie stellt uns aber vor die wichtige Aufgabe, unsere Prinzipien und Wertvorstellungen mit in die digitale Welt zu nehmen und auf diese zu übertragen. Dass das nicht immer leicht ist und uns teilweise vor enorme Herausforderungen, aber auch Chancen stellt, ist nicht überraschend. 

Im Fokus dieser digitalisierten Welt stehen algorithmische Entscheidungssysteme, die häufig hochtrabend als Entscheidungen einer Künstlichen Intelligenz dargestellt werden, es aber selten sind. Wir diskutieren sehr viel darüber, was ein autonom fahrendes Auto dürfen soll und was nicht; setzen sogar – richtigerweise – eine Ethik-Kommission ein, die dem Gesetzgeber Vorschläge zur rechtlichen Gestaltung geben soll und dies auch tat. Es wurde eine Datenethikkommission eingesetzt, die die Bundesregierung zum ethischen Umgang mit Daten berät und eine High-Level Expert Group der Europäischen Kommission, die ethische Rahmenbedingungen für den Umgang mit Künstlicher Intelligenz bereits veröffentlichte. Wir diskutieren – völlig zu recht – inwieweit Algorithmen darüber entscheiden dürfen sollen, ob jemand ins Gefängnis kommt oder nicht. Ob Algorithmen besser und neutraler entscheiden, als Richter es können, oder ob sie nicht doch Vorurteile reproduzieren. Die Tendenz dieser Diskussionen ist meistens klar: Gerade schwerwiegende Entscheidungen, die Grundrechte oder das (weitere) Leben beeinträchtigen können, sollten möglichst abschließend von Menschen getroffen werden. 

Bei algorithmischen Systemen, bei denen wir heute sagen, dass wir sie nutzen wollen, um zum Beispiel eine weitere Grundlage für menschliche Entscheidungen zu haben, sprechen wir intensiv über Probleme durch einen Bias, also einer Verzerrung, über Transparenz, Nachvollziehbarkeit und die Qualität von Daten, mit denen dieses System trainiert oder schließlich gefüttert wird. Auch hier geht die Tendenz in die Richtung, dass wir als Gesellschaft Entscheidungen, die algorithmische Systeme für uns treffen, unbedingt nachvollziehen können müssen. So können wir sie nicht nur verstehen, sondern auch an entsprechenden Stellen Beschwerde einlegen, sodass automatisierte Entscheidungen von Menschen überprüft werden. Es geht hier um nichts weniger als den Schutz von Grund- und Bürgerrechten.

Verengen wir wieder unseren Blick und schauen auf das Internet, stellt sich nun die Frage, warum wir hier nicht mit der gleichen Vorsicht und Gewissenhaftigkeit vorgehen. Betrachten wir zum Beispiel auf die EU-Urheberrechtsrichtlinie. Ja, Uploadfilter stehen nicht im Gesetzestext. Das tut aber wenig zur Sache, wenn klar ist, dass nur durch technische Hilfsmittel, durch Algorithmen, im Volksmund eben auch Uploadfilter genannt, Gesetze umgesetzt werden können. Da helfen keine nationalen Alleingänge, die Uploadfilter verbieten und Pauschallizenzen verpflichtend machen wollen. Uploadfilter sind nichts anderes als algorithmische Systeme, die abgleichen, ob für urheberrechtlich geschütztes Material, das auf eine Plattform hochgeladen wird, eine Lizenz vorhanden ist, oder ob eine der zahlreichen urheberrechtlichen Schranken greift. So zum Beispiel eine für Satire oder eine Parodie. Dass Technologie dies heute überhaupt leisten kann, wird von allen Experten stark bezweifelt. 

Nun könnte man sagen, es kann auch hier Beschwerdestellen geben, sodass ein Mensch die Entscheidung des Uploadfilters überprüfen muss. Das ist richtig. Bei der Menge an Material, das auf Plattformen hochgeladen wird – alleine auf YouTube sind es 400 Stunden pro Minute(!) – bei der Vielzahl an Sprachen, Dialekten, Slang, Insider-Witzen und sonstigen Informationen, die zur Einordnung – sei es durch Mensch oder Algorithmus – notwendig sind, ein schier unmögliches Unterfangen. Es würde nicht nur auf eine unermessliche Summe an algorithmischen Fehlentscheidungen hinauslaufen, sondern auch auf eine durch den Menschen. Von der zeitlichen Verzögerung bis zu einer Entscheidung und damit rechtmäßigen Publikation eines Beitrags auf einer Plattform, ganz zu schweigen.

Wo blieb und wo bleibt bei der Diskussion über das Internet und Plattformen, die Debatte um die Auslagerung Grundrechte betreffender Entscheidungen an algorithmische Systeme? Wir führten sie nicht und das, obwohl das Thema Ethik, die Frage nach dem guten Leben im digitalen Raum, gerade bei so vielen politischen Institutionen auf der Prioritätenliste steht. Algorithmische Entscheidungen, die die Freiheit von so vielen – hier im Speziellen die Meinungs- und Informationsfreiheit – einschränken, dürfen wir nicht zulassen. Der Erhalt und der Schutz von Urheberrechten im digitalen Raum ist wichtig und notwendig. Doch noch wichtiger ist der Erhalt von Bürgerrechten. Die Abwägung zwischen Rechtsgütern ist nichts für Algorithmen, sondern für Menschen mit entsprechender Ausbildung und Legitimation. Und auch, wenn wir Technik einsetzen dürfen, um Rechte bestmöglich zu schützen, dürfen wir algorithmischen Systemen und privatwirtschaftlichen Beschwerdestellen nicht Aufgaben übergeben, über die wir in der analogen Welt Gerichte urteilen lassen, gerade weil Sachverhalte häufig komplexer sind als eine Abfolge von Einsen und Nullen. 

Wie viel uns daran liegt, die europäischen Werte zu erhalten und zu verteidigen, zeigt sich besonders hier, im Internet. 

 

Dieser Beitrag erschien zu erst in der Politik & Kultur (Ausgabe 9/2019) des Deutschen Kulturrats.

Read More

Neueste Beiträge

  • Gastbeitrag: Politikfähigkeit braucht Führungsfähigkeit
  • Handelsblatt Gastbeitrag: Verwaltungstransformation: Ein Hebel für Vertrauen, Demokratie und Lebenschancen
  • Auszeichnung als Young Leader in GovTech 2025
  • Gastbeitrag: Von Estland lernen? Vielleicht lieber von uns selbst
  • Abschlussbericht des Beirats zur Umsetzung der Digitalstrategie Deutschlands

Neueste Kommentare

    Archive

    • April 2025
    • Februar 2025
    • Januar 2025
    • Dezember 2024
    • November 2024
    • August 2024
    • Juli 2024
    • Mai 2024
    • April 2024
    • November 2023
    • September 2023
    • Juli 2023
    • April 2023
    • März 2023
    • Dezember 2022
    • Oktober 2022
    • Juli 2022
    • Juni 2022
    • Mai 2022
    • April 2022
    • Februar 2022
    • November 2021
    • August 2021
    • Juni 2021
    • Mai 2021
    • April 2021
    • März 2021
    • Februar 2021
    • Januar 2021
    • Dezember 2020
    • November 2020
    • Oktober 2020
    • August 2020
    • Juli 2020
    • April 2020
    • Januar 2020
    • November 2019
    • Oktober 2019
    • September 2019
    • August 2019
    • Mai 2019

    Kategorien

    • Allgemein
    • Bundestagskandidatur
    • Digitale Bildung
    • Digitale Verwaltung
    • Digitalpolitik
    • Gastbeitrag
    • Internet Governance
    • News
    • Publikation
    • Social Media
    • Studio
    • Tutorial

    Seitennummerierung der Beiträge

    « 1 … 6 7 8 »
    Impressum Datenschutz