Blog Blog
  • Home
  • Über mich
    • Beratung
    • Politik
    • Speakerin & Moderatorin
  • Kandidatur
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt
  • Home
  • Über mich
    • Beratung
    • Politik
    • Speakerin & Moderatorin
  • Kandidatur
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt

Blog

Our Latest News

Publikation: Behind Closed Curtains

Bei der Friedrich-Naumann-Stiftung für die Freiheit ist meine Studie „Behind Closed Curtains – Desinformation auf Messengerdiensten“ auf Deutsch und Englisch erschienen. Die Süddeutsche Zeitung begleitete die Veröffentlichung mit einem Interview mit mir.

Desinformation ist kein neues Phänomen, das erst mit der Digitalisierung aufkam. Vielmehr wurden Desinformationen wohl schon immer eingesetzt, um politischen Gegnern zu schaden, Gesellschaften zu destabilisieren und Regime zu legitimieren. Neu ist, dass sich Desinformationen dank der Digitalisierung mit rasanter Geschwindigkeit verbreiten. Alle können potenzielle Absender – vor allem auch ungewollt – von Desinformationen sein können. Sinkendes Vertrauen in staatliche Akteure und Medien, sowie eine Disruption der gesamten Medienlandschaft und schnellere, einfachere und günstigere Zugänge zu Smartphones und zum Internet unterstützen die Entwicklungen weltweit. Desinformation und die Bedrohung, die durch sie ausgeht, haben es mittlerweile auf die politische Tagesordnung geschafft: Es wird heftig diskutiert,was Desinformation innerhalb von Gesellschaften anrichtet, aber auch welche Gefahr von außerhalb durch einen sogenannten Information Warfare droht. Dass Messenger zur Verbreitung von Desinformation und Verschwörungserzählungen genutzt werden, ist in Deutschland noch recht unbekannt. Erst durch das Bekanntwerden von Netzwerken Rechtsextremer auf diesen Plattformen und zusätzlich durch das Coronavirus kommt das Thema Desinformation auf Messengern langsam in der deutschen Öffentlichkeit an.

Desinformation muss in seiner Vielfältigkeit näher betrachtet werden. Denn das Thema ist für die innere Sicherheit, aber auch für den gesellschaftlichen Zusammenhalt und Frieden von enormer Bedeutung. Viel zu oft wird vergessen, dass gerade im nicht-politischen Bereich verbreitete Desinformation ein hohes Risiko birgt: Rund um das Coronavirus ist Anfang 2020 weltweit eine große Menge an Desinformation im Umlauf. Von falschen Studien, angeblichen Selbsttests und wirkungslosen Präventionsmaßnahmen ist alles dabei. Die Weltgesundheitsorganisation spricht daher von einer Infodemie. Diese Infodemie birgt ein erhebliches Gesundheitsrisiko für alle Menschen.

2022 werden drei Milliarden Menschen Messengerdienste weltweit nutzen. Viele davon werden keine dem digitalen Zeitalter angemessene Medienkompetenz besitzen oder gar Analphabeten sein. Das gilt für Nutzerinnen und Nutzer weltweit. Nicht nur die Art, wie wir kommunizieren, ändert sich rasant, sondern auch, wie wir Medien und Nachrichten konsumieren. Die Zeitung vom Küchentisch, das gemeinsame Nachrichten schauen am Abend, das Telefongespräch – all das verlagert sich in nicht mehr von außen wahrnehmbares Kommunizieren und Konsumieren. Damit müssen wir als Gesellschaft(en) lernen umzugehen. Welche Erfahrungen und Erkenntnisse haben wir weltweit mit Desinformation via Messenger? Wie komplex ist dieses Phänomen und wird der Komplexität bisher in der öffentlichen Diskussion ausreichend Rechnung getragen? Welche Ansätze können zu einer aufgeklärteren, resilienteren Gesellschaft beitragen?

Read More
Ann Cathrin Riedel erhält den ersten For..Net Media Award

Ich freue mich wirklich sehr, den ersten for..net Media Award für meinen Newsletter „Ann Cathrin’s Digital Digest“ erhalten zu haben. Der for..net Media Award zeichnet Einzelpersonen, Projekte oder Institutionen für besonderes Engagement zur Vermittlung der Herausforderungen und Chancen der Digitalisierung und damit für Verdienste um eine gemeinwohlorientierte Digitalisierung aus. Die Pressemitteilung kann hier nachgelesen werden.

Read More
Tracking-App: Was in der Debatte bisher fehlt

In der Diskussion um eine Tracking-App zur Rückverfolgung von Kontakten geht es um Privatsphäre und IT-Sicherheit. Dabei müsste eigentlich der Mensch im Zentrum stehen, fordern Christin Schäfer von acs plus und Ann Cathrin Riedel von LOAD. Hilft die Information auf diesem Weg? Was sind die Folgen für den Einzelnen?

Bisher fokussiert sich die Diskussion zur Ausgestaltung einer möglichen App zur Rückverfolgung von Kontakten auf Datenschutz und IT-Sicherheit. So wichtig diese Aspekte sind, wird damit ein Kernelement des Systems vergessen: der Mensch. Ganz unabhängig von der Maßnahme, muss der Mensch im Mittelpunkt stehen. Nehmen wir an, eine App kann die notwendigen Anforderungen an Datenschutz, Privatsphäre und IT-Sicherheit erfüllen, dann lautet eine wesentliche Ausgestaltungsfrage: wie kommuniziert die Corona-App mit den Menschen? Wie wird das Ergebnis konkret mitgeteilt? Ein mögliches Infektionsrisiko mittels einer App zu berechnen ist das eine. Das Ergebnis dieser Berechnungen mitzuteilen, ist etwas ganz anderes. Gesundheit und Wohlergehen hat auch eine psychische Komponente, die bei der Ausgestaltung des Gesamtsystems rund um eine Maßnahme nicht vergessen werden darf.

Eine wesentliche Frage beim Design, nicht nur einer App lautet: wie geht der Empfänger oder die Empfängerin mit einer solchen, kritischen Nachricht um? Insbesondere, wenn diese im Wirrwarr von allen andere möglichen Push-Mitteilungen auf dem Smartphone erscheint; zwischen WhatsApp-Nachrichten, den neuesten „Breaking News“ und der Erinnerung an einen Termin.

„Sehr geehrte Nutzerin, sehr geehrter Nutzer, wir haben bei Ihnen ein Covid-19 Risiko von 69% ermittelt. Freundliche Grüße, Ihr App-Anbieter.“ Unpersönlicher und weniger empathisch können schlechte Nachrichten nicht überbracht werden.

Was wissen wir über die Vermittlung dieser Art von Nachricht zum Beispiel aus dem Bereich der Krebsvorsorge? Ein Infekt mit Corona ist zum Glück kein Todesurteil. Aber für einige Personengruppen kommt es einem solchen schon erschreckend nahe. Wer älter, geschwächt und vielleicht zeitlebens mit Lungenproblemen gestraft ist, weiß, was die Stunde geschlagen hat. Zudem: nur wenige Menschen können mit Wahrscheinlichkeiten umgehen. Fragen Sie sich doch mal selber: bei einer Regenwahrscheinlichkeit von 60% – nehmen Sie den Regenschirm mit oder lassen Sie ihn zuhause? Ist ein „Risk Score“, dessen Ableitung unklar ist, eine kluge Wahl in der Mitteilung an den Nutzer der App? Werden sich nicht viele vor allem verunsichert fühlen?

Eine persönliche Ansprache bei der Meldung ist außerdem nicht möglich – soll die App doch anonym nutzbar sein. Wie sicher kann sich der Nutzer oder die Nutzerin sein, dass hier nicht ein Fehler passierte? Dass eigentlich eine andere Person diese Mitteilung bekommen sollte? Solch fehlgeleitete Informationen sind nicht auszuschließen. Vor allem dann nicht, wenn eine App neu ist und nicht ausreichend getestet wurde.

Quarantäne muss man sich leisten können

Der gesamte Budenzauber mit allen hingenommenen Einschränkungen der Privatsphäre, so freiwillig sie auch sein mögen, bringt nichts, wenn sich zu wenige beteiligen und insbesondere wenn das Ergebnis der App zu nichts führt. An Nachrichten zu potentiellen Infizierungen müssen sich vielfältige und personalisierte Maßnahmen anschließen.

An die Benachrichtigung muss notwendig der zeitnahe und aufwandsarme Zugang zu Tests folgen. Hierzu sind die Testkapazitäten aufzubauen. Es muss geklärt werden, was passiert, wenn sich Alleinerziehende anstecken. Wer kümmert sich – auch in Phase des Wartens auf das Testergebnis – um die Kinder? Wie verfahren Familien, bei denen sich ein Elternteil angesteckt hat, aber die Wohnverhältnisse eine Separierung nicht zulassen? Die Benachrichtigten sehen sich schweren emotionalen Konflikten ausgesetzt. Die eigenen Kinder womöglich gefährden? Die eigenen Kinder Dritten überlassen? Wem? Wer zahlt? Wer organisiert? Es muss sichergestellt werden, dass man sich die Tests, Wartezeiten und Quarantäne auch leisten kann; nicht nur finanziell.

Es bedarf zudem einer gesonderten Regelung für den Umgang von Fehlzeiten für Arbeitnehmer und Arbeitnehmerinnen. Gerade Personengruppen, die bei ihrer Arbeit viel reisen oder viel Publikumsverkehr ausgesetzt sind, werden häufiger im Covid-19-Alarm leben. Diese Alarme kommen überraschend und sind nicht planbar. Es ist davon auszugehen, dass sie zu signifikant erhöhten Fehltagen im Vergleich zu anderen Gruppen von Erwerbstätigen führen. Besonders hart betroffen sind zudem Solo-Selbständige, deren Verdienstausfälle existenziell bedrohlich sein können.

Die gesamte Gesellschaft muss sehr schnell lernen, flexibel und positiv mit kurzfristigen Absagen von Terminen umzugehen. Handwerker sagen am Morgen wegen eines Covid-19 Alarms ab. Die Wartungsarbeiten an einer Maschine müssen kurzfristig verschoben werden. Der Friseurtermin entfällt. Die Reihe ist definitiv nicht abschließend.

Der Zugang zu Lebenschancen darf nicht von sozio-ökonomischen Faktoren abhängig sein

Gut aufgesetzt kann eine Corona-App eine Maßnahme für die Überwindung der Krise sein. 79% der Deutschen besitzen ein Smartphone und haben damit die Chance, eine solche App zu nutzen. Der Zugang zu einer Corona-App darf jedoch nicht von sozio-ökonomischen Faktoren abhängig sein. Allen Bürgern und Bürgerinnen sollte es möglich sein zu partizipieren, Meldungen zu einer möglichen Infektion zu erhalten, um daraufhin geeignete Maßnahmen – Lebenschancen – zu ergreifen und wahrzunehmen.

Dies bedeutet, dass ein Smartphone und ein Internetvertrag zur Grundversorgung eines jeden Einzelnen gehören müsste. Es gilt vorab zu klären, welche Möglichkeiten Smartphone Besitzer:innen haben, deren Gerät nicht die notwendige Bluetooth LE oder GPS-Technologie hat oder auf einem älteren Betriebssystem läuft, das die App nicht unterstützt. Was ist mit denjenigen Mitbürgern und Mitbürgerinnen, die noch zu jung für ein eigenes Smartphone sind, oder allen, die die Benutzung überfordert? Wie inkludieren wir Menschen mit geistigen oder körperlichen Beeinträchtigungen? Welche Möglichkeit der Teilhabe erhalten ausländische Touristen und Geschäftsreisende?

Europäische Herausforderungen

Die Bedrohung durch das Coronavirus besteht weltweit. Kein Nationalstaat, keine Region wird im Alleingang in der Lage sein, sein Gebiet zu schützen. Wie bei jeder Maßnahme bedarf es der Absprache mit Nachbarn und Partnern, damit die Wirksamkeit sich einstellen kann. Dies gilt auch und insbesondere für eine datengetriebene Technologie, wie eine Corona-App. Es wird eine Anwendung für ganz Europa, besser sogar die ganze Welt benötigt, die einheitliche Standards für Daten und Austauschprotokolle verwendet. Dagegen können Berechnungsmethodiken, etwa für Abstand und Risiko, länderspezifisch als Service angeboten werden. Unsere Aufgabe besteht darin, ein System aufzusetzen, dass eben nicht nur für deutsche Bürgern und Bürgerinnen Mehrwert liefert, sondern auch die Bürger und Bürgerinnen in Staaten schützt und ermächtigt, deren Gesellschaft weniger demokratisch und weniger rechtsstaatlich ist. Wir dürfen autokratischen Regimen keinen Corona-App-Standard präsentieren, der es den Staatschefs leicht macht, ihr Volk zu überwachen und zu drangsalieren.

Es geht nicht um Verhinderung, sondern Ermöglichung

Für all diese beschriebenen Herausforderungen haben wir heute noch keine Lösungen. Vor allem, weil wir noch nicht nach ihnen gesucht haben.

Es geht uns nicht darum, eine sinnvolle Corona-App-Lösung zu verhindern, sondern vielmehr, sie herbeizuführen. Zunächst ist dafür aber der Nachweis zu erbringen, dass eine digitalisierte und automatisierte Kontaktverfolgung helfen kann, die Infektionszahlen signifikant zu senken. Dann sind die weiteren Designdetails zu klären. Wie die Ausführungen verdeutlichten, kann eine kurzfristig und schnell aufgesetzte App die in sie gesetzten Erwartungen nur verfehlen. Daher plädieren wir dafür, ein solches datengetriebenes System zur Information über einen potenziellen Infekt sauber, durchdacht und im Verbund mit einem abgestimmten Maßnahmenpaket  zu entwickeln, welches uns auf dem langen Weg zurück in eine Normalität, wie sie vor Corona-Zeiten bestand, begleitet.

Christin Schäfer ist Gründerin und Geschäftsführerin der Berliner Data Science Boutique „acs plus“. Die studierte Statistikerin war Mitglied der Datenethikkommission der Bundesregierung. Ann Cathrin Riedel ist Vorsitzende von LOAD e.V. – Verein für liberale Netzpolitik.

 

Dieser Beitrag erschien zuerst im Tagesspiegel Background Digitalisierung & KI am 8. April 2020.

Read More
Der Cyberkrieg hat längst begonnen

Durch die gezielte Tötung Qassem Soleimanis, dem Kommandeur der iranischen Quds-Einheit, ist das Risiko einer militärischen Eskalation im Konflikt zwischen den USA und Iran gestiegen. Die zentrale Rolle des getöteten Generals in der iranischen Regionalpolitik zwingt die iranische Führung zu einer Antwort. Untätigkeit in dieser Frage käme gerade wegen der vom iranischen Regime in den vergangenen Jahren betriebenen Stilisierung Soleimanis zur Lichtgestalt einem Gesichtsverlust gleich.

Andererseits weiß die iranische Führung spätestens jetzt, welch weitreichende Konsequenzen ihre militärischen Provokationen haben können. Der Tod Soleimanis war eine direkte Folge monatelanger Raketenangriffe pro-iranischer Milizen auf US-Militärstützpunkte in Irak, bei denen am 27. Dezember erstmals ein US-Bürger getötet wurde.

Iran und USA befinden sich bereits seit Jahren in einem Cyberkonflikt

Vor dem Hintergrund der potenziellen Folgen weiterer Anschläge auf US-amerikanische Militärstellungen — Präsident Donald Trump droht bereits mit US-Angriffen auf 52 ausgesuchte iranische Ziele — könnte sich die Islamische Republik auf aus ihrer Sicht weniger provokante Optionen einlassen. Als Alternative zu direkten Militärschlägen auf US-Ziele ist eine Hinwendung zu Cyberattacken plausibel. Ohnehin ist der Konflikt zwischen den USA und Iran bereits jetzt auch ein Cyberkrieg, in dem beide Seiten die digitale Infrastruktur des Gegners ins Visier nehmen.

So wurde im Juni 2019 bekannt, dass Trump als Reaktion auf den Abschuss einer US-Drohne einen Cyberangriff auf eine iranische Geheimdiensteinheit autorisierte. Die Geheimdiensteinheit wiederum plante ihrerseits Attacken auf Öltanker im Persischen Golf. Zur Erinnerung: Bereits unter George W. Bush und Barack Obama setzten die USA auf eine millionenschwere Cyber-Sabotageaktion gegen das iranische Atomprogramm, in deren Zuge der Computerwurm „Stuxnet“ die iranische Urananreicherung erheblich behinderte.

Iran hackte Casino-Unternehmen

Auch das iranische Regime hat in der Vergangenheit verschiedene Cyberangriffe gegen die USA und seine Verbündeten durchgeführt. So starteten iranische Hacker 2014 eine Attacke auf das Casino-Unternehmen des irankritischen US-Milliardärs Sheldon Adelson. Auch US-Verbündete sind bereits zur Zielscheibe iranischer Sabotageaktionen geworden. Nach Saudi-Arabien, Kuwait und den Vereinigten Arabischen Emiraten könnten sich diese Aktionen nach der Tötung Soleimanis nun auch auf europäische US-Verbündete ausweiten.

Das iranische Außenministerium hat bereits den Geschäftsträger der deutschen Botschaft in Teheran wegen kritischer Äußerungen einbestellt. Die jüngste Ankündigung der iranischen Regierung, sich in einem weiteren Schritt von Verpflichtungen aus dem Atomabkommen (JCPOA) zurückzuziehen, deutet auf das iranische Kalkül hin, weiterhin Druck auf Europa auszuüben.

Deutschland muss bei IT-Sicherheit aufrüsten

Die aktuelle Bedrohungslage kann sich auch auf Deutschland auswirken, wenngleich sie momentan nicht akut ist. Das zeigt umso deutlicher, wie dringend notwendig es ist, dass Deutschland beim Thema IT-Sicherheit aufrüstet. In den USA warnte man schon mehrfach vor möglichen Cyberangriffen durch iranische Hacker auf Kritische Infrastrukturen (KRITIS) — auch deutsche KRITIS kann ein interessantes Ziel sein.

Es ist daher Zeit, dass die Bundesregierung das IT-Sicherheitsgesetz 2.0 verabschiedet, das deutlich höhere Sicherheitsanforderungen an Kritische Infrastrukturen stellt, diese umfassender definiert, „Infrastrukturen im besonderen öffentlichen Interesse“ hinzufügt und BSI-zertifizierte Mindeststandards für Hardware definiert. Ebenso wichtig sind die drastisch höheren Geldbußen und weiteren Befugnisse des BSI. Für eine wirkliche Durchsetzung von IT-Sicherheit und Vertrauen brauchen wir aber ein vom Bundesinnenministerium unabhängiges BSI.

Konsequent auf defensive Cyberabwehrstrategie setzen

Hackergruppen aus Iran nutzten bereits mehrfach Sicherheitslücken, unter anderem in Microsoft Office, um die USA und ihre Alliierten auszuspionieren. Auch jetzt müssen die USA und ihre Bündnispartner mit Spionageattacken, Datendiebstahl, Distributed-Denial-of-Service-Attacken (DDoS) und den bereits erwähnten Angriffen auf Kritische Infrastrukturen und Desinformationskampagnen rechnen. Ansätze für Propaganda-Aktionen im Netz finden sich bereits. Sie laufen etwa unter dem Hashtag „#hardrevenge“ und können auch für Amerikaner und Amerikanerinnen, Israelis und Israelinnen, Juden und Jüdinnen, sowie Exil-Iranerinnen und -Iraner hier in Deutschland gefährlich werden, wenn Regime-Anhänger hierzulande Anschläge verüben. Es sei an dieser Stelle an das Mykonos-Attentat in Berlin von 1992 erinnert.

Die sich überschlagenden Ereignisse im Nahen und Mittleren Osten, angetrieben vom USA-Iran-Konflikt, verdeutlichen nochmals die Dringlichkeit, mit der sich Deutschland mit der Bedrohung durch Cyberangriffe beschäftigen sollte. Dabei sollten wir ausdrücklich nicht sogenannte „Hackbacks“ in Betracht ziehen, sondern konsequent auf eine defensive Cyberabwehrstrategie setzen. Zudem sollte die Bundesregierung alle ihr zur Verfügung stehenden Mittel der Diplomatie einsetzen, um Iran von Vergeltungsschlägen aller Art abzubringen. Auch von Cyberangriffen.

Dieser Artikel erschien zusammen mit dem Politikwissenschaftler und Experten für US-Außenpolitik, Dr. Payam Ghalehdar, am 7. Januar 2020 als Gastbeitrag im Tagesspiegel Background Digitalisierung & KI

Read More
Ready to set Sails — A Vision for Europe

I gave this speech as a keynote at the Transcultural Leadership Summit in Friedrichshafen on 15 November 2019. I publish my whole vision here because due to time restrictions, I had to shorten it for the speech. Special thanks again to the students who organised the summit and especially to Kristi Grund and Laura Trattner who allowed me to talk about this important topic.

In the year of the Friday’s for Future movement against the climate crisis, I gained my Frequent Traveler status. I’m not proud of that. Rather, I am humbled and thankful. I learned how privileged I am in being a white German woman, how luxurious it is to be an owner of a German passport. I think we often forget that. I am thankful because I have several sponsors who financed these journeys, mostly the political foundations here in Germany and first and foremost the Friedrich-Naumann-Foundation for Freedom. They also made it possible that way more people from countries from all over the world came to Germany and discussed with several organisations, such as mine, about a topic that in my opinion is as important as the climate crisis but barely on the table: Civil Liberties.

I was asked to give a keynote about a vision for Europe regarding Europe’s challenges and opportunities concerning digitalisation. As this is a summit on transcultural leadership — and digitalisation and the internet is nothing that ends at one’s national borders nor at the ones of the European Union, it is today even more important to think about the German, the European role in the world as a role model. As well as to work with others and get inspired by their ideas and experiences.

I’d like to quote the Islamic Scholar Abū ʿAbdallāh Muhammad Ibn Battūta who said: “travelling it leaves you speechless then turns you into a storyteller.”

So here is my story:

Russia is a beautiful country. I didn’t expect that, honestly. I learned that minus 17 degrees aren’t as cold as one would guess and that the special blue of rivers in Siberia can’t be caught by my iPhone’s camera. I learned about the beautiful tradition of giving a toast at the dinner table and that politicians and political actors form the opposition are sometimes stopped to hold a conference due to coincidental crackdowns of hotels in a whole area. I learned that people are afraid to join political discussions of liberal parties where they are asked to register in advance. They are scared because they are working for the police, therefore the state and are too afraid because they don’t know what might happen with the data later on.

Russia is not only famous for their cyber-attacks which are quite likely driven by the Kremlin or the “Internet Research Agency” in St. Petersburg which manipulated the US election with their troll army — also commissioned by the Kremlin with a very high probability. Russia is also, sadly, famous for the pressure on and the criminalisation of journalists and activists who are fighting for press freedom, freedom of speech, against surveillance, against corruption, and for LGBTQ rights.

The Kremlin copied a law which helps them to ban unlawful content easily from the Web. Unlawful can be caricatures of Vladimir Putin or LGBTQ content. The copied law is the German Network Enforcement Act, or Netzwerkdurchsetzungsgesetz, short NetzDG or also well known as the “Facebook Bill”. It’s a law launched by the former Minister of Justice Heiko Maas and criticised by several organisations such as journalists without borders, the Amadeus Antonio Foundation, several business associations, the Association of Journalists in Germany, Wikimedia, the Open Knowledge Foundation and several others, also mine. Amongst them even the UN special rapporteur for freedom of expression, David Kaye. Think about that: A German Law gets criticised by a UN special rapporteur for freedom of expression.

This law was installed to do something against hate speech, but after almost two years, we see clearly: it doesn’t help. Hate is often not unlawful. Death threads are — that’s right, but hate? Hate speech is not even a term that is defined by our German law. And we saw it at the decision regarding the case of the politician Renate Künast by the Landgericht of Berlin that judges make decisions most people and lawyers can’t understand. And we want private companies to decide within 24 hours what is unlawful and what is not? Want them to be forced by law to delete what is in their opinion unlawful? Renate Künast has the right to appeal her judgement, and luckily she did that. If Facebook, Twitter or YouTube removed some content because of the Network Enforcement Act, you have no right to appeal against that. This is not how the rule of law should work in a constitutional state. But this is the law that Russia and several other countries who are according to Freedom House “not free” or just “partly free” copied.

Moreover, several of these countries, including Venezuela, Vietnam, India, Russia, Malaysia, and Kenya, require intermediaries to remove vague categories of content that include “fake news,” “defamation of religions,” and “anti-government propaganda,” and many of them include overly broad definitions of hate speech that go much further than the German law. Responding to criticism, Kremlin representatives argued that false information “is regulated fairly harshly in many countries of the world including Europe. It is therefore of course necessary to do it in our country too.”

We need better laws that help against unlawful content on platforms. Journalists like Margarethe Stokowski and Richard Gutjahr showed us in several articles and speeches that the Network Enforcement Act neither helps them nor does in bring perpetrators to justice.

In Russia, one can only access “free” wifi if one registered in advance with the telephone or passport number. Of course, one gets only a SIM card if one presents one’s passport — by the way, it’s the same here in Germany since a few years. Anonymous web surfing is therefore nearly impossible. The Kremlin wants to have its own internet, the RuNet. They just passed a bill that should protect them from cyber-attacks but instead, it enables the Kremlin to expand the surveillance measures. With their own Domain Name System — imagine it as the telephone numbers of the Web — they can root someone of the websites the state wants. For example, if you type in google.com the state can root you to Yandex, the Russian search engine. They are also planning to install a so-called “Deep Packaging Inspection” at every Russian internet provider. This allows the Kremlin to look into each data package which is sent through the internet, to track it and to slow down the speed of the internet.

From Russia to the land of the free, the United States. Maybe we can’t talk about digitalisation in Europe without looking jealously to the Bay Area, Redmond, and Seattle. I haven’t been to any of these places. I have been in Portland, Oregon at the re:publica sequencer tour and spoke about civil rights and digitalisation.

When we talk about the US and how they shape the digital economy, we barely talk about the algorithmic systems that are used by the government. That surveil its people that make wrong decisions on well-fare, that supports unfair decisions in court, and that promote a racial bias towards black Americans.

A bias per se is nothing wrong. We all are biased. Everyone who says he or she isn’t is entirely wrong. And that is the problem with bias: being unaware of it, not able or not willing to reflect and to act on it. And, even more problematic, to not be able to do something against a biased decision. This is a problem we see often, not only in the US but also in other countries, such as Australia and also in Europe. I will present you one example from the United States.

COMPAS, that is an algorithmic decision system that helps judges to identify if a defendant should go into prison or can be released on bail. It doesn’t use the date “race” — according to the law — but discriminates either way against it. The problem is fairness. Yes, fairness, a word like so many more we often use but never really think about what it means. What is fair?

The COMPAS algorithmic system scores each defendant and recommends to send to pre-trial jail who has a risk score higher than seven. Seems fair, right? But in reality, that means that way more black people get arrested even though their personal probability to relapse is lower. Specifically, this means that 45% of the black defendants are false-positives and just half as many white defendants are false-positives. Whereas the rate of false-negatives of white defendants who got criminal again, even though the system said they wouldn’t, was 48%.

So instead it would be fair to have a threshold for each race and keep the error rates low for both, but that is against the 14th Amendment of the US constitution — of course, for good reasons. There shouldn’t be laws or thresholds for each race. There are two definitions of fairness: keep the error rates comparable between groups, and treat people with the same risk scores in the same way. Both of these definitions are totally defensible! But satisfying both at the same time is mathematically impossible.

But aren’t humans making the same mistakes? Yes, they do. And how they make their decisions is also not transparent. But COMPAS, which is made by a private company, is a trade secret that cannot be publicly reviewed or interrogated. Defendants can no longer question its outcomes, and government agencies lose the ability to scrutinise the decision-making process. There is no more public accountability.

The more significant question about using systems like COMPAS — or any algorithms to rank people — is whether they reduce existing inequities or make them worse. We shouldn’t overestimate the power and “neutrality” of technology, nor it’s “intelligence” especially when it comes to decisions over human beings which need more intelligence than making statistical approximations based on data of the past. Please keep that in mind.

The discussions about ethics in digitalisation need to be more holistic than just about the algorithm itself. It’s about the data, the definitions we make in advance and the environments in which we implement these systems. In my opinion, creating a valuable digital world is more than financial efficiency. It’s about ensuring values such as comprehensible decisions by the state which one can appeal. It’s about the rule of law and humans ruling about humans. Algorithmic systems should be used very carefully in this area.

Most impressively was my journey to Hongkong at the beginning of this year. You might haven’t seen it on the map because it’s too small, but I didn’t want to mark China as both “countries” are very different. I’m also lucky that I was able to meet Hongkongers from the front-line in Berlin last week. These guys are showing us what happens when a digitalised state and public sphere is used to suppress its people and is not anymore in the hands of democrats.

Because they are afraid who gets access to the data they stopped using their Octopus card in Hongkong, a card with which you can buy nearly everything especially in the 7/11 stores, and you buy your ride with public transportation with it. It is connected with your credit card, and therefore one can find out who exits the metro stations of the places of the protests and who probably takes part in it. They pulled down surveillance cameras with face recognition because they haven’t had the feeling that they can exercise their democratic right to demonstrate without the fear of suppression later on.

The activists deleted the Chinese App WeChat from their phones and used Telegram as their favourite messenger because one can use it without revealing one’s own telephone number. This is necessary for the case of moles in the group or if phones get confiscated by the police. Staying as anonymous as possible is essential for their fight right now. They also switched to Telegram because they need encryption they can rely on, and Telegram also responded to their requests to change some features for Hongkongers so they can act safe and according to their motto: be like water.

“Be like water” means several things for them. This movement is different from the occupy movement. They are “flooding” areas and disappear again. They have no leader; they are using open-source technology to coordinate their protest and to vote for the next actions. They are crowd-sourced and get several financial or material donations.

And they use Apples AirDrop to communicate with each other at places where they are gathering to inform about the next plans. AirDrop works with Bluetooth and just with people near you. And it also works during internet or mobile network shut down. Hongkong shows us what happens when democracy is in severe danger; data and surveillance cameras are used against its citizens, and secure communication is uncertain.

Please don’t get the impression that I am a sceptic of the digitalisation. I’m definitely not. I am also a huge optimist, and I am willing to shape our digital future for the better. But: Ensuring democracy and civil liberties is essential when we want to live in a liveable future. Yes, China and the US might be faster in developing and implementing new technologies. But we shouldn’t only focus on speed. Instead, we should focus on building resilient democracies for the 21st century. Democratic decisions need time and that is okay, as long as they are good ones. We should focus more on the quality of policies. That is how a digitalised world will be worth living.

So here is my vision for Europe:

I want a Europe that uses digitalisation to empower its people and to strengthen democracy.

A Europe that is sovereign but does not separate itself from the world. Instead, it sets standards that open chances for everyone.

I want a Europe that makes laws that protect people from threads but also finds the balance to secure civil liberties.

And a Europe that puts content in the phrase “ethical digitalisation”. Ensuring Human Rights might be a good start.

Let’s start from the back. Why do I include Human Rights in my vision for Europe? Because too often the already mentioned UN rapporteur for freedom of expression, David Kaye, has to criticise laws from the European Union or its member states. Not only the Network Enforcement Act got criticised by him but also the European Copyright Directive — you might have heard of it or taken part in the demonstrations against Article 13, and the upload filters. The same thing is about to happen when the European Commission goes on with their plants to demand upload filters against terrorist content.

And here we see again what I mean when I say we need to talk more holistic about the implementation of algorithmic systems. Banning “terrorism” is easy, but what exactly is terrorism? When does terrorism start? Just look at the case of the “Hizbullah” and the disagreement between European member states and the European Union itself. Is the Hizbullah entirely a terrorist organisation or just the military arm and not the political one? How should a system based on mathematics and statistics — call it Artificial Intelligence, but AI and algorithms are not more than that — decide what is still political and what is already military? How should it differentiate between propaganda and legitimate coverage? All of this is obviously not only about human rights. The rights of freedom of expression and freedom of information are also enshrined in the Charter of Fundamental Rights of the European Union and here in Germany in our Grundgesetz.

The same counts for the Human Right of privacy. I don’t want a European Union or European member states that want to force messenger services to put backdoors in the encryption of messages. Also here mathematics prove to us that it is impossible to weaken encryption just for potential terrorists and not everyone else. Just look at the people of Hongkong and how urgent they need reliable encryption in their fight for democracy and civil liberties. Look at all the people who are fighting authoritarian regimes in their countries and look at all the businesses with their legitimate interests to keep their business secrets. All of their communication might be accessed by criminals or authoritarian system. The European Union must be a role model in ensuring human rights like these. These are our values; this is the ethical digitalisation we need to push forward.

Europe also needs to push forward regarding digital sovereignty. That means not being dependant on China and the United States regarding Hard- and Software. We are relying on both and are barely able to produce them on our own conditions and under our own control. We see the problems now with the 5G technology, cloud services and the dependence on software in our administrations. We saw through the revelations of Edward Snowden that the United States are spying on us and we can expect this from the Chinese. We see what happens when Donald Trump puts sanctions on states and software companies aren’t able anymore to deliver software or updates of it to some countries. Digital sovereignty does not mean that we should not use hard- or software from other parts of the world. But it means that we should be able to switch hard- and software easily, diversify it for security reasons and be not entirely dependant on others. Promoting open-source software, open and standardised interfaces, and security standards is a good start as well as fostering a European industrial policy for hardware.

The Arab Spring is long ago. Now we don’t see Social Media as a tool to empower people anymore. Instead, it is used to influence and manipulate people and elections — and I could hold another talk about online manipulation and why we can not only blame social media alone. But, the fact is that the dream of empowering the powerless through the internet started to fade. Luckily the internet is more than social media and the digitalisation is more than the internet. But also including social media and the internet itself, I still believe that we can empower the powerless. I think this will work based on three points:

First, Europe needs to support innovation for the common good and help civil society organisations to prepare for the digital age. We need special fonds for that. Thinking about digitalisation solely in the business sector is too short-sighted. And we have amazing organisations here that will create a valuable digital Europe for everyone.

Second, the person that impressed me most is Taiwan’s digital minister Audrey Tang. She shows us how we can digitalise democracy, and by that, I don’t mean voting online. Audrey Tang fosters radical transparency of the government to the people, offers regulatory sandboxes for innovative companies and asks the Taiwanese people through an online consultation about their thoughts and feelings regarding new business ideas and necessary regulations so that the acceptance of new laws and businesses are very high. With the Presidential Hackathon, the state invites civil society to invent new tools that provide a better and efficient state from which everyone benefits. We should get inspired by Taiwan and implement more ideas to strengthen democracy for the 21st century.

Third, a vision for Europe is nothing without each of you. My generation, the generation Y and the younger ones, the generation Z, grew not only up with the naturalness of the internet, but also with the imagination of the irrevocability of civil liberties. But they aren’t. We need to fight for them every day and not only every four years at the ballot box. We need to show people here in our country, in Europe, and all over the world that we are standing with them and supporting them in ensuring freedom.

Travelling the world and talking to people in their countries and here in Germany helped me to understand the importance of Europe as a role model in democracy and ensuring civil liberties in general but especially in the digital sphere. We need to preserve that. Not only for us but for everyone. Enduring freedom and civil liberties is often hard, but it is necessary so that everyone can evolve as he or she wants as long as the rule of law covers it. The author Juli Zeh just wrote for the ZEIT what also my vision is in one markable sentence. And this is also my pledge to you: Democracy, and I add “Europe”, need democrats, otherwise, it dies from within.

Thank you.

Read More
Wir brauchen eine faktenbasierte Digital- und Medienpolitik

Regulierung von “Social Bots” im neuen Medienstaatsvertrag

“European tech policies need to be based on facts, not emotions.”, habe ich kürzlich in diesem Artikel über “Tech populsim” gelesen und ich stimme nicht mit allem in diesem Text überein, mit dieser Aussage aber zu hundert Prozent. Und sie gilt nicht nur für Digitalpolitik, sondern auch für viele andere Politikbereiche, aber ganz besonders für die Digitalpolitik. Das haben wir bei der DSGVO gesehen und das haben wir bei der Diskussion um die EU-Urheberrechtsreform, insbesondere Uploadfilter und Leistungsschutzrecht gesehen und das sehen wir jetzt wieder beim Medienstaatsvertrag und der Kennzeichnungspflicht von “Social Bots”.

“Social Bots” sollen Menschen auf Plattformen (vermutlich vornehmlich Twitter) manipulieren und ihnen eine andere Meinung aufdrängen. Gefunden wurden bisher noch keine — Michael Kreil und Florian Gallwitz haben dazu bereits ausführlich geschrieben. Der Entwurf des Medienstaatsvertrags definiert “Social Bots” in § 55 Abs. 3 wie folgt:

“Anbieter von Telemedien in sozialen Netzwerke sind verpflichtet, bei mittels eines Computerprogramms automatisiert erstellten Inhalten oder Mitteilungen den Umstand der Automatisierung kenntlich zu machen, sofern das hierfür verwandte Nutzerkonto seinem äußeren Erscheinungsbild nach für die Nutzung durch natürliche Personen bereitgestellt wurde. Dem geteilten Inhalt oder der Mitteilung ist der Hinweis gut lesbar bei- oder voranzustellen, dass diese unter Einsatz eines das Nutzerkonto steuernden Computerprogrammes automatisiert erstellt und versandt wurde. Ein Erstellen im Sinne dieser Vorschrift liegt nicht nur vor, wenn Inhalte und Mitteilungen unmittelbar vor dem Versenden automatisiert generiert werden, sondern auch, wenn bei dem Versand automatisiert auf einen vorgefertigten Inhalt oder eine vorprogrammierte Mitteilung zurückgegriffen wird.”

Das heißt, jeder Account, der das Profilfoto eines Menschen hat (und vermutlich auch einen Namen, der wirkt, als sei da ein Mensch) und automatisiert postet oder twittert, ist ein “Social Bot”. Aha. Heißt, sobald ich mit beispielsweise Hootsuite einen Tweet einplane, weil der aus welchen Gründen auch immer, zu einer bestimmten Uhrzeit getwittert werden soll, bin ich ein Social Bot? Dass dieser Tweet dann über Hootsuite auf Twitter ausgespielt wurde, steht übrigens schon jetzt unter jedem Tweet (wie auch dort steht, ob ich mit Twitter für iOS oder über Twitter im Browser getwittert habe) — aber dennoch fordern hier die Länder in ihrem Medienstaatsvertrag eine Kennzeichnungspflicht. Warum?

Schon heute zeigt Twitter an, über welchen Zugang ein Tweet gesendet wurde.

Über Erkenntnisse einer Manipulation über solche automatisiert erstellten Tweets findet sich übrigens nichts im Medienstaatsvertrag. Auch nicht in den Stellungnahmen, die eine Kennzeichnung befürworten (zu den Befürwortern zählen Deutscher Bundesjugendring, Digitale Gesellschaft (unter Vorbehalt) und VAUNET Verband Privater Medien) und vorab angefragt wurden. Es finden sich hier auch nicht wirklich Erklärungen, warum man diese Kennzeichnung befürwortet (beispielsweise schreibt der Deutsche Bundesjugendring lediglich “Die Social Bots in sozialen Netzwerken einzubeziehen macht Sinn.”) Und obwohl mehr Interessenvertreter eine Kennzeichnungspflicht ablehnen (dazu gehören eco Verband der Internetwirtschaft, Hans Bredow Institut, Verdi und ZDF, das Mainzer Medieninstitut hält die Kennzeichnungspflicht für juristisch nicht sinnvoll, politisch hingegen schon. Die restlichen Stellungnahmen äußern sich nicht zu § 55 Abs. 3) ist man hier dennoch der Meinung, dass eine Kennzeichnungspflicht solcher Accounts sinnvoll sei. Dabei kam selbst das Büro für Technikfolgenabschätzung beim Deutschen Bundestag zu der Erkenntnis: “Eine Kennzeichnungspflicht von Bots erscheint zum jetzigen Zeitpunkt u.a. aufgrund der Schwierigkeiten bei der zuverlässigen Detektion von Bots, mangelnder Sanktionierungs-möglichkeiten sowie von Konflikten mit dem Datenschutz eher ungeeignet.” Also: was bedarf es noch, um vor schwachsinniger, überflüssiger Regulierung abzuweichen? Hier wird wieder eine Regulierung gefordert, ohne das Problem verstanden zu haben. Ohne, dass evidenzbasierte Forschung besteht und ohne sich mit den wirklichen Problemen auseinander gesetzt wurde.

Die wirklichen Probleme sind nämlich sogenannte “Trolle”, also Menschen, die versuchen zu manipulieren oder Desinformationen zu verbreiten. Das hat man bereits sehr schön bei der “Internet Research Agency” aufgezeigt, die aus dem russischen St. Petersburg versuchte (und wahrscheinlich auch Erfolg hatte), beispielsweise Afroamerikaner durch destruktive Kommentierungen unter Videos auf YouTube davon abzuhalten zur Wahl zu gehen. Auch in Deutschland waren nicht automatisierte Bots unterwegs, als während des Kanzlerduells Stimmung auf Twitter gemacht wurde. Das hat Karsten Schmehl in diesem Artikel sehr schön aufgezeigt. Den kommt man aber nicht mit der Regulierung von Technologie bei. Es sind Menschen, die sich zu koordinierten Aktionen versammeln und versuchen, Stimmungen zu erzeugen oder zu manipulieren. Automatisch generierte Inhalte sind heute noch gar nicht in der Lage, vorzugaukeln, sie seien echte Menschen — insbesondere dann nicht, wenn es um Interaktion, d.h. Diskurs geht.

Was wir brauchen, sind bessere Daten(-zugänge) bei den Plattformen für Wissenschaftler:innen, um besser raus zu finden, wer wann wie manipuliert und ob überhaupt. Hier lohnt es sich, gesetzgeberisch einzuwirken. Der neuste Report des amerikanischen Senate Select Committee on Intelligence hat beispielsweise gerade herausgefunden, dass nicht in erster Linie bezahlte Anzeigen (so auch sogenannte “Dark Ads”) ein Problem darstellen, sondern ganz normale, organische Posts. Letztere insbesondere dann, wenn die von relevanten Personen geteilt wurden: “numerous high-profile” Americans, including Trump campaign aide Roger Stone, former ambassador to Russia Michael McFaul, and Fox News host Sean Hannity, “unwittingly spread IRA [Internet Research Agency] content by liking IRA tweets or engaging with other IRA social media content, enhancing the potential audience for IRA content by millions of Americans.”

Probleme beim Thema Desinformation liegen nicht bei “Social Bots”, oder gar “Bots”. Manipulation erfolgt durch gesteuerte Kampagnen von Menschen oder durch unachtsames Teilen von Beiträgen durch Menschen des öffentlichen Lebens, unter anderem auch Politiker:innen. Hier hilft keine Regulierung von “Social Bots”, hier — und nicht nur hier — hilft nur eine faktenbasierte Regulierung, sofern denn notwendig.

Read More
Kein „Wilder Westen“. Freiheit und Verantwortung im Internet

Das Internet ist ein Versprechen von Freiheit. Doch Freiheit funktioniert nicht ohne Verantwortung. Das Internet war noch nie Wilder Westen – ein Raum, in dem keine Gesetze, keine Regulierung gegriffen hätten. Dieses Internet existierte und existiert auch heute nicht im luftleeren Raum, sondern funktioniert nur durch Server und Übertragungsmittel, die auf staatlichem Territorium stehen und damit örtlichen Gesetzen unterliegen. Natürlich müssen Gesetze für das digitale Zeitalter angepasst werden, manche auch neu geschaffen werden, wenn erkannt wird, dass neue Möglichkeiten zum Nachteil der Gesellschaft genutzt werden. Grundlage hierfür sollten immer die Werte und Prinzipien sein, die wir bereits in der analogen Welt als unseren Maßstab ansetzen. Gute Regulierung, Verantwortung, für das Internet kann nur gelingen, wenn wir es als das betrachten, was es ist: ein weltweiter Verbund von Rechnernetzwerken. Leider schauen wir zu häufig ausschließlich auf Plattformen, die im Internet existieren und versuchen diese zu regulieren, als wären sie “das Internet”. Freilich tragen Plattformen Verantwortung und gehören reguliert. Aber die Regulierung der Plattformen darf eben nicht außer Acht lassen, dass das Internet weit mehr ist als diese.

Um über Freiheit und Verantwortung im Netz zu sprechen, möchte ich das Internet verlassen und den Blick auf die gesamte digitalisierte oder noch zu digitalisierende Welt richten. Uns begegnet hier zunehmend die Frage: Wie wollen wir im Zeitalter der Digitalisierung leben? Selbst Bundespräsident Frank-Walter Steinmeier appellierte an die Besucher des Evangelischen Kirchentags 2019, dass sie sich intensiver mit dieser Fragestellung auseinandersetzen und sich einbringen sollen. Die Digitalisierung stellt uns nicht vor gänzlich neue ethische Fragen. Sie stellt uns aber vor die wichtige Aufgabe, unsere Prinzipien und Wertvorstellungen mit in die digitale Welt zu nehmen und auf diese zu übertragen. Dass das nicht immer leicht ist und uns teilweise vor enorme Herausforderungen, aber auch Chancen stellt, ist nicht überraschend. 

Im Fokus dieser digitalisierten Welt stehen algorithmische Entscheidungssysteme, die häufig hochtrabend als Entscheidungen einer Künstlichen Intelligenz dargestellt werden, es aber selten sind. Wir diskutieren sehr viel darüber, was ein autonom fahrendes Auto dürfen soll und was nicht; setzen sogar – richtigerweise – eine Ethik-Kommission ein, die dem Gesetzgeber Vorschläge zur rechtlichen Gestaltung geben soll und dies auch tat. Es wurde eine Datenethikkommission eingesetzt, die die Bundesregierung zum ethischen Umgang mit Daten berät und eine High-Level Expert Group der Europäischen Kommission, die ethische Rahmenbedingungen für den Umgang mit Künstlicher Intelligenz bereits veröffentlichte. Wir diskutieren – völlig zu recht – inwieweit Algorithmen darüber entscheiden dürfen sollen, ob jemand ins Gefängnis kommt oder nicht. Ob Algorithmen besser und neutraler entscheiden, als Richter es können, oder ob sie nicht doch Vorurteile reproduzieren. Die Tendenz dieser Diskussionen ist meistens klar: Gerade schwerwiegende Entscheidungen, die Grundrechte oder das (weitere) Leben beeinträchtigen können, sollten möglichst abschließend von Menschen getroffen werden. 

Bei algorithmischen Systemen, bei denen wir heute sagen, dass wir sie nutzen wollen, um zum Beispiel eine weitere Grundlage für menschliche Entscheidungen zu haben, sprechen wir intensiv über Probleme durch einen Bias, also einer Verzerrung, über Transparenz, Nachvollziehbarkeit und die Qualität von Daten, mit denen dieses System trainiert oder schließlich gefüttert wird. Auch hier geht die Tendenz in die Richtung, dass wir als Gesellschaft Entscheidungen, die algorithmische Systeme für uns treffen, unbedingt nachvollziehen können müssen. So können wir sie nicht nur verstehen, sondern auch an entsprechenden Stellen Beschwerde einlegen, sodass automatisierte Entscheidungen von Menschen überprüft werden. Es geht hier um nichts weniger als den Schutz von Grund- und Bürgerrechten.

Verengen wir wieder unseren Blick und schauen auf das Internet, stellt sich nun die Frage, warum wir hier nicht mit der gleichen Vorsicht und Gewissenhaftigkeit vorgehen. Betrachten wir zum Beispiel auf die EU-Urheberrechtsrichtlinie. Ja, Uploadfilter stehen nicht im Gesetzestext. Das tut aber wenig zur Sache, wenn klar ist, dass nur durch technische Hilfsmittel, durch Algorithmen, im Volksmund eben auch Uploadfilter genannt, Gesetze umgesetzt werden können. Da helfen keine nationalen Alleingänge, die Uploadfilter verbieten und Pauschallizenzen verpflichtend machen wollen. Uploadfilter sind nichts anderes als algorithmische Systeme, die abgleichen, ob für urheberrechtlich geschütztes Material, das auf eine Plattform hochgeladen wird, eine Lizenz vorhanden ist, oder ob eine der zahlreichen urheberrechtlichen Schranken greift. So zum Beispiel eine für Satire oder eine Parodie. Dass Technologie dies heute überhaupt leisten kann, wird von allen Experten stark bezweifelt. 

Nun könnte man sagen, es kann auch hier Beschwerdestellen geben, sodass ein Mensch die Entscheidung des Uploadfilters überprüfen muss. Das ist richtig. Bei der Menge an Material, das auf Plattformen hochgeladen wird – alleine auf YouTube sind es 400 Stunden pro Minute(!) – bei der Vielzahl an Sprachen, Dialekten, Slang, Insider-Witzen und sonstigen Informationen, die zur Einordnung – sei es durch Mensch oder Algorithmus – notwendig sind, ein schier unmögliches Unterfangen. Es würde nicht nur auf eine unermessliche Summe an algorithmischen Fehlentscheidungen hinauslaufen, sondern auch auf eine durch den Menschen. Von der zeitlichen Verzögerung bis zu einer Entscheidung und damit rechtmäßigen Publikation eines Beitrags auf einer Plattform, ganz zu schweigen.

Wo blieb und wo bleibt bei der Diskussion über das Internet und Plattformen, die Debatte um die Auslagerung Grundrechte betreffender Entscheidungen an algorithmische Systeme? Wir führten sie nicht und das, obwohl das Thema Ethik, die Frage nach dem guten Leben im digitalen Raum, gerade bei so vielen politischen Institutionen auf der Prioritätenliste steht. Algorithmische Entscheidungen, die die Freiheit von so vielen – hier im Speziellen die Meinungs- und Informationsfreiheit – einschränken, dürfen wir nicht zulassen. Der Erhalt und der Schutz von Urheberrechten im digitalen Raum ist wichtig und notwendig. Doch noch wichtiger ist der Erhalt von Bürgerrechten. Die Abwägung zwischen Rechtsgütern ist nichts für Algorithmen, sondern für Menschen mit entsprechender Ausbildung und Legitimation. Und auch, wenn wir Technik einsetzen dürfen, um Rechte bestmöglich zu schützen, dürfen wir algorithmischen Systemen und privatwirtschaftlichen Beschwerdestellen nicht Aufgaben übergeben, über die wir in der analogen Welt Gerichte urteilen lassen, gerade weil Sachverhalte häufig komplexer sind als eine Abfolge von Einsen und Nullen. 

Wie viel uns daran liegt, die europäischen Werte zu erhalten und zu verteidigen, zeigt sich besonders hier, im Internet. 

 

Dieser Beitrag erschien zu erst in der Politik & Kultur (Ausgabe 9/2019) des Deutschen Kulturrats.

Read More
“Bildung und Digitalpolitik: Wo bleibt die Zivilgesellschaft?” – Vortrag beim 14. For..Net Symposium an der Uni Passau

Am 28. April 2019 hielt ich auf Einladung von Prof. Dirk Heckmann beim 14. For..Net Symposium an der Uni Passau einen Vortrag über die Bedeutung der Zivilgesellschaft beim Thema Digitalpolitik. Der Vortrag kann unten angesehen oder nachgelesen werden.

 

Bildung und Digitalpolitik. Wo bleibt die Zivilgesellschaft?

Es war kurz vor Weihnachten 2015 – ein halbes Jahr nachdem es passierte. Wir sahen uns das erste Mal seit dem. Meine Mutter holte mich am Busbahnhof in Hamburg ab. Ich stieg zu ihr ins Auto. Wir fuhren keine zwei Minuten, da sagte sie ziemlich entsetzt: “Und Du bist jetzt in einer Partei?”. Ich glaube, das war das bisher einzige Mal, dass ich sie wirklich mit etwas geschockt habe. “Ja, Mama.“, sagte ich, „Die SPD, die Vorratsdatenspeicherung. Es ist einfach so passiert. Ich musste was tun.” Ich versuchte ihr das Problem mit der Vorratsdatenspeicherung zu erklären, dass unsere Bürgerrechte immer weiter eingeschränkt werden und dass uns immer mehr Überwachung droht. Sie sagte daraufhin was so viele sagen: Aber das ist doch alles nicht so schlimm. Ich hab doch nichts zu verbergen!

Wenn wir über digitale Bildung und digitale Haltung sprechen, dann müssen wir auch über Werte sprechen. Doch was sind eigentlich unsere Werte? Jeder spricht von ihnen, jeder nickt, wenn wir uns auf “unsere “Werte” berufen, aber ich wette, jeder hier würde andere nennen, wenn ich eine Umfrage mache Stimmts? Wir hätten mit Sicherheit sehr viele Überschneidungen, aber ich gehe auch felsenfest davon aus, dass wir über so einige diskutieren müssten, ob sie wirklich zu “unseren Werten” dazu gehören. 

Ich bin der Meinung, dass die Essenz unserer Werte in unserem Grundgesetz zu finden ist. Und ich bin auch der Meinung, dass die Digitalisierung uns die Möglichkeit gibt, zu reflektieren, wie sehr wir unsere Werte leben: Spiegelt ein Algorithmus Alltagsdiskriminierungen wider, denen wir uns vorher so nicht bewusst waren? Wie anstrengend ist Meinungsfreiheit eigentlich und wo beginnt der feine Unterschied zwischen Meinung und rechtswidriger Äußerung? Wie weit sollte ich die Freiheit Einzelner einschränken um eventuelle Sicherheit für alle zu gewährleisten?

Ich möchte heute über zwei Werte sprechen, die meiner Meinung nach durch die Digitalisierung, gerade auch in liberalen Demokratien, unter Druck stehen: Freiheit und Privatheit. Diese Werte sind so essentiell, aber auch so selbstverständlich geworden, dass ich glaube, dass wir uns ihnen dringend wieder bewusst werden müssen. 

Was passiert, wenn wir unsere Werte, unsere Freiheit, als gegeben ansehen und vermeintlich nichts für deren Erhalt tun müssen, sehen wir heute zur Genüge: Brexit, Uploadfilter für Urheberrechte und terroristische Inhalte, Staatstrojaner, NetzDG, Überwachungskameras mit Gesichtserkennung, die Speicherung von biometrischen Daten auf Ausweisdokumenten und in Datenbanken, Fluggastdatenspeicherung, der  Zusammenschluss von Datenbanken von Polizei und Migrationsbehörden und noch Vieles mehr.

Wo bleibt die Zivilgesellschaft? Diese Frage soll ich heute beantworten. Bei den Uploadfiltern hat sich eine gewaltige Bewegung gebildet, wenn auch erst recht spät. Die enorme Mobilisierung seit Anfang diesen Jahres verdanken wir vornehmlich YouTubern, die junge Menschen darüber informiert haben, was zu erwarten ist, wenn die EU-Urheberrechtsreform in der Form in der sie nun auch beschlossen wurde, durch kommt. Aber auch wenn ich in den vergangenen Monaten immer wieder betonen musste, dass nicht nur die “Generation YouTube” gegen die Reform protestierte, sondern auch Ältere – ich gehöre mittlerweile auch dazu – und vor allem Expertinnen und Experten aus diversen Fachgebieten, dann muss ich aber auch sagen, dass ich auf der Demo in Berlin doch hauptsächlich besagte “Generation YouTube” sah. 

Wo waren die anderen?

Von 2007 bis 2014 hatten die Freiheit statt Angst Demos großen Zulauf. Von ein paar tausend bis mehrere zehntausend Menschen demonstrierten in den Jahren für Datenschutz und gegen staatliche Überwachung. Nicht die „Generation YouTube“, denn die gab es da noch gar nicht, sondern ein breites zivilgesellschaftliches Bündnis. Der AK Vorrat und der AK Zensur, Lobbycontrol, Pro Asyl, die Verbraucherzentrale, Reporter ohne Grenzen, Verdi, IG Metall, die AIDS-Hilfe, die katholische Junge Gemeinde, um nur einige wenige zu nennen. 

Und heute? Auch bei der EU-Urheberrechtsreform gab es ein breites Bündnis, aber nicht so breit und nicht so tiefgreifend auf die Verteidigung unserer Grundwerte bedacht, wie ich es mir gewünscht hätte und wie es notwendig gewesen wäre. 

Heute wird stattdessen leider viel zu häufig auf die europäische Datenschutzgrundverordnung geschimpft. Gegen Polizeigesetze, die auch einen Staatstrojaner beinhalten wird nur in wenigen Bundesländern groß demonstriert, in vielen anderen werden sie dahin genommen, fast unbemerkt. Das neue IT-Sicherheitsgesetz, das dem Gesetzgeber erlauben soll, Verdächtige zu Herausgabe von Passwörtern zu zwingen, bekommt bei weitem nicht den Aufschrei, den es verdiente. Die Einschränkung der Meinungsfreiheit durch Uploadfilter wird bei klassischen YouTube-Videos erkannt, nicht aber bei der schwammigen Bezeichnung von “Terror”. Gesichtserkennung von staatlicher Seite findet immer häufiger statt. In Berlin am Südkreuz, an Grenzübergängen im Flughafen – wo die Daten landen und vielleicht verknüpft werden, wissen wir nicht. Oder vielleicht wüssten wir es, wenn wir uns irgendwo informierten, oder mal nachfragen. Aber wo? Und könnten uns die Beamtinnen und Beamten überhaupt darüber Auskunft geben? 

Es interessiert uns nicht. Oder zu wenig. Wir sind bei vielen Sachen zu bequem und ich nehme mich da nicht aus.  Zusammengewürfelte Datenbanken mit unsauberen Daten, die zum Verlust der Akkreditierung eines Journalisten beim G20 Gipfel in Hamburg führten, führten hauptsächlich zu Empörungen in der Bürgerrechtsszene. Datenmissbrauch durch die Polizei, wo Daten für private Zwecke missbraucht wurden, ja sogar der Datenmisabrauch durch rechte Polizeibeamte, die ihre Zugänge zur Datenbank nutzen, um Drohbriefe an Linke und Autonome zu schreiben, wie kürzlich in Berlin, führen nur zu einem Schulterzucken. Wenn überhaupt. Selbst, und das ist das Schlimmste, bei der Polizei, die sich laut Berliner Datenschutzbeauftragten nur wenig kooperativ verhält.

Katharina Nocun hat es wunderbar in ihrem Buch “Die Daten die ich rief” beschrieben. Ich zitiere: “Datenschutz stellt in einer vernetzten Welt eine der zentralen Machtfragen. Auch wenn es auf den ersten Blick nicht so erscheinen mag. Zugegeben, das Wort ‘Datenschutz’ verströmt den Charme eines Einwohnermeldeamtes. Es klingt nach Bürokratie und eilig durchgewunkenen Geschäftsbedingungen, deren erster Absatz einen dank feinstem Juristendeutsch bereits zu Tode langweilt. Das bekomme ich bei Diskussionen häufig zu spüren. Während das ehrenamtliche Engagement für Umweltschutz von den meisten Leuten als wichtiger gesellschaftlicher  Beitrag angesehen wird, leitet das Thema Datenschutz meist eine mehr oder minder turbulente Grundsatzdiskussion ein. Vielleicht kennen sie das ja auch. Immer häufiger begegnet mir dabei die Haltung ‘Ich habe nichts zu verbergen’ oder ‘Da kann man eh´ nichts machen’. Auf Datenschützer bezogen heißt das wohl: ‘Du verschwendest deine Zeit.’ Es scheint ganz so, als würde das Schrumpfen des überwachungsfreien Raumes von vielen Menschen als Lauf der Dinge hingenommen werden, als einzig mögliche logische Folge der Digitalisierung.” Zitatende.

Datenschutz stellt eine der zentralen Machtfragen. Und sie wird heute gestellt. 

Beim Lesen dieser Passage und dem Vergleich mit dem Engagement für Umweltschutz stellte sich mir unweigerlich die Frage: Brauchen wir nicht auch eine “Friday’s for Future”-Bewegung für unsere Grundrechte? Für die Sicherstellung von Freiheit und Privatheit im digitalen Raum? Ebenso wie der Einsatz für das Klima JETZT notwendig ist, um eine lebenswerte Zukunft sicherzustellen, ist auch der Einsatz für Freiheit und Privatheit im digitalen Raum JETZT notwendig. 

Doch wie kommen wir zu so einer Bewegung? Ich fürchte, sie kommt wie “Friday’s for Future” erst dann zustande, wenn Menschen zu spüren bekommen, wie sehr sie ihrer Grundrechte beschnitten werden. Also viel zu spät. 

Wir haben daher nur die Chance so eine Bewegung schnellstmöglich anzuzetteln, indem wir viel intensiver auf die Bedeutung von unseren Werten, von Freiheit und Privatheit aufmerksam machen. Und das muss die Aufgabe zivilgesellschaftlicher Akteure sein. Doch wir dürfen nicht, wie schon beim Begriff „Werte“ so abstrakt von „Freiheit“ und „Privatheit“ sprechen, sondern wir müssen diesen Begriffen Leben einhauchen. Gerade auch in Bezug auf für den digitalen Raum. Doch das kann nicht die alleinige Aufgabe von digitalpolitischen Vereinen im weitesten Sinne sein. Dafür sind sie viel zu klein und viel zu wenig in der breiten Gesellschaft verankert. Das ist keine Kritik an ihnen, das ist meiner Meinung nach ein notwendiges Übel bei hochspezialisierten Interessensgruppen. 

Wenn wir über Bildung sprechen, dann denken wir immer an Schulen. Oder auch Universitäten. Ja, auch hier müssen wir dringend dafür Sorgen, dass nicht nur im Zusammenhang mit “digitalen Medien” über Werte wie Freiheit und Privatheit gesprochen wird. Aber Bildung und Aufklärung ist in diesem Punkt vor allem bei dem Großteil der Bevölkerung essentiell, der eben nicht mehr die Schulbank drückt oder in der Vorlesung sitzt. Wir müssen – gerade was den Umgang mit der Digitalisierung, aber eben auch was die Einschränkung von Freiheiten durch die Digitalisierung angeht, dringend die breite Masse erreichen. Die, die übrigens auch wählen darf und vor allem auch wählen geht. 

Um hier anzusetzen, müssen Akteure wie die Kirchen, Gewerkschaften, Stiftungen, Vereine und alle sonstigen Organisationen mehr über über das Grundlegende sprechen, das hinter dem steht, was sie tun. Denn sie handeln ja zumeist auf Basis unserer Werte. Ihr Handeln haucht unseren Werten leben ein. Und gerade diese Akteure müssen in einer sich digitalisierenden Welt dafür sorgen, dass auch dort unsere Werte, die Werte, die sie vertreten und für die sie stehen, erhalten bleiben. Und ich muss es hier nochmal ganz klar sagen: meiner Meinung nach, haben die Gewerkschaften wie Verdi und der DJV bei der Urheberrechtsreform versagt. als gesellschaftlicher Akteur und bei der expliziten Vertretung der Interessen ihrer Mitglieder. 

Wo bleibt also die Zivilgesellschaft? Mein Glück ist ja, dass ich eigentlich gar nicht über diese teils nicht ganz greifbaren Konstrukte von Gewerkschaften, Vereinen und Stiftungen sprechen muss. Ich hab sie ja hier, die Zivilgesellschaft. Sie, ich, wir alle sind sie. Jede und jeder Einzelne hier im Raum Teil dieser Zivilgesellschaft und auch wir können Wertevermittlung und Haltung eigentlich ganz einfach in unseren Alltag einbauen.

Sprechen Sie häufiger in Ihrem Alltag über solche Themen. Gerade auch mit denjenigen, die sich eben nicht beruflich oder ehrenamtlich mit Netzpolitik oder IT-Recht beschäftigen. Das geht am Tisch beim Abendbrot, beim Sport, in der Bar mit Freunden, das Thema kann man sogar bei einem Date mal ansprechen – ist super um ein gemeinsames Wertefundament zu klären, glauben Sie mir – oder teilen Sie doch einfach mal Artikel dazu auf ihren Social Media Kanälen. Ich glaube nicht nur, dass es was bringt, ich verspreche ihnen auch, dass man so selber viel lernt und gerade auch über Twitter viele spannende Leute kennenlernen kann. 

Doch kommen wir zurück zu meiner Mutter. Die ist nämlich genau so zu einem großen Fan von Datenschutz geworden. Sie bekommt Nicht nur meine Kommentare zum Thema auf Facebook mit. Wir reden auch beim Frühstück ausgiebig über diese Themen, wenn ich bei ihr zu Besuch bin. Sie liest die Bücher zu Datenschutz, die ich mir kaufe und schimpft danach, was doch für ungeheuerliche Sachen passieren. “Sag ich ja Mama”, sag ich dann. “Gut, dass ihr was macht”, sagt sie dann. 

Bildung und Haltung basieren auf Werten. Eine aktive Zivilgesellschaft muss sich ihrer Werte wieder bewusst werden und sie verteidigen. Dazu gehört vor allem Bildung und Aufklärung abseits von Universität und Schule. Denn die Einschränkungen, die uns bedrohen, sind zu essentiell, als dass wir einfach darauf hoffen können, dass nachfolgende Generationen noch in einer freien Welt ohne extremste Überwachung leben werden.

Read More
Digitale Bildung: Probleme lassen sich nicht lösen, wenn wir nur auf die Schulen schauen. Brauchen wir eine Bundeszentrale für digitale Bildung?

Verbreitung von Desinformation, fehlendes Bewusstsein für Cybersicherheit – bei Problemen im Digitalen fordern wir fast immer eine Sache: mehr Bildung. So weit so richtig. Der Umgang mit (digitalen) Medien, der sichere Umgang im Netz, die Gefahren von Identitätsdiebstahl, Doxing, Social Engineering, usw. müssen dringend Bestandteil schulischer Bildung sein. Vergessen dürfen wir hier auch nicht die beruflichen Schulen und Universitäten. Doch wir machen es uns zu leicht, wenn wir die teils enormen Probleme mit der Verbreitung von Desinformation und menschlichem Fehlverhalten vorm Computer auf “die jungen Leute” abschieben.

Die Generation Y lernte das Netz beim Aufwachsen kennen, die Generation Z wuchs und wächst digital auf. Für die Generation X, die Babyboomer und alle noch älteren hingegen, ist das Netz wirklich Neuland. Das soll gar nicht abwertend gemeint sein, aber sie sind diejenigen, die erst in späteren Lebensjahren gelernt haben, dass Gefahren im Netz lauern können, dass Menschen online deutliche einfacher und im hohem Maße Identitäten stehlen und sie missbrauchen können. Dass nun jeder Informationen erstellen und sie verbreiten kann und es keine Gatekeeper mehr gibt, die alleinig Informationen verbreiten können. Wenn wir also davon sprechen, dass wir uns mit Bildung vor Gefahren im Netz schützen müssen, dann müssen wir auch darüber sprechen, wie wir die breite Masse der Bevölkerung – eben alle, die schon im Arbeitsleben sind, oder bereits wieder aus ihm ausgeschieden sind – erreichen können. Schließlich ist die Altersgruppe von 45 bis 55 Jahre mit 86,8 Prozent die zahlenmäßig stärkste Alterskohorte unter den Erwerbstätigen und die von 55 bis 65 Jahre mit 71,5 Prozent die drittstärkste (Stand 2018). Legt man darüber die Zahlen des Bitkom, die zeigen, dass mittlerweile jeder zweite Arbeitnehmer einen Computer am Arbeitsplatz hat und jeder dritte ein mobiles Gerät mit Internetzugang, verdeutlicht sich nochmal das Problem.

Eine Studie der Universitäten Princeton und New York unter Amerikanern zeigte, dass Nutzerinnen und Nutzer soziale Medien über 65 sieben Mal so häufig Falschmeldungen teilen, als 18- bis  29-Jährige. Die Studie begründet dies mit mangelnder digitaler Medienkompetenz  und einem schlechteren Erinnerungsvermögen. Wenn man nun bedenkt, dass das größte soziale Netzwerk Facebook im Jahr 2017 einen Nutzerzuwachs von 23 Prozentpunkten bei über 60-Jährigen verzeichnen konnte (weltweit) und immer mehr Menschen über 60 WhatsApp nutzen (in Deutschland 52% der über 60-Jährigen, Stand 2017) und Falschnachrichten nicht nur über soziale Netzwerke, sondern insbesondere über Messenger eine zunehmende Verbreitung finden, dann stehen wir vor einer enormen gesellschaftlichen Herausforderung, die eben nicht lediglich mit Konzepten für schulische Bildung in der Zukunft gelöst werden kann.

Und Falschnachrichten in Form von Text sind schon heute nicht mehr das größte Problem. Manipulierte Bilder oder in falschen Kontext gesetzte Bilder grassieren bereits jetzt zu Hauf. Ebenso darf das Manipulationspotential durch Memes, Trolle und dergleichen nicht unterschätzt werden. Doch die viel größere Bedrohung steht mit sogenannten DeepFakes ins Haus: Manipulierte Videos, die Nacktaufnahmen bzw. pornografisches Material vornehmlich von Frauen darstellen, oder Aufnahmen, die mit neuem Ton und damit auch Inhalt unterlegt werden, wobei auch die Mimik des Sprechers verändert wird und so ganz neue, nie getätigte Aussagen entstehen können. Das Missbrauchspotential dieser Technologie ist riesig und der Fall eines verbreiteten manipulierten Video der amerikanischen Kongressabgeordneten Nancy Pelosi und dessen Weiterverbreitung von diversen Politikern unter anderem auf Twitter zeigt, dass Gesellschaften noch nicht bereit sind, für einen Umgang mit dieser Art der Desinformation. Für Ältere, die sich nicht tagtäglich mit digitalen Tools – sei es auch nur zum Spaß – beschäftigen, die demonstrieren, wie Bilder und Videos manipuliert werden können, ist dies ein erhebliches Problem. Jüngere Nutzer kennen dies häufig, und sei es nur durch Filter oder Ähnliches auf Instagram, Snapchat oder TikTok.

Wie also umgehen mit dieser Problematik? Wie so oft: es gibt kein Patentrezept. Es ist aber dringend angebracht, dass sich Politik, Zivilgesellschaft und auch Unternehmen mit dieser Problematik auseinandersetzen. Unternehmen sollten ein eigenes Interesse daran haben, dass ihre Mitarbeiter lernen, Desinformation und DeepFakes von echten Informationen zu unterscheiden. Verbreiten Mitarbeiter solche, kann das nicht nur dem Ansehen des Unternehmens schaden, es schadet auch der Sicherheit des Unternehmens, wenn Mitarbeiter dubiosen Informationen trauen und sich womöglich Schadsoftware einfangen. Die Politik könnte hier mit der finanziellen Förderung entsprechender Fortbildungen unterstützen.

Bildung ist aber auch ein staatlicher Auftrag. Warum also nicht über eine Bundeszentrale für digitale Bildung, analog zur Bundeszentrale für politische Bildung nachdenken? Thematisch gäbe es hier weitaus mehr, als die Themen Desinformation und Cybersicherheit. Datenschutz bzw. der Umgang mit Daten wird immer essentieller. Von den Datenspuren durch surfen im Netz bis hin zum Umgang mit den eigenen, hochsensiblen Gesundheitsdaten. Vom Verständnis über Algorithmen bis hin zu Künstlicher Intelligenz. Themen gäbe es genug und ihre Bedeutung nimmt rasant zu.

Finnland hat dies schon erkannt und führt umfassende Bildungsmaßnahmen durch. Das Land hat durch die Grenze zu Russland schon seit Jahrzehnten mit Desinformationskampagnen zu kämpfen und daher eine ganzheitliche, nachhaltige Strategien entwickelt, um Finnlands Bürgerinnen und Bürger dagegen zu immunisieren. Manipulation durch Desinformation wird hier als ein gesamtgesellschaftliches Problem gesehen, gegen das man bereits im Kindergarten, aber auch und vor allem in späteren Lebensjahren vorgehen muss. “It’s not just a government problem, the whole society has been targeted. We are doing our part, but it’s everyone’s task to protect the Finnish democracy,” sagt zum Beispiel Jussi Toivanen, der Erwachsene in Finnland unterrichtet. Doch auch bei der breiten Aufklärung über Künstliche Intelligenz ist Finnland Vorreiter. Ein Pilotprojekt sollte ein Prozent der Finnen Grundlagen über Künstliche Intelligenz vermitteln.Die ersten Teilnehmerinnen und Teilnehmer wurden zufällig ausgewählt. Das Thema wurde digital und niedrigschwellig vermittelt, sodass es jede und jeder verstehen kann. Der Ansatz dahinter: wenn Menschen die Prinzipien von Künstlicher  Intelligenz verstehen, haben sie weniger Angst vor ihr und mehr Interesse an dessen Nutzung und damit auch der Ausgestaltung. Das Vorhaben ging auf. Heute ist der Kurs für jeden zugänglich und kostenlos nutzbar. Unternehmen und der Staat nutzen ihn, um Mitarbeiterinnen und Mitarbeiter fortzubilden, aber auch das Interesse unter den Bürgerinnen und Bürgern, die bisher keinen beruflichen Bezug zum Thema hatten, ist enorm. Ein wichtiger Schritt für Finnlands Ziel, Europas Nummer eins in der KI-Forschung zu werden.

Eine ähnliche Bildungsstrategie braucht es auch für Deutschland, denn die Probleme werden nicht weniger. Bei unserem EU-Partner können wir dafür genügend Inspiration und Lösungsansätze finden. Wichtig ist nur, dass sowohl Politik, als auch Zivilgesellschaft und Unternehmen anerkennen, dass fehlende digitale Bildung kein Problem von jungen Menschen ist, sondern von uns allen.

Dieser Artikel erschien zuerst bei der Friedrich-Naumann-Stiftung für die Freiheit.

Photo by Nicole De Khors from Burst

Read More
Dialog als Herausforderung. Wie Politik Social Media missversteht.

Erreichen Parteien die Jugend noch? Schaffen Parteien eine Kommunikation auf Augenhöhe mit der jungen Generation? Die Europawahl hat gezeigt, dass die deutschen Parteien, allen voran die CDU/CSU, nicht in der Lage sind mit jungen und allgemein digitalaffinen Menschen angemessen im Netz zu kommunizieren. Die Reaktion der CDU/CSU auf das sogenannte “Rezo Video” war fatal. Aber auch die anderen Parteien hätten es wahrscheinlich nicht besser gemeistert. Vielleicht auch das ein Grund, warum sie so still geblieben sind (einzige Ausnahme, die Antwort von Tiemo Wölken MdEP (SPD), bei dem man merkt, dass er YouTube und die Art und Weise, wie man dort kommuniziert, versteht). Es geht gar nicht nur darum, angemessen auf so ein Video zu reagieren, zu zeigen, dass irgendwer in der Kommunikationsabteilung einer Partei mal die Art und Weise, wie YouTuber kommunizieren verstanden hat und diese einordnen kann, oder überhaupt nur begreift, was YouTube für ein wichtiger Kanal für Menschen unter 30 ist. Es geht darum, endlich zu verstehen, dass soziale Netzwerke jeder und jedem die Möglichkeit geben sich zu äußern und an einer öffentlichen Diskussion teilzunehmen (Rezo ist ein solcher Bürger mit einer Meinung — und eben auch Reichweite. Seine Äußerungen traf er als Bürger). Parteien und Politik müssen verstehen, dass Menschen auch auf Kanälen wie YouTube ihre Meinung kund tun und diese ebenso ernst nehmen müssen, wie Meinungsbeiträge in klassischen Medien. Und sie müssen endlich lernen, einen Diskurs im Netz zu führen. Denn noch immer ist für viele Social Media eine weitere Möglichkeit Informationen zu senden. Der Austausch, oder gar die Möglichkeit Meinungen abzufragen und Stimmungen aufzunehmen, wird noch immer zu wenig genutzt.

Dabei muss man natürlich bedenken, dass Twitter nicht “das Internet” ist und auch Social Media bzw. die dort getätigten Äußerungen nur einen Bruchteil der Meinung der Bevölkerung abbilden. Gerade in Deutschland. Doch das ist kein Grund sich wirklichem Dialog und Austausch auf den sozialen Netzwerken zu entziehen. Und natürlich braucht so ein Austausch viel Zeit und Personal. Das ist gerade in Organisationseinheiten, die hauptsächlich von Ehrenamtlichen gestaltet werden, durchaus schwierig. Aber insbesondere die Kommunikationsabteilungen von Parteien (und anderen Organisationen) müssen dringend mehr Budgets für Social-Media-Kommunikation und damit Social-Media-Dialog zur Verfügung stellen.

Gutes Communiy-Management hat enormes Bereicherungspotential

Gerade bei kleineren Einheiten von Parteien, seien es Ortsverbände, Kandidat:innen oder Abgeordnete, ist es wichtig, dass bei der Steigerung der Fan- und Follower-Anzahl nicht auf Quantität sondern auf Qualität geachtet wird. Zumindest wenn man wirklich guten Austausch auf den sozialen Netzwerken betreiben möchte und von der eigenen Community profitieren möchte. Werbeanzeigen zur Steigerung der Fan-Anzahl in Regionen, die überhaupt nichts mit der Organisation oder der Person zu tun haben, willkürliches Einladen von neuen Fans, trägt dazu bei, dass die Community verwässert, kaum sinnvollen Input liefern kann oder im schlimmsten Fall sogar Trolle anzieht, die Dialoge zerstören. Gerade solche Entitäten haben nichts von einer großen Follower- oder Like-Zahl, hätten aber sehr viele Vorteile von einer qualitativen Community.

Hat man solch eine Community, lohnen sich Formate wie Facebook-Live oder diverse Tools zum Dialog auf Instagram. Vom Zusammenschalten mit einer weiteren Person für eine Live Diskussion, bei der auch die Zuschauer Fragen stellen können, über Umfragen für Themenwünsche oder Meinungsbilder, bis hin zum “Ask me anything”-Sticker um Fragen aus der Community zu beantworten. Die Möglichkeiten sind vielzählig. Nicht zu vergessen auch die fachliche Diskussion, die gerade auf Twitter möglich ist — wenn man denn will.

Mehr Mut ist essentiell bei neuen Dialog-Formaten

Ob eine Video-Antwort der CDU die richtige Antwort auf das “Rezo Video” gewesen wäre, darf stark bezweifelt werden. Denn nicht zu vergessen: Es geht nicht nur um die Anerkennung der Art und Weise, wie junge Menschen kommunizieren. Botschaften, die junge Menschen kommunizieren, muss ernsthaft begegnet werden. Beides ist erst nicht und dann nur unzureichend passiert. Im Gedächtnis bleibt — vor allem bei den Jungen — die Verächtlichmachung des Videos, die der YouTuber:innen (es schlossen sich über 70 weitere an) und die ihrer Meinung. Auch eine Einladung zum Gespräch ins Konrad-Adenauer-Haus ist nicht die richtige kommunikative Antwort. Denn so ein Gespräch, vermutlich auch fernab von jeder Öffentlichkeit, ist eben genau nicht das, was sich junge Menschen kommunikativ vorstellen. Ein live gestreamtes Gespräch, bei einem der YouTuber im Studio, örtlich genau dort, wo junge Menschen sind, wäre vermutlich der bessere Weg gewesen. Die Beteiligung einer breiten Öffentlichkeit. Doch dazu bedarf es Mut. Schließlich begibt man sich dann in die Gefilde der kritischen Jugend, die keine Phrasen mehr als Antwort zulässt.

 

Read More

Neueste Beiträge

  • Angriff auf das Kapitol: Eine Folge von Radikalisierung im Netz
  • Digital Services Act: Die neue Grundlage für den digitalen europäischen Binnenmarkt
  • European Democracy Action Plan: Mechanismen statt Inhalte
  • Erstunterzeichnerin der Initiative #SheTransformsIT
  • Publikation: The German Corona-App. In der Reihe “Rethinking Privacy and Mass Surveillance in the Information Age”

Neueste Kommentare

    Archive

    • Januar 2021
    • Dezember 2020
    • November 2020
    • Oktober 2020
    • August 2020
    • Juli 2020
    • April 2020
    • Januar 2020
    • November 2019
    • Oktober 2019
    • September 2019
    • August 2019
    • Mai 2019

    Kategorien

    • Allgemein
    • Digitale Bildung
    • Digitalpolitik
    • Gastbeitrag
    • Internet Governance
    • Social Media

    Beitrags-Navigation

    « 1 2 3 »
    Powered by forbetterweb.com
    Diese Website benutzt Cookies. Wenn du die Website weiter nutzt, gehen wir von deinem Einverständnis aus.OK