Blog Blog
  • Home
  • Über mich
    • Beratung
    • Politik
    • Speakerin & Moderatorin
  • Kandidatur
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt
  • Home
  • Über mich
    • Beratung
    • Politik
    • Speakerin & Moderatorin
  • Kandidatur
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt

Blog

Our Latest News

Ready to set Sails — A Vision for Europe

I gave this speech as a keynote at the Transcultural Leadership Summit in Friedrichshafen on 15 November 2019. I publish my whole vision here because due to time restrictions, I had to shorten it for the speech. Special thanks again to the students who organised the summit and especially to Kristi Grund and Laura Trattner who allowed me to talk about this important topic.

In the year of the Friday’s for Future movement against the climate crisis, I gained my Frequent Traveler status. I’m not proud of that. Rather, I am humbled and thankful. I learned how privileged I am in being a white German woman, how luxurious it is to be an owner of a German passport. I think we often forget that. I am thankful because I have several sponsors who financed these journeys, mostly the political foundations here in Germany and first and foremost the Friedrich-Naumann-Foundation for Freedom. They also made it possible that way more people from countries from all over the world came to Germany and discussed with several organisations, such as mine, about a topic that in my opinion is as important as the climate crisis but barely on the table: Civil Liberties.

I was asked to give a keynote about a vision for Europe regarding Europe’s challenges and opportunities concerning digitalisation. As this is a summit on transcultural leadership — and digitalisation and the internet is nothing that ends at one’s national borders nor at the ones of the European Union, it is today even more important to think about the German, the European role in the world as a role model. As well as to work with others and get inspired by their ideas and experiences.

I’d like to quote the Islamic Scholar Abū ʿAbdallāh Muhammad Ibn Battūta who said: “travelling it leaves you speechless then turns you into a storyteller.”

So here is my story:

Russia is a beautiful country. I didn’t expect that, honestly. I learned that minus 17 degrees aren’t as cold as one would guess and that the special blue of rivers in Siberia can’t be caught by my iPhone’s camera. I learned about the beautiful tradition of giving a toast at the dinner table and that politicians and political actors form the opposition are sometimes stopped to hold a conference due to coincidental crackdowns of hotels in a whole area. I learned that people are afraid to join political discussions of liberal parties where they are asked to register in advance. They are scared because they are working for the police, therefore the state and are too afraid because they don’t know what might happen with the data later on.

Russia is not only famous for their cyber-attacks which are quite likely driven by the Kremlin or the “Internet Research Agency” in St. Petersburg which manipulated the US election with their troll army — also commissioned by the Kremlin with a very high probability. Russia is also, sadly, famous for the pressure on and the criminalisation of journalists and activists who are fighting for press freedom, freedom of speech, against surveillance, against corruption, and for LGBTQ rights.

The Kremlin copied a law which helps them to ban unlawful content easily from the Web. Unlawful can be caricatures of Vladimir Putin or LGBTQ content. The copied law is the German Network Enforcement Act, or Netzwerkdurchsetzungsgesetz, short NetzDG or also well known as the “Facebook Bill”. It’s a law launched by the former Minister of Justice Heiko Maas and criticised by several organisations such as journalists without borders, the Amadeus Antonio Foundation, several business associations, the Association of Journalists in Germany, Wikimedia, the Open Knowledge Foundation and several others, also mine. Amongst them even the UN special rapporteur for freedom of expression, David Kaye. Think about that: A German Law gets criticised by a UN special rapporteur for freedom of expression.

This law was installed to do something against hate speech, but after almost two years, we see clearly: it doesn’t help. Hate is often not unlawful. Death threads are — that’s right, but hate? Hate speech is not even a term that is defined by our German law. And we saw it at the decision regarding the case of the politician Renate Künast by the Landgericht of Berlin that judges make decisions most people and lawyers can’t understand. And we want private companies to decide within 24 hours what is unlawful and what is not? Want them to be forced by law to delete what is in their opinion unlawful? Renate Künast has the right to appeal her judgement, and luckily she did that. If Facebook, Twitter or YouTube removed some content because of the Network Enforcement Act, you have no right to appeal against that. This is not how the rule of law should work in a constitutional state. But this is the law that Russia and several other countries who are according to Freedom House “not free” or just “partly free” copied.

Moreover, several of these countries, including Venezuela, Vietnam, India, Russia, Malaysia, and Kenya, require intermediaries to remove vague categories of content that include “fake news,” “defamation of religions,” and “anti-government propaganda,” and many of them include overly broad definitions of hate speech that go much further than the German law. Responding to criticism, Kremlin representatives argued that false information “is regulated fairly harshly in many countries of the world including Europe. It is therefore of course necessary to do it in our country too.”

We need better laws that help against unlawful content on platforms. Journalists like Margarethe Stokowski and Richard Gutjahr showed us in several articles and speeches that the Network Enforcement Act neither helps them nor does in bring perpetrators to justice.

In Russia, one can only access “free” wifi if one registered in advance with the telephone or passport number. Of course, one gets only a SIM card if one presents one’s passport — by the way, it’s the same here in Germany since a few years. Anonymous web surfing is therefore nearly impossible. The Kremlin wants to have its own internet, the RuNet. They just passed a bill that should protect them from cyber-attacks but instead, it enables the Kremlin to expand the surveillance measures. With their own Domain Name System — imagine it as the telephone numbers of the Web — they can root someone of the websites the state wants. For example, if you type in google.com the state can root you to Yandex, the Russian search engine. They are also planning to install a so-called “Deep Packaging Inspection” at every Russian internet provider. This allows the Kremlin to look into each data package which is sent through the internet, to track it and to slow down the speed of the internet.

From Russia to the land of the free, the United States. Maybe we can’t talk about digitalisation in Europe without looking jealously to the Bay Area, Redmond, and Seattle. I haven’t been to any of these places. I have been in Portland, Oregon at the re:publica sequencer tour and spoke about civil rights and digitalisation.

When we talk about the US and how they shape the digital economy, we barely talk about the algorithmic systems that are used by the government. That surveil its people that make wrong decisions on well-fare, that supports unfair decisions in court, and that promote a racial bias towards black Americans.

A bias per se is nothing wrong. We all are biased. Everyone who says he or she isn’t is entirely wrong. And that is the problem with bias: being unaware of it, not able or not willing to reflect and to act on it. And, even more problematic, to not be able to do something against a biased decision. This is a problem we see often, not only in the US but also in other countries, such as Australia and also in Europe. I will present you one example from the United States.

COMPAS, that is an algorithmic decision system that helps judges to identify if a defendant should go into prison or can be released on bail. It doesn’t use the date “race” — according to the law — but discriminates either way against it. The problem is fairness. Yes, fairness, a word like so many more we often use but never really think about what it means. What is fair?

The COMPAS algorithmic system scores each defendant and recommends to send to pre-trial jail who has a risk score higher than seven. Seems fair, right? But in reality, that means that way more black people get arrested even though their personal probability to relapse is lower. Specifically, this means that 45% of the black defendants are false-positives and just half as many white defendants are false-positives. Whereas the rate of false-negatives of white defendants who got criminal again, even though the system said they wouldn’t, was 48%.

So instead it would be fair to have a threshold for each race and keep the error rates low for both, but that is against the 14th Amendment of the US constitution — of course, for good reasons. There shouldn’t be laws or thresholds for each race. There are two definitions of fairness: keep the error rates comparable between groups, and treat people with the same risk scores in the same way. Both of these definitions are totally defensible! But satisfying both at the same time is mathematically impossible.

But aren’t humans making the same mistakes? Yes, they do. And how they make their decisions is also not transparent. But COMPAS, which is made by a private company, is a trade secret that cannot be publicly reviewed or interrogated. Defendants can no longer question its outcomes, and government agencies lose the ability to scrutinise the decision-making process. There is no more public accountability.

The more significant question about using systems like COMPAS — or any algorithms to rank people — is whether they reduce existing inequities or make them worse. We shouldn’t overestimate the power and “neutrality” of technology, nor it’s “intelligence” especially when it comes to decisions over human beings which need more intelligence than making statistical approximations based on data of the past. Please keep that in mind.

The discussions about ethics in digitalisation need to be more holistic than just about the algorithm itself. It’s about the data, the definitions we make in advance and the environments in which we implement these systems. In my opinion, creating a valuable digital world is more than financial efficiency. It’s about ensuring values such as comprehensible decisions by the state which one can appeal. It’s about the rule of law and humans ruling about humans. Algorithmic systems should be used very carefully in this area.

Most impressively was my journey to Hongkong at the beginning of this year. You might haven’t seen it on the map because it’s too small, but I didn’t want to mark China as both “countries” are very different. I’m also lucky that I was able to meet Hongkongers from the front-line in Berlin last week. These guys are showing us what happens when a digitalised state and public sphere is used to suppress its people and is not anymore in the hands of democrats.

Because they are afraid who gets access to the data they stopped using their Octopus card in Hongkong, a card with which you can buy nearly everything especially in the 7/11 stores, and you buy your ride with public transportation with it. It is connected with your credit card, and therefore one can find out who exits the metro stations of the places of the protests and who probably takes part in it. They pulled down surveillance cameras with face recognition because they haven’t had the feeling that they can exercise their democratic right to demonstrate without the fear of suppression later on.

The activists deleted the Chinese App WeChat from their phones and used Telegram as their favourite messenger because one can use it without revealing one’s own telephone number. This is necessary for the case of moles in the group or if phones get confiscated by the police. Staying as anonymous as possible is essential for their fight right now. They also switched to Telegram because they need encryption they can rely on, and Telegram also responded to their requests to change some features for Hongkongers so they can act safe and according to their motto: be like water.

“Be like water” means several things for them. This movement is different from the occupy movement. They are “flooding” areas and disappear again. They have no leader; they are using open-source technology to coordinate their protest and to vote for the next actions. They are crowd-sourced and get several financial or material donations.

And they use Apples AirDrop to communicate with each other at places where they are gathering to inform about the next plans. AirDrop works with Bluetooth and just with people near you. And it also works during internet or mobile network shut down. Hongkong shows us what happens when democracy is in severe danger; data and surveillance cameras are used against its citizens, and secure communication is uncertain.

Please don’t get the impression that I am a sceptic of the digitalisation. I’m definitely not. I am also a huge optimist, and I am willing to shape our digital future for the better. But: Ensuring democracy and civil liberties is essential when we want to live in a liveable future. Yes, China and the US might be faster in developing and implementing new technologies. But we shouldn’t only focus on speed. Instead, we should focus on building resilient democracies for the 21st century. Democratic decisions need time and that is okay, as long as they are good ones. We should focus more on the quality of policies. That is how a digitalised world will be worth living.

So here is my vision for Europe:

I want a Europe that uses digitalisation to empower its people and to strengthen democracy.

A Europe that is sovereign but does not separate itself from the world. Instead, it sets standards that open chances for everyone.

I want a Europe that makes laws that protect people from threads but also finds the balance to secure civil liberties.

And a Europe that puts content in the phrase “ethical digitalisation”. Ensuring Human Rights might be a good start.

Let’s start from the back. Why do I include Human Rights in my vision for Europe? Because too often the already mentioned UN rapporteur for freedom of expression, David Kaye, has to criticise laws from the European Union or its member states. Not only the Network Enforcement Act got criticised by him but also the European Copyright Directive — you might have heard of it or taken part in the demonstrations against Article 13, and the upload filters. The same thing is about to happen when the European Commission goes on with their plants to demand upload filters against terrorist content.

And here we see again what I mean when I say we need to talk more holistic about the implementation of algorithmic systems. Banning “terrorism” is easy, but what exactly is terrorism? When does terrorism start? Just look at the case of the “Hizbullah” and the disagreement between European member states and the European Union itself. Is the Hizbullah entirely a terrorist organisation or just the military arm and not the political one? How should a system based on mathematics and statistics — call it Artificial Intelligence, but AI and algorithms are not more than that — decide what is still political and what is already military? How should it differentiate between propaganda and legitimate coverage? All of this is obviously not only about human rights. The rights of freedom of expression and freedom of information are also enshrined in the Charter of Fundamental Rights of the European Union and here in Germany in our Grundgesetz.

The same counts for the Human Right of privacy. I don’t want a European Union or European member states that want to force messenger services to put backdoors in the encryption of messages. Also here mathematics prove to us that it is impossible to weaken encryption just for potential terrorists and not everyone else. Just look at the people of Hongkong and how urgent they need reliable encryption in their fight for democracy and civil liberties. Look at all the people who are fighting authoritarian regimes in their countries and look at all the businesses with their legitimate interests to keep their business secrets. All of their communication might be accessed by criminals or authoritarian system. The European Union must be a role model in ensuring human rights like these. These are our values; this is the ethical digitalisation we need to push forward.

Europe also needs to push forward regarding digital sovereignty. That means not being dependant on China and the United States regarding Hard- and Software. We are relying on both and are barely able to produce them on our own conditions and under our own control. We see the problems now with the 5G technology, cloud services and the dependence on software in our administrations. We saw through the revelations of Edward Snowden that the United States are spying on us and we can expect this from the Chinese. We see what happens when Donald Trump puts sanctions on states and software companies aren’t able anymore to deliver software or updates of it to some countries. Digital sovereignty does not mean that we should not use hard- or software from other parts of the world. But it means that we should be able to switch hard- and software easily, diversify it for security reasons and be not entirely dependant on others. Promoting open-source software, open and standardised interfaces, and security standards is a good start as well as fostering a European industrial policy for hardware.

The Arab Spring is long ago. Now we don’t see Social Media as a tool to empower people anymore. Instead, it is used to influence and manipulate people and elections — and I could hold another talk about online manipulation and why we can not only blame social media alone. But, the fact is that the dream of empowering the powerless through the internet started to fade. Luckily the internet is more than social media and the digitalisation is more than the internet. But also including social media and the internet itself, I still believe that we can empower the powerless. I think this will work based on three points:

First, Europe needs to support innovation for the common good and help civil society organisations to prepare for the digital age. We need special fonds for that. Thinking about digitalisation solely in the business sector is too short-sighted. And we have amazing organisations here that will create a valuable digital Europe for everyone.

Second, the person that impressed me most is Taiwan’s digital minister Audrey Tang. She shows us how we can digitalise democracy, and by that, I don’t mean voting online. Audrey Tang fosters radical transparency of the government to the people, offers regulatory sandboxes for innovative companies and asks the Taiwanese people through an online consultation about their thoughts and feelings regarding new business ideas and necessary regulations so that the acceptance of new laws and businesses are very high. With the Presidential Hackathon, the state invites civil society to invent new tools that provide a better and efficient state from which everyone benefits. We should get inspired by Taiwan and implement more ideas to strengthen democracy for the 21st century.

Third, a vision for Europe is nothing without each of you. My generation, the generation Y and the younger ones, the generation Z, grew not only up with the naturalness of the internet, but also with the imagination of the irrevocability of civil liberties. But they aren’t. We need to fight for them every day and not only every four years at the ballot box. We need to show people here in our country, in Europe, and all over the world that we are standing with them and supporting them in ensuring freedom.

Travelling the world and talking to people in their countries and here in Germany helped me to understand the importance of Europe as a role model in democracy and ensuring civil liberties in general but especially in the digital sphere. We need to preserve that. Not only for us but for everyone. Enduring freedom and civil liberties is often hard, but it is necessary so that everyone can evolve as he or she wants as long as the rule of law covers it. The author Juli Zeh just wrote for the ZEIT what also my vision is in one markable sentence. And this is also my pledge to you: Democracy, and I add “Europe”, need democrats, otherwise, it dies from within.

Thank you.

Read More
Wir brauchen eine faktenbasierte Digital- und Medienpolitik

Regulierung von “Social Bots” im neuen Medienstaatsvertrag

“European tech policies need to be based on facts, not emotions.”, habe ich kürzlich in diesem Artikel über “Tech populsim” gelesen und ich stimme nicht mit allem in diesem Text überein, mit dieser Aussage aber zu hundert Prozent. Und sie gilt nicht nur für Digitalpolitik, sondern auch für viele andere Politikbereiche, aber ganz besonders für die Digitalpolitik. Das haben wir bei der DSGVO gesehen und das haben wir bei der Diskussion um die EU-Urheberrechtsreform, insbesondere Uploadfilter und Leistungsschutzrecht gesehen und das sehen wir jetzt wieder beim Medienstaatsvertrag und der Kennzeichnungspflicht von “Social Bots”.

“Social Bots” sollen Menschen auf Plattformen (vermutlich vornehmlich Twitter) manipulieren und ihnen eine andere Meinung aufdrängen. Gefunden wurden bisher noch keine — Michael Kreil und Florian Gallwitz haben dazu bereits ausführlich geschrieben. Der Entwurf des Medienstaatsvertrags definiert “Social Bots” in § 55 Abs. 3 wie folgt:

“Anbieter von Telemedien in sozialen Netzwerke sind verpflichtet, bei mittels eines Computerprogramms automatisiert erstellten Inhalten oder Mitteilungen den Umstand der Automatisierung kenntlich zu machen, sofern das hierfür verwandte Nutzerkonto seinem äußeren Erscheinungsbild nach für die Nutzung durch natürliche Personen bereitgestellt wurde. Dem geteilten Inhalt oder der Mitteilung ist der Hinweis gut lesbar bei- oder voranzustellen, dass diese unter Einsatz eines das Nutzerkonto steuernden Computerprogrammes automatisiert erstellt und versandt wurde. Ein Erstellen im Sinne dieser Vorschrift liegt nicht nur vor, wenn Inhalte und Mitteilungen unmittelbar vor dem Versenden automatisiert generiert werden, sondern auch, wenn bei dem Versand automatisiert auf einen vorgefertigten Inhalt oder eine vorprogrammierte Mitteilung zurückgegriffen wird.”

Das heißt, jeder Account, der das Profilfoto eines Menschen hat (und vermutlich auch einen Namen, der wirkt, als sei da ein Mensch) und automatisiert postet oder twittert, ist ein “Social Bot”. Aha. Heißt, sobald ich mit beispielsweise Hootsuite einen Tweet einplane, weil der aus welchen Gründen auch immer, zu einer bestimmten Uhrzeit getwittert werden soll, bin ich ein Social Bot? Dass dieser Tweet dann über Hootsuite auf Twitter ausgespielt wurde, steht übrigens schon jetzt unter jedem Tweet (wie auch dort steht, ob ich mit Twitter für iOS oder über Twitter im Browser getwittert habe) — aber dennoch fordern hier die Länder in ihrem Medienstaatsvertrag eine Kennzeichnungspflicht. Warum?

Schon heute zeigt Twitter an, über welchen Zugang ein Tweet gesendet wurde.

Über Erkenntnisse einer Manipulation über solche automatisiert erstellten Tweets findet sich übrigens nichts im Medienstaatsvertrag. Auch nicht in den Stellungnahmen, die eine Kennzeichnung befürworten (zu den Befürwortern zählen Deutscher Bundesjugendring, Digitale Gesellschaft (unter Vorbehalt) und VAUNET Verband Privater Medien) und vorab angefragt wurden. Es finden sich hier auch nicht wirklich Erklärungen, warum man diese Kennzeichnung befürwortet (beispielsweise schreibt der Deutsche Bundesjugendring lediglich “Die Social Bots in sozialen Netzwerken einzubeziehen macht Sinn.”) Und obwohl mehr Interessenvertreter eine Kennzeichnungspflicht ablehnen (dazu gehören eco Verband der Internetwirtschaft, Hans Bredow Institut, Verdi und ZDF, das Mainzer Medieninstitut hält die Kennzeichnungspflicht für juristisch nicht sinnvoll, politisch hingegen schon. Die restlichen Stellungnahmen äußern sich nicht zu § 55 Abs. 3) ist man hier dennoch der Meinung, dass eine Kennzeichnungspflicht solcher Accounts sinnvoll sei. Dabei kam selbst das Büro für Technikfolgenabschätzung beim Deutschen Bundestag zu der Erkenntnis: “Eine Kennzeichnungspflicht von Bots erscheint zum jetzigen Zeitpunkt u.a. aufgrund der Schwierigkeiten bei der zuverlässigen Detektion von Bots, mangelnder Sanktionierungs-möglichkeiten sowie von Konflikten mit dem Datenschutz eher ungeeignet.” Also: was bedarf es noch, um vor schwachsinniger, überflüssiger Regulierung abzuweichen? Hier wird wieder eine Regulierung gefordert, ohne das Problem verstanden zu haben. Ohne, dass evidenzbasierte Forschung besteht und ohne sich mit den wirklichen Problemen auseinander gesetzt wurde.

Die wirklichen Probleme sind nämlich sogenannte “Trolle”, also Menschen, die versuchen zu manipulieren oder Desinformationen zu verbreiten. Das hat man bereits sehr schön bei der “Internet Research Agency” aufgezeigt, die aus dem russischen St. Petersburg versuchte (und wahrscheinlich auch Erfolg hatte), beispielsweise Afroamerikaner durch destruktive Kommentierungen unter Videos auf YouTube davon abzuhalten zur Wahl zu gehen. Auch in Deutschland waren nicht automatisierte Bots unterwegs, als während des Kanzlerduells Stimmung auf Twitter gemacht wurde. Das hat Karsten Schmehl in diesem Artikel sehr schön aufgezeigt. Den kommt man aber nicht mit der Regulierung von Technologie bei. Es sind Menschen, die sich zu koordinierten Aktionen versammeln und versuchen, Stimmungen zu erzeugen oder zu manipulieren. Automatisch generierte Inhalte sind heute noch gar nicht in der Lage, vorzugaukeln, sie seien echte Menschen — insbesondere dann nicht, wenn es um Interaktion, d.h. Diskurs geht.

Was wir brauchen, sind bessere Daten(-zugänge) bei den Plattformen für Wissenschaftler:innen, um besser raus zu finden, wer wann wie manipuliert und ob überhaupt. Hier lohnt es sich, gesetzgeberisch einzuwirken. Der neuste Report des amerikanischen Senate Select Committee on Intelligence hat beispielsweise gerade herausgefunden, dass nicht in erster Linie bezahlte Anzeigen (so auch sogenannte “Dark Ads”) ein Problem darstellen, sondern ganz normale, organische Posts. Letztere insbesondere dann, wenn die von relevanten Personen geteilt wurden: “numerous high-profile” Americans, including Trump campaign aide Roger Stone, former ambassador to Russia Michael McFaul, and Fox News host Sean Hannity, “unwittingly spread IRA [Internet Research Agency] content by liking IRA tweets or engaging with other IRA social media content, enhancing the potential audience for IRA content by millions of Americans.”

Probleme beim Thema Desinformation liegen nicht bei “Social Bots”, oder gar “Bots”. Manipulation erfolgt durch gesteuerte Kampagnen von Menschen oder durch unachtsames Teilen von Beiträgen durch Menschen des öffentlichen Lebens, unter anderem auch Politiker:innen. Hier hilft keine Regulierung von “Social Bots”, hier — und nicht nur hier — hilft nur eine faktenbasierte Regulierung, sofern denn notwendig.

Read More
Kein „Wilder Westen“. Freiheit und Verantwortung im Internet

Das Internet ist ein Versprechen von Freiheit. Doch Freiheit funktioniert nicht ohne Verantwortung. Das Internet war noch nie Wilder Westen – ein Raum, in dem keine Gesetze, keine Regulierung gegriffen hätten. Dieses Internet existierte und existiert auch heute nicht im luftleeren Raum, sondern funktioniert nur durch Server und Übertragungsmittel, die auf staatlichem Territorium stehen und damit örtlichen Gesetzen unterliegen. Natürlich müssen Gesetze für das digitale Zeitalter angepasst werden, manche auch neu geschaffen werden, wenn erkannt wird, dass neue Möglichkeiten zum Nachteil der Gesellschaft genutzt werden. Grundlage hierfür sollten immer die Werte und Prinzipien sein, die wir bereits in der analogen Welt als unseren Maßstab ansetzen. Gute Regulierung, Verantwortung, für das Internet kann nur gelingen, wenn wir es als das betrachten, was es ist: ein weltweiter Verbund von Rechnernetzwerken. Leider schauen wir zu häufig ausschließlich auf Plattformen, die im Internet existieren und versuchen diese zu regulieren, als wären sie “das Internet”. Freilich tragen Plattformen Verantwortung und gehören reguliert. Aber die Regulierung der Plattformen darf eben nicht außer Acht lassen, dass das Internet weit mehr ist als diese.

Um über Freiheit und Verantwortung im Netz zu sprechen, möchte ich das Internet verlassen und den Blick auf die gesamte digitalisierte oder noch zu digitalisierende Welt richten. Uns begegnet hier zunehmend die Frage: Wie wollen wir im Zeitalter der Digitalisierung leben? Selbst Bundespräsident Frank-Walter Steinmeier appellierte an die Besucher des Evangelischen Kirchentags 2019, dass sie sich intensiver mit dieser Fragestellung auseinandersetzen und sich einbringen sollen. Die Digitalisierung stellt uns nicht vor gänzlich neue ethische Fragen. Sie stellt uns aber vor die wichtige Aufgabe, unsere Prinzipien und Wertvorstellungen mit in die digitale Welt zu nehmen und auf diese zu übertragen. Dass das nicht immer leicht ist und uns teilweise vor enorme Herausforderungen, aber auch Chancen stellt, ist nicht überraschend. 

Im Fokus dieser digitalisierten Welt stehen algorithmische Entscheidungssysteme, die häufig hochtrabend als Entscheidungen einer Künstlichen Intelligenz dargestellt werden, es aber selten sind. Wir diskutieren sehr viel darüber, was ein autonom fahrendes Auto dürfen soll und was nicht; setzen sogar – richtigerweise – eine Ethik-Kommission ein, die dem Gesetzgeber Vorschläge zur rechtlichen Gestaltung geben soll und dies auch tat. Es wurde eine Datenethikkommission eingesetzt, die die Bundesregierung zum ethischen Umgang mit Daten berät und eine High-Level Expert Group der Europäischen Kommission, die ethische Rahmenbedingungen für den Umgang mit Künstlicher Intelligenz bereits veröffentlichte. Wir diskutieren – völlig zu recht – inwieweit Algorithmen darüber entscheiden dürfen sollen, ob jemand ins Gefängnis kommt oder nicht. Ob Algorithmen besser und neutraler entscheiden, als Richter es können, oder ob sie nicht doch Vorurteile reproduzieren. Die Tendenz dieser Diskussionen ist meistens klar: Gerade schwerwiegende Entscheidungen, die Grundrechte oder das (weitere) Leben beeinträchtigen können, sollten möglichst abschließend von Menschen getroffen werden. 

Bei algorithmischen Systemen, bei denen wir heute sagen, dass wir sie nutzen wollen, um zum Beispiel eine weitere Grundlage für menschliche Entscheidungen zu haben, sprechen wir intensiv über Probleme durch einen Bias, also einer Verzerrung, über Transparenz, Nachvollziehbarkeit und die Qualität von Daten, mit denen dieses System trainiert oder schließlich gefüttert wird. Auch hier geht die Tendenz in die Richtung, dass wir als Gesellschaft Entscheidungen, die algorithmische Systeme für uns treffen, unbedingt nachvollziehen können müssen. So können wir sie nicht nur verstehen, sondern auch an entsprechenden Stellen Beschwerde einlegen, sodass automatisierte Entscheidungen von Menschen überprüft werden. Es geht hier um nichts weniger als den Schutz von Grund- und Bürgerrechten.

Verengen wir wieder unseren Blick und schauen auf das Internet, stellt sich nun die Frage, warum wir hier nicht mit der gleichen Vorsicht und Gewissenhaftigkeit vorgehen. Betrachten wir zum Beispiel auf die EU-Urheberrechtsrichtlinie. Ja, Uploadfilter stehen nicht im Gesetzestext. Das tut aber wenig zur Sache, wenn klar ist, dass nur durch technische Hilfsmittel, durch Algorithmen, im Volksmund eben auch Uploadfilter genannt, Gesetze umgesetzt werden können. Da helfen keine nationalen Alleingänge, die Uploadfilter verbieten und Pauschallizenzen verpflichtend machen wollen. Uploadfilter sind nichts anderes als algorithmische Systeme, die abgleichen, ob für urheberrechtlich geschütztes Material, das auf eine Plattform hochgeladen wird, eine Lizenz vorhanden ist, oder ob eine der zahlreichen urheberrechtlichen Schranken greift. So zum Beispiel eine für Satire oder eine Parodie. Dass Technologie dies heute überhaupt leisten kann, wird von allen Experten stark bezweifelt. 

Nun könnte man sagen, es kann auch hier Beschwerdestellen geben, sodass ein Mensch die Entscheidung des Uploadfilters überprüfen muss. Das ist richtig. Bei der Menge an Material, das auf Plattformen hochgeladen wird – alleine auf YouTube sind es 400 Stunden pro Minute(!) – bei der Vielzahl an Sprachen, Dialekten, Slang, Insider-Witzen und sonstigen Informationen, die zur Einordnung – sei es durch Mensch oder Algorithmus – notwendig sind, ein schier unmögliches Unterfangen. Es würde nicht nur auf eine unermessliche Summe an algorithmischen Fehlentscheidungen hinauslaufen, sondern auch auf eine durch den Menschen. Von der zeitlichen Verzögerung bis zu einer Entscheidung und damit rechtmäßigen Publikation eines Beitrags auf einer Plattform, ganz zu schweigen.

Wo blieb und wo bleibt bei der Diskussion über das Internet und Plattformen, die Debatte um die Auslagerung Grundrechte betreffender Entscheidungen an algorithmische Systeme? Wir führten sie nicht und das, obwohl das Thema Ethik, die Frage nach dem guten Leben im digitalen Raum, gerade bei so vielen politischen Institutionen auf der Prioritätenliste steht. Algorithmische Entscheidungen, die die Freiheit von so vielen – hier im Speziellen die Meinungs- und Informationsfreiheit – einschränken, dürfen wir nicht zulassen. Der Erhalt und der Schutz von Urheberrechten im digitalen Raum ist wichtig und notwendig. Doch noch wichtiger ist der Erhalt von Bürgerrechten. Die Abwägung zwischen Rechtsgütern ist nichts für Algorithmen, sondern für Menschen mit entsprechender Ausbildung und Legitimation. Und auch, wenn wir Technik einsetzen dürfen, um Rechte bestmöglich zu schützen, dürfen wir algorithmischen Systemen und privatwirtschaftlichen Beschwerdestellen nicht Aufgaben übergeben, über die wir in der analogen Welt Gerichte urteilen lassen, gerade weil Sachverhalte häufig komplexer sind als eine Abfolge von Einsen und Nullen. 

Wie viel uns daran liegt, die europäischen Werte zu erhalten und zu verteidigen, zeigt sich besonders hier, im Internet. 

 

Dieser Beitrag erschien zu erst in der Politik & Kultur (Ausgabe 9/2019) des Deutschen Kulturrats.

Read More
“Bildung und Digitalpolitik: Wo bleibt die Zivilgesellschaft?” – Vortrag beim 14. For..Net Symposium an der Uni Passau

Am 28. April 2019 hielt ich auf Einladung von Prof. Dirk Heckmann beim 14. For..Net Symposium an der Uni Passau einen Vortrag über die Bedeutung der Zivilgesellschaft beim Thema Digitalpolitik. Der Vortrag kann unten angesehen oder nachgelesen werden.

 

Bildung und Digitalpolitik. Wo bleibt die Zivilgesellschaft?

Es war kurz vor Weihnachten 2015 – ein halbes Jahr nachdem es passierte. Wir sahen uns das erste Mal seit dem. Meine Mutter holte mich am Busbahnhof in Hamburg ab. Ich stieg zu ihr ins Auto. Wir fuhren keine zwei Minuten, da sagte sie ziemlich entsetzt: “Und Du bist jetzt in einer Partei?”. Ich glaube, das war das bisher einzige Mal, dass ich sie wirklich mit etwas geschockt habe. “Ja, Mama.“, sagte ich, „Die SPD, die Vorratsdatenspeicherung. Es ist einfach so passiert. Ich musste was tun.” Ich versuchte ihr das Problem mit der Vorratsdatenspeicherung zu erklären, dass unsere Bürgerrechte immer weiter eingeschränkt werden und dass uns immer mehr Überwachung droht. Sie sagte daraufhin was so viele sagen: Aber das ist doch alles nicht so schlimm. Ich hab doch nichts zu verbergen!

Wenn wir über digitale Bildung und digitale Haltung sprechen, dann müssen wir auch über Werte sprechen. Doch was sind eigentlich unsere Werte? Jeder spricht von ihnen, jeder nickt, wenn wir uns auf “unsere “Werte” berufen, aber ich wette, jeder hier würde andere nennen, wenn ich eine Umfrage mache Stimmts? Wir hätten mit Sicherheit sehr viele Überschneidungen, aber ich gehe auch felsenfest davon aus, dass wir über so einige diskutieren müssten, ob sie wirklich zu “unseren Werten” dazu gehören. 

Ich bin der Meinung, dass die Essenz unserer Werte in unserem Grundgesetz zu finden ist. Und ich bin auch der Meinung, dass die Digitalisierung uns die Möglichkeit gibt, zu reflektieren, wie sehr wir unsere Werte leben: Spiegelt ein Algorithmus Alltagsdiskriminierungen wider, denen wir uns vorher so nicht bewusst waren? Wie anstrengend ist Meinungsfreiheit eigentlich und wo beginnt der feine Unterschied zwischen Meinung und rechtswidriger Äußerung? Wie weit sollte ich die Freiheit Einzelner einschränken um eventuelle Sicherheit für alle zu gewährleisten?

Ich möchte heute über zwei Werte sprechen, die meiner Meinung nach durch die Digitalisierung, gerade auch in liberalen Demokratien, unter Druck stehen: Freiheit und Privatheit. Diese Werte sind so essentiell, aber auch so selbstverständlich geworden, dass ich glaube, dass wir uns ihnen dringend wieder bewusst werden müssen. 

Was passiert, wenn wir unsere Werte, unsere Freiheit, als gegeben ansehen und vermeintlich nichts für deren Erhalt tun müssen, sehen wir heute zur Genüge: Brexit, Uploadfilter für Urheberrechte und terroristische Inhalte, Staatstrojaner, NetzDG, Überwachungskameras mit Gesichtserkennung, die Speicherung von biometrischen Daten auf Ausweisdokumenten und in Datenbanken, Fluggastdatenspeicherung, der  Zusammenschluss von Datenbanken von Polizei und Migrationsbehörden und noch Vieles mehr.

Wo bleibt die Zivilgesellschaft? Diese Frage soll ich heute beantworten. Bei den Uploadfiltern hat sich eine gewaltige Bewegung gebildet, wenn auch erst recht spät. Die enorme Mobilisierung seit Anfang diesen Jahres verdanken wir vornehmlich YouTubern, die junge Menschen darüber informiert haben, was zu erwarten ist, wenn die EU-Urheberrechtsreform in der Form in der sie nun auch beschlossen wurde, durch kommt. Aber auch wenn ich in den vergangenen Monaten immer wieder betonen musste, dass nicht nur die “Generation YouTube” gegen die Reform protestierte, sondern auch Ältere – ich gehöre mittlerweile auch dazu – und vor allem Expertinnen und Experten aus diversen Fachgebieten, dann muss ich aber auch sagen, dass ich auf der Demo in Berlin doch hauptsächlich besagte “Generation YouTube” sah. 

Wo waren die anderen?

Von 2007 bis 2014 hatten die Freiheit statt Angst Demos großen Zulauf. Von ein paar tausend bis mehrere zehntausend Menschen demonstrierten in den Jahren für Datenschutz und gegen staatliche Überwachung. Nicht die „Generation YouTube“, denn die gab es da noch gar nicht, sondern ein breites zivilgesellschaftliches Bündnis. Der AK Vorrat und der AK Zensur, Lobbycontrol, Pro Asyl, die Verbraucherzentrale, Reporter ohne Grenzen, Verdi, IG Metall, die AIDS-Hilfe, die katholische Junge Gemeinde, um nur einige wenige zu nennen. 

Und heute? Auch bei der EU-Urheberrechtsreform gab es ein breites Bündnis, aber nicht so breit und nicht so tiefgreifend auf die Verteidigung unserer Grundwerte bedacht, wie ich es mir gewünscht hätte und wie es notwendig gewesen wäre. 

Heute wird stattdessen leider viel zu häufig auf die europäische Datenschutzgrundverordnung geschimpft. Gegen Polizeigesetze, die auch einen Staatstrojaner beinhalten wird nur in wenigen Bundesländern groß demonstriert, in vielen anderen werden sie dahin genommen, fast unbemerkt. Das neue IT-Sicherheitsgesetz, das dem Gesetzgeber erlauben soll, Verdächtige zu Herausgabe von Passwörtern zu zwingen, bekommt bei weitem nicht den Aufschrei, den es verdiente. Die Einschränkung der Meinungsfreiheit durch Uploadfilter wird bei klassischen YouTube-Videos erkannt, nicht aber bei der schwammigen Bezeichnung von “Terror”. Gesichtserkennung von staatlicher Seite findet immer häufiger statt. In Berlin am Südkreuz, an Grenzübergängen im Flughafen – wo die Daten landen und vielleicht verknüpft werden, wissen wir nicht. Oder vielleicht wüssten wir es, wenn wir uns irgendwo informierten, oder mal nachfragen. Aber wo? Und könnten uns die Beamtinnen und Beamten überhaupt darüber Auskunft geben? 

Es interessiert uns nicht. Oder zu wenig. Wir sind bei vielen Sachen zu bequem und ich nehme mich da nicht aus.  Zusammengewürfelte Datenbanken mit unsauberen Daten, die zum Verlust der Akkreditierung eines Journalisten beim G20 Gipfel in Hamburg führten, führten hauptsächlich zu Empörungen in der Bürgerrechtsszene. Datenmissbrauch durch die Polizei, wo Daten für private Zwecke missbraucht wurden, ja sogar der Datenmisabrauch durch rechte Polizeibeamte, die ihre Zugänge zur Datenbank nutzen, um Drohbriefe an Linke und Autonome zu schreiben, wie kürzlich in Berlin, führen nur zu einem Schulterzucken. Wenn überhaupt. Selbst, und das ist das Schlimmste, bei der Polizei, die sich laut Berliner Datenschutzbeauftragten nur wenig kooperativ verhält.

Katharina Nocun hat es wunderbar in ihrem Buch “Die Daten die ich rief” beschrieben. Ich zitiere: “Datenschutz stellt in einer vernetzten Welt eine der zentralen Machtfragen. Auch wenn es auf den ersten Blick nicht so erscheinen mag. Zugegeben, das Wort ‘Datenschutz’ verströmt den Charme eines Einwohnermeldeamtes. Es klingt nach Bürokratie und eilig durchgewunkenen Geschäftsbedingungen, deren erster Absatz einen dank feinstem Juristendeutsch bereits zu Tode langweilt. Das bekomme ich bei Diskussionen häufig zu spüren. Während das ehrenamtliche Engagement für Umweltschutz von den meisten Leuten als wichtiger gesellschaftlicher  Beitrag angesehen wird, leitet das Thema Datenschutz meist eine mehr oder minder turbulente Grundsatzdiskussion ein. Vielleicht kennen sie das ja auch. Immer häufiger begegnet mir dabei die Haltung ‘Ich habe nichts zu verbergen’ oder ‘Da kann man eh´ nichts machen’. Auf Datenschützer bezogen heißt das wohl: ‘Du verschwendest deine Zeit.’ Es scheint ganz so, als würde das Schrumpfen des überwachungsfreien Raumes von vielen Menschen als Lauf der Dinge hingenommen werden, als einzig mögliche logische Folge der Digitalisierung.” Zitatende.

Datenschutz stellt eine der zentralen Machtfragen. Und sie wird heute gestellt. 

Beim Lesen dieser Passage und dem Vergleich mit dem Engagement für Umweltschutz stellte sich mir unweigerlich die Frage: Brauchen wir nicht auch eine “Friday’s for Future”-Bewegung für unsere Grundrechte? Für die Sicherstellung von Freiheit und Privatheit im digitalen Raum? Ebenso wie der Einsatz für das Klima JETZT notwendig ist, um eine lebenswerte Zukunft sicherzustellen, ist auch der Einsatz für Freiheit und Privatheit im digitalen Raum JETZT notwendig. 

Doch wie kommen wir zu so einer Bewegung? Ich fürchte, sie kommt wie “Friday’s for Future” erst dann zustande, wenn Menschen zu spüren bekommen, wie sehr sie ihrer Grundrechte beschnitten werden. Also viel zu spät. 

Wir haben daher nur die Chance so eine Bewegung schnellstmöglich anzuzetteln, indem wir viel intensiver auf die Bedeutung von unseren Werten, von Freiheit und Privatheit aufmerksam machen. Und das muss die Aufgabe zivilgesellschaftlicher Akteure sein. Doch wir dürfen nicht, wie schon beim Begriff „Werte“ so abstrakt von „Freiheit“ und „Privatheit“ sprechen, sondern wir müssen diesen Begriffen Leben einhauchen. Gerade auch in Bezug auf für den digitalen Raum. Doch das kann nicht die alleinige Aufgabe von digitalpolitischen Vereinen im weitesten Sinne sein. Dafür sind sie viel zu klein und viel zu wenig in der breiten Gesellschaft verankert. Das ist keine Kritik an ihnen, das ist meiner Meinung nach ein notwendiges Übel bei hochspezialisierten Interessensgruppen. 

Wenn wir über Bildung sprechen, dann denken wir immer an Schulen. Oder auch Universitäten. Ja, auch hier müssen wir dringend dafür Sorgen, dass nicht nur im Zusammenhang mit “digitalen Medien” über Werte wie Freiheit und Privatheit gesprochen wird. Aber Bildung und Aufklärung ist in diesem Punkt vor allem bei dem Großteil der Bevölkerung essentiell, der eben nicht mehr die Schulbank drückt oder in der Vorlesung sitzt. Wir müssen – gerade was den Umgang mit der Digitalisierung, aber eben auch was die Einschränkung von Freiheiten durch die Digitalisierung angeht, dringend die breite Masse erreichen. Die, die übrigens auch wählen darf und vor allem auch wählen geht. 

Um hier anzusetzen, müssen Akteure wie die Kirchen, Gewerkschaften, Stiftungen, Vereine und alle sonstigen Organisationen mehr über über das Grundlegende sprechen, das hinter dem steht, was sie tun. Denn sie handeln ja zumeist auf Basis unserer Werte. Ihr Handeln haucht unseren Werten leben ein. Und gerade diese Akteure müssen in einer sich digitalisierenden Welt dafür sorgen, dass auch dort unsere Werte, die Werte, die sie vertreten und für die sie stehen, erhalten bleiben. Und ich muss es hier nochmal ganz klar sagen: meiner Meinung nach, haben die Gewerkschaften wie Verdi und der DJV bei der Urheberrechtsreform versagt. als gesellschaftlicher Akteur und bei der expliziten Vertretung der Interessen ihrer Mitglieder. 

Wo bleibt also die Zivilgesellschaft? Mein Glück ist ja, dass ich eigentlich gar nicht über diese teils nicht ganz greifbaren Konstrukte von Gewerkschaften, Vereinen und Stiftungen sprechen muss. Ich hab sie ja hier, die Zivilgesellschaft. Sie, ich, wir alle sind sie. Jede und jeder Einzelne hier im Raum Teil dieser Zivilgesellschaft und auch wir können Wertevermittlung und Haltung eigentlich ganz einfach in unseren Alltag einbauen.

Sprechen Sie häufiger in Ihrem Alltag über solche Themen. Gerade auch mit denjenigen, die sich eben nicht beruflich oder ehrenamtlich mit Netzpolitik oder IT-Recht beschäftigen. Das geht am Tisch beim Abendbrot, beim Sport, in der Bar mit Freunden, das Thema kann man sogar bei einem Date mal ansprechen – ist super um ein gemeinsames Wertefundament zu klären, glauben Sie mir – oder teilen Sie doch einfach mal Artikel dazu auf ihren Social Media Kanälen. Ich glaube nicht nur, dass es was bringt, ich verspreche ihnen auch, dass man so selber viel lernt und gerade auch über Twitter viele spannende Leute kennenlernen kann. 

Doch kommen wir zurück zu meiner Mutter. Die ist nämlich genau so zu einem großen Fan von Datenschutz geworden. Sie bekommt Nicht nur meine Kommentare zum Thema auf Facebook mit. Wir reden auch beim Frühstück ausgiebig über diese Themen, wenn ich bei ihr zu Besuch bin. Sie liest die Bücher zu Datenschutz, die ich mir kaufe und schimpft danach, was doch für ungeheuerliche Sachen passieren. “Sag ich ja Mama”, sag ich dann. “Gut, dass ihr was macht”, sagt sie dann. 

Bildung und Haltung basieren auf Werten. Eine aktive Zivilgesellschaft muss sich ihrer Werte wieder bewusst werden und sie verteidigen. Dazu gehört vor allem Bildung und Aufklärung abseits von Universität und Schule. Denn die Einschränkungen, die uns bedrohen, sind zu essentiell, als dass wir einfach darauf hoffen können, dass nachfolgende Generationen noch in einer freien Welt ohne extremste Überwachung leben werden.

Read More
Digitale Bildung: Probleme lassen sich nicht lösen, wenn wir nur auf die Schulen schauen. Brauchen wir eine Bundeszentrale für digitale Bildung?

Verbreitung von Desinformation, fehlendes Bewusstsein für Cybersicherheit – bei Problemen im Digitalen fordern wir fast immer eine Sache: mehr Bildung. So weit so richtig. Der Umgang mit (digitalen) Medien, der sichere Umgang im Netz, die Gefahren von Identitätsdiebstahl, Doxing, Social Engineering, usw. müssen dringend Bestandteil schulischer Bildung sein. Vergessen dürfen wir hier auch nicht die beruflichen Schulen und Universitäten. Doch wir machen es uns zu leicht, wenn wir die teils enormen Probleme mit der Verbreitung von Desinformation und menschlichem Fehlverhalten vorm Computer auf “die jungen Leute” abschieben.

Die Generation Y lernte das Netz beim Aufwachsen kennen, die Generation Z wuchs und wächst digital auf. Für die Generation X, die Babyboomer und alle noch älteren hingegen, ist das Netz wirklich Neuland. Das soll gar nicht abwertend gemeint sein, aber sie sind diejenigen, die erst in späteren Lebensjahren gelernt haben, dass Gefahren im Netz lauern können, dass Menschen online deutliche einfacher und im hohem Maße Identitäten stehlen und sie missbrauchen können. Dass nun jeder Informationen erstellen und sie verbreiten kann und es keine Gatekeeper mehr gibt, die alleinig Informationen verbreiten können. Wenn wir also davon sprechen, dass wir uns mit Bildung vor Gefahren im Netz schützen müssen, dann müssen wir auch darüber sprechen, wie wir die breite Masse der Bevölkerung – eben alle, die schon im Arbeitsleben sind, oder bereits wieder aus ihm ausgeschieden sind – erreichen können. Schließlich ist die Altersgruppe von 45 bis 55 Jahre mit 86,8 Prozent die zahlenmäßig stärkste Alterskohorte unter den Erwerbstätigen und die von 55 bis 65 Jahre mit 71,5 Prozent die drittstärkste (Stand 2018). Legt man darüber die Zahlen des Bitkom, die zeigen, dass mittlerweile jeder zweite Arbeitnehmer einen Computer am Arbeitsplatz hat und jeder dritte ein mobiles Gerät mit Internetzugang, verdeutlicht sich nochmal das Problem.

Eine Studie der Universitäten Princeton und New York unter Amerikanern zeigte, dass Nutzerinnen und Nutzer soziale Medien über 65 sieben Mal so häufig Falschmeldungen teilen, als 18- bis  29-Jährige. Die Studie begründet dies mit mangelnder digitaler Medienkompetenz  und einem schlechteren Erinnerungsvermögen. Wenn man nun bedenkt, dass das größte soziale Netzwerk Facebook im Jahr 2017 einen Nutzerzuwachs von 23 Prozentpunkten bei über 60-Jährigen verzeichnen konnte (weltweit) und immer mehr Menschen über 60 WhatsApp nutzen (in Deutschland 52% der über 60-Jährigen, Stand 2017) und Falschnachrichten nicht nur über soziale Netzwerke, sondern insbesondere über Messenger eine zunehmende Verbreitung finden, dann stehen wir vor einer enormen gesellschaftlichen Herausforderung, die eben nicht lediglich mit Konzepten für schulische Bildung in der Zukunft gelöst werden kann.

Und Falschnachrichten in Form von Text sind schon heute nicht mehr das größte Problem. Manipulierte Bilder oder in falschen Kontext gesetzte Bilder grassieren bereits jetzt zu Hauf. Ebenso darf das Manipulationspotential durch Memes, Trolle und dergleichen nicht unterschätzt werden. Doch die viel größere Bedrohung steht mit sogenannten DeepFakes ins Haus: Manipulierte Videos, die Nacktaufnahmen bzw. pornografisches Material vornehmlich von Frauen darstellen, oder Aufnahmen, die mit neuem Ton und damit auch Inhalt unterlegt werden, wobei auch die Mimik des Sprechers verändert wird und so ganz neue, nie getätigte Aussagen entstehen können. Das Missbrauchspotential dieser Technologie ist riesig und der Fall eines verbreiteten manipulierten Video der amerikanischen Kongressabgeordneten Nancy Pelosi und dessen Weiterverbreitung von diversen Politikern unter anderem auf Twitter zeigt, dass Gesellschaften noch nicht bereit sind, für einen Umgang mit dieser Art der Desinformation. Für Ältere, die sich nicht tagtäglich mit digitalen Tools – sei es auch nur zum Spaß – beschäftigen, die demonstrieren, wie Bilder und Videos manipuliert werden können, ist dies ein erhebliches Problem. Jüngere Nutzer kennen dies häufig, und sei es nur durch Filter oder Ähnliches auf Instagram, Snapchat oder TikTok.

Wie also umgehen mit dieser Problematik? Wie so oft: es gibt kein Patentrezept. Es ist aber dringend angebracht, dass sich Politik, Zivilgesellschaft und auch Unternehmen mit dieser Problematik auseinandersetzen. Unternehmen sollten ein eigenes Interesse daran haben, dass ihre Mitarbeiter lernen, Desinformation und DeepFakes von echten Informationen zu unterscheiden. Verbreiten Mitarbeiter solche, kann das nicht nur dem Ansehen des Unternehmens schaden, es schadet auch der Sicherheit des Unternehmens, wenn Mitarbeiter dubiosen Informationen trauen und sich womöglich Schadsoftware einfangen. Die Politik könnte hier mit der finanziellen Förderung entsprechender Fortbildungen unterstützen.

Bildung ist aber auch ein staatlicher Auftrag. Warum also nicht über eine Bundeszentrale für digitale Bildung, analog zur Bundeszentrale für politische Bildung nachdenken? Thematisch gäbe es hier weitaus mehr, als die Themen Desinformation und Cybersicherheit. Datenschutz bzw. der Umgang mit Daten wird immer essentieller. Von den Datenspuren durch surfen im Netz bis hin zum Umgang mit den eigenen, hochsensiblen Gesundheitsdaten. Vom Verständnis über Algorithmen bis hin zu Künstlicher Intelligenz. Themen gäbe es genug und ihre Bedeutung nimmt rasant zu.

Finnland hat dies schon erkannt und führt umfassende Bildungsmaßnahmen durch. Das Land hat durch die Grenze zu Russland schon seit Jahrzehnten mit Desinformationskampagnen zu kämpfen und daher eine ganzheitliche, nachhaltige Strategien entwickelt, um Finnlands Bürgerinnen und Bürger dagegen zu immunisieren. Manipulation durch Desinformation wird hier als ein gesamtgesellschaftliches Problem gesehen, gegen das man bereits im Kindergarten, aber auch und vor allem in späteren Lebensjahren vorgehen muss. “It’s not just a government problem, the whole society has been targeted. We are doing our part, but it’s everyone’s task to protect the Finnish democracy,” sagt zum Beispiel Jussi Toivanen, der Erwachsene in Finnland unterrichtet. Doch auch bei der breiten Aufklärung über Künstliche Intelligenz ist Finnland Vorreiter. Ein Pilotprojekt sollte ein Prozent der Finnen Grundlagen über Künstliche Intelligenz vermitteln.Die ersten Teilnehmerinnen und Teilnehmer wurden zufällig ausgewählt. Das Thema wurde digital und niedrigschwellig vermittelt, sodass es jede und jeder verstehen kann. Der Ansatz dahinter: wenn Menschen die Prinzipien von Künstlicher  Intelligenz verstehen, haben sie weniger Angst vor ihr und mehr Interesse an dessen Nutzung und damit auch der Ausgestaltung. Das Vorhaben ging auf. Heute ist der Kurs für jeden zugänglich und kostenlos nutzbar. Unternehmen und der Staat nutzen ihn, um Mitarbeiterinnen und Mitarbeiter fortzubilden, aber auch das Interesse unter den Bürgerinnen und Bürgern, die bisher keinen beruflichen Bezug zum Thema hatten, ist enorm. Ein wichtiger Schritt für Finnlands Ziel, Europas Nummer eins in der KI-Forschung zu werden.

Eine ähnliche Bildungsstrategie braucht es auch für Deutschland, denn die Probleme werden nicht weniger. Bei unserem EU-Partner können wir dafür genügend Inspiration und Lösungsansätze finden. Wichtig ist nur, dass sowohl Politik, als auch Zivilgesellschaft und Unternehmen anerkennen, dass fehlende digitale Bildung kein Problem von jungen Menschen ist, sondern von uns allen.

Dieser Artikel erschien zuerst bei der Friedrich-Naumann-Stiftung für die Freiheit.

Photo by Nicole De Khors from Burst

Read More
Dialog als Herausforderung. Wie Politik Social Media missversteht.

Erreichen Parteien die Jugend noch? Schaffen Parteien eine Kommunikation auf Augenhöhe mit der jungen Generation? Die Europawahl hat gezeigt, dass die deutschen Parteien, allen voran die CDU/CSU, nicht in der Lage sind mit jungen und allgemein digitalaffinen Menschen angemessen im Netz zu kommunizieren. Die Reaktion der CDU/CSU auf das sogenannte “Rezo Video” war fatal. Aber auch die anderen Parteien hätten es wahrscheinlich nicht besser gemeistert. Vielleicht auch das ein Grund, warum sie so still geblieben sind (einzige Ausnahme, die Antwort von Tiemo Wölken MdEP (SPD), bei dem man merkt, dass er YouTube und die Art und Weise, wie man dort kommuniziert, versteht). Es geht gar nicht nur darum, angemessen auf so ein Video zu reagieren, zu zeigen, dass irgendwer in der Kommunikationsabteilung einer Partei mal die Art und Weise, wie YouTuber kommunizieren verstanden hat und diese einordnen kann, oder überhaupt nur begreift, was YouTube für ein wichtiger Kanal für Menschen unter 30 ist. Es geht darum, endlich zu verstehen, dass soziale Netzwerke jeder und jedem die Möglichkeit geben sich zu äußern und an einer öffentlichen Diskussion teilzunehmen (Rezo ist ein solcher Bürger mit einer Meinung — und eben auch Reichweite. Seine Äußerungen traf er als Bürger). Parteien und Politik müssen verstehen, dass Menschen auch auf Kanälen wie YouTube ihre Meinung kund tun und diese ebenso ernst nehmen müssen, wie Meinungsbeiträge in klassischen Medien. Und sie müssen endlich lernen, einen Diskurs im Netz zu führen. Denn noch immer ist für viele Social Media eine weitere Möglichkeit Informationen zu senden. Der Austausch, oder gar die Möglichkeit Meinungen abzufragen und Stimmungen aufzunehmen, wird noch immer zu wenig genutzt.

Dabei muss man natürlich bedenken, dass Twitter nicht “das Internet” ist und auch Social Media bzw. die dort getätigten Äußerungen nur einen Bruchteil der Meinung der Bevölkerung abbilden. Gerade in Deutschland. Doch das ist kein Grund sich wirklichem Dialog und Austausch auf den sozialen Netzwerken zu entziehen. Und natürlich braucht so ein Austausch viel Zeit und Personal. Das ist gerade in Organisationseinheiten, die hauptsächlich von Ehrenamtlichen gestaltet werden, durchaus schwierig. Aber insbesondere die Kommunikationsabteilungen von Parteien (und anderen Organisationen) müssen dringend mehr Budgets für Social-Media-Kommunikation und damit Social-Media-Dialog zur Verfügung stellen.

Gutes Communiy-Management hat enormes Bereicherungspotential

Gerade bei kleineren Einheiten von Parteien, seien es Ortsverbände, Kandidat:innen oder Abgeordnete, ist es wichtig, dass bei der Steigerung der Fan- und Follower-Anzahl nicht auf Quantität sondern auf Qualität geachtet wird. Zumindest wenn man wirklich guten Austausch auf den sozialen Netzwerken betreiben möchte und von der eigenen Community profitieren möchte. Werbeanzeigen zur Steigerung der Fan-Anzahl in Regionen, die überhaupt nichts mit der Organisation oder der Person zu tun haben, willkürliches Einladen von neuen Fans, trägt dazu bei, dass die Community verwässert, kaum sinnvollen Input liefern kann oder im schlimmsten Fall sogar Trolle anzieht, die Dialoge zerstören. Gerade solche Entitäten haben nichts von einer großen Follower- oder Like-Zahl, hätten aber sehr viele Vorteile von einer qualitativen Community.

Hat man solch eine Community, lohnen sich Formate wie Facebook-Live oder diverse Tools zum Dialog auf Instagram. Vom Zusammenschalten mit einer weiteren Person für eine Live Diskussion, bei der auch die Zuschauer Fragen stellen können, über Umfragen für Themenwünsche oder Meinungsbilder, bis hin zum “Ask me anything”-Sticker um Fragen aus der Community zu beantworten. Die Möglichkeiten sind vielzählig. Nicht zu vergessen auch die fachliche Diskussion, die gerade auf Twitter möglich ist — wenn man denn will.

Mehr Mut ist essentiell bei neuen Dialog-Formaten

Ob eine Video-Antwort der CDU die richtige Antwort auf das “Rezo Video” gewesen wäre, darf stark bezweifelt werden. Denn nicht zu vergessen: Es geht nicht nur um die Anerkennung der Art und Weise, wie junge Menschen kommunizieren. Botschaften, die junge Menschen kommunizieren, muss ernsthaft begegnet werden. Beides ist erst nicht und dann nur unzureichend passiert. Im Gedächtnis bleibt — vor allem bei den Jungen — die Verächtlichmachung des Videos, die der YouTuber:innen (es schlossen sich über 70 weitere an) und die ihrer Meinung. Auch eine Einladung zum Gespräch ins Konrad-Adenauer-Haus ist nicht die richtige kommunikative Antwort. Denn so ein Gespräch, vermutlich auch fernab von jeder Öffentlichkeit, ist eben genau nicht das, was sich junge Menschen kommunikativ vorstellen. Ein live gestreamtes Gespräch, bei einem der YouTuber im Studio, örtlich genau dort, wo junge Menschen sind, wäre vermutlich der bessere Weg gewesen. Die Beteiligung einer breiten Öffentlichkeit. Doch dazu bedarf es Mut. Schließlich begibt man sich dann in die Gefilde der kritischen Jugend, die keine Phrasen mehr als Antwort zulässt.

 

Read More
Urheberrechtsreform: „Ein Angriff auf unsere Meinungsfreiheit“

„Eine Verpflichtung von Plattformen zum Einsatz von Upload-Filtern, um von Nutzern hochgeladene Inhalte nach urheberrechtsverletzenden Inhalten zu ‚filtern‘, lehnen wir als unverhältnismäßig ab.“
So steht es unmissverständlich im Koalitionsvertrag von CDU, CSU und SPD. Und doch sollen mit der EU-Urheberrechtsrichtlinie, die vermutlich am 26. oder 27. März verabschiedet wird, vor allem aufgrund von Bestrebungen aus Deutschland und Frankreich, genau diese kommen. Wenn auch nicht explizit, ist doch mittlerweile auch dem Letzten klar, dass Artikel 13 – der jetzt Artikel 17 heißt – nichts anderes bedeuten wird. Selbst die Bundesjustizministerin Katarina Barley hat diese Erkenntnis zuletzt öffentlich eingestanden.

Die EU-Urheberrechtsreform ist ein Baustein eines wichtigen Projekts: ein einheitlicher europäischer digitaler Binnenmarkt. Gerade wenn Europa ein Gegengewicht zu digitalen Unternehmen und Geschäftsmodellen aus den USA oder China werden möchte, ist diese Harmonisierung enorm wichtig. Doch die Artikel 11 (das Leistungsschutzrecht für Presseverleger) und Artikel 13 (Uploadfilter) sind nicht nur ein Hindernis für die digitale Zukunft Europas, sie sind auch ein Angriff auf unsere Meinungsfreiheit.

Die Rechte von Urheberinnen und Urhebern gelten auch im digitalen Raum. Daran gibt es keinen Zweifel und sie gelten dort auch schon heute. Plattformen wie YouTube und Facebook fallen unter ein Haftungsprivileg. Das heißt, sie haften erst, wenn sie über diese Kenntnis erlangen und nicht handeln. Nach dem sogenannten Notice-and-Takedown-Verfahren müssen Plattformen, nachdem sie auf eine Rechtsverletzung aufmerksam gemacht wurden, die entsprechenden Inhalte entfernen. Das funktionierte bislang gut. Plattformen haben in der Regel kein Interesse daran, dass Rechtsverletzungen auf ihren Plattformen stattfinden. YouTube hat daher zum Beispiel das ContentID-System entwickelt, mit dem Urheberrechtsverletzungen aufgespürt werden können und Urheberinnen und Urheber entscheiden können, ob sie eine Urheberrechtsverletzung zulassen möchten, oder eben nicht. Ebenso können sie zum Beispiel ihre Inhalte zur Nutzung freigeben, aber die Werbeeinnahmen, die mit ihrem urheberrechtlich geschützten Werk erzielt werden, für sich beanspruchen. Das funktioniert mehr oder weniger gut. Obwohl YouTube über 100 Millionen Dollar in die Entwicklung dieses Systems (das ja, auch filtert) gesteckt hat, funktioniert es bei Weitem nicht einwandfrei. So hat dieses System beispielsweise ein Video des bekannten deutschen Journalisten und YouTubers Herr Newstime von einer Demo gegen Artikel 13 nicht veröffentlicht, weil im Hintergrund Musik lief. Diese Musik ist natürlich urheberrechtlich geschützt, aber sie ist in dem Video nur Beiwerk gewesen – rechtlich also einwandfrei. Nur konnte das System dies nicht richtig erkennen. Womit wir beim Problem von Artikel 13 wären.

Mit der EU-Urheberrechtsreform sollen Plattformen die volle Haftung für Inhalte und damit auch für Urheberrechtsverletzungen tragen. Um dieser Haftung zu entgehen, sollen sie Lizenzen erwerben, sodass Nutzerinnen und Nutzer weiterhin alles hochladen können, Urheberinnen und Urheber aber durch die Lizenzgebühren für die Nutzung ihrer Inhalte entlohnt werden. So weit so gut, denn natürlich sollen Urheberrechte nicht verletzt werden und natürlich sollen Urheberinnen und Urheber fair entlohnt werden. Nur stößt jetzt die Theorie auf die Praxis. Denn Lizenzen für alle urheberrechtlich geschützten Werke zu erwerben ist schier unmöglich. Zunächst, weil längst nicht alle Inhalte von den Urhebern lizensiert werden (dass Hollywood Lizenzen an YouTube vergibt, darf bezweifelt werden). Auch, weil wir jeden einzelnen privaten Upload lizenzieren müssten. Denn schließlich habe auch ich Urheberrechte auf meine Fotos, die ich bei Instagram hochlade.

Parodien auf Star Wars Videos, bei denen kurze Videosequenzen aus diesen Filmen gezeigt werden, wären so, obwohl ggf. vom Urheberrecht gedeckt, nicht mehr möglich. Denn Videoplattformen bräuchten umfassende Lizenzvereinbarung und müssten beim Upload das Video mit einem Uploadfilter scannen, um zu überprüfen, ob es für alle Inhalte eine Lizenz hat und das Video gegebenenfalls sperren, wenn für die Star Wars-Sequenz keine Lizenz vorliegt. Wer meint, dass Technologie heute oder in absehbarer Zeit so weit wäre, dass sie Parodien, Zitate oder andere, legale Verwendungen erkennen kann, der sei nochmal auf das Beispiel von Herr Newstime verwiesen. Weitere Beispiele sind dieses Video von Pinkstinks, diese Montage von Mario Barth und “Die Anstalt” oder das nicht Erkennen gemeinfreier Werke. Bei einem Upload von 400 Stunden Videomaterial pro Minute(!) alleine auf YouTube, würde schon ein einstelliger Fehlerquotient eines Filtersystems eine enorme Menge an fehlerhaften (Nicht-)Uploads verursachen.

Die EU-Urheberrechtsreform soll die Marktmacht von Google, Facebook und Co  brechen. Axel Voss (CDU), Berichterstatter für die Urheberrechtsrichtlinie, behauptet immer wieder, dass Plattformen wie YouTube ihre Marktmacht auf Urheberrechtsverletzungen aufgebaut hätten. Abgesehen davon, dass dafür eigentlich das Kartellrecht zuständig wäre, wird mit der Reform genau das Gegenteil erreicht. Die großen Konzerne sind die einzigen, die die finanziellen Möglichkeiten haben, ein System zu entwickeln, das die hochgeladenen Inhalte auf Urheberrechtsverstöße überprüft oder Lizenzen zu verhandeln und möglichst pauschal zu erwerben. Zwar gibt es Ausnahmen für Startups, diese greifen aber bereits ab einem Unternehmensalter von drei Jahren nicht mehr. Mit Sicherheit nicht der Zeitpunkt, bei dem ein Startup 100 Mio. Dollar übrig hat, um so ein System zu entwickeln. Außerdem entstünde bei der Überprüfung eine enorme Datenflut, die nicht nur dem Bundesdatenschutzbeauftragten Ulrich Kelber Sorge bereitet. Allen kleinen Plattformen wird also nichts anderes übrigen bleiben, als diese Technologie bei Anbietern einzukaufen, die sich deren Entwicklung leisten können: Google und Facebook.

Das Internet ist kein rechtsfreier Raum. Das Internet ist aber auch ein Versprechen von Freiheit. Diese, insbesondere die Meinungsfreiheit, wird aber durch die EU-Urheberrechtsreform in ihrer jetzigen Form enorm eingeschränkt. Das sieht auch der UN-Sonderberichterstatter für Meinungsfreiheit David Kaye so. Wir brauchen ein Urheberrecht, das den Bedürfnissen der digitalen Welt gerecht wird und einen Interessenausgleich zwischen allen Beteiligten schafft. Als LOAD rufen wir daher dringend dazu auf, Artikel 13 und auch Artikel 11 abzulehnen und am 23. März 2019 europaweit zu demonstrieren.

 

Dieser Beitrag erschien zuerst auf #FreiheitDigital der Friedrich-Naumann-Stiftung.

Read More
Digital-Gipfel oder EDV-Gipfel?

Ist das noch der Digital-Gipfel oder schon eine Selbsthilfegruppe, die sich der Vergangenheitsbewältigung verschrieben hat? Nicht umsonst wurde über den „#EDVGipfel” in Nürnberg gespottet. Immerhin haben die fast ausschließlich aus Politik und Konzernen bestehenden Gäste über Ethik in Bezug auf Künstliche Intelligenz diskutiert. Richtigerweise stellten sie fest, dass wir als Europa ein Gegengewicht zu den KI-Anwendungen aus den USA und China brauchen. Der Erhalt unserer europäischen Werte, insbesondere der Bürgerrechte, ist in einer digitalisierten Welt enorm wichtig.

Dabei stellt sich die Frage, warum sich Deutschland nicht intensiver um eine europäische KI-Strategie kümmert. Neben Phrasen in der vorgelegten Strategie zu Europa und einer nunmehr nur noch losen Zusammenarbeit mit Frankreich, zeigt auch die Fokussierung auf das Label „KI ‚Made in Germany‘” und die fast nicht vorhandene europäische Beteiligung am Digital-Gipfel, dass man die Wichtigkeit eines europäischen Projekts bei diesem Thema nicht erkannt hat. Deutschland wird nicht als Einzelkämpfer bestehen können. Peter Altmaiers Vision eines europäischen „Airbus-Projekts” für KI hilft da wenig; er verkennt dabei, dass KI kein Produkt oder Dienstleistung an sich ist, sondern diese in der Umsetzung unterstützt.

KI-Strategie ohne Zielsetzung

Essentiell für eine Strategie wären Zielvorgaben, Milestones, eine Überprüfung. Es ist auch unklar, ob und wie nachgesteuert wird, wenn die KI-Strategie in der Praxis nicht tragfähig ist. Angela Merkel bewies dabei erst jüngst im Bundestag, dass sie weiß, wie wichtig Agilität bei Digitalprojekten ist. Dies fehlt im Papier der Bundesregierung. Bei vielen Projekten der Bundesregierung lässt sich konkrete Erfolgsmessung abseits der reinen Umsetzung vermissen. Auch auf Rückfrage bei der Vorstellung der „Once Only 2.0”-Plattform konnte nicht konkret gesagt, werden, wann diese Plattform – sofern sie denn jemals kommt, ein Erfolg sei. Bereits die eID im Personalausweis zeigte, dass es mit dem einfachen Abschließen eines Projekts bei weitem nicht getan ist.

Ebenfalls wichtig beim Thema Werte und ebenfalls nicht mitbedacht beim Digital Gipfel ist die Zivilgesellschaft. Dabei liefert sie wertvolle Impulse und trägt die Entwicklung in die Breite. Auf den viel zu groß und viel zu männlich besetzten Panels und bei den Impulsvorträgen fehlte sie nahezu vollständig. Stattdessen diskutierten hauptsächlich Vertreterinnen und Vertreter von Konzernen. Innovationen werden aber von jungen Startups getrieben. Aber Jugendlichkeit und Zukunftsvision war scheinbar ohnehin nicht gefragt.

Testosteron statt Innovation

Viel zu groß und viel zu männlich war auch das Panel zu „KI und Cybersecurity” mit Bundesinnenminister Horst Seehofer, der sich in solch einem Umfeld aber bekanntlich sehr wohl fühlt. Weniger wohl fühlte er sich aber sichtlich mit dem Thema. Seine Keynote hielt er größtenteils frei und ebenso frei von Inhalten.

KI sei Thema in seinem Ministerium, das BSI mache gute und international anerkannte Arbeit. Mehr substanziellen Inhalt zu dem Thema des Nachmittags konnte auch das bereits erwähnte anschließende Panel nicht aus ihm herauslocken. Es offenbarte allerdings, dass das Thema nicht wirklich wichtig zu sein schien. Mit wirklicher Expertise stach vor allem Jörn Müller-Quade vom Karlsruher Institut für Technologie (KIT) hervor, der dankenswerterweise darauf hinwies, dass das Offenhalten von Sicherheitslücken schädlich für die Cyber-Sicherheit sei, und dass der von Seehofer angedeutete Gegenschlag nach Angriffen auf Kritische Infrastrukturen, ebenfalls kein sinnvoller Teil einer Cyber-Sicherheitsstrategie sein sollte. Eine gute Cyber-Sicherheitsstrategie muss aber die Basis für eine digitalisierte Welt sein. Die Flapsigkeit, mit der das Panel vor einem Fachpublikum auch noch moderiert wurde, zeugt nicht davon, dass dem Veranstalter die Relevanz dieses Themas bewusst ist.

Not macht erfinderisch

Zu wenig Beachtung findet auch die Praxis. Ein Positivbeispiel lieferte das Bundesamt für Migration und Flüchtlinge (BAMF). Die Behörde, die Gastgeberin für die Vorstellung der Plattform „Once Only 2.0“ war, wurde bei der Digitalisierung der Verwaltung vom Getriebenen zum Treiber. Das hohe Aufkommen von Asyl-Anträgen seit dem Jahr 2015 zwang die Behörde, möglichst schnell Prozesse zu optimieren und damit auch zu digitalisieren. KI und Automatisierungsprozesse werden nun erfolgreich eingesetzt; unter anderem Anträge und Anfragen dadurch zügiger beantwortet und nicht zuletzt Papier gespart.

Dass Vorzeigeprojekte im Bereich der Digitalisierung so wenig Beachtung finden zeigt nicht nur, dass dem Thema noch zu wenig Brisanz und Relevanz beigemessen wird, es zeigt auch dass es der Bundesregierung an Geschichten fehlt, die erzählen, was die Digitalisierung für jede Einzelne und jeden Einzelnen bedeuten kann und wie wir sie in unserem Alltag erfahren können.

Visionen fehlen auch bei der KI-Strategie. Wo geht es hin? Wo stehen wir in 50 Jahren? Wie sieht unsere Welt dann konkret aus? Mit klaren Bildern und Geschichten könnten Ängste genommen und Chancen aufgezeigt werden. KI ist nur eine Technologie, erst ihr tatsächlicher Einsatz an Produkten oder Dienstleistungen macht sie nützlich und sichtbar. Wie Künstliche Intelligenz zum Umweltschutz beitragen kann – das wäre ein spannendes und enorm wichtiges Thema. Dies wäre ein Themenschwerpunkt, den die Bundesregierung visionär angehen könnte. Aber bitte nicht erst zum nächsten Digital-Gipfel.

 

Dieser Beitrag erschien zuerst in der Aausgabe vom 5. Dezember 2018 des Tagesspiegel Baground Digitalisierung & KI

Read More

Neueste Beiträge

  • Gender Data Gap – die unsichtbaren Frauen
  • Bewerbungsrede zur Listenaufstellung der Berliner FDP
  • Portrait: Technologie muss den Menschen schützen
  • Finalistin beim FTAfelicitas-Preis des Femtec.Alumnae e.V.
  • Datenschutz: Den ritualisierten Debatten entkommen

Neueste Kommentare

    Archive

    • März 2021
    • Februar 2021
    • Januar 2021
    • Dezember 2020
    • November 2020
    • Oktober 2020
    • August 2020
    • Juli 2020
    • April 2020
    • Januar 2020
    • November 2019
    • Oktober 2019
    • September 2019
    • August 2019
    • Mai 2019

    Kategorien

    • Allgemein
    • Bundestagskandidatur
    • Digitale Bildung
    • Digitalpolitik
    • Gastbeitrag
    • Internet Governance
    • Social Media

    Beitrags-Navigation

    « 1 2 3
    Powered by forbetterweb.com
    Diese Website benutzt Cookies. Bitte wähle aus, ob dies für Dich OK ist, oder ob Du diese ablehnen möchtest. OKNeinDatenschutzerklärung