Wir brauchen eine faktenbasierte Digital- und Medienpolitik
Regulierung von “Social Bots” im neuen Medienstaatsvertrag
“European tech policies need to be based on facts, not emotions.”, habe ich kürzlich in diesem Artikel über “Tech populsim” gelesen und ich stimme nicht mit allem in diesem Text überein, mit dieser Aussage aber zu hundert Prozent. Und sie gilt nicht nur für Digitalpolitik, sondern auch für viele andere Politikbereiche, aber ganz besonders für die Digitalpolitik. Das haben wir bei der DSGVO gesehen und das haben wir bei der Diskussion um die EU-Urheberrechtsreform, insbesondere Uploadfilter und Leistungsschutzrecht gesehen und das sehen wir jetzt wieder beim Medienstaatsvertrag und der Kennzeichnungspflicht von “Social Bots”.
“Social Bots” sollen Menschen auf Plattformen (vermutlich vornehmlich Twitter) manipulieren und ihnen eine andere Meinung aufdrängen. Gefunden wurden bisher noch keine — Michael Kreil und Florian Gallwitz haben dazu bereits ausführlich geschrieben. Der Entwurf des Medienstaatsvertrags definiert “Social Bots” in § 55 Abs. 3 wie folgt:
“Anbieter von Telemedien in sozialen Netzwerke sind verpflichtet, bei mittels eines Computerprogramms automatisiert erstellten Inhalten oder Mitteilungen den Umstand der Automatisierung kenntlich zu machen, sofern das hierfür verwandte Nutzerkonto seinem äußeren Erscheinungsbild nach für die Nutzung durch natürliche Personen bereitgestellt wurde. Dem geteilten Inhalt oder der Mitteilung ist der Hinweis gut lesbar bei- oder voranzustellen, dass diese unter Einsatz eines das Nutzerkonto steuernden Computerprogrammes automatisiert erstellt und versandt wurde. Ein Erstellen im Sinne dieser Vorschrift liegt nicht nur vor, wenn Inhalte und Mitteilungen unmittelbar vor dem Versenden automatisiert generiert werden, sondern auch, wenn bei dem Versand automatisiert auf einen vorgefertigten Inhalt oder eine vorprogrammierte Mitteilung zurückgegriffen wird.”
Das heißt, jeder Account, der das Profilfoto eines Menschen hat (und vermutlich auch einen Namen, der wirkt, als sei da ein Mensch) und automatisiert postet oder twittert, ist ein “Social Bot”. Aha. Heißt, sobald ich mit beispielsweise Hootsuite einen Tweet einplane, weil der aus welchen Gründen auch immer, zu einer bestimmten Uhrzeit getwittert werden soll, bin ich ein Social Bot? Dass dieser Tweet dann über Hootsuite auf Twitter ausgespielt wurde, steht übrigens schon jetzt unter jedem Tweet (wie auch dort steht, ob ich mit Twitter für iOS oder über Twitter im Browser getwittert habe) — aber dennoch fordern hier die Länder in ihrem Medienstaatsvertrag eine Kennzeichnungspflicht. Warum?
Über Erkenntnisse einer Manipulation über solche automatisiert erstellten Tweets findet sich übrigens nichts im Medienstaatsvertrag. Auch nicht in den Stellungnahmen, die eine Kennzeichnung befürworten (zu den Befürwortern zählen Deutscher Bundesjugendring, Digitale Gesellschaft (unter Vorbehalt) und VAUNET Verband Privater Medien) und vorab angefragt wurden. Es finden sich hier auch nicht wirklich Erklärungen, warum man diese Kennzeichnung befürwortet (beispielsweise schreibt der Deutsche Bundesjugendring lediglich “Die Social Bots in sozialen Netzwerken einzubeziehen macht Sinn.”) Und obwohl mehr Interessenvertreter eine Kennzeichnungspflicht ablehnen (dazu gehören eco Verband der Internetwirtschaft, Hans Bredow Institut, Verdi und ZDF, das Mainzer Medieninstitut hält die Kennzeichnungspflicht für juristisch nicht sinnvoll, politisch hingegen schon. Die restlichen Stellungnahmen äußern sich nicht zu § 55 Abs. 3) ist man hier dennoch der Meinung, dass eine Kennzeichnungspflicht solcher Accounts sinnvoll sei. Dabei kam selbst das Büro für Technikfolgenabschätzung beim Deutschen Bundestag zu der Erkenntnis: “Eine Kennzeichnungspflicht von Bots erscheint zum jetzigen Zeitpunkt u.a. aufgrund der Schwierigkeiten bei der zuverlässigen Detektion von Bots, mangelnder Sanktionierungs-möglichkeiten sowie von Konflikten mit dem Datenschutz eher ungeeignet.” Also: was bedarf es noch, um vor schwachsinniger, überflüssiger Regulierung abzuweichen? Hier wird wieder eine Regulierung gefordert, ohne das Problem verstanden zu haben. Ohne, dass evidenzbasierte Forschung besteht und ohne sich mit den wirklichen Problemen auseinander gesetzt wurde.
Die wirklichen Probleme sind nämlich sogenannte “Trolle”, also Menschen, die versuchen zu manipulieren oder Desinformationen zu verbreiten. Das hat man bereits sehr schön bei der “Internet Research Agency” aufgezeigt, die aus dem russischen St. Petersburg versuchte (und wahrscheinlich auch Erfolg hatte), beispielsweise Afroamerikaner durch destruktive Kommentierungen unter Videos auf YouTube davon abzuhalten zur Wahl zu gehen. Auch in Deutschland waren nicht automatisierte Bots unterwegs, als während des Kanzlerduells Stimmung auf Twitter gemacht wurde. Das hat Karsten Schmehl in diesem Artikel sehr schön aufgezeigt. Den kommt man aber nicht mit der Regulierung von Technologie bei. Es sind Menschen, die sich zu koordinierten Aktionen versammeln und versuchen, Stimmungen zu erzeugen oder zu manipulieren. Automatisch generierte Inhalte sind heute noch gar nicht in der Lage, vorzugaukeln, sie seien echte Menschen — insbesondere dann nicht, wenn es um Interaktion, d.h. Diskurs geht.
Was wir brauchen, sind bessere Daten(-zugänge) bei den Plattformen für Wissenschaftler:innen, um besser raus zu finden, wer wann wie manipuliert und ob überhaupt. Hier lohnt es sich, gesetzgeberisch einzuwirken. Der neuste Report des amerikanischen Senate Select Committee on Intelligence hat beispielsweise gerade herausgefunden, dass nicht in erster Linie bezahlte Anzeigen (so auch sogenannte “Dark Ads”) ein Problem darstellen, sondern ganz normale, organische Posts. Letztere insbesondere dann, wenn die von relevanten Personen geteilt wurden: “numerous high-profile” Americans, including Trump campaign aide Roger Stone, former ambassador to Russia Michael McFaul, and Fox News host Sean Hannity, “unwittingly spread IRA [Internet Research Agency] content by liking IRA tweets or engaging with other IRA social media content, enhancing the potential audience for IRA content by millions of Americans.”
Probleme beim Thema Desinformation liegen nicht bei “Social Bots”, oder gar “Bots”. Manipulation erfolgt durch gesteuerte Kampagnen von Menschen oder durch unachtsames Teilen von Beiträgen durch Menschen des öffentlichen Lebens, unter anderem auch Politiker:innen. Hier hilft keine Regulierung von “Social Bots”, hier — und nicht nur hier — hilft nur eine faktenbasierte Regulierung, sofern denn notwendig.