Tracking-App: Was in der Debatte bisher fehlt Tracking-App: Was in der Debatte bisher fehlt
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt
  • Home
  • Über mich
    • Über mich
    • Speakerin & Moderatorin
  • Termine
  • Blog
  • Newsletter
  • Presse
  • Kontakt

Ethik

Tag: Ethik

Tracking-App: Was in der Debatte bisher fehlt

In der Diskussion um eine Tracking-App zur Rückverfolgung von Kontakten geht es um Privatsphäre und IT-Sicherheit. Dabei müsste eigentlich der Mensch im Zentrum stehen, fordern Christin Schäfer von acs plus und Ann Cathrin Riedel von LOAD. Hilft die Information auf diesem Weg? Was sind die Folgen für den Einzelnen?

Bisher fokussiert sich die Diskussion zur Ausgestaltung einer möglichen App zur Rückverfolgung von Kontakten auf Datenschutz und IT-Sicherheit. So wichtig diese Aspekte sind, wird damit ein Kernelement des Systems vergessen: der Mensch. Ganz unabhängig von der Maßnahme, muss der Mensch im Mittelpunkt stehen. Nehmen wir an, eine App kann die notwendigen Anforderungen an Datenschutz, Privatsphäre und IT-Sicherheit erfüllen, dann lautet eine wesentliche Ausgestaltungsfrage: wie kommuniziert die Corona-App mit den Menschen? Wie wird das Ergebnis konkret mitgeteilt? Ein mögliches Infektionsrisiko mittels einer App zu berechnen ist das eine. Das Ergebnis dieser Berechnungen mitzuteilen, ist etwas ganz anderes. Gesundheit und Wohlergehen hat auch eine psychische Komponente, die bei der Ausgestaltung des Gesamtsystems rund um eine Maßnahme nicht vergessen werden darf.

Eine wesentliche Frage beim Design, nicht nur einer App lautet: wie geht der Empfänger oder die Empfängerin mit einer solchen, kritischen Nachricht um? Insbesondere, wenn diese im Wirrwarr von allen andere möglichen Push-Mitteilungen auf dem Smartphone erscheint; zwischen WhatsApp-Nachrichten, den neuesten „Breaking News“ und der Erinnerung an einen Termin.

„Sehr geehrte Nutzerin, sehr geehrter Nutzer, wir haben bei Ihnen ein Covid-19 Risiko von 69% ermittelt. Freundliche Grüße, Ihr App-Anbieter.“ Unpersönlicher und weniger empathisch können schlechte Nachrichten nicht überbracht werden.

Was wissen wir über die Vermittlung dieser Art von Nachricht zum Beispiel aus dem Bereich der Krebsvorsorge? Ein Infekt mit Corona ist zum Glück kein Todesurteil. Aber für einige Personengruppen kommt es einem solchen schon erschreckend nahe. Wer älter, geschwächt und vielleicht zeitlebens mit Lungenproblemen gestraft ist, weiß, was die Stunde geschlagen hat. Zudem: nur wenige Menschen können mit Wahrscheinlichkeiten umgehen. Fragen Sie sich doch mal selber: bei einer Regenwahrscheinlichkeit von 60% – nehmen Sie den Regenschirm mit oder lassen Sie ihn zuhause? Ist ein „Risk Score“, dessen Ableitung unklar ist, eine kluge Wahl in der Mitteilung an den Nutzer der App? Werden sich nicht viele vor allem verunsichert fühlen?

Eine persönliche Ansprache bei der Meldung ist außerdem nicht möglich – soll die App doch anonym nutzbar sein. Wie sicher kann sich der Nutzer oder die Nutzerin sein, dass hier nicht ein Fehler passierte? Dass eigentlich eine andere Person diese Mitteilung bekommen sollte? Solch fehlgeleitete Informationen sind nicht auszuschließen. Vor allem dann nicht, wenn eine App neu ist und nicht ausreichend getestet wurde.

Quarantäne muss man sich leisten können

Der gesamte Budenzauber mit allen hingenommenen Einschränkungen der Privatsphäre, so freiwillig sie auch sein mögen, bringt nichts, wenn sich zu wenige beteiligen und insbesondere wenn das Ergebnis der App zu nichts führt. An Nachrichten zu potentiellen Infizierungen müssen sich vielfältige und personalisierte Maßnahmen anschließen.

An die Benachrichtigung muss notwendig der zeitnahe und aufwandsarme Zugang zu Tests folgen. Hierzu sind die Testkapazitäten aufzubauen. Es muss geklärt werden, was passiert, wenn sich Alleinerziehende anstecken. Wer kümmert sich – auch in Phase des Wartens auf das Testergebnis – um die Kinder? Wie verfahren Familien, bei denen sich ein Elternteil angesteckt hat, aber die Wohnverhältnisse eine Separierung nicht zulassen? Die Benachrichtigten sehen sich schweren emotionalen Konflikten ausgesetzt. Die eigenen Kinder womöglich gefährden? Die eigenen Kinder Dritten überlassen? Wem? Wer zahlt? Wer organisiert? Es muss sichergestellt werden, dass man sich die Tests, Wartezeiten und Quarantäne auch leisten kann; nicht nur finanziell.

Es bedarf zudem einer gesonderten Regelung für den Umgang von Fehlzeiten für Arbeitnehmer und Arbeitnehmerinnen. Gerade Personengruppen, die bei ihrer Arbeit viel reisen oder viel Publikumsverkehr ausgesetzt sind, werden häufiger im Covid-19-Alarm leben. Diese Alarme kommen überraschend und sind nicht planbar. Es ist davon auszugehen, dass sie zu signifikant erhöhten Fehltagen im Vergleich zu anderen Gruppen von Erwerbstätigen führen. Besonders hart betroffen sind zudem Solo-Selbständige, deren Verdienstausfälle existenziell bedrohlich sein können.

Die gesamte Gesellschaft muss sehr schnell lernen, flexibel und positiv mit kurzfristigen Absagen von Terminen umzugehen. Handwerker sagen am Morgen wegen eines Covid-19 Alarms ab. Die Wartungsarbeiten an einer Maschine müssen kurzfristig verschoben werden. Der Friseurtermin entfällt. Die Reihe ist definitiv nicht abschließend.

Der Zugang zu Lebenschancen darf nicht von sozio-ökonomischen Faktoren abhängig sein

Gut aufgesetzt kann eine Corona-App eine Maßnahme für die Überwindung der Krise sein. 79% der Deutschen besitzen ein Smartphone und haben damit die Chance, eine solche App zu nutzen. Der Zugang zu einer Corona-App darf jedoch nicht von sozio-ökonomischen Faktoren abhängig sein. Allen Bürgern und Bürgerinnen sollte es möglich sein zu partizipieren, Meldungen zu einer möglichen Infektion zu erhalten, um daraufhin geeignete Maßnahmen – Lebenschancen – zu ergreifen und wahrzunehmen.

Dies bedeutet, dass ein Smartphone und ein Internetvertrag zur Grundversorgung eines jeden Einzelnen gehören müsste. Es gilt vorab zu klären, welche Möglichkeiten Smartphone Besitzer:innen haben, deren Gerät nicht die notwendige Bluetooth LE oder GPS-Technologie hat oder auf einem älteren Betriebssystem läuft, das die App nicht unterstützt. Was ist mit denjenigen Mitbürgern und Mitbürgerinnen, die noch zu jung für ein eigenes Smartphone sind, oder allen, die die Benutzung überfordert? Wie inkludieren wir Menschen mit geistigen oder körperlichen Beeinträchtigungen? Welche Möglichkeit der Teilhabe erhalten ausländische Touristen und Geschäftsreisende?

Europäische Herausforderungen

Die Bedrohung durch das Coronavirus besteht weltweit. Kein Nationalstaat, keine Region wird im Alleingang in der Lage sein, sein Gebiet zu schützen. Wie bei jeder Maßnahme bedarf es der Absprache mit Nachbarn und Partnern, damit die Wirksamkeit sich einstellen kann. Dies gilt auch und insbesondere für eine datengetriebene Technologie, wie eine Corona-App. Es wird eine Anwendung für ganz Europa, besser sogar die ganze Welt benötigt, die einheitliche Standards für Daten und Austauschprotokolle verwendet. Dagegen können Berechnungsmethodiken, etwa für Abstand und Risiko, länderspezifisch als Service angeboten werden. Unsere Aufgabe besteht darin, ein System aufzusetzen, dass eben nicht nur für deutsche Bürgern und Bürgerinnen Mehrwert liefert, sondern auch die Bürger und Bürgerinnen in Staaten schützt und ermächtigt, deren Gesellschaft weniger demokratisch und weniger rechtsstaatlich ist. Wir dürfen autokratischen Regimen keinen Corona-App-Standard präsentieren, der es den Staatschefs leicht macht, ihr Volk zu überwachen und zu drangsalieren.

Es geht nicht um Verhinderung, sondern Ermöglichung

Für all diese beschriebenen Herausforderungen haben wir heute noch keine Lösungen. Vor allem, weil wir noch nicht nach ihnen gesucht haben.

Es geht uns nicht darum, eine sinnvolle Corona-App-Lösung zu verhindern, sondern vielmehr, sie herbeizuführen. Zunächst ist dafür aber der Nachweis zu erbringen, dass eine digitalisierte und automatisierte Kontaktverfolgung helfen kann, die Infektionszahlen signifikant zu senken. Dann sind die weiteren Designdetails zu klären. Wie die Ausführungen verdeutlichten, kann eine kurzfristig und schnell aufgesetzte App die in sie gesetzten Erwartungen nur verfehlen. Daher plädieren wir dafür, ein solches datengetriebenes System zur Information über einen potenziellen Infekt sauber, durchdacht und im Verbund mit einem abgestimmten Maßnahmenpaket  zu entwickeln, welches uns auf dem langen Weg zurück in eine Normalität, wie sie vor Corona-Zeiten bestand, begleitet.

Christin Schäfer ist Gründerin und Geschäftsführerin der Berliner Data Science Boutique „acs plus“. Die studierte Statistikerin war Mitglied der Datenethikkommission der Bundesregierung. Ann Cathrin Riedel ist Vorsitzende von LOAD e.V. – Verein für liberale Netzpolitik.

 

Dieser Beitrag erschien zuerst im Tagesspiegel Background Digitalisierung & KI am 8. April 2020.

Read More
Kein „Wilder Westen“. Freiheit und Verantwortung im Internet

Das Internet ist ein Versprechen von Freiheit. Doch Freiheit funktioniert nicht ohne Verantwortung. Das Internet war noch nie Wilder Westen – ein Raum, in dem keine Gesetze, keine Regulierung gegriffen hätten. Dieses Internet existierte und existiert auch heute nicht im luftleeren Raum, sondern funktioniert nur durch Server und Übertragungsmittel, die auf staatlichem Territorium stehen und damit örtlichen Gesetzen unterliegen. Natürlich müssen Gesetze für das digitale Zeitalter angepasst werden, manche auch neu geschaffen werden, wenn erkannt wird, dass neue Möglichkeiten zum Nachteil der Gesellschaft genutzt werden. Grundlage hierfür sollten immer die Werte und Prinzipien sein, die wir bereits in der analogen Welt als unseren Maßstab ansetzen. Gute Regulierung, Verantwortung, für das Internet kann nur gelingen, wenn wir es als das betrachten, was es ist: ein weltweiter Verbund von Rechnernetzwerken. Leider schauen wir zu häufig ausschließlich auf Plattformen, die im Internet existieren und versuchen diese zu regulieren, als wären sie “das Internet”. Freilich tragen Plattformen Verantwortung und gehören reguliert. Aber die Regulierung der Plattformen darf eben nicht außer Acht lassen, dass das Internet weit mehr ist als diese.

Um über Freiheit und Verantwortung im Netz zu sprechen, möchte ich das Internet verlassen und den Blick auf die gesamte digitalisierte oder noch zu digitalisierende Welt richten. Uns begegnet hier zunehmend die Frage: Wie wollen wir im Zeitalter der Digitalisierung leben? Selbst Bundespräsident Frank-Walter Steinmeier appellierte an die Besucher des Evangelischen Kirchentags 2019, dass sie sich intensiver mit dieser Fragestellung auseinandersetzen und sich einbringen sollen. Die Digitalisierung stellt uns nicht vor gänzlich neue ethische Fragen. Sie stellt uns aber vor die wichtige Aufgabe, unsere Prinzipien und Wertvorstellungen mit in die digitale Welt zu nehmen und auf diese zu übertragen. Dass das nicht immer leicht ist und uns teilweise vor enorme Herausforderungen, aber auch Chancen stellt, ist nicht überraschend. 

Im Fokus dieser digitalisierten Welt stehen algorithmische Entscheidungssysteme, die häufig hochtrabend als Entscheidungen einer Künstlichen Intelligenz dargestellt werden, es aber selten sind. Wir diskutieren sehr viel darüber, was ein autonom fahrendes Auto dürfen soll und was nicht; setzen sogar – richtigerweise – eine Ethik-Kommission ein, die dem Gesetzgeber Vorschläge zur rechtlichen Gestaltung geben soll und dies auch tat. Es wurde eine Datenethikkommission eingesetzt, die die Bundesregierung zum ethischen Umgang mit Daten berät und eine High-Level Expert Group der Europäischen Kommission, die ethische Rahmenbedingungen für den Umgang mit Künstlicher Intelligenz bereits veröffentlichte. Wir diskutieren – völlig zu recht – inwieweit Algorithmen darüber entscheiden dürfen sollen, ob jemand ins Gefängnis kommt oder nicht. Ob Algorithmen besser und neutraler entscheiden, als Richter es können, oder ob sie nicht doch Vorurteile reproduzieren. Die Tendenz dieser Diskussionen ist meistens klar: Gerade schwerwiegende Entscheidungen, die Grundrechte oder das (weitere) Leben beeinträchtigen können, sollten möglichst abschließend von Menschen getroffen werden. 

Bei algorithmischen Systemen, bei denen wir heute sagen, dass wir sie nutzen wollen, um zum Beispiel eine weitere Grundlage für menschliche Entscheidungen zu haben, sprechen wir intensiv über Probleme durch einen Bias, also einer Verzerrung, über Transparenz, Nachvollziehbarkeit und die Qualität von Daten, mit denen dieses System trainiert oder schließlich gefüttert wird. Auch hier geht die Tendenz in die Richtung, dass wir als Gesellschaft Entscheidungen, die algorithmische Systeme für uns treffen, unbedingt nachvollziehen können müssen. So können wir sie nicht nur verstehen, sondern auch an entsprechenden Stellen Beschwerde einlegen, sodass automatisierte Entscheidungen von Menschen überprüft werden. Es geht hier um nichts weniger als den Schutz von Grund- und Bürgerrechten.

Verengen wir wieder unseren Blick und schauen auf das Internet, stellt sich nun die Frage, warum wir hier nicht mit der gleichen Vorsicht und Gewissenhaftigkeit vorgehen. Betrachten wir zum Beispiel auf die EU-Urheberrechtsrichtlinie. Ja, Uploadfilter stehen nicht im Gesetzestext. Das tut aber wenig zur Sache, wenn klar ist, dass nur durch technische Hilfsmittel, durch Algorithmen, im Volksmund eben auch Uploadfilter genannt, Gesetze umgesetzt werden können. Da helfen keine nationalen Alleingänge, die Uploadfilter verbieten und Pauschallizenzen verpflichtend machen wollen. Uploadfilter sind nichts anderes als algorithmische Systeme, die abgleichen, ob für urheberrechtlich geschütztes Material, das auf eine Plattform hochgeladen wird, eine Lizenz vorhanden ist, oder ob eine der zahlreichen urheberrechtlichen Schranken greift. So zum Beispiel eine für Satire oder eine Parodie. Dass Technologie dies heute überhaupt leisten kann, wird von allen Experten stark bezweifelt. 

Nun könnte man sagen, es kann auch hier Beschwerdestellen geben, sodass ein Mensch die Entscheidung des Uploadfilters überprüfen muss. Das ist richtig. Bei der Menge an Material, das auf Plattformen hochgeladen wird – alleine auf YouTube sind es 400 Stunden pro Minute(!) – bei der Vielzahl an Sprachen, Dialekten, Slang, Insider-Witzen und sonstigen Informationen, die zur Einordnung – sei es durch Mensch oder Algorithmus – notwendig sind, ein schier unmögliches Unterfangen. Es würde nicht nur auf eine unermessliche Summe an algorithmischen Fehlentscheidungen hinauslaufen, sondern auch auf eine durch den Menschen. Von der zeitlichen Verzögerung bis zu einer Entscheidung und damit rechtmäßigen Publikation eines Beitrags auf einer Plattform, ganz zu schweigen.

Wo blieb und wo bleibt bei der Diskussion über das Internet und Plattformen, die Debatte um die Auslagerung Grundrechte betreffender Entscheidungen an algorithmische Systeme? Wir führten sie nicht und das, obwohl das Thema Ethik, die Frage nach dem guten Leben im digitalen Raum, gerade bei so vielen politischen Institutionen auf der Prioritätenliste steht. Algorithmische Entscheidungen, die die Freiheit von so vielen – hier im Speziellen die Meinungs- und Informationsfreiheit – einschränken, dürfen wir nicht zulassen. Der Erhalt und der Schutz von Urheberrechten im digitalen Raum ist wichtig und notwendig. Doch noch wichtiger ist der Erhalt von Bürgerrechten. Die Abwägung zwischen Rechtsgütern ist nichts für Algorithmen, sondern für Menschen mit entsprechender Ausbildung und Legitimation. Und auch, wenn wir Technik einsetzen dürfen, um Rechte bestmöglich zu schützen, dürfen wir algorithmischen Systemen und privatwirtschaftlichen Beschwerdestellen nicht Aufgaben übergeben, über die wir in der analogen Welt Gerichte urteilen lassen, gerade weil Sachverhalte häufig komplexer sind als eine Abfolge von Einsen und Nullen. 

Wie viel uns daran liegt, die europäischen Werte zu erhalten und zu verteidigen, zeigt sich besonders hier, im Internet. 

 

Dieser Beitrag erschien zu erst in der Politik & Kultur (Ausgabe 9/2019) des Deutschen Kulturrats.

Read More

Neueste Beiträge

  • Seit März 2023: Geschäftsführerin des Next e.v.
  • Berufung in Digitalbeirat des Bundesministerium für digitales und verkehr
  • Mehr Digitale Souveränität
  • Internet Governance – Grundlage unserer Demokratien im digitalen Zeitalter
  • Mitglied im Sounding Board des Forschungsprojekts „Plattformräte zur Sicherung öffentlicher Werte in den Regeln und Praktiken von Plattformen“

Neueste Kommentare

  • Steffi bei Gender Data Gap – die unsichtbaren Frauen

Archive

  • März 2023
  • Dezember 2022
  • Oktober 2022
  • Juli 2022
  • Juni 2022
  • Mai 2022
  • April 2022
  • Februar 2022
  • November 2021
  • August 2021
  • Juni 2021
  • Mai 2021
  • April 2021
  • März 2021
  • Februar 2021
  • Januar 2021
  • Dezember 2020
  • November 2020
  • Oktober 2020
  • August 2020
  • Juli 2020
  • April 2020
  • Januar 2020
  • November 2019
  • Oktober 2019
  • September 2019
  • August 2019
  • Mai 2019

Kategorien

  • Allgemein
  • Bundestagskandidatur
  • Digitale Bildung
  • Digitalpolitik
  • Gastbeitrag
  • Internet Governance
  • News
  • Publikation
  • Social Media
  • Studio
  • Tutorial
Impressum Datenschutz