Zwangsouting durch Schulsoftware

Vermutlich kennen viele die Erzählung der Teenagerin, die im Drogeriemarkt einkaufen war, und danach personalisierte Werbung nach Hause geschickt bekam, wodurch ihr Vater von ihrer Schwangerschaft erfuhr. Dass es sich dabei um fehlerhafte Algorithmen handelte, ist allerdings weniger bekannt. Der Vorfall ist ein markantes Beispiel für eine (vermutlich) unabsichtliche Grenzverletzung mit nicht absehbaren Folgen für alle Betroffenen, das weitere Fragen wie diese aufwirft: Was, wenn ein Outing vor dem Hintergrund der gesammelten Daten über eine Person absichtlich herbeigeführt werden kann? Zum Beispiel in Bezug auf Menschen, die sich dem LGBTQI+-Spektrum zuordnen.

Und was, wenn es sich dabei nicht um Daten handelt, die über ein freiwilliges Punktesystem beim Einkaufen gesammelt wurden, sondern ganz unbemerkt über die Schule, einen Ort, den die meisten besuchen müssen? Was bedeutet es, wenn Lehrkräfte auf Daten zugreifen können, die ihre Schüler*innen auf dem Endgerät der Schule erzeugen? Daten wie Verläufen aus sozialen Medien, YouTube oder private Notizen, wie Zettelchen, die früher unter der Bank getauscht wurden, bis hin zu digitalen Tagebucheinträgen… Denn all das sind Daten, die theoretisch und praktisch gespeichert werden und somit von vielen Personen eingesehen werden können.

Mit dem Daten-Begriff und dem pädagogischen Umgang mit eben diesem tut sich Deutschland noch schwer. Dies lässt sich gut an der deutschen Fortbildungslandschaft für Lehrkräfte in Bezug auf Daten ablesen (Fieguth & Bergmann, i.V.*¹).

Werden Fortbildungen mit Datenbezug angeboten, so fast ausschließlich im Kontext aktiven Datenschutzes, d.h. der bewussten Entscheidung, bei der Datennutzung auf Schutzmaßnahmen zu achten. Es gibt anscheinend (noch) kein Bewusstsein dafür, welche Datenmengen jeden Tag in Schulen einfach so durch die Nutzung von Medien generiert werden. Andere Länder sind da deutlich weiter, ein Blick in die USA lohnt sich. 

Fernunterricht während der Pandemie. Was passiert eigentlich mit den ganzen Daten der Schüler*innen? Foto: Giovanni Gagliari/Unsplash

Problematische Software und reproduzierte Vorurteile

Wie in Deutschland auch, waren in den USA im Zuge der Corona-Pandemie die Schulen bemüht, auf Fernunterricht umzustellen. Sie schafften nicht nur die nötigen Endgeräte, also Tablets, Computer und so weiter an, sondern auch die passende Software, teilweise ohne die damit einhergehenden Auswirkungen auf die Privatsphäre der Schüler*innen zu verstehen. Die Software Gaggle muss hier namentlich erwähnt werden. Gaggle ist ein us-amerikanisches Tool, das die Daten, die die User*innen online erzeugen, erfasst und mit sogenannten „flags“ (Kennzeichnungen, die im Anschluss kategorisiert werden) versieht. Gaggle wirbt damit, datenbasiert Schulschießereien und Amokläufe verhindern zu können. Konkret bedeutet das, dass alle Prozesse der Schule nur noch über das Tool laufen: E-Mailverkehr, Hausaufgaben, Online-Unterricht – alles wird über die Schul-E-Mailadressen abgewickelt, die mit Gaggle verbunden sind. So werden die erzeugten Daten Gaggle zur Verfügung gestellt und kategorisiert. Übrigens können auch Daten von Instagram oder Facebook, kurz, aller Online-Dienste, die mit der Schul-E-Mailadresse genutzt werden, in die erzeugte Datenmenge mit einfließen. Die Kategorisierung nimmt ein Automatisierungstool vor, das mit künstlicher Intelligenz (KI) arbeitet. Wer nicht schon bei der Masse an Daten, die freigegeben werden, stutzt, wird spätestens bei den Algorithmen, die die KI nutzt, skeptisch. Denn diese reproduzieren nicht nur geschlechtsspezifische, sondern auch rassistische Vorurteile. Das passiert über die der KI zugrunde gelegten Informationen. 

Wer nicht schon bei der Masse an Daten, die freigegeben werden, stutzt, wird spätestens bei den Algorithmen, die die KI nutzt, skeptisch.

Lea Henke

Gewalttaten werden beispielsweise in großer Mehrheit von männlichen Jugendlichen verübt.  Und im Jahr 2010 gab es deutlich mehr Festnahmen wegen des Besitzes von Cannabis bei Schwarzen Menschen, obwohl sie nicht mehr Cannabis konsumieren. Werden diese oder ähnliche Statistiken als Daten-Basis des KI-Automatisierungstools genutzt, werden die gesammelten Daten Schwarzer, männlicher Jugendlicher nach anderen Kriterien als die eines weißen, weiblichen Teenagers gefiltert. Eine Folge der Verwendung solcher Tools wie Gaggle ist daher, dass sie People of Color und marginalisierte Gruppen unverhältnismäßig kritisch betrachten.

Was bedeutet das für queere Schüler*innen?

Daten können auch mit anderen Filtern kategorisiert werden. Im vergangenen Jahr wurde in Minneapolis eine Schülerin von ihrer Lehrkraft geoutet, nachdem eine Software im Suchverlauf ihrer Dokumente LGBTQ-Schlüsselwörter kennzeichnete. Ähnlich dem Fall der Teenagerin im Drogeriemarkt, zeigte sich auch hier, vor allem für die Schülerin, eine Grenzverletzung ihrer Privatsphäre mit nicht absehbaren Folgen.

Aktuell planen die USA, genauer gesagt Florida, noch einen Schritt weiterzugehen. Dort gab es Anfang des Jahres Bemühungen, dem durch die Republikaner*innen eingebrachten „Don’t Say Gay“-Gesetz einen Zusatz anzuhängen. Das Schulpersonal wäre damit verpflichtet, Kinder innerhalb von sechs Wochen zu outen, nachdem das Auswertungstool entsprechende „flags“ gesetzt hat. 

Ebenfalls in Florida versuchte Child & Parental Rights Campaign (CPR-C) mit gleich zwei Klagen Zwangsoutings zu erstreiten. Und wieder sollte die Schule outen. CPR-C bezeichnet sich übrigens als eine „nonprofit public-interest law firm founded to defend parents‘ rights to shield their children from the impact of gender identity ideology“ (auf deutsch etwa: „Eine gemeinnützige Anwaltskanzlei von öffentlichem Interesse, die gegründet wurde, um das Recht von Eltern zu verteidigen, ihre Kinder vor den Auswirkungen der Ideologie der Geschlechtsidentität zu schützen“). Alles ohne Rücksicht auf die möglicherweise traumatischen Folgen eines Zwangsoutings bei einem anderen Kind. 

Der Bundesstaat Texas hat zudem erklärt, dass die geschlechtsbejahende Betreuung von trans* Kindern Kindesmissbrauch sein soll. Der Präsident hält dagegen. Auch in diesem Fall wurden und könnten weiterhin Kinder und Jugendliche vor dem Hintergrund automatisch über sie gesammelter Daten einfach und ohne deren Wissen geoutet werden.

Und in Deutschland?

Dem Anschein nach ist es also gut, dass in Deutschland anfallende Daten durch die Schule und Lehrpersonen so zögerlich genutzt werden und den Datenschutz an erste Stelle stellt. Allerdings ist die Frage, ob dies absichtlich oder aus Unwissenheit und Unsicherheit im Datenkontext geschieht. Fakt ist: Gezielt Daten über Menschen zu sammeln und sie als Rechtfertigung für massive physische und psychische Eingriffe mit nicht absehbaren Folgen für jede*n Einzelne*n zu benutzen, ist eine Entwicklung, die es aktuell zu verhindern gilt. Insbesondere, wenn es um Kinder und Jugendliche geht. Um so wichtiger ist es, dass auch wir die weiteren Entwicklungen genau beobachten und Lehrpersonen professionalisieren, kritisch mit Daten im pädagogischen Zusammenhang umzugehen. Nur so können wir versuchen sicherzustellen, dass dieser Umgang mit Daten nicht auch nach Deutschland schwappt. 

Links und Infos:

Artikel DIE ZEIT: Schwanger ohne digitale Spuren

Artikel Deutschlandfunk Kultur: Wie der Mensch bessere Maschinen bauen kann

Weitere Artikel zu diskriminierenden Algorithmen auf Wissen.de und Hochschulforum Digitalisierung.

Artikel NZZ: Acht Grafiken, die zeigen, wie stark Schwarze in den USA von Polizeigewalt betroffen sind

Artikel Slate (engl.): Remote Learning Accidentally Introduced a New Danger for LGBTQ Students

Website der Software „Gaggle“

Website der CPR-C

*¹ Fieguth und Bergmann i.V. (in Vorbereitung) ist eine Fortbildungs-Analyse, die für das Projekt „AID – all is data“ der Universität Kaiserslautern erfolgt ist, in das die Autorin Einblick hat. Die Analyse ist so aktuell, dass sie zwar schon fertig, aber noch nicht veröffentlicht ist. Sie wird zeitnah publiziert.

Wenn wir in unseren Texten von Frauen und Mädchen sprechen, beziehen wir uns auf die strukturellen und stereotypen gesellschaftlichen Rollen, die alle weiblich gelesenen Personen betreffen.

Kommentare zu diesem Text könnt ihr uns in unseren Netzwerken hinterlassen und dort mit fast 160.000 Menschen teilen!

Bildquelle: Annie Spratt/Unsplash