Frauenstimmen, die gehorchen

Default. So nennt man in technischen Zusammenhängen die Standardeinstellung, mit der beispielsweise ein Handy ausgeliefert wird. Der vorinstallierte Krempel, den man überhaupt nicht gebrauchen kann, gehört dazu – aber auch die nützlichen Sachen. Default kann in weiterem Sinne aber auch gesellschaftliche Voreinstellungen bezeichnen. Also genau jene, von denen die Mehrheit überzeugt ist, dass es sie entweder schon immer gegeben hat oder dass sie überhaupt nicht wirkmächtig sind beziehungsweise existieren. Neben anderen Dingen ist Deutschlands Standardeinstellung weiß und eurozentristisch, auch wenn das von vielen geleugnet wird, die Rassismus weit von sich weisen und darauf bestehen, dass sie farbenblind sind. Die Gründe dafür, warum bei gleicher Qualifikation Paul und Sabine häufiger als Karamba und Bahar zu Vorstellungsgesprächen eingeladen werden, interessieren sie nicht wirklich.

Das gilt auch für die dreifache Default-Einstellung von Apples Siri, Amazons Alexa und Microsofts Cortana. Sie gehören auf den entsprechenden technischen Geräten zur Standardeinstellung (eins), sie hören auf einen weiblichen Namen und haben voreingestellt weiblichen Stimmen (zwei) und werden ungeachtet dessen zumeist als Sprachassistenten bezeichnet (drei).

Weder die vorgebrachten Gründe für den Einsatz dieser Stimmen noch die Kritik daran sind neu. So verweisen die Konzerne immer wieder darauf, dass laut diverser Studien und Befragungen weibliche Stimmen als „angenehmer, wärmer und herzlicher“ empfunden werden, 90 Prozent der Nutzer*innen mit den voreingestellten weiblichen Stimmen zufrieden sind und man die Voreinstellung ja schließlich auch in eine männliche Stimme abändern könnte. Die Kritiker*innen zeigen auf, wie sehr dies mit unserer grundsätzlichen Default-Einstellung zusammenhängt. Mit der Wahrnehmung von und dem Wunsch nach Frauen als harmlose, dienstbare Haushaltshilfen, die ohne Widerspruch tun, was man ihnen sagt. Aber beide Kategorien entwickeln sich weiter. So ergab 2017 ein Test mit verschiedenen Sprachassistentinnen, dass diese auf Beleidigungen, sexuelle Anspielungen und Belästigung ausweichend, zustimmend oder doppeldeutig, aber wenig bis gar nicht ablehnend reagierten. Amazon reagierte darauf und veränderte das Programm dahingehend, dass Alexa nicht mehr „negative Stereotype über Frauen verstärkt“. Darüber hinaus bezeichnet sie sich als Feministin. Auch mit „Siri, ficken?“ kommt man nicht mehr sehr weit.

Auf der anderen Seite wird die Kritik immer immer umfassender und detaillierter. Die feministische Autorin Laurie Penny war 2016 eine der ersten, die auf den Zusammenhang zwischen künstlichen Intelligenzen, Robotern und Frauen hinwies. Sie beantwortete die Frage, warum digitale Helferinnen weiblich sind damit, dass männliche Nutzer sie so ohne schlechtes Gewissen ausnutzen können. Das klingt zwar radikal, wirft aber als These einiges ab. Denn die Parallelen, die Penny aufzeigt, sind bemerkenswert. So befinden wir uns mitten in einer Diskussion darüber, ob Künstliche Intelligenzen irgendwann so menschlich sind, dass sie Rechte haben sollten. Oder ob man sie ungestraft ausbeuten und vergewaltigen darf. Gerade zum Jubiläum 100 Jahre Frauenrecht sollte darauf hingewiesen werden: Das ist erstens genau die Diskussion, die man lange über Frauen geführt hat und immer noch führt. Und zweitens haben wir immer noch einen Innenminister, der 1997 gegen die Strafbarkeit von Vergewaltigung in der Ehe stimmte.

Und das ist auch alles längst keine Zukunftsmusik, sondern Teil der Gegenwart. Wer das nicht glauben mag, der sollte sich womöglich vor Augen führen, woran bereits gearbeitet wird,

oder dass in Kanada ein Mann wegen des Besitzes von Kinderpornografie angeklagt ist, weil er sich eine lebensechte, minderjährig aussehende Puppe aus Japan bestellt hat.

Die Frage ist also nicht, ob der weibliche Sexroboter und Siri oder Alexa etwas miteinander zu tun haben. Diese Frage beantwortet mittlerweile sogar schon die Popkultur.

Die Frage ist auch nicht nur, ob Konzerne in der Lage sind, ihre Default-Einstellung so zu verbessern, dass sie in eine moderne, geschlechtergerechte Gesellschaft passen.

Die Frage, die sich darüber hinaus stellt ist, ob wir diese moderne, geschlechtergerechte Gesellschaft sind. Ob unsere Standardeinstellung nachhaltig zum Positiven verändert werden können. Damit wir uns nicht erst im Nachhinein wundern, ob ein Film wie HER auch mit einer männlichen Computerstimme funktioniert hätte.

Damit eine weibliche Stimme nicht automatisch für die meisten von uns die angenehmste, dienstbarste und harmloseste ist. Und die männliche Stimme von HAL 9000 aus Stanley Kubriks Odyssee im Weltall nicht der Inbegriff von kalter, berechnender Boshaftigkeit.

Oder von Perfektion und Expertise, wenn sie wie IBM’s Watson bei medizinischen Diagnosen berät und Menschen in Jeopardy schlägt.

Es sind also nicht nur Siri, Alexa und Cortana, die ein Update brauchen. Unsere Standardeinstellung benötigen auch dringend eins. Diese „Defaults“ geht Pinkstinks auf vielen Ebenen an: Mit Kampagnen, in denen wir mit Kindern, Erwachsenen, Bildungs- und Medienverantwortlichen über Geschlechterrollenbilder sprechen. Wenn Tech-Unternehmen gleichzeitig ihre Default-Einstellungen diversifizieren, kann das nur helfen.

Wenn du unsere Beiträge wichtig findest, freuen wir uns, wenn du uns unterstützt! Danke!

Jetzt Pinkstinks spenden!