"Deepfakes: Bislang sind Frauen und nicht die Demokratie Hauptopfer." Vor 2 Jahren kam die niederländische Cybersecurity Firma Deeptrace zu diesem Ergebnis und es hat immer noch Bestand.

Frauen gefügig fälschen

„Deepfakes: Bislang sind Frauen und nicht die Demokratie Hauptopfer.“ Vor 2 Jahren kam die niederländische Cybersecurity Firma Deeptrace zu diesem Ergebnis und es hat immer noch Bestand. Denn obwohl Deepfakes immer mehr zur Manipulation von Informationen und zur Verzerrung von Fakten und Nachrichtenlage herangezogen werden, ist es wichig nicht aus den Augen zu verlieren, wofür sie geschaffen wurden und gegen wen sie hauptsächlich gerichtet waren, sind und auch in Zukunft sein werden: Frauen.

Bei dem Phänomen Deepfake handelt es sich um eine Technologie, mit der künstliche neuronale Netze dazu eingesetzt werden, in Medieninhalten einen Gesichtsaustausch vorzunehmen. Vereinfacht formuliert wird eine künstliche Intelligenz mit möglichst viel Bild- und Videomaterial einer bestimmten Person gefüttert, um anschließend von Aussehen, Stimme und Mimik dieser Person eine Art digitale Maske anzufertigen, die dann auf eine stellvertretende Person gezogen werden kann. Weiterführend ist es auch möglich, eine vollständiges syntetisches Abbild einer Person zu generieren, die in allen möglichen Kontexten eingesetzt werden kann. 2018 wurde das beispielsweise anhand von Barack Obama demonstriert.

Das Ergebnis ist in Bewegung noch nicht ganz überzeugend, aber die Technologie wird immer ausgereifter. Insbesondere wenn die digitale Maske auf eine Person gezogen wird, die dem Zielobjekt optisch stark ähnelt, sind die Ergebnisse mittlerweile erschreckend realistisch. Auf der Plattform TikTok kann man beispielsweise dem Account deeptomcruise des belgischen Deepfake-Experten Chris Ume folgen, der anhand des Schauspielers Tom Cruise mit Hilfe eines Doubles zeigt, was inzwischen alles möglich ist.

Für derart gute Fälschungen muss man immer noch sehr versiert in der zugrunde liegenden Technik sein. Aber Deepfakes sind auch deshalb so gefährlich, weil sich Programme entwickeln lassen, die einfach nur ausreichend Ausgangsdatenmaterial, Zeit und Rechenpower brauchen, um akzeptable Ergebnisse zu erzielen. Beziehungsweise inakzeptable Ergebnisse. Denn auch wenn deutlich wird, dass mit einer derartigen Technologie in Politik und anderen relevanten Gesellschaftsfeldern in den nächsten Jahrzehnten sehr viel schwieriger zwischen Wahrheit und Lüge, zwischen Realtität und Fake zu navigieren sein wird, …

… ist doch deutlich, worum es bei Deepfakes immer ging und gehen wird: um die Erniedrigung und die sexuelle Verfügbarmachung von (prominenten) Frauen.

„Deepfake Pornography ist ein Phänomen, dass ausschließlich auf Frauen abzielt und ihnen schadet“ stellt die Firma Deeptrace dazu fest. Diese Technologie hat sich in ihrer Anfangszeit vor allem in Foren verbreitet, in denen Nutzer anderen die Ergebnisse ihrer „Arbeit“ präsentierten, die Gesichter von prominenten Frauen auf die Körper von weiblichen Darstellerinnen in Pornoszenen zu deepfaken. Emma Watson, Gal Gadot, Taylor Swift – es sind vor allem junge, erfolgreiche Frauen, die so in einen sexualisierten Zusammenhang gestellt werden sollen. Das primäre Ziel ist also der sexualisierende Zugriff auf weibliche Körper und nicht die vordringlich die große Weltpolitik. Und dieses Ziel ist sehr viel älter als die Technologie selbst. Denn mit Deepfake an sich ließen sich durchaus auch spannende, unterhaltsame, künstlerische oder sogar lustige Effekte erzielen. Star Trek und alle Rollen werden von Jim Carrey gespielt? Kein Problem!

Das Problem liegt vielmehr darin, dass Männer mit sexistischen, frauenverachtenden Motiven nun über ein sehr viel mächtigeres Werkzeug als früher verfügen. Die Zielsetzung ist die gleiche. Ob man die privaten Nacktfotos von bekannten Schauspielerinnen wie Jennifer Lawrence aus der Datencloud stiehlt und sie veröffentlicht, das Gesicht einer bekleideten prominenten Frau auf den nackten Körper einer anderen photoshoppt oder von einem grobkörnigen Sexaufnahme aus den 80ern behauptet, sie sei von dieser oder jenen Sängerin, das Prinzip dahinter verändert sich nicht. Seit Jahrhunderten.

Das ist auch der Grund, warum „nur“ von Annalena Baerbock und nicht auch von Robert Habeck gefälschte Nacktaufnahmen als angebliche „Jugendsünde“ im Internet kursieren. Bei aller steigenden Gereiztheit und zunehmenden Verbalausfällen und Attacken gegen Politiker*innen vor allem links der Mitte – für Frauen existiert stets noch ein gesondertes Instrumentarium der Erniedrigung. Frauen sollen immer vorrangig in ihrer Selbstbestimmung gebrochen werden, damit sie bloß nicht auf die Idee kommen, irgendetwas sagen oder gar ausrichten zu können. Damit sie zu jedem Zeitpunkt daran erinnert werden, dass sie in den Augen zu vieler Männer eine „sexuell verfügbare Schlampe“ sind.
Deepfakes zeigen wie virulent, wie dramatisch dieses Problem ist. Auf Deepfakes muss juristisch reagiert werden und es steht zu befürchten, dass die EU und ihre Mitgliedsstaaten im Gegensatz zu Ländern wie Südkorea nicht schnell und gründlich genug handeln werden. Aber vor allem muss umfassend auf das Grundproblem der sexistischen Misogynie reagiert werden. Egal zu welchem Zeitraum. Egal in welchem Medium und egal in Bezug auf welche Technologie.
Immer.

Bildquelle: unsplash, Aiony Haust

Kommentare zu diesem Text könnt ihr uns in unseren Netzwerken hinterlassen und dort mit insgesamt 120.000 Menschen teilen!