von

Katharina Bauer

Veröffentlicht am

April 2, 2025

Tags

artificial intelligence, Thought Leadership

KI verspricht, unser Leben in vielen Bereichen zu verbessern und zu erleichtern. Aber was, wenn KI-Apps automatisiert eine "verbesserte" Version Deiner selbst kreieren? Wenn sie berechnen, wie Du "besser" aussiehst? Auf diese Weise "verbessert" werden insbesondere Frauen. Damit fördern KI-Tools die Sexualisierung der Frau.


„Lerninhalte“ aus jahrzehntelangen Schönheitsstandards

Du lädst eine Reihe von Selfies hoch. Einfach nur aus Neugier. Die KI von Apps wie „RealFake“, „Momo“ etc. soll dich in einem anderen Stil, vielleicht ein wenig „cooler“ darstellen, aber doch bitte dich selbst zeigen. Das Ergebnis irritiert aber. Deine Taille ist schlanker, deine Haut glatter, deine Gesichtszüge feiner – und dein Körper, der eben noch Konfektion 42/44 war, ist jetzt eine 36. Einfach so. Nicht, weil du es wolltest, sondern weil die KI es für dich entschieden hat. Sie hat berechnet, was „besser“ aussieht. Aber besser für wen?

KI ist kein denkendes Wesen mit eigenen Wertvorstellungen. Sie entscheidet nicht, dass eine schlankere Taille erstrebenswert ist – sie reproduziert einfach die Muster, mit denen sie gefüttert wurde. Und diese Muster sind nicht im digitalen Raum entstanden. Sie stammen aus einer Welt, in der die Gesellschaft bestimmt, welche Körper als begehrenswert gelten. Eine Welt, in der Frauen in Bildern, Filmen, Werbung und Mode auf bestimmte Normen getrimmt werden. In der Schönheit nicht individuelles Empfinden, sondern eine gesellschaftliche Währung ist. Wo der weibliche Körper vor allem sexualisiert wird. Hier am Beispiel unserer COO Yvonne van Bokhoven (siehe auch ihren Blogbeitrag „Do AI tools sexualize women?):

Hier eine Standardaufnahme von Yvonne:

Und hier das Ergebnis durch die KI:

Die Algorithmen, die heute Frauenkörper verschlanken und „optimieren“, sind natürlich nicht schuld an diesem System. Aber sie sind sein perfektes Werkzeug. Sie arbeiten mit Daten, die aus einem patriarchalen Blick auf den weiblichen Körper stammen. Sie ziehen ihre „Lerninhalte“ aus jahrzehntelangen Schönheitsstandards –  geprägt von einer Industrie, die Frauen nicht einfach abbildet, sondern formt. Schlank, jung, weiß, symmetrisch und makellos sollen wir nach Möglichkeit sein – nicht, weil es die Wahrheit ist oder die Gesellschaft widerspiegelt, sondern weil es als Norm erwartet wird.  

Ein verzerrter Spiegel einer bereits verzerrten Welt.

Das Problem liegt also nicht in der KI selbst, sondern in dem, was wir ihr antrainieren. Sie ist ein verzerrter Spiegel einer bereits verzerrten Welt. Das patriarchale Schönheitsideal existierte lange vor der KI. Es wurde in der Kunst, in Hollywood-Filmen, in der Mode, in Werbekampagnen manifestiert. Die digitale Welt verstärkt nur, was längst da ist. 

KI ist ein Werkzeug, mit dem wir genauso gut Vielfalt sichtbar machen und neue Perspektiven eröffnen können, um Menschen in ihrer Echtheit abzubilden. Aber das passiert nicht von allein. Die Daten, mit denen sie trainiert wird, müssen sich ändern. Wir brauchen Algorithmen, die nicht nur Schönheit nach patriarchalen Maßstäben berechnen, sondern echte Vielfalt einbeziehen. Eine KI, die nicht automatisch weiße, schlanke, makellose Frauenkörper bevorzugt, sondern die Realität in all ihren Formen abbildet. 

Denn die Frage ist nicht, ob KI Frauen verändert – das tut sie. Die Frage ist, warum sie es tut. Unsere Aufgabe ist es, dem aktiv entgegen zu wirken und zu bestimmen, in welche Richtung diese Veränderung geht. 

 

Weiterführende Links:

TAZ – Die Frau ist immer unter 35

Frankfurter Rundschau – KI auf Sexismus trainiert? So diskriminiert die Technik

TU Dresden#FactFriday: Sexistische KI