Unerwünschte Sexyness: Was KI-Bilder-Apps mit Frauen machen

von | 25. Oktober 2023 | Bildermächtig

Links steht eine Frau mittleren Alters, mit Brille und roten Haaren, sie hält ihr Buch in der Hand. Sie trägt legere Kleidung, schwarz, T-Shirt und Sweatshirtjacke. Rechts ist ihr Avatar zu sehen: eine sexy Zeichnung mit großen Brüsten mit metallisch glänzendem Top und lilafarbenen Haare. Die Gesichtszüge ähneln der Frau links.

Sexy Game-Babe wider Willen: Barbara Wimmer, Autorin aus Wien, und ihr Avatar
Fotos: links The Van Helden, rechts künstlich generiert über Lensa AI

Ich habe mir 100 „magische Avatare“ von einer KI-App erstellen lassen. Erwartet habe ich mir besondere Bilder meines Gesichts, mit unterschiedlichen Frisuren, oder Bilder in einer verträumten Landschaft. Doch als die KI-Fotos gekommen sind, war ich total schockiert und musste erst einmal eine Nacht darüber schlafen. Denn die KI-App hat mich zur Wichsvorlage für heiße Männerträume gemacht. Als Blumenfee hatte ich Riesenbrüste, auf anderen Fotos war mein Kopf abgeschnitten und ich steckte in einem heißen Dessous-Outfit, das es so gar nicht geben kann. Am nächsten Tag war ich wütend. Richtig wütend.

Die Apps Lensa AI und Remini AI sind bei der Darstellung von Frauen „eskaliert“

Doch was steckt eigentlich dahinter? Ich bin Technikjournalistin und probiere gerne neue Tools aus. Die Leistungsfähigkeit Künstlicher Intelligenz (KI), englisch: Artificial Intelligence (AI), interessiert mich. Ich begann zu recherchieren: Die Firma hinter der App ist Prisma Labs mit Sitz in Sunnyvale, Kalifornien, und verspricht auf ihrer Website, Foto- und Videobearbeitung zu demokratisieren. Die Firma startete 2016 eine App, mit der sich Fotos in Gemälde umwandeln lassen. Mit Riesenerfolg. Im Jahr 2018 kam mit Lensa eine App hinzu, mit der Menschen ihre Gesichter retuschieren konnten. 2022 wurde sie um eine weitere Funktion erweitert: „Magische Avatare“, die von einer künstlichen Intelligenz kreiert werden.

Unter eben diesen „magischen Avataren“ darf man sich künstlich erstellte Fotos vorstellen, die einem selbst im Gesicht ähnlichsehen und von realistisch bis unrealistisch die komplette Bandbreite an Möglichem abdecken. Als „magisch“ werden die Bilder bezeichnet, weil sie Menschen in Situationen zeigen sollen, in denen sie sich normalerweise nicht befinden: als Rockstar, Sci-Fi, Astronaut*in, Superhero, Steampunk, Cyber Scientist, Rainbow, Cyber Flowers, Mystical oder Cosmic.

Doch nicht alle Kategorien stehen allen Menschen zur Verfügung: Wer sich als „weiblich“ outet, bekommt keine Bilder als Rockstar von sich, dafür als Hexe oder Feen-Prinzessin. Wer bei Geschlecht „ohne Angabe“ ankreuzt, bekommt als zusätzliche Option Regenbogen. Wer angibt, „männlich“ zu sein, bekommt auch die Kategorie Abenteuer oder Superhero. Neu hinzugekommen sind mit einem jüngsten Update aber auch durchaus realistischere Kategorien wie Business, Iconic Stars oder Fashion. Das liegt daran, dass es mittlerweile auf dem Markt große Konkurrenz gibt.

Prisma Labs war die erste Firma, die den Technologiesprung, den es bei der Bildbearbeitung durch künstliche Intelligenz gegeben hatte, ausgenutzt hatte und daraus ein Geschäftsmodell gemacht hat. Die Firma selbst hat nicht die Technologie dahinter entwickelt, sondern nutzt diese nur aus und kassiert für die magischen Avatare, die sie sich ausgedacht haben, Geld. Natürlich muss die Firma aber auch Geld dafür zahlen, um auf die künstliche Intelligenz, die dahintersteckt, zugreifen zu dürfen. Wie hoch die Gewinnspanne ist, ist nicht bekannt.

Die Technologie, die Prisma Labs nutzt, stammt von Stable Diffusion. Das ist einer der bekanntesten Bildgeneratoren, der mit zahlreichen Bildern verschiedener Stile trainiert wurde, um dann eigene, neue Bilder auf der Basis von bestimmten Eingaben künstlich neu zu generieren. Die „magischen Avatare“ verkauft Prisma Labs für 8,99 Euro. Als ich die App als eine der ersten Menschen ausprobiert habe, zahlte ich noch 9,99 Euro für 100 Avatare. Der Preis wurde gesenkt, weil es mittlerweile zahlreiche, weitere Apps gibt, die auf ein ähnliches Geschäftsmodell setzen.

Ein dieser weiteren Apps heißt Remini. Diese App kann ebenfalls künstlich Fotos generieren, setzt aber weniger stark auf das „magische“ Thema, sondern mehr auf den Alltagsgebrauch. So wurde die App bekannt, weil man damit etwa Bewerbungsfotos künstlich generieren lassen oder sich selbst in verschiedenen, modischem Stilen abbilden lassen kann. Wie bei der anderen App ist es so, dass einem die künstlich generierten Fotos zwar ähneln, aber oft ein starkes Eigenleben entwickeln. Hinter Remini steckt eine italienische Firma namens Bending Spoons.

Damit Lensa AI oder Remini AI „magische Avatare“ oder Fotos von einem selbst ausspucken, werden die Apps mit 10 bis 20 Bildern der eigenen Person gefüttert. Daraus generieren die Apps künstliche Bilder, die einem ähnlichsehen. Doch beiden Apps ist eines gemeinsam: Sie „entgleisen“ immer wieder, wenn es um die Darstellung von Frauen geht.

„Magische Avatare“: nichts als Männerfantasien

Ich zählte zu einer der ersten Menschen weltweit, die Lensa AI ausprobiert hatte. Damals konnte man sich die Kategorien noch nicht aussuchen, sondern wurde überrascht. In meinem Fall zum Negativen. So hat Lensa AI aus meinen ersten 20 Fotos, die ich in die App hochgeladen hatte, 100 Fotos von mir generiert, mit denen ich fast zur Gänze unzufrieden war. 90 der 100 Fotos zeigten mich nämlich nicht nur äußerst sexy, sondern mehr als das. Halbnackt. In einem nach unten verrutschten Trägerkleid, oder in einer Pose, in der ich mir alles andere als dezent zwischen meine Beine greife. Auf mehreren Fotos war der Fokus auf meine Brüste gerichtet, während der Kopf am Bild gänzlich fehlte. Auf anderen Bildern hatte ich Fantasie-Dessous an, die aus einer anderen Welt stammen müssen. Von den drei Armen und drei Beinen, die zu den bekannten „Halluzinationen“ von KI zählen, spreche ich da noch gar nicht. Brillen erkannte die App ebenfalls nicht. Wiedererkennungswert: großteils Fehlanzeige. Sexualisierte Darstellung: übererfüllt.

So möchte sich Barbara Wimmer nicht sehen ...

KI-generierte Bilder durch Lensa AI

Da hatte ich beim Ausprobieren von Remini AI noch richtig Glück: Dreiviertel der Bilder, die die App von mir im Business-Outfit anfertigte, sahen gut aus. Ich war mit Brille in seriösem Kontext und relativ hochgeschlossener Kleidung abgebildet. Nur: Der Körperbau war auf den KI-Bildern viel zu schlank geraten. So hatte ich vielleicht mit Anfang 20 ausgesehen, nicht aber mit Mitte 40. Die KI-App hat mich ultraschlank und aalglatt in ein elegantes, blaues Kostüm gesteckt, das ich so nie tragen würde, weil es nicht zu meinem Stil passt. Statt sich an den eingegebenen Fotos zu orientieren, hat auch diese App anhand der Vorlagen und des sozial erwünschten Aussehens einen Frauenkörper zusammengebastelt, der so gar nicht existiert.

Entfernte Ähnlichkeit - nur ein Witz?

KI-generierte Bilder durch Lensa AI

So kommt der Male Gaze in die KI

Beide KI-Systeme wurden mit Millionen von öffentlich verfügbaren Bildern trainiert, darunter aber offenbar zahlreiche, die den typisch „männlichen Blickwinkel“, den male gaze, auf eine Frau repräsentieren. Denn die Erfahrung mit den KI-Bilder-Apps musste nicht nur ich machen, sondern auch zahlreiche weitere Frauen.

Melissa Heikkilä ist Tech-Journalistin wie ich selbst. Sie schreibt für das MIT Technology Review hauptsächlich über KI und hat Lensa AI ebenso wie ich relativ zeitig ausprobiert. Als Frau mit asiatischem Background bekam sie wesentlich häufiger pornoähnliche und stark sexualisierte Darstellungen mit viel Nacktheit als weiße Kolleginnen.

Heikkilä hat im Zuge ihrer Recherche herausgefunden, dass die KI unter dem Schlagwort „asiatisch“ hauptsächlich mit Pornos trainiert wurde. Anders als ich konnte sie mit jemandem von Prisma Labs darüber sprechen. Die Macher der App gaben zu, dass es ein „kleines Problem“ gibt, an dem sie arbeiten würden. Sie schoben die sexualisierten Darstellungen darauf, dass „die künstlichen, ungefilterten Online-Daten das Modell in die bestehenden Vorurteile der Menschheit einführten“, wie es auf Heikkiläs Anfrage hieß.

Das „kleine Problem“ ist allerdings noch immer eines. Mittlerweile hat Prisma Labs bei Lensa AI zwar einen „Sicherheitsfilter“ eingebaut, damit nicht mehr so häufig sexualisierte Darstellungen ausgespuckt werden. Das heißt, explizit pornografisches Material, das Frauen wie Heikkillä oder mich zur Wichsvorlage gemacht hat, wird nicht mehr ausgespuckt. Doch auch im neuen Update, das Prisma Labs Mitte September 2023 stolz präsentiert hat, werden bei den Avataren Brüste von Frauen künstlich aufgeblasen (vergrößert), oder auf Kinderkörper im Comic-Schema gesetzt. Auch Brillen werden in dieser neuen Version mittlerweile wieder schlechter erkannt. Es scheint, als würden die Macher der App mit dem Release der neuen Avatare dieselben Fehler wiederholen, die sie beim Start gemacht hatten.

Auch Remini AI ist in diese Richtung „eskaliert“. Eine junge US-Amerikanerin namens Lana Denina zeigte online, wie sie nach dem Hochladen der Referenzfotos, die ausschließlich ihr Gesicht zeigten, übersexualisiert dargestellt wurde. Ihre Business-Fotos wiesen einen sehr tiefen Aufschnitt mit Riesenbrüsten auf, die eher zu „OnlyFans“-Inhalten passen würden, als zu einer Bewerbung für einen Job in der Arbeitswelt. Denina war von der Remini-App genauso schockiert wie ich von Lensa AI. Denn eines ist klar: Nicht jede Frau will sexualisiert dargestellt werden und Männerfantasien entsprechen.

Lässt sich der KI der Sexismus austreiben?

Hier beginnt das Dilemma: Ist die Künstliche Intelligenz sexistisch, die derartige Bilder ausspuckt, oder ist es doch eher die Gesellschaft, in der Vorurteile in Form des Genderbias bereits vorhanden sind? Fakt ist: die KI hat die bestehenden Vorurteile mit den vorhandenen Daten eintrainiert bekommen und zwar ungefiltert. Das ist ein Fehler im System, der korrigiert gehört und zwar von den Entwickler*innen derartiger Systeme. Dazu braucht es freilich ein Commitment der Chefetage: Hey, wir müssen etwas gegen Vorurteile in KI-Systemen tun. Dringend. Erst dann kann sich etwas ändern.

Derartige Anpassungen können etwa mit künstlichen Trainingsdaten erreicht werden. Das bedeutet: Es werden Bilder von Frauen eingespeist, die nicht dem männlichen Ideal entsprechen, sondern die so aussehen, wie wir eben aussehen: Dick, dünn, mit Augenringen, mit weißen Haaren, Brillen, Falten, ungeschminkt. Diese werden im Datensatz untergemischt. Des Weiteren werden wie bei Lensa AI Filter angewendet, die verhindern sollen, dass Frauen in expliziten Posen dargestellt werden. Damit wäre schon einmal viel gewonnen, und die Übersexualisierung verhindert.

Das ist allerdings nur eine Baustelle. Die Tatsache, dass es Gender gibt, wird bisher von Bild-KIs genauso häufig ignoriert, wie dass es Menschen mit Behinderung gibt. Es braucht außerdem viel mehr Transparenz: Bevor ich als Nutzende Geld für eine Bild-KI ausgebe, die mich in einer bestimmten Art und Weise darstellt, würde ich gerne darüber aufgeklärt werden, was mich eigentlich erwartet.

Der Genderbias sitzt tief in der KI

Nicht alle Vorurteile werden sich auf diese Art und Weise aus dem Weg schaffen lassen. Aylin Caliskan, Assistenzprofessorin an der University of Washington, hat sich Stable Diffusion genauer angesehen und herausgefunden, dass der einprogrammierte Bias weitaus tiefer sitzt und nicht nur sexualisierte Darstellungen betrifft. „Frauen werden mit sexuellen Inhalten in Verbindung gebracht, während Männer mit beruflichen, karrierebezogenen Inhalten in allen wichtigen Bereichen wie Medizin, Wissenschaft, Wirtschaft usw. in Verbindung gebracht“, so Caliskan. Hier wird der Bias von KI zusätzlich zu den gesellschaftlichen Vorurteilen weiter verschärft.

Auch das ist kein neues Phänomen, sondern bereits bekannt. Caroline Criado-Perez berichtet in ihrem Buch „Unsichtbare Frauen“ davon: In den USA sind 27 Prozent der CEOs weiblich, aber nur 11 Prozent der Ergebnisse der Google-Bildersuche zeigten Frauen. In den Datensätzen, die bei KI zur Anwendung kommen, sind Frauen stark unterrepräsentiert. Beim Training der KI ist mehr Sorgfalt erforderlich, um derartige Phänomene zu verhindern.

Echte Bilder von echten Frauen gewünscht

Dann bleibt noch die Frage der Kennzeichnung: Wer würde sich mit KI-Bildern bewerben, in dem Wissen, dass die Körpermaße nicht passen, oder die Augenfarbe, oder die Größe der Brille? Muss man sich wirklich „schöner“ darstellen, als man ist?

Ein Protest gegen diese Art der Darstellung des Schönheitswahns hat bereits begonnen: Als TikTok seinen „Bold Glamour“ KI-Filter startete, haben zahlreiche Frauen Videos von sich mit und ohne Filter gedreht, um zu zeigen, dass sie in Wirklichkeit ganz anders aussehen: Falten, Augenringe, ungeschminkte Wimpern, normale Lippen. Das ist eine wichtige Aktion gewesen, um jungen Mädchen zu vermitteln, dass sie nicht krampfhaft versuchen müssen, einem Schönheitsideal zu entsprechen.

Genau darum geht es: Wahlfreiheit. Wer solche Bilder von sich haben möchte, auch KI-generiert, darf das. Gerne. KI-Bilder, die ausschließlich Schönheitsidealen entsprechen, die Männern gefallen, sollten aber nicht zum neuen Standard im Netz werden, nur weil die KI-Bilder-Apps das vorschreiben. Hier braucht es dringend Alternativen und mehr Sensibilität.

Mächtig daneben? Oder BILDERMÄCHTIG?

Der Journalistinnenbund e.V. lädt zur Fachtagung am 30.11.2023 in Frankfurt am Main ein. Bei der Podiumsdiskussion zu „Wie viel Klischee bringt uns die KI?“ wird Barbara Wimmer über ihre Erfahrungen und Erkenntnisse sprechen.
Programm und Anmeldung

Portrait Barbara Wimmer: Frau im mittleren Alter, mit roten Haaren und Brille

© The Van Helden

Barbara Wimmer

Gastautorin

Sie schreibt und spricht seit mehr als 15 Jahren über IT-Security, Netzpolitik, Social Media, KI, Datenschutz und Privatsphäre. Barbara Wimmer ist mehrfach preisgekrönte Netzjournalistin, Buchautorin und Vortragende und lebt in Wien. Die Expertin widmet sich den gesellschaftlichen Folgen, die durch neue Technologien entstehen und der zunehmenden Vernetzung aller Dinge.

Ideen und Impulse

Bei Genderleicht & Bildermächtig finden Sie Argumente und Fakten sowie Tipps und Tools für die gendersensible Medienarbeit.

Newsletter

Was gibt es Neues beim Gendern? Was tut sich bei Bildermächtig? Wir halten Sie auf dem Laufenden, immer zur Mitte des Monats.

Willkommen

bei Genderleicht & Bildermächtig vom Journalistinnenbund e.V.: Impulse zu einer gendersensiblen Arbeitsweise für alle Medienschaffende

Blogthemen

Knifflige Fragen zum Gendern? Antworten gibt unser Textlabor

Gezeichnete Glaskolben wie aus einem Chemielabor weisen auf das Serviceangebot des Textlabors hin: Hier bespricht das Team Genderleicht knifflige Textfragen.

… oder dieses Buch

Buchcover Genderleicht