KI im Marketing
Wenn Personalisierung diskriminiert: Gender Bias in KI-Systemen
Gender Bias beschreibt Verzerrungen, bei denen KI Menschen je nach Geschlecht anders bewertet. Im Marketing kann Personalisierung so zur Benachteiligung werden. Was sich aus Beispielen aus Medizin und Recruiting ableiten lässt.

KI-Systeme gelten gern als nüchtern und objektiv: Zahlen rein, Ergebnis raus. Christian Prinz sieht genau darin eine Gefahr. Er ist Molekularmediziner und Professor für Data Science und Künstliche Intelligenz an der SRH Fernhochschule. Seine Kernbotschaft ist unbequem, aber klar: KI ist nur so objektiv wie die Daten, mit denen sie trainiert wurde. Und viele Daten tragen alte Muster in sich.
Was Gender Bias ist und wie er entsteht
Gender Bias? Gemeint sind systematische Verzerrungen, bei denen KI Menschen je nach Geschlecht anders bewertet oder darstellt. Das passiert, weil Daten eine Geschichte erzählen. Und diese Geschichte ist selten neutral.
Prinz bringt es auf den Punkt: „Die vorhandenen Daten sind immer die Grundlage. Wenn sie Bias enthalten, dann produzieren sie biasbehaftete Vorhersagen.“ Oft bleibt das unbemerkt, wenn niemand genau hinschaut. Und genau das ist Alltag im Marketing: viele Entscheidungen, wenig Zeit, viel Automatisierung.
Wie Daten alte Ungleichheiten konservieren
Besonders anschaulich wird das in der Medizin, sagt Prinz. Dort zeigen Studien, dass Frauen bei Brustschmerzen im Schnitt länger auf ein EKG warten als Männer. Symptome werden häufiger als psychisch eingestuft, vor allem, wenn sie von der vermeintlich männlichen Herzinfarkt-Symptomatik abweichen. Solche Unterschiede landen in Datensätzen. Und dann auch in Modellen, die mit diesen Daten trainiert werden.
Prinz beschreibt ein typisches Szenario: Eine Frau klagt über Übelkeit, Rückenschmerzen und Erschöpfung. Das kann zu einem Herzinfarkt passen, wird aber oft übersehen. „Die KI erkennt solche Fälle oft schlechter, weil sie auf Datensätzen basiert, in denen Männer überrepräsentiert sind.“ Ein System kann also korrekt „lernen“ und trotzdem in der Realität falsch liegen.
Der Mechanismus ist für Marketingteams relevant, auch wenn das Beispiel aus der Medizin kommt. Sobald Systeme Menschen in Gruppen einteilen, Wahrscheinlichkeiten berechnen oder Relevanz bestimmen, entscheidet die Datengrundlage mit darüber, wer bevorzugt wird und wer nicht.
Wenn Algorithmen benachteiligen
Gender Bias zeigt sich nicht nur in sensiblen Diagnosen. Prinz nennt ein Beispiel aus dem Recruiting: Ein großer internationaler Onlinehändler stoppte ein Bewerbertool, weil es Frauen systematisch benachteiligte. Die KI bewertete Begriffe und Formulierungen aus alten Bewerbungen als besonders positiv. Diese Bewerbungen stammten überwiegend von Männern. Frauen mit ähnlichen Qualifikationen wurden schlechter eingestuft.
Das ist der Kern vieler Verzerrungen: Historische Muster werden zur Norm. Und was häufig vorkommt, wirkt auf das Modell „richtig“. In der Praxis entsteht dann eine Benachteiligung, die wie objektive Logik aussieht.
„KI übernimmt nicht nur die Muster aus den Daten, sondern reproduziert auch die Denkweisen ihrer Entwickler“
Christian Prinz, Professor für Data Science und Künstliche Intelligenz
Es geht nicht nur um Daten
Datensätze sind meist der Ausgangspunkt für Bias. Er entsteht aber auch durch Modellierung und Annahmen. „KI übernimmt nicht nur die Muster aus den Daten, sondern reproduziert auch die Denkweisen ihrer Entwickler“, sagt Prinz. Damit rückt ein Punkt in den Fokus, den viele Teams unterschätzen: Entscheidungen fallen schon vor dem Training. Zum Beispiel bei der Frage, welche Zielgröße optimiert wird, welche Merkmale als Signal gelten und welche Ausnahmen als „Rauschen“ aussortiert werden.
Gerade bei generativer KI sieht Prinz zusätzliche Risiken. „Wenn ChatGPT etwa beim Programmieren hilft, übernimmt es oft Codefragmente mit inhärenten Verzerrungen. Diese werden dann weitergetragen.“ Der Punkt ist nicht, dass Tools per se problematisch sind. Problematisch ist, wenn sich Verzerrungen über Vorlagen und Wiederverwendung leise verbreiten, ohne dass es jemand merkt.
Prinz erklärt das mit einem Dartbild: Wenn zehn Pfeile immer in die rechte obere Ecke gehen, ist das sehr präzise, aber nicht richtig. Das ist Bias. Wenn die Pfeile wild um das Zentrum streuen, ist das Noise.
Bitte kein Bauchgefühl!
Vollständig ausschließen lässt sich Bias wohl nie. Doch es gibt Maßnahmen, um ihn zu erkennen und zu reduzieren. Prinz nennt technische Ansätze wie Fairnessmetriken, De-Bias-Methoden und Explainability-Tools, die nachvollziehbar machen, wie eine KI zu ihren Entscheidungen kommt. Organisatorisch brauche es interdisziplinäre Teams, Audits und Ethikleitlinien. Und gesellschaftlich mehr Aufklärung und Verantwortung.
„Ein wichtiger Faktor ist auch die Datenqualität“, betont Prinz. „Wenn wir KI mit unausgewogenen Daten füttern, dürfen wir uns über diskriminierende Ergebnisse nicht wundern. Diversität in den Daten ist essenziell.“ Entscheidend sei außerdem, dass die Daten das abbilden, was vorhergesagt werden soll. Sonst wirkt das Ergebnis objektiv, ist aber am Bedarf vorbei.
Für den Marketingalltag lassen sich daraus fünf Leitplanken ableiten.
Wer Personalisierung skaliert, skaliert Verantwortung
Gender Bias in KI ist kein Randphänomen. Er betrifft viele Lebensbereiche und kann reale Folgen haben, wenn Systeme Menschen anders behandeln, ohne dass es jemand merkt. Prinz betont gleichzeitig: „Doch die Technik ist nicht unser Feind.“ KI könne helfen, Entscheidungen objektiver und besser zu machen, wenn sie richtig eingesetzt wird. Der Punkt ist nur: Ohne Leitplanken verstärkt KI alte Muster mit neuer Geschwindigkeit. Wer Personalisierung skaliert, skaliert auch Verantwortung.