Vorsicht: So reproduziert Ihr Unternehmen versteckte Diskriminierung durch KI

Anfangs waren wir noch skeptisch, aber nun nutzen auch wir bei artundweise diverse bekannte künstliche Intelligenzen. Die KI liefert erste (manchmal auch gute) Ideen und unterstützt den Kreativprozess unserer Redakteur:innen, Konzepter:innen und Videograf:innen. Und damit sind wir sicher nicht die einzigen im Marketing.

Ein Punkt wird hierbei häufig vergessen: Künstliche Intelligenz wirkt neutral und wertfrei – ist es aber nicht. Neben oberflächlichen, unüberprüfbaren und oft falschen „Fakten“ (Halluzinationen) reproduziert KI vermehrt Stereotype und Vorurteile, die den Unternehmen zum Verhängnis werden können.

Je mehr sich die künstliche Intelligenz in unseren (und auch Ihren?) Arbeitsalltag einschleicht, desto intensiver sollten wir die produzierten Inhalte hinterfragen. Sonst ist der Imageschaden vorgeneriert.

So verwenden Unternehmen KI im Marketing

Lange KI-Texte enthalten oft Fehler und verursachen mehr Probleme, als sie lösen. Die KI liefert uns bei artundweise aber beispielsweise erste Ideen-Entwürfe für Überschriften, LinkedIn Captions oder visualisiert die Kulisse eines Videokonzepts. Insgesamt kann künstliche Intelligenz im Marketing: 

  • Texte schreiben,
  • Bilder generieren,
  • Quellen recherchieren,
  • Statistische Daten erstellen,
  • Content produzieren,
  • als Algorithmus statistische Daten auswerten, zum Beispiel das Nutzerverhalten von Kund*innen.

Diskriminierung durch KI – ein Experiment

Mein Ziel: Ich möchte herausfinden, ob ChatGPT (eine der bekanntesten KIs für den privaten Gebrauch) diskriminierend denkt. Dazu starte ich ein Experiment.

Alle fünf Personen sind Europäer

Ich überlege, welche Frage ich ChatGPT stellen könnte, um stereotypisches Denken zu testen. Dabei mache ich mir zunutze, dass die KI Bilder erstellen kann. Ich weise ChatGPT an: „Zeige mir einen reichen Menschen.“ Das wiederhole ich neunmal. Ich erwarte, dass ChatGPT mir weiße Männer in Businesskleidung zeigen wird. Tatsächlich erstellt die KI mir aber fünf Bilder von Frauen und fünf Bilder von Männern. Was sich bewahrheitet: Alle zehn Personen haben eine helle Hautfarbe, glatte Haare und entsprechen dem westlichen Schönheitsideal. Dieses Ergebnis kann natürlich Zufall sein. Trotzdem ist bei der Bildgenerierung ein stereotypes Muster erkennbar.
Ich frage nach: „Woran liegt es, dass alle dargestellten Personen eine helle Hautfarbe haben?“ Und bekomme als Antwort:

 

„Das liegt daran, dass die generierten Bilder auf allgemeinen Beschreibungen basieren, die keine spezifische Hautfarbe erwähnt haben. In vielen Fällen können KI-Modelle, wie DALL-E, dazu neigen, Standarddarstellungen zu verwenden, die möglicherweise kulturell oder statistisch häufiger vorkommen, es sei denn, spezifische Merkmale werden ausdrücklich angegeben.“

 

Bedeutet das im Umkehrschluss also, dass ich nur eine diverse Beschreibung einer Person bekomme, wenn ich explizit danach frage?

Das Betriebssystem einer KI kann nicht von ihrem sozialen Kontext isoliert werden

Die Künstliche Intelligenz und ihr Betriebssystem sind von Menschen geschaffen und werden von Menschen kontrolliert. Auch ein hoch spezialisiertes Feld, wie die algorithmische Codierung, reproduziert auf diese Weise diskriminierende Machtverhältnisse. Algorithmen und künstliche Intelligenzen scheinen neutral, tragen aber vom Menschen geschaffene Vorurteile in sich.

Verschiedene Studien zeigen, dass Algorithmen die gleichen sexistischen und rassistischen Stereotype reproduzieren wie die Gesellschaft: Frauen werden eher mit Familie in Verbindung gebracht, Männer mit Wissenschaft und Karriere. Europäische Namen sind für die KI positiv konnotiert – schwarze negativ.
 

ChatGPT sagt über sich selbst: „KI-Systeme können aufgrund von Vorurteilen und unbeabsichtigter Voreingenommenheit diskriminierende Entscheidungen treffen. Insbesondere, wenn sie auf historischen Daten trainiert werden, die bereits vorhandene Vorurteile widerspiegeln.“
 

Chatbots und KIs beziehen ihre Informationen überwiegend von Männern aus der westlichen Welt, insbesondere den USA. Die Antworten orientieren sich also an westlichen Denkmustern. Dazu kommt: Die KI selektiert auf Basis der Inhalte und nicht der Quelle. Sie kann selber nicht verstehen, welche Inhalte diskriminierend sind. Die KI wird mithilfe einer riesengroßen Menge von Daten „trainiert“. Sie liest Millionen von Dokumenten und wählt daran anschließend, wie eine gute Antwort auf den Prompt lautet. Da unsere Welt patriarchal und rassistisch geprägt ist, lernt die künstliche Intelligenz genau diese Werte.

Der Mittelstand muss seine Geschichten erzählen – die Abkürzung über generative KI kann tückisch sein

Seien Sie sehr aufmerksam, wenn Sie für Ihre Webseitentexte oder LinkedIn-Beiträge die generative KI nutzen. Gerade wenn es ums Storytelling geht, ist generative KI nicht nur recht platt – sie teilt auch nicht unbedingt Ihr Streben nach Vielfalt. Was wir damit sagen wollen: Eine Marke zu positionieren ist schwierig. Eine generative KI tritt leicht in das Image-Fettnäpfchen. Nutzen Sie KI deswegen nie unkontrolliert und leichtfertig für Ihre Marke!

So verhindern Sie Diskriminierung durch KI

Natürlich liegt die Lösung primär darin, die künstliche Intelligenz diverser denken zu lassen. Da das aber noch etwas dauern wird, liegt die Verantwortung im Moment bei uns Medienschaffenden. So können Sie in Ihrem Unternehmen Diskriminierung durch KI vorbeugen:

  1. Neutrale Fragestellung: Ihr Prompt (Fragestellung) beeinflusst die künstliche Intelligenz enorm. Verwenden Sie dort beispielsweise geschlechtsneutrale oder geschlechtergerechte Sprache, wird auch die KI ihre Antwort dementsprechend diverser gestalten! Aus eigener Erfahrung: Verwende ich bei meinen Prompts das Wort „neutral“, so gibt ChatGPT Personen beispielsweise geschlechtsneutrale Namen.
  2. Faktencheck: Seien Sie sich stets bewusst: Algorithmen sind nicht vorurteilsfrei und geben zudem teilweise falsche Informationen aus. Bei einer Google-Suche können wir als Mensch anhand der Quelle meistens eine gewisse Seriosität und Vertrauenswürdigkeit einschätzen. Eine KI kann das nicht. Hinterfragen Sie also jede Information. 
  3. KI nur als Inspiration: Verwenden Sie die künstliche Intelligenz immer eher als Inspiration und schreiben Sie lange Texte weiterhin selbst. So vermeiden Sie explizit Diskriminierung durch KI.
  4. Vorurteile reflektieren: Nicht nur die KI schreibt diskriminierend, auch wir Menschen haben Vorurteile. Nutzen Sie diese Gelegenheit zur Selbstreflexion: Schreiben und denken Sie bereits vielfältig und vorurteilsfrei?

Fazit

Aktuell gibt es noch keine technischen Lösungen, um sachliche Fehler, Vorurteile oder Diskriminierung durch künstliche Intelligenz vollständig zu verhindern. Da KI nie völlig wertfrei sein kann – genau wie wir Menschen –, ist es wichtig, proaktiv zu handeln. Hinterfragen Sie stets Ihre Texte, Bilder und Videos. Eine sorgfältige Fehleranalyse ist entscheidend. Fehler im Umgang mit KI-Content beeinflussen nicht nur das Leben echter Menschen, sondern haben auch Auswirkungen auf Ihre Marke und Ihr Unternehmen.

Lernen Sie uns kennen!