Susann Schulz - Mind the Diversity Gap - Wie KI unsere blinden Flecken re(pro)duziert
Susann Schulz: Mind the Diversity Gap: Wie KI unsere blinden Flecken re(pro)duziert
Künstliche Intelligenz reproduziert unseren Bias nicht nur – sie verstärkt ihn sogar. Gleichzeitig kann sie helfen, diese blinden Flecken sichtbar zu machen. In dieser interaktiven Session analysieren wir KI-generierte Texte und Bilder, reflektieren über fehlende Perspektiven und erproben, wie wir durch bewusste Beschreibungen und gezielte Perspektivwechsel vielfältigere, inklusivere Darstellungen anstoßen können. Gemeinsam nähern wir uns dem Diversity Gap – und werfen einen bewussten Blick auf das, was oft übersehen wird.
Der Vortrag von Susanne Schulz behandelt das Phänomen des "Diversity Gap" in der Künstlichen Intelligenz und zeigt auf, wie KI-Systeme gesellschaftliche Stereotype nicht nur widerspiegeln, sondern sogar verstärken. Anhand praktischer Beispiele aus der Bildgenerierung demonstriert sie, wie geschlechtsspezifische und kulturelle Vorurteile in KI-Outputs sichtbar werden. Der Vortrag schließt mit einer interaktiven Übung, in der die Teilnehmenden lernen, Rollenbilder zu identifizieren und neutralere Prompts zu entwickeln.
Einführung in die Begrifflichkeiten
- Definition des Gender Data Gap
- Überleitung zum Diversity Gap
- Strukturelle Verankerung von Vorurteilen
Ursachen und Verstärkung durch KI
- Neurologische Grundlagen des Schubladendenkens
- Historische Datenverzerrungen
- Algorithmische Verstärkungseffekte
Praktische Beispiele aus der Bildgenerierung
- Analyse verschiedener KI-Modelle
- Vergleich von Outputs bei neutralen Prompts
- Demonstration von Filtereffekten
Interaktive Übung
- Sammlung von Rollenbildern
- Entwicklung neutralerer Formulierungen
- Praktisches Ausprobieren mit KI-Tools
Kernaussagen des Vortrags
Das Diversity Gap als systematisches Problem
"Das Diversity Gap bezeichnet die Lücke zwischen dem Anspruch auf Vielfalt - viele Organisationen sagen ja schon, ja, wir bekennen uns zu Vielfalt, wir wollen Vielfalt - und die Lücke zwischen diesem Anspruch eben und der tatsächlichen Repräsentation von diesen Gruppen in Organisationen und Entscheidungsprozessen."
Diese Definition macht deutlich, dass es sich nicht nur um ein technisches, sondern um ein gesellschaftliches Problem handelt. Das Gap manifestiert sich in: - Unterrepräsentation von Frauen und Menschen mit Migrationsgeschichte in Führungspositionen - Fehlende Darstellung von People of Color und queeren Menschen in Studien, Filmen und Lehrplänen - Geringere Beteiligung marginalisierter Gruppen an Entscheidungsprozessen
KI verstärkt bestehende Verzerrungen
"Diese Gruppen, die nämlich systematisch unterpräsentiert sind oder verzerrt dargestellt werden, ist mittlerweile nachgewiesen tatsächlich, dass KI das eben nicht nur spiegelt, sondern sogar verstärkt."
Die Referentin belegt diese Aussage mit einer Studie zu DALL-E 2, die zeigt, wie Berufsbilder stereotyp dargestellt werden. Besonders auffällig war, dass bestimmte Berufe ausschließlich männlich oder weiblich dargestellt wurden, obwohl die Prompts neutral formuliert waren.
Neurologische und historische Ursachen
"Das liegt eigentlich mehr oder weniger mit in der Natur des Menschen, weil unser Gehirn einfach effizienter funktioniert, wenn es Dinge in Schubladen packen kann."
Die Entstehung von Stereotypen wird als natürlicher kognitiver Prozess erklärt, der jedoch problematisch wird, wenn er in KI-Systeme eingebettet wird. Zusätzlich verstärken historische Faktoren das Problem: - Strukturelle Diskriminierung in der Vergangenheit - Eingeschränkter Zugang zu Bildung und politischer Teilhabe für bestimmte Gruppen - Unsichtbarmachung von Leistungen marginalisierter Gruppen in historischen Aufzeichnungen
Subjektivität in der Datenkuration
"Wenn ich jetzt hier ein Team bin aus Europa mit bestimmten Einflüssen und wir bestimmen jetzt, wie die KI trainiert wird, dann legen wir den Regeln zugrunde, mit denen wir groß geworden sind."
Diese Aussage verdeutlicht, wie kulturelle Prägungen der Entwicklerteams unbewusst in die KI-Systeme einfließen und zu systematischen Verzerrungen führen können.
Feedback-Schleifen verstärken Vorurteile
"Wenn eine KI trainiert wird, dann gibt man, analysiert die Daten, dann gibt es irgendwann nochmal eine Feedback-Schleife, wo man guckt, was kommt da für ein Output. Das wird dann natürlich das Feedback wieder vom Menschen gegeben. Der Mensch ist halt nur mal voreingenommen, ob er will oder nicht."
Hier wird der Teufelskreis beschrieben, durch den menschliche Vorurteile kontinuierlich in KI-Systeme eingespeist und verstärkt werden.
Unsichtbarkeit nicht gemessener Realitäten
"Diese ganzen verzerrten Daten sind am Ende dann quasi auch verzerrtes Wissen und für die KI existiert eben das, was wir messen oder was eben nicht in diesen Daten steht, existiert für die KI eben nicht."
Diese fundamentale Erkenntnis zeigt die Grenzen KI-basierter Systeme auf: Was nicht in den Trainingsdaten enthalten ist, kann von der KI nicht berücksichtigt werden.
Unterschiedliche Ansätze verschiedener KI-Anbieter
Die praktischen Beispiele zeigen deutliche Unterschiede zwischen verschiedenen KI-Modellen:
MidJourney 6.1: Starke Stereotypisierung bei der Darstellung von Haushaltstätigkeiten - alle generierten Personen trugen Röcke oder Schürzen und waren ausschließlich dem Kind zugewandt.
DALL-E 3 in ChatGPT: "In ChatGPT ist tatsächlich ein Filter eingebaut, der dafür sorgt, wenn ich Prompt bewusst neutral formuliere, dass er dann absichtlich extrem viel Diversität oder gegensätzliche Bilder reinbringt."
Interessant war dabei die Beobachtung, dass bei DALL-E 3 die dargestellten Männer tatsächlich Haushaltstätigkeiten ausführten, während sie das Kind hielten - ein Verhalten, das bei den weiblichen Darstellungen nicht zu beobachten war.
Rollenbilder beeinflussen Selbstwahrnehmung
"Solche Klischees führen dann eben auch dazu, dass Menschen sich selber auch auf diese Rollen beschränken, die einem vorgegeben werden."
Diese Aussage unterstreicht die gesellschaftliche Relevanz des Themas: KI-generierte Inhalte können Rollenbilder verfestigen und damit reale Auswirkungen auf Lebensentscheidungen haben.
Handlungsempfehlungen und Call to Actions
Bewusstseinsschaffung als erster Schritt
"Deswegen ist eins meiner Ziele zum Beispiel eben dagegen vorzugehen, indem man sich das einfach bewusst macht."
Die Referentin betont wiederholt die Wichtigkeit, sich der Problematik bewusst zu werden als Grundvoraussetzung für Veränderung.
Aktive Auseinandersetzung mit Prompting
Der Workshop-Teil fordert die Teilnehmenden auf: - Rollenbilder und Klischees zu identifizieren - Neutrale Formulierungen zu entwickeln - Alternative Darstellungen zu erarbeiten - KI-Tools bewusst für diversere Outputs zu nutzen
Kritische Reflexion bei KI-Nutzung
"Ich hoffe, dass ihr in der Zukunft euch das alle auch ein bisschen bewusster macht, wenn ihr KI benutzt."
Diese abschließende Bitte richtet sich an alle Nutzer von KI-Systemen, ihre Verwendung kritisch zu hinterfragen und bewusster zu gestalten.
Verwendung spezialisierter Tools
Die Referentin stellt konkrete Hilfsmittel vor: - Einen "Diverse-Prompthelfer" für datenschutzkonforme KI-Nutzung - Einen speziell trainierten ChatGPT-Assistenten namens "Diversity Gap Feiner" - Praktische Übungen zur Prompt-Optimierung
Interdisziplinäre Zusammenarbeit fördern
"Dafür braucht man wahrscheinlich einen gut ausgewogenen Mix an Leuten, die so ein Language-Modell oder auch so eine Bild-KI, die Modelle, die dahinter stecken, dann aufsetzen."
Diese Empfehlung richtet sich an Entwicklerteams und Organisationen, die KI-Systeme erstellen oder implementieren.
Diskussion und Erkenntnisse aus der Praxis
Überraschende Beobachtungen der Teilnehmenden
Die praktischen Übungen brachten interessante Erkenntnisse hervor:
Erfolgreiche Prompt-Optimierung: Eine Teilnehmerin berichtete, dass die Erstellung neutralerer Prompts "relativ schnell und gut ging", die Umsetzung in der Bildgenerierung jedoch noch Herausforderungen bereitet.
Wirksamkeit von Diversity-Filtern: Bei der Eingabe "Hebamme" in Azure wurde überraschenderweise ein schwarzer Mann dargestellt, was zeigt, dass bereits Diversity-Filter implementiert sind.
Quantitative Analyse: Ein Teilnehmer testete systematisch mit zwölf Bildern zum Prompt "Truck Driver" und erhielt drei weibliche Darstellungen - ein messbarer Fortschritt gegenüber früheren Modellen.
Kritische Reflexion zu Eingriffen in KI-Systeme
Ein wichtiger Diskussionspunkt war die Frage nach den Langzeitfolgen von Diversity-Filtern: "Alles, was zusätzlich Eingriffe werden muss und so gerichtet werden muss, weil es nicht dem normalen Weltbild entspricht, kann irgendwann mal Probleme erzeugen."
Diese Bedenken führten zu der Erkenntnis, dass das eigentliche Ziel eine diversere Datengrundlage sein sollte, anstatt nachträgliche Korrekturen vorzunehmen.
Sprachliche Nuancen und ihre Auswirkungen
Die Analyse verschiedener englischer Begriffe für Arzt/Ärztin zeigte überraschende Unterschiede: - "Doctor" führte überwiegend zu männlichen Darstellungen - "Physician" generierte ausgewogenere Geschlechterverteilungen - Diese Erkenntnisse verdeutlichen die Komplexität sprachlicher Kodierungen in KI-Systemen
Zukunftsperspektiven und gesellschaftliche Entwicklungen
Eine besonders relevante Frage betraf die Auswirkungen des Rückgangs beim Gendern auf zukünftige KI-Entwicklungen. Die Diskussion verdeutlichte die Komplexität des Themas: Während einerseits weniger gegenderte Sprache zu weniger diversen Trainingsdaten führen könnte, entstehen andererseits neue, geschlechtsneutrale Begriffe, die KI-Systeme vor neue Klassifizierungsherausforderungen stellen.
Der Vortrag schließt mit der realistischen Einschätzung: "Es gibt noch keine Patentlösung, weil noch alles im Fluss ist." Diese Aussage unterstreicht sowohl die Dringlichkeit als auch die Komplexität der Aufgabe, KI-Systeme fairer und inklusiver zu gestalten.
Die Session zeigt eindrucksvoll, dass die Auseinandersetzung mit Diversity in der KI nicht nur eine technische, sondern eine gesamtgesellschaftliche Aufgabe ist, die kontinuierliche Aufmerksamkeit und bewusste Gestaltung erfordert.