Zum Inhalt

Bettina Laugwitz - Mind the AI Safety Gap

Safety im Sinne von “AI soll so konstruiert sein und verwendet werden, dass sie nicht schädlich für Menschen ist”, da spielen ethische Prinzipien eine wichtige Rolle, aber auch “AI Literacy”, die allen Beteiligten ermöglicht, Risiken, Grenzen und Möglichkeiten bewusst abzuwägen.

Mind the AI Safety Gap - KI-Sicherheit und Ethik in der Praxis

Kurze Zusammenfassung

Bettina Laugwitz von SAP präsentierte einen umfassenden Überblick über AI Safety und KI-Ethik, wobei sie die Parallelen zwischen der Entwicklung der Automobilindustrie und der heutigen KI-Revolution aufzeigte. Der Vortrag behandelte die drei Grundpfeiler vertrauenswürdiger KI - Rechtmäßigkeit, Robustheit und Ethik - und stellte SAPs Ansatz zur verantwortungsvollen KI-Entwicklung vor. Durch anschauliche Beispiele verdeutlichte sie sowohl die Potenziale als auch die Risiken aktueller KI-Technologien und präsentierte konkrete Lösungsansätze für die Implementierung ethischer KI-Systeme.

Gliederung und Aufbau des Vortrags

Der Vortrag folgte einer strukturierten 3x3-Gliederung:

Was: Definition und Abgrenzung von KI-Sicherheit und KI-Ethik Warum: Begründung der Notwendigkeit von AI Safety Wie: Praktische Umsetzungsansätze und SAPs Responsible AI Framework

Die Präsentation nutzte durchgehend die Analogie zur Automobilentwicklung, beginnend mit Bertha Benz' historischer Fahrt 1888, um die gesellschaftlichen Auswirkungen disruptiver Technologien zu verdeutlichen.

Was ist KI-Sicherheit und AI Safety?

Laugwitz etablierte zunächst eine klare begriffliche Grundlage und betonte die Unterscheidung zwischen "Security" (sicher gebaut) und "Safety" (sicher zu verwenden). "Also es geht im Grunde darum, KI so zu gestalten und so zu entwickeln, dass es keinen Schaden anrichtet. Also dass sie nicht Menschen, Umwelt, gesellschaftliche Beeinträchtigungen erzeugt."

Die Referentin entwickelte eine Analogie zum Straßenverkehr, um die verschiedenen Sicherheitsebenen zu verdeutlichen:

  • Rechtliche Compliance: Wie Verkehrsteilnehmer Gesetze einhalten müssen
  • Technische Robustheit: Wie funktionierende Bremsen notwendig sind
  • Ethische Prinzipien: Wie Rücksichtnahme über gesetzliche Vorgaben hinausgeht

Diese Dreiteilung basiert auf den "Guidelines for Trustworthy AI" der Europäischen Kommission von 2018, die drei Grundpfeiler definiert: "Trustworthy AI needs to be rechtmäßig, robust und ethisch."

Kategorisierung von KI-Systemen

Ein wesentlicher Teil der Präsentation widmete sich der systematischen Einordnung verschiedener KI-Technologien:

Künstliche Intelligenz (Überbegriff): - Umfasst alle Systeme mit menschenähnlichen Verhaltensweisen - Schließt auch regelbasierte Expertensysteme ein

Maschinelles Lernen: - Systeme, die sich durch Erfahrung oder Daten weiterentwickeln - Klassifizierung und Kategorisierung basierend auf Wahrscheinlichkeiten - Beispiele: Medizinische Diagnose, Kreditbewertung, Bilderkennung

Generative KI: - Erzeugt neue Inhalte - "Wichtiger Unterschied, der nicht allen immer so klar ist" - Fokus auf plausible Ausgaben, nicht auf Wahrheit

KI-Agenten: - Komplexere Abläufe mit Planungsfähigkeiten - Kooperation mit anderen Agenten - Tool-Verwendung für komplexe Aufgaben

Warum KI-Sicherheit jetzt wichtig ist

Laugwitz argumentierte mit drei Hauptgründen für die Dringlichkeit des Themas:

Dynamische Systementwicklung

"Das Weiterentwickeln von den Systemen durch Daten und Erfahrungen führt halt dazu, dass es eine Dynamik gibt, dass die Systeme nicht einfach so sind, wie man so fertig programmiert hat, ausgeliefert hat und dann sind sie so sicher und robust bis zum nächsten Upgrade, sondern man muss es eben im Auge behalten."

Skalierungseffekte

Die Referentin nutzte die Automobilgeschichte als Metapher: "Das ist das einzige Auto, was außerhalb von Mannheim da herumfährt. Das einzige Auto, das da herumfährt, ist jetzt noch mal kein großes Risiko für andere Menschen, für die Umwelt. Es stellt kein großes Risiko dar. Es wurden es aber mehr und immer mehr. Und jetzt heute sind es mehr als eine Milliarde Autos, Kraftfahrzeuge, die in diesem Moment auf der Weltkugel herumfahren."

Sie wagte die "steile These, dass künstliche Intelligenz, so wie wir es jetzt heute erleben, ähnlich disruptiv sein kann wie diese Technologie. Mit großen Auswirkungen. Das Tempo ist atemberaubend und deswegen auch sehr wichtig, ein Auge drauf zu haben."

Begrenzte KI-Literacy und Bias-Problematik

Anhand praktischer Beispiele demonstrierte Laugwitz die Grenzen aktueller KI-Systeme:

  • Mangelndes Weltwissen: Generierung unrealistischer Bilder (zerbrochene Eier)
  • Gesellschaftliche Verzerrungen: Gender-Bias bei Berufsdarstellungen (Arzt vs. Krankenschwester)

"Also in den Daten gibt es eine Verzerrung, die sind Jahrzehnte alt, spiegelt vielleicht eine gesellschaftliche Realität von vor 30, 40 Jahren wieder, aber auch nicht repräsentativ und so weiter."

SAPs Responsible AI Framework

Laugwitz präsentierte SAPs dreisäuliges Modell für verantwortungsvolle KI:

KI-Compliance

  • Einhaltung globaler Vorschriften und Gesetze
  • Anpassung an verschiedene Rechtsräume

KI-Sicherheit

  • Robuste Implementierung
  • Schutz vor Manipulation und Hacking
  • Zuverlässige Funktionsweise

KI-Ethik

  • Ethische Prinzipien für gute KI-Systeme
  • Verantwortungsübernahme für Systemverhalten

Organisatorische Umsetzung bei SAP

Die Referentin betonte SAPs langjährige Expertise: "Das Thema ist schon wirklich ganz lange bei uns ein wichtiges Thema und hat sich über die letzten Jahre aufgebaut und ausgebaut, sodass wir jetzt ein großes, hohes Level an Organisational Maturity haben, was das Thema KI-Ethik betrifft."

Strukturelle Elemente: - Global AI Ethics Policy mit definierten Rollen und Verantwortlichkeiten - KI-Ethik-Bewertungsprozess in der Produktentwicklung - Online-Kurse für Mitarbeiterbildung - Kontinuierliche Risikoanalyse und -minimierung

Drei Kernanforderungen ethischer KI

Menschliche Kontrolle und Selbstbestimmung

"Es geht immer darum, dass der Mensch die Maschine unter Kontrolle hat und nicht umgekehrt." Die Referentin betonte die Bedeutung von "Human in the Loop"-Konzepten und die bewusste Entscheidung, an welchen Stellen menschliche Intervention erforderlich ist.

Fairness und Nichtdiskriminierung

Besonders relevant in HR-Anwendungen, um Verzerrungen bei Bewerbungsverfahren zu vermeiden. Die systematische Analyse und Korrektur von Bias in Trainingsdaten und Algorithmen steht im Fokus.

Transparenz und Erklärbarkeit

"Da geht es darum, dass Menschen die Möglichkeit haben müssen zu verstehen, was macht die Maschine jetzt eigentlich, so gut es halt geht." Obwohl KI-Systeme oft als Blackbox funktionieren, müssen Methoden entwickelt werden, um: - Systemverantwortlichen Einblicke in die Funktionsweise zu geben - Anwendern die Bewertung von KI-Empfehlungen zu ermöglichen - Fachexperten die Validierung von Ergebnissen zu erlauben

Handlungsempfehlungen und Call to Actions

Für Organisationen

  • Aufbau organisatorischer Strukturen: Etablierung von Rollen, Verantwortlichkeiten und Prozessen für KI-Ethik
  • Implementierung von Bewertungsprozessen: Systematische Risikoanalyse bereits in der Konzeptionsphase von KI-Anwendungen
  • Kontinuierliche Weiterbildung: Aufbau von KI-Literacy in der gesamten Organisation

Für Entwickler und Produktteams

  • Frühzeitige Ethik-Integration: "Wenn man eine Anwendung definiert, sich überlegt, in welche Anwendung wollen wir denn KI mit einbauen, dass man sich da schon darüber Gedanken macht, was könnten Risiken sein"
  • Human-in-the-Loop Design: Bewusste Entscheidungen über Automatisierungsgrade
  • Transparenz-Features: Entwicklung erklärbarer KI-Funktionen

Für die Gesellschaft

  • Wachsamkeit bewahren: "Warum sollten wir also wachsam bleiben" - kontinuierliche Beobachtung der KI-Entwicklung
  • KI-Literacy fördern: Verbesserung des allgemeinen Verständnisses für KI-Technologien und deren Grenzen
  • Ethische Standards entwickeln: Partizipation an gesellschaftlichen Diskussionen über KI-Ethik

Spezifische Ressourcen-Empfehlungen

Laugwitz verwies mehrfach auf konkrete Hilfsmittel: - SAP Responsible AI Website: Umfassende Dokumentation und Downloads - AI Ethics Handbook: Praktischer Leitfaden für die Implementierung - Online-Kurse: Strukturierte Weiterbildungsmöglichkeiten - UNESCO-Empfehlungen: Internationale Standards als Orientierung

Historische Parallelen und Zukunftsperspektiven

Die durchgängige Analogie zur Automobilentwicklung verdeutlichte wichtige Prinzipien:

Innovation vor Regulation: Wie der Dreipunkt-Sicherheitsgurt 1959 erfunden und erst 1973 gesetzlich vorgeschrieben wurde, entstehen auch bei KI oft technische Lösungen vor rechtlichen Rahmen.

Schrittweise Sicherheitsverbesserungen: Von Sicherheitsglas in den 1920ern bis zu modernen Fahrassistenzsystemen zeigt sich, wie kontinuierliche Innovation Sicherheitsstandards verbessert.

Gesellschaftliche Transformation: Die Entwicklung von einem einzelnen Motorwagen zu über einer Milliarde Fahrzeugen veränderte Gesellschaft, Gesetze und Technologie fundamental - ein Muster, das sich bei KI wiederholen könnte.

Der Vortrag schloss mit einem optimistischen Ausblick: "Das Thema ist so spannend und so interessant. Ich bin jeden Tag sehr begeistert und beglückt, dass ich daran arbeiten darf, weil es auch so vielfältig ist und gleichzeitig auch so relevant."

Diese Begeisterung für das Thema, kombiniert mit praktischen Lösungsansätzen und klaren Handlungsempfehlungen, machte deutlich, dass KI-Sicherheit nicht nur eine technische Herausforderung, sondern eine gesellschaftliche Gestaltungsaufgabe ist, die proaktives Handeln aller Beteiligten erfordert.