Trustworthy Artificial Intelligence – Vertrauen in Künstliche Intelligenz

Gastautor Portrait

Dr. Rainer Hoffmann

EnBW AG

An der Schnittstelle von Data Science und Business gestaltet Dr. Rainer Hoffmann mit großer Leidenschaft die Skalierung der AI-Aktivitäten der EnBW. Sei es durch Trainings, Community Building, Kommunikation oder insbesondere durch Identifizierung von werthaltigen Anwendungsfällen mit der Fähigkeit eines AI Tranlators. In vorherigen Positionen war Herr Hoffmann u.a. Data Scientist im Energiehandel und baute den algorithmischen Handel für die EnBW auf. Herr Hoffmann ist Wirtschaftsingenieur und promovierte in stochastischer Optimierung.

weiterlesen
06. April 2021

Kann eine Technologie wirklich vertrauenswürdig oder sogar verantwortlich sein? Ganz klar nein! Trotzdem gewinnen mit zunehmendem Einsatz von Künstlicher Intelligenz (KI) Begriffe wie „Trustworthy AI“, „Responsible AI“ oder „Ethical AI“ an Bedeutung. Was steckt also dahinter?

Technologien menschliche Eigenschaften zuzuschreiben (Anthropomorphismus) ist leider irreführend und suggeriert sogar, dass man Verantwortung, moralische Abwägungen und Vertrauen von einer Technologie erwarten kann. Technologie wird immer nur von Menschen für bestimmte Zwecke eingesetzt. Daher müssen wir in die Menschen vertrauen, die eine Technologie nutzen und wiederum i.d.R. Teil einer Organisation sind, welche eigene Werte lebt. Wollen wir also einer KI-Lösung vertrauen, müssen wir Vertrauen darin haben, dass die involvierten Organisationen KI verantwortungsvoll nutzen.

Die herausragende Rolle von Vertrauen und Verantwortung

Eine KI ist rechtmäßig, wenn alle geltenden Gesetze eingehalten werden. Und eine KI ist ethisch, wenn ethische Grundsätze und Werte garantiert werden.

Dr. Rainer Hoffmann

Wie wichtig die Akzeptanz einer Technologie für deren Einsatz und Erfolg ist, lässt sich anhand historischer Beispiele wie der Nanotechnologie oder der Kernkraft zeigen. Um von dem enormen sozialen und ökonomischen Potential von KI zu profitieren, ist es daher erforderlich eine hohe Akzeptanz von KI-Lösungen in der Gesellschaft zu erreichen. Auf diesem Weg spielen Vertrauen und Verantwortung eine herausragende Rolle.

Um zu verstehen, welche Maßnahmen Organisationen auf dem Weg zur vertrauenswürdigen KI ergreifen können, betrachten wir einmal die zugrundeliegenden Komponenten von Vertrauenswürdigkeit: Eine KI ist rechtmäßig, wenn alle geltenden Gesetze eingehalten werden. Und eine KI ist ethisch, wenn ethische Grundsätze und Werte garantiert werden. Während die Rechtmäßigkeit eine Antwort auf die Frage gibt, was erlaubt ist, kann mittels ethischer Reflexion herausgefunden werden, was wir mit KI tun sollten, anstatt uns darauf zu fokussieren, was wir mit KI tun können. Findet diese Reflektion statt, erhöht sich die Wahrscheinlichkeit, dass KI-Lösungen den Menschen in den Mittelpunkt stellen und darauf abzielen sein Wohlbefinden zu erhöhen. Des Weiteren ist eine KI robust, wenn unbeabsichtigte Schäden (technisch und sozial) vermieden werden können. Diese Komponente ist sehr relevant, da die Ergebnisse von KI-Lösungen – im Gegensatz zu regelbasierten Systemen – mit Unsicherheit behaftet sind. Das bedeutet, dass eine KI zu Fehleinschätzungen kommen kann, die man nicht erwartet (siehe z.B. Fehlentscheidungen von autonomen Fahrzeugen, die für den Menschen nicht nachvollziehbar sind). Robustheit bedeutet generell, dass man diese Fehleinschätzungen mit verschiedenen Maßnahmen im Voraus möglichst zu minimieren versucht.

Transparenz und Gerechtigkeit zur Vertrausensbildung

Anhand von zwei beispielhaften Eigenschaften soll verdeutlicht werden, wie Organisationen Maßnahmen ergreifen können, die zur Vertrauenswürdigkeit von KI-Lösungen beitragen können:

Eine Eigenschaft oder Wert eines KI-Systems, die mehrere ethische Grundsätze unterstützt, ist die Transparenz. Diese beinhaltet z.B. die Transparenz bzgl. der verwendeten Daten (Herkunft, Eigenschaften), die Transparenz des Algorithmus (ist das Lernverfahren bekannt und wie gut kann man verstehen, wie das System zum Ergebnis kam) oder die Transparenz des gesamten Systems (wurde die Entwicklung dokumentiert und werden Entscheidungen des Systems festgehalten). Diese Vielfältigkeit macht deutlich, dass Transparenz nicht auf die Erklärbarkeit des Ergebnisses reduziert werden darf (sog. Explainable AI). Vielmehr kann durch die o.g. Maßnahmen auch ein hoher Grad an Transparenz erreicht werden, selbst wenn ein sog. Black-Box Verfahren angewendet wird, bei dem das Zustandekommen des Ergebnisses nicht vollumfänglich durch den Menschen nachvollziehbar ist.

Eine weitere vertrauensbildende Eigenschaft von KI-Systemen ist die Gerechtigkeit. Um diese zu erreichen, können folgende Maßnahmen ergriffen werden: Ausschluss von Diskriminierung in den Trainingsdaten; Sicherstellung, dass nicht nur eine bestimmte Gruppe von entstehenden Vorteilen profitiert; Untersuchung der KI-Systems hinsichtlich sozialer Auswirkungen.

Abwägung zwischen Konsequenz und Vertrauen

Zuletzt bleibt anzumerken, dass nicht für jede KI-Lösung alle Maßnahmen zur Erreichung der Vertrauenswürdigkeit zwingend umgesetzt werden müssen. Die Abwägung zwischen der Konsequenz einer Aktion und des Vertrauens in das Ergebnis der KI-Lösung kann Orientierung geben. Z.B. wären an eine KI-basierte Filmempfehlung (niedrige Konsequenz, mittleres bis hohes Vertrauen) deutlich niedrigere Anforderungen zu stellen als an ein KI-System zur Personalauswahl (hohe Konsequenz, mittleres Vertrauen).

So wird man in Zukunft vermutlich an wenige Systeme sehr hohe Anforderungen stellen und an die meisten Systeme eine Mindestmenge an Anforderungen. Dies kann ein wichtiger Schritt dafür sein, dass Nutzer Vertrauen in KI-Lösungen entwickeln und damit eine Nutzung von KI zum Wohlbefinden eines jeden einzelnen und der Gesellschaft beiträgt.

Hinweis der Redaktion

Dr. Rainer Hoffmann war Referent und Panelleiter bei den online stattfindenden Urban Digital Talks am 08. April 2021. Bei dieser interaktiven Veranstaltung gab es umfassend Raum, um mit ihm ins Gespräch zu kommen und mehr zu erfahren.

Diskutieren Sie mit

    Eloy Veit

    vor 5 Monaten

    Sehr interessanter Beitrag.

    Im Rahmen meiner Abschlussarbeit überlege ich mir einen Test zu Konstruieren, welcher die Vertrauenswürdigkeit der AI- Systeme erhebt. Mittlerweile habe ich sogar ein Konstrukte gefunden, welches ich mir vorstellen könnte diesbezüglich zu adaptieren. Bsp. Empfehlungen der High Level Expert Group (EU).
    I. Menschliche Kontrolle:
    II. Technische Robustheit:
    III. Datenschutz:
    IV. Transparenz:
    V. Vielfalt, Nichtdiskriminierung und Fairness:
    VI. Gesellschaftliches und Ökologischen Wohl:
    VII. Verantwortlichkeit:

    Halten sie die Dimensionen für geeignet ?
    Beste Grüße.

Ich akzeptiere die Kommentarrichtlinien sowie die Datenschutzbestimmungen* *Pflichtfelder

Artikel bewerten und teilen

Trustworthy Artificial Intelligence – Vertrauen in Künstliche Intelligenz
0
0