Ethik erklärbarer KI: Was zeichnet gute Erklärungen aus?

Opazität

Je mehr undurchsichtige, datenbasierte Services in verschiedene gesellschaftliche Sektoren einziehen, desto dringlicher wird die Frage, ob man diese hinreichend versteht: Wissen wir, was sie tun? Was sie tun sollen und was lassen? Um Fehler zu finden, einen reibungslosen Betriebsablauf zu gewährleisten oder Verantwortung für getroffene Entscheidungen zu übernehmen, erscheint es oft notwendig, das Systemverhalten verstehen zu können. Software und Roboter können je nach ‚digitaler Literalität‘ mehr oder weniger opak für jemanden sein, sie können als Geschäftsgeheimnis für Dritte absichtlich undurchsichtig gehalten werden oder aber aufgrund genuin technischer Eigenschaften intransparent bleiben (Burrell).

Asymmetrien des Wissens und der Macht

Diese Intransparenz kann dann problematisch werden, wenn sie mit der Unfähigkeit einhergeht, einzuschätzen, ob eine vorliegende Ungleichbehandlung von Personen mit oder durch ein KI-System berechtigt ist oder nicht, z. B. bei Entscheidungen über die Vergabe von Krediten, medizinischen Behandlungen, der Einstufung von Versicherungsklassen oder der Einstellung von Personal. Denn üblicherweise halten wir es für gerechtfertigt, verschiedene Personen mit guten Gründen verschieden zu behandeln, etwa den Verkauf von Alkohol an Minderjährige zu untersagen. Wenn wir aber nicht einschätzen können, warum jemand anders behandelt wird, ist es schwer, vielleicht unmöglich, für oder gegen eine angebliche Diskriminierung zu argumentieren.

Wann sind Erklärungen sinnvoll, notwendig, angemessen?

Gegenwärtig orientierte sich die xAI-Forschung am Leitbild der „human-centric AI“ und rückt so potenzielle Nutzer*innen in den Fokus. Für eine gute Gestaltung dieser Systeme sollte man aus ethischer Sicht weitere Aspekte beachten: Erstens ist das Erklären kein Selbstzweck. Denkbar ist, dass Erklärungen genutzt werden, um Nutzer*innen zu manipulieren oder Akzeptanz für eine Technologie zu schaffen, die ethisch oder rechtlich inakzeptabel ist. Daher gilt es, gründlich abzuwägen, ob und welche Erklärungen in der jeweiligen Situation angemessen sind. Da soziale Situationen nur in idealisierter Form beschrieben werden können, können Konstellationen auftreten, mit denen niemand vorher gerechnet hat und auf die die Systeme nicht hinreichend ‚vorbereitet‘ sind. Aus ethischer Sicht sind hierfür Meta-Strategien zu integrieren, die es den Beteiligten dann ermöglichen, mit der Situation zielführend umzugehen. Zweitens sollte konsequent zwischen ethischen Anforderungen und Nutzerwünschen unterschieden werden: Ob man den eigenen Heim-Roboter besser oder schlechter steuern kann, muss ethisch nicht von Belang sein. Stärken Erklärungen die Handlungsfähigkeit von ihren Nutzer*innen, kann dies auch
im ethischen Sinne positiv sein (Autonomie). Möglich ist aber auch, dass beide Anforderungen in einen Widerspruch geraten: Ein hohes Maß an Transparenz versetzt einige Nutzer*innen in die Lage, das System zu ihrem „persönliche Vorteil“ zu ‚überlisten‘. Dieselbe Transparenz könnte andere jedoch überfordern und dadurch der Idee einer Chancengleichheit entgegenlaufen.

Die Fachgruppe „Angewandte Ethik, Technikethik“ erforscht diese Fragen im Austausch mit Kolleg*innen des TRR 318 „Constructing Explainability“ und des Forschungsnetzwerks „SustAInable Life-cycle of Intelligent Socio-Technical Systems“ (SAIL).