Erklärungen ge­mein­sam en­twick­eln: Neuer Son­der­forschungs­bereich zu künst­lich­er In­tel­li­genz 

 |  Forschung

Die Deutsche Forschungsgemeinschaft (DFG) hat heute die Einrichtung eines neuen Sonderforschungsbereichs/Transregio (TRR) zum Thema „Erklärbarkeit von künstlicher Intelligenz (KI)“ an den Universitäten Paderborn und Bielefeld bekanntgegeben. In den kommenden vier Jahren wird sie dafür rund 14 Millionen Euro Fördergelder zur Verfügung stellen. Das stark interdisziplinär ausgerichtete Forschungsprogramm mit dem Titel „Constructing Explainability“ („Erklärbarkeit konstruieren“) geht über die Frage nach Erklärbarkeit von KI als Grundlage algorithmischer Entscheidungsfindungen hinaus. Der Ansatz fördert die aktive Teilnahme der Menschen an soziotechnischen Systemen. Ziel ist es, die Mensch-Maschine-Interaktion zu verbessern, das Verständnis von Algorithmen in den Mittelpunkt zu stellen und dieses als Produkt eines multimodalen Erklärprozesses zu untersuchen. Die vierjährige Förderung beginnt am 1. Juli.

Künstliche Intelligenz ist heutzutage fester Bestandteil des modernen Lebens – sie sortiert Bewerbungen aus, begutachtet Röntgenbilder und schlägt neue Songlisten vor. Grundlage für solche Prozesse sind algorithmische Entscheidungsfindungen. „Bürgerinnen und Bürger haben ein Recht darauf, dass algorithmische Entscheidungen transparent gemacht werden. Das Ziel, Algorithmen zugänglich zu machen, ist Kern der sogenannten eXplainable Artificial Intelligence (XAI), bei der Transparenz, Interpretier- und Erklärbarkeit als gewünschte Ergebnisse im Mittelpunkt stehen“, sagt Prof. Dr. Katharina Rohlfing, Sprecherin des neuen Sonderforschungsbereichs. „Das Problem ist, dass in unserer digitalen Gesellschaft algorithmische Ansätze wie das maschinelle Lernen rasant an Komplexität zunehmen. Die Undurchsichtigkeit ist ein ernsthaftes Problem in allen Kontexten, insbesondere aber dann, wenn Menschen auf dieser undurchsichtigen Grundlage Entscheidungen treffen müssen", fügt Prof. Dr. Philipp Cimiano als stellvertretender Sprecher hinzu. Gerade bei Vorhersagen im Bereich der Medizin oder der Rechtsprechung sei es notwendig, die maschinengesteuerte Entscheidungsfindung nachzuvollziehen, so Cimiano weiter. Zwar gebe es bereits Ansätze, die die Erklärbarkeit entsprechender Systeme zum Gegenstand hätten, die Erklärungen, die dabei entstehen, setzen allerdings Wissen über die Funktionsweise von KI voraus. Was laut Cimiano und Rohlfing fehle, seien Konzepte zur Ko-Konstruktion von Erklärungen, bei der die Adressat*innen – also die Menschen – stärker in den KI-gesteuerten Erklärprozess miteinbezogen werden.

Dazu Rohlfing: „In unserem Ansatz gehen wir davon aus, dass Erklärungen nur dann für die Anwender nachvollziehbar sind, wenn sie nicht nur für sie, sondern auch mit ihnen entstehen. In Erklärungen unter Menschen sorgt dafür der Austausch zwischen den Beteiligten, die Fragen stellen und Unverständnis äußern können.“ In einem interdisziplinären Team arbeiten Linguist*innen, Psycholog*innen, Medienforscher*innen, Soziolog*innen, Ökonom*innen und Informatiker*innen eng zusammen und erforschen die Prinzipien und Mechanismen des Erklärens und Verstehens als soziale Praktiken und wie diese in KI-Systemen implementiert werden können. Darüber hinaus erforscht das Team, wie die Ko-Konstruktion von Erklärungen im Zwischenspiel von Mensch und Maschine neue soziale Praktiken etabliert und wie sich diese gesellschaftlich auswirken.

Der Ansatz soll neue Antworten auf gesellschaftliche Herausforderungen im Zusammenhang mit künstlicher Intelligenz liefern. Im Kern geht es dabei um die Teilnahme von Menschen an soziotechnischen Systemen, mit der auch die Informationssouveränität der Nutzer*innen gefördert wird. „Unser Ziel ist es, neue Formen von Kommunikation mit wirklich erklärbaren und verstehbaren KI-Systemen zu schaffen und somit neue Assistenzformen zu ermöglichen“, fasst Rohlfing zusammen.

Nina Reckendorf, Stabsstelle Presse, Kommunikation und Marketing

Ein neuer Sonderforschungsbereich der Universitäten Paderborn und Bielefeld hat die Erklärbarkeit künstlicher Intelligenz zum Ziel.
Foto (Universität Paderborn): Prof. Dr. Katharina Rohlfing von der Universität Paderborn ist Sprecherin des neues Sonderforschungsbereichs.
Foto (Universität Bielefeld, Mike-Dennis Müller): Prof. Dr. Philipp Cimiano von der Universität Bielefeld ist stellvertretender Sprecher des neuen Sonderforschungsbereichs.

Contact

business-card image

Prof. Dr. Katharina Rohlfing

Germanistische und Allgemeine Sprachwissenschaft

Developmental Psycholinguistics

Write email +49 5251 60-5717