zum Hauptinhalt wechseln zum Hauptmenü wechseln zum Fußbereich wechseln Universität Bielefeld Play Search

Inklusive Erklärbare KI

Campus der Universität Bielefeld
© Universität Bielefeld

Inklusive Erklärbare KI

Universität Bielefeld
© Universität Bielefeld

Methoden der künstlichen Intelligenz (KI) und des maschinellen Lernens stützen sich zunehmend auf komplexe Black-Box-Modelle, die vor allem für normale Nutzer*Innen nicht leicht zu verstehen sind. Das Ziel der Forschung zu erklärbarer KI (XAI) ist es, die Transparenz und Verständlichkeit der von KI-Systemen getroffenen Entscheidungen zu verbessern. Typischerweise werden Erklärungen bei den aktuellen State-of-the-Art XAI-Methoden jedoch als statische, einseitige Interaktion ohne Berücksichtigung des Verständnisses des Erklärungspartners/der Erklärungspartnerin behandelt. Das Ziel des Transregio-Sonderforschungsbereichs "Constructing Explainability" (TRR 318) ist es, dies zu ändern, indem Erklärungen in einem sozialen Kontext betrachtet werden, zusammen mit dem menschlichen Erklärungsempfänger und dem maschinellen Erklärer konstruiert werden.

Unser Unterprojekt Co-Constructing Social Signs of Understanding to Adapt Monitoring to Diversity (Projekt A06) zielt darauf ab, den Erklärungsprozess zu verbessern, indem es eine umfassendere Aufzeichung und Analyse des Verständnisses der Erklärenden ermöglicht. In einem ko-konstruktiven Erklärungsprozess sollte ein maschineller Erklärer das Verständnis des Erklärungsempfängers aufzeichnen und analysieren, um die Erklärung an dessen aktuellen Kenntnisstand anzupassen. Eine Methode dafür ist die Erfassung und Analyse von nonverbalen Signalen des Verstehens, die der Erklärungsempfängers ausdrückt, wie z. B. Gesichtsausdrücke oder Blickverhalten. Diese Signale unterscheiden sich jedoch von Person zu Person und sind abhängig von der Situation, in der die Erklärung erfolgt. So können beispielsweise Personen mit Störungen der sozialen Interaktion, wie Autismus oder ADHS oder Personen in Stresssituationen eine verminderte Mimik aufweisen. Diese Art von intra- und interindividueller Vielfalt wird bei der Entwicklung von maschinellen Lernmethoden für die Analyse sozialer Signale normalerweise nicht berücksichtigt. In diesem Projekt schließen wir diese Lücke, indem wir empirisch die intra- und interindividuelle Variation von Signalen des Verstehens untersuchen, die bei Erklärungen in der realen Welt ausgedrückt werden. Anhand der im Rahmen unserer Forschung gesammelten Daten wollen wir Probleme in Modellen zur Aufzeichung und Analyse des menschlichen Verständnisses bewerten und neuartige XAI-Methoden entwickeln, die diese Probleme beseitigen, indem sie adaptive Methoden ermöglichen, um eine genauere Aufzeichung und Analyse von Personen und Situationen zu ermöglichen, die in der Regel nicht gut in sozialen Netzwerken vertreten sind.

Wir bedanken uns für die Förderung durch die Deutsche Forschungsgemeinschaft (DFG, Deutsche Forschungsgemeinschaft): TRR 318/1 2021 - 438445824


Zum Seitenanfang