zum Hauptinhalt wechseln zum Hauptmenü wechseln zum Fußbereich wechseln Universität Bielefeld Play Search
  • Interaktive Robotik in Medizin und Pflege

    Person hält einen NAO
    Person hält einen NAO
    © Universität Bielefeld / Patrick Pollmeier

Projekt B05: Erklärbarkeit ko-konstruieren mit einem interaktiv lernenden Roboter (Zweite Phase)

Zum Hauptinhalt der Sektion wechseln

Prof. Dr.-Ing. Anna-Lisa Vollmer

Professur für Interaktive Robotik in Medizin und Pflege

Helen Beierling

Wissenschaftliche Mitarbeiterin

Prof. Dr. Carsten Schulte

Universität Paderborn - Sonderforschungsbereich Transregio 318

Kontakt

Patrick Schüren, M.Ed.

Universität Paderborn - Wissenschaftlicher Mitarbeiter

Kontakt

Kooperationspartner

Universität Paderborn

Mirokai interagiert mit einer Person
© Universität Bielefeld / Patrick Pollmeier

Stell dir einen Roboter vor, der nicht für jede Aufgabe vorprogrammiert ist, sondern direkt von dir lernt. Im Projekt B05 untersuchen wir, wie Menschen und Roboter gemeinsam lernen können. Anstatt Expertenwissen zu benötigen, kann jede Person, etwa eine Pflegekraft, Betreuungsperson oder ein Patient, einem Roboter beibringen, Aufgaben auszuführen, einfach indem sie mit ihm interagiert.

Doch hier kommt die Besonderheit: Während du dem Roboter etwas beibringst, hilft dir der Roboter gleichzeitig zu verstehen, wie er lernt. Wir nennen das eine „doppelte Lernschleife“:

  • Du bringst dem Roboter bei, was er tun soll
  • Der Roboter hilft dir zu verstehen, wie deine Lehre funktioniert

Das macht die Zusammenarbeit mit KI-Systemen transparenter, intuitiver und vertrauenswürdiger. Unser Ziel ist es, Roboter zu entwickeln, die:

  • von alltäglichen Nutzerinnen und Nutzern trainiert werden können
  • ihr Verhalten auf einfache und verständliche Weise erklären
  • sich an individuelle Bedürfnisse und Fähigkeiten anpassen

In Zukunft könnten solche Systeme beispielsweise Pflegekräfte unterstützen, zum Beispiel beim Zubereiten von Mahlzeiten oder bei der Betreuung von Patienten und dabei leicht zu erlernen und zu verstehen sein.

Roboter NAO untersucht verschiedene Knöpfe
© Universität Bielefeld / Patrick Pollmeier

Projekt B05 untersucht ko-konstruktive Erklärbarkeit im interaktiven Roboterlernen, mit Fokus auf die doppelte Schleife aus Training und Verständnis. In diesem Ansatz trainieren Menschen einen Roboter (Trainingsschleife) und entwickeln gleichzeitig ein Verständnis für dessen Lernverhalten (Verstehensschleife). Erklärungen werden nicht separat bereitgestellt, sondern entstehen während der Interaktion, wodurch eine kontinuierliche Abstimmung zwischen den mentalen Modellen der Menschen und dem Verhalten des Systems ermöglicht wird.

Aufbauend auf früheren Arbeiten zur zugrunde liegenden Architektur entwickeln wir ein dynamisches Erklärungsmodell, das relevante Konzepte, Hintergrundwissen und Erklärungsabläufe strukturiert. Dieses Modell unterstützt ein adaptives „Scaffolding“ (didaktische Unterstützung), das an den Nutzungskontext und das sich entwickelnde Verständnis angepasst ist.

Technisch kombinieren wir:

Roboterlernen mit „Human-in-the-Loop“ und multimodalen Eingaben (z. B. Demonstrationen, Feedback)
multimodale Erklärungselemente (visuell, textuell, interaktiv)
ein rechnergestütztes Scaffolding-Modell, das Erklärungen in Echtzeit basierend auf Nutzerinteraktion und Kontext auswählt

Empirisch basiert das Projekt auf designbasierter Forschung mit vielfältigen, nicht-expertischen Nutzergruppen, insbesondere in Anwendungsszenarien im Gesundheitswesen. Insgesamt treibt B05 erklärbare KI (XAI) in Richtung interaktiver, kontextsensitiver und sozial eingebetteter Erklärbarkeit voran und ermöglicht so ein intuitives Training von Robotern für breite Nutzergruppen.

Was unterscheidet die zweite Phase des Projekts von der ersten?

In Phase 2 des Projektes wird verstärkt über Variabilität hinaus auf die Adaptivität der Erklärungen geachtet: Die didaktischen Expert*innen von der Universität Paderborn, die an diesem Projekt beteiligt sind, erarbeiten neue Erklärelemente, welche auf den jeweiligen Kontext eingestellt werden. Die Forscher*innen unserer Arbeitsgruppe implementieren diese Ansätze daraufhin in Simulationen. Auf Basis dieser wird eine Online-Studie durchgeführt. Die Ergebnisse dieser Studie sollen schließlich bei der Entwicklung einer KI helfen, welche adaptive Erklärelemente anbietet, die sich stets an die Nutzer*innen anpassen. 


Plattformen

Publikationen

Zum Seitenanfang