zum Hauptinhalt wechseln zum Hauptmenü wechseln zum Fußbereich wechseln Universität Bielefeld Play Search
  • Forschungs­projekte

    CoR-Lab Logo
    Amiro Roboter
    © Universität Bielefeld

MoFTaG

Model-free, Flexible Trajectory Generation

Die stetig steigende Nachfrage nach Just-in-Time- und kundenindividueller Produktion verlangt nach schnellen und flexiblen rekonfigurierbaren Arbeitszellen und Mensch-Roboter-Kooperationen. Redundante Roboterarme - wie der Kuka-Leichtbauroboter IV - werden bei deren Realisierung eine Schlüsselrolle spielen, da sie eine sehr flexible Bewegungssteuerung ermöglichen. Die gewonnene Flexibilität geht jedoch mit erhöhten Engineering-Kosten einher, da zusätzlich komplexere Regelungsmodi und explizite Modellierungsschritte, z.B. zur Definition von Kriterien für die Redundanzauflösung, erforderlich sind. Für häufig wechselnde Aufgaben und/oder Umgebungsbedingungen erfordert die aktuelle Technologie eine kostspielige und langwierige Neuprogrammierung durch Experten für jede dieser Aufgaben.

Roboterarm
© Universität Bielefeld, CoR-Lab

The ECHORD experiment MoFTaG targets to facilitate and speed up this inefficient process by utilizing model-free learning methods that only require non-expert users to record a limitied number of data-points in task-relevant areas of the workspace by kinesthetic interaction. Inverse kinematics including task-specific redundancy resolution and trajectory generation between several parts of the workspace are learned fully automatic. During the experiment we systematically test and evaluate the method in a concrete co-worker scenario with respect to the following aspects:

  • the stability of learning relative to the size of the workspace and the desired amount of generalization,
  • the feasibility of the teaching procedure for non-expert users, and
  • the inclusion of online feedback through a perceptual component for trajectory adaptation for online obstacle avoidance. 

Das ECHORD-Experiment MoFTaG zielt darauf ab, diesen ineffizienten Prozess zu vereinfachen und zu beschleunigen, indem es modellfreie Lernmethoden einsetzt, bei denen der ungeübte Benutzer lediglich eine begrenzte Anzahl von Datenpunkten in aufgabenrelevanten Bereichen des Arbeitsraums durch kinästhetische Interaktion aufnehmen muss. Inverse Kinematik inklusive aufgabenspezifischer Redundanzauflösung und Trajektoriengenerierung zwischen mehreren Teilen des Arbeitsraums werden vollautomatisch erlernt. Im Rahmen des Experiments testen und evaluieren wir die Methode systematisch in einem konkreten Mitarbeiterszenario hinsichtlich folgender Aspekte:

  • die Stabilität des Lernens in Abhängigkeit von der Größe des Arbeitsraums und dem gewünschten Grad der Generalisierung,
  • die Durchführbarkeit des Lernverfahrens für Nicht-Experten und
  • die Einbeziehung von Online-Feedback durch eine Wahrnehmungskomponente zur Trajektorienanpassung für die Online-Hindernisvermeidung.

FlexIRob bei Harting: Eine Nutzerstudie zur physischen Mensch-Roboter-Interaktion

Dank unseres Kooperationspartners Harting konnten wir die Robustheit und Machbarkeit unserer Methode in einer großen Nutzerstudie mit N=49 Teilnehmern in der Produktionsstätte von Harting durchführen. Es stellte sich heraus, dass die physische Führung eines redundanten Roboters in Form von kinästhetischem Teachen viel mehr ist als nur ein "Teach-in". Sie kann sowohl einen Aufgabenverlauf als auch eine intelligente und aufgabengerechte Redundanzauflösung liefern. Und es zeigt sich, dass die Benutzer nur dann von der erhöhten Flexibilität redundanter Arme profitieren, wenn sie durch ein strukturiertes und hilfreiches Interaktionsdesign, wie das in diesem Projekt vorgeschlagene, unterstützt werden.

Online-Trajektorienanpassung mit 3D-Szeneninterpretation

Online-Trajektorienanpassung mit 3D-Szeneninterpretation
© Universität Bielefeld, CoR-Lab

Für die Online-Hindernisvermeidung kombinieren wir frühere Arbeiten zur 3D-Szeneninterpretation mit bestehenden Arbeiten zur dynamiksystembasierten Online-Trajektorienmodulation. Der artikulierte Szenenmodell-Ansatz segmentiert die sichtbare 3D-Szene in eine statische Hintergrundschicht und eine dynamische Hindernisschicht. Die Bewegungsgenerierung wird auf der Basis dynamischer Systeme implementiert, die stabile Attraktor-Dynamiken mit Fixpunkten oder Grenzzyklen realisieren können, die aus menschlichen Demonstrationen wie im obigen kinästhetischen Lehrszenario gelernt wurden. Während der Ausführung sind sie in der Lage, sich auf neue Situationen zu verallgemeinern und können moduliert werden, um die erkannten Hindernisse einzubeziehen, indem sie weiche Bewegungen erzeugen, die diese umgehen.

Diagramme
© Universität Bielefeld, CoR-Lab

Publications:

Contact:

Dr.-Ing. Sebastian Wrede


Zum Seitenanfang