Interviews & Features    

 
· Einführung
· Was ist Neuroinformatik?
· Was können Roboter lernen?
Nicht- verbale Kommunikation
· Die Arbeitsgruppe
· Links
· Feedback



Es ist erstaunlich, wie präzise und umfangreich Menschen und auch Tiere mit ihren Körpern kommunizieren können. Wir Menschen sind wahre Meister, kurze Bewegungsmuster bei unseren Mitmenschen wahrzunehmen. Ob die Bewegungen der Augen, der Mundwinkel oder gleich die gesamte Kopf- bzw. Blickrichtung eines anderen Menschen, all dies nehmen wir auch auf große Distanz sogar aus dem Augenwinkel wahr. Diese nicht-verbale Kommunikationsform ergänzt unsere verbale Form ganz hervorragend. So gelingt es uns, dass wir zum Teil sehr komplizierte Informationen in einer sehr kurzen Abfolge von Gesten und Sprache erfolgreich vermitteln können.

Und wenn wir im Vergleich hierzu einmal unsere Kommunikation mit einer Maschine, einem Roboter oder unserem PC beobachten? Ja, da ist das ganze schon weitaus komplizierter, oder? Unsere Möglichkeiten, dem PC etwas mitzuteilen, sind nämlich ungemein eingeschränkt. Entweder wählen wir mit einer Maus zwischen mehreren Optionen oder geben flüssigen Text per Tastatur ein, den wir oft auch noch sehr umständlich formatieren müssen.

Wäre es also nicht schön wenn wir in der Kommunikation mit dem Computer unseren Sprachschatz mit Gesten erweitern könnten? Die AG Neuroinformatik arbeitet seit längerer Zeit schon an dem Verständnis der nicht-verbalen Kommunikation des Menschen. Hierbei werden Antworten auf folgende Fragen gesucht:

Die weißen Kreise zeigen, wo die    Versuchsperson hingesehen hat In Experimenten verfolgen kleine Kameras die Pupillen der Versuchspersonen, womit deren unbewusste Blickrichtung "entlarvt" wird. So erhalten wir wichtige Aufschlüsse über die menschlichen Sehprozesse. Ein Beispiel: Wussten Sie schon, dass sich Blickbewegungen und Sprache gegenseitig beeinflussen? - Beschreiben Sie z.B. jemandem den Weg auf einer Landkarte, so bestimmt Ihr "Blickpfad" Ihre Äusserungen. Ihre Beschreibung hängt also davon ab, wohin sie blicken. Beim Gesprächspartner hingegen leiten diese Äusserungen dann seinen Blickpfad.

Und wenn der Computer auch Zeigegesten verstehen könnte? Zum Beispiel könnten wir einem Roboter Anweisungen geben, an welche Stelle er ein bestimmtes Werkzeug legen soll. Oder wir würden mit einem einfachen Fingerzeig auf einen Bildschirmbereich dem Computer signalisieren, dass er für uns ein Textverarbeitungsprogramm oder ein Spiel starten soll.
Der Computer erkennt die Handgeste (Postur) und bildet sie künstlich nach