Kognitive Neurowissenschaften
 english
Universität Bielefeld > Fakultät für Biologie > Kognitive Neurowissenschaften
Logo des CITEC
Willkomen am Lehrstuhl für Kognitive Neurowissenschaften.

Multisensorische Wahrnehmung und Handlung

Jegliche menschliche Handlung erfordert das reibungslose Zusammenspiel aller Sinne. Ohne Wahrnehmung gäbe es keine Handlung und ohne Handlung gäbe es keine Wahrnehmung. Wir stehen daher auf dem Standpunkt, dass sensomotorisches Handeln (Greifen, Laufen, Werfen) und die multisensorische Wahrnehmung (Sehen, Hören, Fühlen) untrennbar miteinander verzahnt sind, und dass sie somit sinnvollerweise auch zusammen untersucht werden müssen. Des Weiteren sind wir überzeugt davon, dass menschliches Wahrnehmen und Handeln der Statistik der natürlichen Umgebung optimal angepasst ist und wenn sich die Umbebung verändert, wird sich auch unsere Wahrnehmung entsprechend anpassen.

Dieser Prozess der Adaptation und des perzeptuellen Lernens ist essenziell, um die Kosten möglichen Fehlverhaltens zu verringern. In der neuronalen Verarbeitung werden solche Statistiken mittels Wahrscheinlichkeitsverteilungen abgebildet. Wir folgen somit Hermann von Helmholtz in unserer überzeugung, dass die menschliche Wahrnehmung ein Inferenzproblem darstellt, für das die sensorischen Informationen oft nicht ausreichend sind, um das Perzept eindeutig zu bestimmen. Daher müssen Vorwissen und Vorannahmen herangezogen werden, um den Inferenzprozess, basierend auf den ambigen sensorischen Informationen, entsprechend einzuschränken. Ein prinzipieller Ansatz die Kombination von Vorwissen mit sensorischer Information mathematisch und quantitativ zu beschreiben, bietet der Bayes'sche Ansatz - eine Form der Wahrscheinlichkeitstheorie. Wir nutzen diesen Bayes'schen Ansatz, um Modelle zu kreieren, die einem "idealen Beobachter" entsprechen - Modelle also, die per Definition, die für eine bestimmte Handlung zur Verfügung stehende Information optimal ausnutzen. Diese Modelle können dann auf Roboter Plattformen implementiert werden, um so das menschliche Verhalten zu simulieren und die Modelle unter Realbedingungen zu verifizieren. Diese Modelle können dann als Maßstab zur quantitativen Bestimmung der menschlichen Wahrnehmungs-Handlungsleistung herangezogen werden. Für diesen Mensch-Modell Vergleich wird das menschliche Verhalten mittels psychophysikalischer Methoden unter dem Einsatz der Virtuellen Realität (VR) quantitativ untersucht. Die psychophysikalischen Methoden dienen dazu den Menschen bestmöglich zu charakterisieren und verhaltensrelevante Parameter zu erfassen. Die Techniken der Virtuellen Realität liefern dafür präzise Simulationen der natürlichen Umgebung mit einer Interaktivität, die notwendig ist, um menschliches Wahrnehmen und Handeln effektiv zu untersuchen. Heutige Systeme aus dem Bereich der Virtuellen Realität oder der Mensch-Maschine Schnittstellen sind jedoch häufig noch zu primitiv, um effektiv für Wahrnehmungsexperimente eingesetzt werden zu können. Daher beteiligten wir uns auch aktiv an der Erforschung, Weiterentwicklung und der Evaluierung entsprechender technischer Systeme.



Aktuelles 


Können wir unseren Sinnen trauen?

Tricks der Wahrnehmungsforschung

10:00-11:30 and 13:00-14:30
W3-242



Natural auditory scene statistics shapes human spatial hearing

Have you ever wondered why most natural languages invariably use the same spatial attributes–high vs. low–to describe auditory pitch? Or why, throughout the history of musical notation, high notes are represented high on the staff? According to a team of neuroscientists from the University of Bielefeld and the Max Planck Institute for Biological Cybernetics in Tübingen, high pitched sounds feel “high” because, in our daily lives, sounds coming from high elevation are indeed more likely to be higher in pitch. This study just appeared in the science journal PNAS.

Cesare Parise and colleagues set out to investigate the origins of the mapping between sound frequency and spatial elevation by combining three separate lines of evidence. First of all, they recorded and analyzed a large sample of sounds from the natural environment and found that high frequency sounds are more likely to originate from high positions in space. Next, they analyzed the filtering of the human outer ear and found that, due to the convoluted shape of the ear—the pinna—, sounds coming from high positions in space are filtered such that more energy remains for higher pitched sounds. Finally, they asked humans in a behavioural experiment to localize sounds with different frequency and found that high frequency sounds were systematically perceived as coming from higher positions in space. The results from these three lines of evidence were highly convergent and suggest that all such diverse phenomena, such as the acoustics of the human ear, the universal use of spatial terms for describing pitch, or the reason why high notes are represented higher in musical notation, ultimately reflect the adaptation of human hearing to the statistics of natural auditory scenes. “These results are especially fascinating because they do not just explain the origin of the mapping between frequency and elevation” says Parise, “they also suggest that the very shape of the human ear might have evolved to mirror the acoustic properties of the natural environment. What is more, these findings are highly applicable and provide precious guidelines for using pitch to develop more effective 3D audio technologies, such as sonification-based sensory substitution devices, sensory prosthesis, and more immersive virtual auditory environments”. The mapping between pitch and elevation has often been considered a metaphorical mapping and cross-sensory correspondences have been theorized to be the basis for language development. The present findings demonstrate that, at least in the case of the mapping between pitch and elevation, such a metaphorical mapping is indeed embodied and based on the statistics of the environment, hence raising the intriguing hypothesis that language itself might have been influenced by a set of statistical mappings between the naturally occurring sensory signals. Besides the mapping between pitch and elevation, human perception, cognition, and action are laced with seemingly arbitrary correspondences, such as for example that yellow-reddish colors are associated with a warm temperature, or that sour foods taste sharp. This study suggests that many of these seemingly arbitrary mappings might in fact be the reflection of statistical regularities to be found in the natural environment. Information



Contacts: cesare.parise@uni-bielefeld.de
marc.ernst@uni-bielefeld.de


Original publication: Parise, C.V., Knorre, K., and Ernst, M.O. (2014) Natural auditory scene statistics shapes human spatial hearing. PNAS. doi: 10.1073/pnas.1322705111


15.12.2012 // Das Gehirn schließt von der Korrelation verschiedener Sinneseindrücke auf einen kausalen Zusammenhang

Pointing Um mitzubekommen, was in der Umgebung passiert, muss das Gehirn die Informationen mehrerer Sinne zusammenführen. Doch woher weiß es, welche Signale integriert werden müssen? >> weiterlesen ...




Kontakt:


Kognitive Neurowissenschaften
Universität Bielefeld
Universitätsstrasse 25
D-33615 Bielefeld
Germany

Prof. Dr. Marc Ernst
Tel.: +49-521-106 5700
E-Mail:

Gaby Sander (Sekretariat)
Tel.: +49-521-106 6861
Fax: +49-521-106 5701

E-Mail:

Wegbeschreibung