Socialising Sensory-Motor Contingencies

Teilprojekt: Auditive VerstĂ€rkung nonverbaler Kommunikation fĂŒr soziale Interaktionen

Kommunikation zwischen Handlungssystemen funktioniert in unterschiedlichen ModalitĂ€ten, neben der Sprache sind visuelle Merkmale wie Mimik und Gestik, aber auch Körperhaltung und Körperbewegung Information ebenso wie konstellative Merkmale – z.B. Position und Stellung der Handelnden zueinander, Entfernung oder NĂ€he, Blickachsen etc. Ein zentraler Ausgangspunkt des Forschungsprojektes besteht in der Annahme, dass selbst komplexe Formen sozialer Interaktion in weiten Teilen auf grundlegenden sensomotorischen Interaktionsmustern basieren. Das Erlernen und das Beherrschen von Handlungs-Effekt-Kontingenzen wird hier als ein wesentlicher Rahmen des gemeinsamen Agierens von handelnden Systemen in sozialen Kontexten verstanden. Das gilt fĂŒr das gemeinsame Agieren von Menschen miteinander ebenso wie fĂŒr Mensch-Maschine Interaktionen, etwa, wenn Menschen mit humanoiden Robotern kooperieren möchten. Derartige ZusammenhĂ€nge werden in dem Forschungsvorhaben weiterfĂŒhrend untersucht, auch um humanoides Roboterhandeln fĂŒr den interagierenden Menschen zukĂŒnftig unmittelbar verstĂ€ndlich zu machen. Der Anteil der Science in Motion Research Group der Sportwissenschaft an der Leibniz UniversitĂ€t Hannover bezieht sich dabei primĂ€r auf Fragen einer auditiven Kodierung o.g. konstellativer und kinematischer Merkmale nonverbaler Kommunikation. Auditive VerstĂ€rkung nonverbaler Kommunikation fĂŒr soziale Interaktionen ist ein Teilprojekt in dem EU H2020 FETPROACT Projekt Socialising Sensory-Motor Contingencies (socSMCs).

Projektleitung

Prof. Dr. Alfred Effenberg, Dr. Gerd Schmitz (Hannover)

Wissenschaftlicher Projektmitarbeiter

Tong-Hun Hwang

ProjektunterstĂŒtzung

EU H2020 FETPROACT