Lippenlesen
Wie wir mit den Augen hören
In einer lauten Umgebung kann Lippenlesen helfen, die Worte eines Gesprächspartners besser zu verstehen. Wissenschaftler haben jetzt herausgefunden, welche Hinregion die Informationen verarbeitet.
Veröffentlicht:LEIPZIG (eb). Wörter und Lippenbewegungen können einander umso besser zugeordnet werden, je größer die Aktivität in einer Region im Schläfenlappen des Gehirns ist, haben Forscher aus Leipzig entdeckt.
Im oberen temporalen Sulcus (STS) werden visuelle und auditive Informationen miteinander verknüpft, teilt die Max-Planck-Gesellschaft zur Förderung der Wissenschaften mit.
In einer Studie hörten Probanden zunächst kurze Sätze, dabei wurde ihre Hirnaktivität mit funktioneller Magnetresonanztomografie gemessen. Darauf folgte jeweils ein kurzes tonloses Video von einer sprechenden Person.
Per Knopfdruck gaben die Teilnehmer danach an, ob Wörter und Mundbewegung ihrer Meinung nach zusammengepasst hatten.
War dies nicht der Fall, reagierte ein Teil des Netzwerks von Hirnarealen, das visuelle und auditorische Informationen verknüpft, mit erhöhter Aktivität und erhöhte seine Verbindung zu auditorischen Sprachregionen (NeuroImage 2013; 65: 109-118).
Je stärker die Aktivität, desto häufiger lagen die Teilnehmer richtig
Wahrscheinlich entstehe durch die akustische Vorinformation eine Erwartungshaltung, welche Lippenbewegungen man sehen wird. Ein Widerspruch zwischen Vorhersage und dem tatsächlich Wahrgenommenen wird im STS als Fehler registriert.
Wie stark die Aktivität in diesem Areal ausfiel, hing direkt mit den Lippenlese-Fähigkeiten zusammen: Je stärker sie war, desto häufiger lagen die Teilnehmer richtig.
In einer lauten Umgebung sei es hilfreich, dem Gesprächspartner auf den Mund zu schauen. Indem das Gehirn beim Lippenlesen Infos aus verschiedenen sensorischen Quellen verbindet, verbessert sich das Sprachverstehen.