Geräusche besser herausfiltern: Hörgeräte & Co

Junge Frau sagt älterer Frau etwas ins Ohr
Bild: Colourbox.de

Forschende der FAU entwickeln eine Methode, die das Sprachverstehen bei hohem Geräuschpegel erleichtern soll.

Menschen sind sehr gut darin, Sprache auch unter schwierigen Bedingungen zu verstehen. Doch gerade für schwerhörige Menschen machen laute Hintergundgeräusche es sehr schwierig, einem Sprecher zu folgen. Hörgeräte helfen dabei kaum, da sie es derzeit noch nicht ausreichend schaffen, Hintergrundgeräusche herauszufiltern. Wissenschaftlerinnen und Wissenschaftler der FAU entwickeln eine Methode, die Menschen hilft Sprache trotz Hintergrundrauschen besser zu verstehen. Die Ergebnisse der Studie wurden im Wissenschaftsjournal PNAS veröffentlicht.

Stören Geräusche wie laute Musik, klirrendes Besteck im Restaurant oder raunende Stimmen das Hören, machen es solche Schallquellen insbesondere für Hörgerätträgerinnen und -trägern schwierig ihr Gegenüber, mit dem sie ein Gespräch führen möchten, zu verstehen. Das liegt daran, dass Hörgeräte zwar leise Schallsignale verstärken, aber nicht die volle Bandbreite des Gehörs adäquat bedienen können.

Zusäzlicher Vibrationsimpuls

Forschende der FAU zeigen, dass, wenn zusätzlich zum Sprachsignal ein Vibrationsimpuls übermittelt wird, sich das Sprachverstehen von Testpersonen in Räumen, in denen ein hoher Geräuschpegel herrscht, signifikant verbessert. Im Experiment verwenden die Wissenschaftlerinnen und Wissenschaftler einen kleinen Vibrationsmotor, den Experimentteilnehmerinnen und -teilnehmer zwischen Daumen und Zeigefinger halten. An dieser Stelle ist der Körper besonders sensibel für taktile Signale.

Verstehen des Sprachsignals

Der Impuls, den der Motor sendet, ist mit der Vibration vergleichbar, die von Smartphone-Displays beim Berühren ausgeht. Im Zentrum jeder gesprochenen Silbe gibt der Motor eine leichte Vibration. Dieser Impuls hilft beim Verstehen, weil das Nervensystem, das für das Fühlen zuständig ist, das Signal unter anderem an den auditorischen Kortex – den Bereich, der im Gehirn dafür zuständig ist, Schall- und Sprachsignale zu verarbeiten – weitergibt. In diesem Hirnareal wird so der Rhythmus von Silben nachgebildet und unterstützt damit das Dekodieren von Silben sowie das Verstehen des Sprachsignals.

Im Experiment wählten die Forschenden bestimmte Sprachsignale, die sie den Teilnehmerinnen und Teilnehmern vorspielten. Die Zentren der gesprochenen Silben wurden im Vorhinein berechnet und der Vibrationsmotor so angesteuert, dass er zu den entsprechenden Zeiten ein Signal sendete. Ob sich die Impulse auch zum richtigen Zeitpunkt übermitteln lassen, wenn die Wissenschaftlerinnen und Wissenschaftler die Zentren der Silben nicht vor dem Experiment berechnen, wollen sie im nächsten Schritt herausfinden. Auch ob der Zeigefinger die optimale Stelle ist, den Motor zu halten, wollen sie erforschen, denn für die Kombination mit einem Hörgerät wäre auch die Nähe des Ohres eine gute Stelle, das haptische Signal zu übermitteln. Die Ergebnisse, die heute schon vorliegen, sollen zur Entwicklung neuer multisensorischer Hörhilfen führen, die Benutzerinnen und Benutzer helfen, Sprache besser zu verstehen.

Mehr Informationen

Prof. Dr. Tobias Reichenbach
Tel.: 09131/85-23354
tobias.j.reichenbach@fau.de