Editorial

Nicht für Töne, sondern Sprache gemacht

(31.07.2023) Das Ohr entspricht keiner Hi-Fi-Norm, sagt Birger Kollmeier. Wir sprachen mit ihm über unser schnellstes Sinnessystem und moderne Hörhilfen.
editorial_bild

Birger Kollmeier vor ein paar Jahren auf dem Oldenburger Hörthron

Als wir im Frühjahr die dreißig meistzitierten Hals-Nasen-Ohren-Forscher ermittelten, stießen wir auch auf Birger Kollmeier, Professor für Medizinische Physik an der Universität Oldenburg. Er habe zwar Physik und Medizin studiert, sei aber gar kein HNO-Arzt, verrät uns Kollmeier. Er ist Sprecher des Exzellenz­clusters Hearing4all, dem Institute in Oldenburg und Hannover angehören.

Unser Gespräch beginnt mit Kollmeiers Feststellung, dass das Ohr unser schnellstes Sinnessystem ist. Er fragt: „Was ist der kleinste zeitliche Unterschied zwischen rechtem und linkem Ohr, den man noch gerade so auflösen kann? Schätzen Sie mal!“

Wenn ich am Computer in einem Audio-Editor das identische Signal auf dem rechten und linken Kanal über Kopfhörer höre, so liegt es ja scheinbar in der Mitte. Verschiebe ich nun einen Kanal, sodass er etwas später erklingt, scheint das Signal aus einer anderen Richtung zu kommen. Und für diesen Richtungseindruck genügen schon wenige Millisekunden.
Birger Kollmeier: Tatsächlich liegt der kleinste Unterschied sogar bei nur zehn Mikrosekunden, also zehn Mal der millionste Teil einer Sekunde! Das entspricht einem Grad Winkelauflösung. Unser Gehör schafft es durch massive Parallel­verarbeitung, diese geringen Laufzeit­unterschiede zwischen links und rechts auszuwerten. Daraus entsteht dann ein binaurales, also zweiohriges, räumliches Hörereignis.

Editorial

Es wäre gut, kurz zu rekapitulieren, wie aus dem Schall ein Höreindruck wird.
Kollmeier: Wir haben zunächst das Außenohr, was eine Art Trichter ist. Im Mittelohr wird dieser Schall aus der Luft dann umgewandelt in Wasserschall, der ja dann im Innenohr weiterverarbeitet wird.

Was gar nicht so trivial ist. Das merkt man, wenn man im Schwimmbad mit dem Kopf unter Wasser taucht: Es ist beinahe unmöglich, zu verstehen, was über Wasser gesprochen wird, weil sich der Schall nicht so ohne Weiteres zwischen beiden Medien überträgt.
Kollmeier: Unsere Ur-ur-ur-Vorfahren hatten dieses große Problem der Impedanz­anpassung zwischen Luftschall und Wasserschall, als sie damals vom Wasser an Land krochen. Interes­santerweise hat die Evolution das mehrfach auf unterschiedliche Weise gelöst. Die Vögel haben ein anderes Mittelohr als die Säugetiere. Bei ihnen gibt es nur ein einziges Gehör­knöchelchen, die Columella. Bei den Säugetieren sind aus verschiedenen Kiefer­elementen drei Gehör­knöchelchen entstanden: Hammer, Amboss und Steigbügel. Aber egal, wie so etwas konkret aufgebaut ist: Es führt dazu, dass der Schall von einer großen Fläche, dem Mittelohr, auf eine kleine Fläche, das ovale Fenster, übertragen wird. Eine kleine Kraft, die auf eine große Fläche wirkt, wird zu einer großen Kraft gegen eine kleine Fläche. Dadurch kann man diese Lücke von 40 Dezibel schließen, die ohne Mittelohr entstehen würde.
Spannender wird es dann im Innenohr, wo die Aufspaltung in verschiedene Frequenzen erfolgt. Mechanisch ist das gut verstanden: Auf der Basilar­membran entsteht ja diese fort­schreitende Wanderwelle; die hatte Georg von Békésy erstmals beschrieben und dafür 1961 den Nobelpreis bekommen – als bislang einziger Hörforscher. Die einzelnen Frequenzen werden dabei abgebildet auf verschiedene Orte im Innenohr. Man kann sich das vorstellen wie einen Schlauch, der am Anfang sehr stramm und hart eingespannt ist, und zum Ende hin immer dicker wird und immer weniger Spannung hat. Wenn man daran wackelt, bleiben die schnellen Änderungen am Anfang und kommen gar nicht weiter bis zum lockeren Ende. Sie machen also nur am Anfang deutliche Auslenkungen. Langsame Schwingungen hingegen wandern bis zum Ende durch und haben dort die maximale Auslenkung. So entsteht diese Frequenz-Orts-Transformation.

Einzelne Sinneszellen entlang dieser Strecke sind dann also nur für eine bestimmte Frequenz zuständig.
Kollmeier: Erstaunlich ist aber, wie viel unseres Hörens erst im Gehirn errechnet wird. Die Korrespondenz zwischen rechtem und linkem Ohr und damit die räumliche Auflösung zum Beispiel. Oder die eigentliche Information – denn wir können ja einzelne Sprecher heraushören, selbst wenn mehrere Menschen durcheinander reden. Das funktioniert, weil wir beim Hören zunächst die Intensitäts­unterschiede eines Frequenzbands ermitteln, und dann analysieren, ob in einem benachbarten Frequenzband ähnliche Intensitäts­unterschiede comoduliert sind. Das fassen wir dann als zusammen­gehörig auf, als ein Objekt.
Dadurch ist es auch möglich, dass sich ein Objekt immer gleich anhört. Ein individueller Sprecher klingt für uns ja noch genauso, wenn ein zweiter Sprecher dazukommt. Diese „effektive“ Linearität des Hörens ist auch wieder faszinierend, weil das Ohr an sich ein äußerst nicht-lineares System ist. Das würde keiner Hi-Fi-Norm entsprechen, weil es zu vielen Verzerrungen und einer starken Kompression kommt. Diese Nicht-Linearität braucht es aber auch, um die ganze Dynamik abzudecken, also den Unterschied zwischen den leisesten und den lautesten Geräuschen, die wir noch wahrnehmen können. Die akustische Information muss man gewissermaßen durch ein dünnes Kabel schicken, nämlich unseren Hörnerv. Das gelingt nur mit einer starken Kompression. Aber unser Gehirn schafft es, diese ganzen Nicht-Linearitäten wieder auszugleichen.

Sie und Ihre Kollegen in Oldenburg gehen auch der Frage nach, wie man das Hörvermögen aussagekräftig messen und beurteilen kann.
Kollmeier: Das ist eine unserer drei Hauptstoßrichtungen: Wir messen das Hörvermögen, entwickeln Methoden und versuchen, diese auch international zu standardisieren. Dazu gehört zum Beispiel der Sprachtest im Störschall. Unser Ohr ist eigentlich nicht zum Hören einzelner Töne gemacht, sondern eher zum Hören von Sprache. Ein zuverlässiges Verfahren für den professionellen Gebrauch ist der Oldenburger Satztest. Dabei hört man einen Satz wie „Peter kauft sieben nasse Sessel“ – allerdings tauschen wir die Namen, Verben und Adjektive aus, sodass wir denselben Patienten in unterschiedlichen Konstellationen wiederholt testen können, zum Beispiel mit anderen Hörhilfen. Das haben wir für über zwanzig Sprachen entwickelt.
Ein zweiter Fokus unserer Gruppe liegt auf der Modellierung des Hörens. Wie funktioniert Hören? Welche Faktoren spielen bei Schwerhörigkeit eine Rolle? Schwerhörigkeit ist nämlich selten bloß eine Abschwächung, sondern gerade bei Innenohr-Schwerhörigkeit finden wir eher eine Fehlhörigkeit. Man hört verzerrt.

Diesen Menschen ist also nicht damit geholfen, wenn das Hörgerät das betroffene Frequenzband bloß lauter macht – denn damit sind ja einfach nur die Verzerrungen lauter.
Kollmeier: Richtig. Wenn wir das mit dem optischen Sinn vergleichen, wäre solch eine Verstärkung bloß ein Hellermachen. Wenn Sie aber verschwommen sehen, können Sie nicht schärfer sehen, nur weil es heller ist. Die Aufgabe eines modernen Hörgeräts besteht darin, nicht nur heller zu drehen, sondern auch die Kontraste zu verschärfen, Störschall abzusenken und Sprache zu verstärken. Insbesondere diese Verzerrungs­komponente in den Griff zu bekommen, ist nicht trivial. Zwei Patienten, die laut Audiogramm gleiche Einschränkungen haben, können sich beim Sprachverstehen im Störschall sehr unterscheiden.
Und da kommen wir zu unserem dritten Arbeitsfeld: Wie können wir praktikablere Hörhilfen bauen? Was sind die besseren Algorithmen? Da gibt es Ansätze zur Hörschall­reduktion, Dynamik­kompression und zu Modulations­filtern. Da arbeiten wir auch mit der internationalen Hörgeräte-Industrie zusammen. Hierzu haben wir 2018 ein Review geschrieben, das vielleicht für interessierte Leser spannend ist (Int J Audiol, 57: S3-S28).

Also zwei Patienten können mit ähnlicher Diagnose vom HNO-Arzt zurückkommen, brauchen aber trotzdem komplett andere Hörhilfen?
Kollmeier: Komplett anders sicher nicht, aber mit anderen Anpassungen. Wir haben das Problem, dass die HNO-Ärzte nur die Tests durchführen, die auch abrechenbar sind. Das sind Standard­verfahren, die seit 50 Jahren mehr oder weniger unverändert sind, nämlich ein Audiogramm und ein Sprachtest in Ruhe. Bewährte Diagnostik, um einen hochgradig Schwerhörigen von einem gering- bis mittelgradig Schwerhörigen zu unterscheiden. Aber heutzutage, wo die Leute immer älter werden, bleiben dann Patienten übrig, denen der Arzt sagt: „Sie hören doch noch gut!“ Aber die haben trotzdem Probleme. Wenn man hier jedoch nicht früh genug anfängt mit einer Hörhilfe, verlernen die Betroffenen Dinge wie räumliches Hören oder das Trennen von Stimmen, was so wichtig ist für den Cocktailparty-Effekt.

Also ist Ihre Forschung noch nicht im Alltag angekommen?
Kollmeier: Sie ist angekommen bei den Hörgeräten, und teilweise bei den Hörgeräte-Akustikern, die auch Sprache in Störschall messen. Aber diese Erkenntnisse sind noch nicht in der Routine-Diagnostik enthalten.

Das Gespräch führte Mario Rembold

Bild: Universität Oldenburg


Weitere Gespräche mit vielzitierten Forschern unserer Publikationsanalysen


- „Migräne ist viel mehr als bloß Kopfschmerzen“ (Anästhesie- & Schmerzforschung)

Rund eine Milliarde Menschen weltweit leiden unter Migräne. Adäquat behandelt wird die Krankheit aber häufig nicht, sagt Zaza Katsarava.

- Gamechanger bei Lungenhochdruck? (Lungen- und Atemwegsforschung)

Marius Hoeper ist optimistisch, dass ein als „Ligandenfalle“ eingesetzter Wirkstoff Veränderungen der Lungengefäße (partiell) zurückbilden kann.

- Zu warm und zu sauer (Meeres- und Frischwasserbiologie)

Durch die Klimaerwärmung verschieben und verkleinern sich Lebensräume. Was das für polare Meeresorganismen bedeutet, weiß Hans-Otto Pörtner.

 




Letzte Änderungen: 31.07.2023