Editorial

Säuger hören (wo-)anders

Larissa Tetsch


München: Säugetiere verarbeiten akustische Signale anders als Vögel. So legen sie bei der Lokalisation von Geräuschen nicht so großen Wert auf die Ortsgenauigkeit, sondern konzentrieren sich auf die Verbesserung der räumlichen Auflösung.

jc_18_09_01a
Im Gegensatz zur Hausmaus hört die Wüstenrennmaus auch niederfrequente Töne gut. Fotos (3): Larissa Tetsch

Menschen sind Augentiere, die sich überwiegend mit dem Sehsinn orientieren. Dennoch verfügt der Menschen auch über einen sehr guten Hörsinn und ist in der Lage, eine Geräuschquelle ziemlich genau zu lokalisieren. „Auf die Lokalisation von Geräuschen trainierte Menschen können Töne unterscheiden, die nur zwei bis drei Grad auseinanderliegen“, erklärt Benedikt Grothe, der an der Ludwig-Maximilians-Universität in München das Hörvermögen von Tieren aus verschiedenen Umwelten, darunter den Menschen, erforscht. „Damit sind sie nicht viel schlechter als die Schleiereule, die als Weltmeister auf dem Gebiet gilt.“

Darüber hinaus gibt es jedoch einen wesentlichen Unterschied zwischen der Eule und dem Menschen: Während die Eule wie alle Vögel Geräusche absolut ortet, also den genauen Ort eines wahrgenommenen Geräusches bestimmt, kommt es den Säugetieren eher auf die räumliche Auflösung zwischen verschiedenen Geräuschen an. Dafür nehmen sie zum Teil erhebliche Fehler in Bezug auf die Genauigkeit der Ortsbestimmung in Kauf. Wie dies möglich ist und warum es im Lichte der Evolution durchaus Sinn macht, konnte jetzt das Team von Grothe in Zusammenarbeit mit Theoretikern des Bernstein Center for Computational Neuroscience Munich zeigen (Sci. Rep. 8: 8335).

Auf die Frequenz kommt’s an

Doch zuerst einmal zurück zur Frage, wie Geräusche überhaupt lokalisiert werden können. Dies hängt von verschiedenen Faktoren ab, wie Grothe erklärt: „Wir Menschen leben in einer Tieffrequenzwelt, in der ein Großteil der relevanten Töne unter zwei Kilohertz liegen (insbesondere Sprache). Hier geschieht die Lokalisation hauptsächlich über Laufzeitdifferenzen.“ In den meisten Fällen ist ein Ohr näher an der Schallquelle als das andere. Der Schall erreicht folglich das näher gelegene Ohr früher als das weiter weg gelegene, und dadurch ergibt sich eine Laufzeitdifferenz, die neuronal verrechnet werden kann. „Dies ist abhängig von der Kopfgröße“, wie der Neurobiologe ausführt, denn „je größer der Kopf, desto größer der Laufzeitunterschied zwischen den beiden Ohren.“ Beim Menschen beträgt diese maximal circa 0,6 Millisekunden. Die Schleiereule kann Laufzeitunterschiede von zwei bis drei Mikrosekunden verrechnen, trainierte Menschen bringen es immerhin noch auf fünf bis sechs Mikrosekunden.

Im Hochfrequenzbereich, in dem etwa Mäuse und andere kleine Nager leben, spielen Laufzeitdifferenzen dagegen kaum eine Rolle, weil hohe Töne schneller gedämpft werden. Ihnen stehen jedoch große Lautstärkenunterschiede zur Verfügung, die dadurch zustande kommen, dass das eine Ohr im Schallschatten des Kopfes liegt. Labormäuse und Ratten sind deshalb keine guten Modelltiere, wenn man erforschen will, wie wir Menschen Geräusche lokalisieren. „Unser Modellsystem ist daher die Wüstenrennmaus“, erklärt Grothe. „Sie ist zwar ebenfalls ein kleiner Nager, kann aber auch niederfrequente Töne hören. Deren Lokalisation gelingt ihr in etwa so gut wie einem wenig trainierten Menschen (circa zwanzig Mikrosekunden). Das Hörvermögen einer Tierart hängt immer mit dem Biotop zusammen, in dem sie lebt. Tiefe Frequenzen sind über eine weitere Distanz hörbar als hohe. In der Wüste ist es günstig, über weitere Entfernungen hören zu können, unter anderem weil es nur wenig Versteckmöglichkeiten gibt.“

jc_18_09_01b
Sebastian Grothe: „Manchen Menschen sind nicht viel schlechter als Eulen.“
Anpassung mit Fehlern

Grothe und sein Team haben nun entdeckt, dass die Wüstenrennmäuse und ebenso menschliche Versuchspersonen zwar einzelne Töne recht genau lokalisieren können, allerdings plötzlich große Fehler machen, wenn zwei Töne kurz hintereinander gehört werden. Dabei können die Abweichungen bis zu vierzig Grad betragen. Dieses Ergebnis erscheint auf den ersten Blick unsinnig. Wieso sollten Säugetiere plötzlich nicht mehr in der Lage sein, Geräuschquellen genau zu lokalisieren, wenn sie mehr als einen Ton hintereinander hören, was in der Natur der Normalfall sein sollte? Im Labor werden dagegen die meisten Versuche nur mit Einzeltönen gemacht, weshalb die schlechte Lokalisationsfähigkeit eines zweiten Tons wahrscheinlich bislang unerkannt blieb. Ein Grund für Grothe und sein Team, der neuronalen Grundlage des Phänomens auf die Spur zu kommen.

Petrischale, Maus und Mensch

„Das Besondere an unseren Experimenten ist, dass hier ein Ergebnis auf Einzelzell­ebene eine Vorhersage über unsere Wahrnehmung ermöglicht hat“, so der Neurobiologe. „Am Beginn der Experimente stand ein Befund aus der Histoimmunologie: Wir fanden einen γ-Aminobuttersäure-(GABA)-Rezeptor (der metabotrope GABAB-Rezeptor), der die Neurone reguliert, die die Laufzeitunterschiede mit Mikrosekundengenauigkeit verrechnen, der selbst aber nur sehr langsam arbeitet. Das schien erst einmal nicht zusammenzupassen“ (J. Neurosci. 30: 9715-27). In der Petrischale zeigten die Forscher dann, dass die Rezeptoren durch eine Rückkopplungsschleife aktiviert werden. „Wenn ein Ton gehört wird, wird dreißig bis vierzig Mikro­sekunden später GABA ausgeschüttet, das die Effizienz der Eingänge verringert. Da dies abhängig von den Neuronen passiert, welche die Richtung detektieren, bedeutet das, dass sich die Empfindlichkeit richtungsabhängig verändert. Daraus leiteten wir ab, dass bei dem nächsten Ton, der aus derselben Richtung kommt, ein Fehler gemacht werden muss.“

Anschließend konnten die Vorhersagen erst physiologisch in vivo an Wüstenrennmäusen, dann auch an menschlichen Versuchsteilnehmern psychophysisch bestätigt werden. Dazu wurden den Probanden auf einem Kopfhörer Töne mit verschiedenen Laufzeitdifferenzen vorgespielt, die möglichst genau lokalisiert werden sollten. Vor jedem zu ortenden Ton wurde ein sogenannter Adapterton gleicher Frequenz eingespielt. Es zeigte sich: Je weiter seitlich aus Sicht der Versuchsperson (also Richtung Ohr) der Adapterton zu hören war, desto größer war der Fehler bei der Lokalisation des Folgetons. Allerdings zeigte sich der Effekt nur auf der Kopfseite, auf der der vorangegangene Adapterton zu hören war. Töne auf der Gegenseite wurden weiterhin genau lokalisiert. Adaptertöne, die in der Mitte gehört wurden, hatten dagegen kaum einen Effekt (Nat. Neurosci. 16: 1840-7).

Dynamisches Hören

Wie aber passten diese Ergebnisse zu der neuronalen Verarbeitung von Laufzeitdifferenzen? Vögel wie die Schleiereule arbeiten nach dem Modell des Vielkanalsystems. Hier gibt es für verschiedene Laufzeitdifferenzen verschiedene Kanäle, also Neuronengruppen, die im Bereich einer bestimmten Laufzeitdifferenz besonders stark feuern. Infolgedessen entsteht im Gehirn eine Art auditive Landkarte. „Die Ergebnisse von der Eule, die das bestuntersuchte Modell für die Erfassung von Laufzeitdifferenzen darstellt, haben das Denken in unserem Forschungsfeld lange Zeit regelrecht festgeschraubt“, erinnert sich Grothe. „Unsere abweichenden Ergebnisse bei der Wüstenrennmaus wurden deshalb oft als Artefakte abgestempelt.“

Mathematische Simulationen, die vom Kooperationspartner Christian Leibold im benachbarten Bernstein Center durchgeführt wurden, konnten die Ergebnisse der Münchner allerdings unter Zuhilfenahme eines anderen Modells richtig abbilden. „Säugetiere haben keine auditive Karte im Gehirn“, erläutert Grothe. „Bei ihnen gibt es auf der rechten und auf der linken Seite jeweils eine größere Population von Neuronen, die bevorzugt auf Schallereignisse aus der entgegengesetzten Hemisphäre antworten. Je weiter lateral ein Geräusch ist, desto stärker antwortet die Neuronenpopulation im gegenüberliegenden auditorischen Hirnstamm. Ein Vergleich der Antwort der linken und der rechten Neuronenpopulation ermöglicht die Lokalisation des Schalles. Verschiebt sich ein Eingang durch die von uns beschriebene Rückkopplungsschleife, muss es daher zu Fehlern bei der Lokalisierung von Geräuschen kommen.“ Dieses physiologisch inspirierte Modell besagt im Kern, dass die Rückkopplung das absolute Hören in Richtung relatives Richtungshören verschiebt. Akustische Ortung wird dadurch zu einem dynamischen Prozess. „Das hat unser Weltbild über die Lokalisation von Geräuschen und das Hören bei Säugetieren insgesamt verändert“, ist der Neurobiologe überzeugt.

Vögel hören absolut

Dass die neuronale Verarbeitung von Hörsignalen von Vögeln und Säugetieren so unterschiedlich ist, erklärt der Wissenschaftler mit der unterschiedlichen evolutiven Herkunft. „Der Hörsinn entwickelte sich erst, als Reptilien (inklusive der Vorfahren der Vögel) und Säugetiere schon lange voneinander getrennt waren. Vögel stammen von großen, tagaktiven und räuberischen Dinosauriern ab. Sie hören absolut, und so kann beispielsweise eine Eule aus der Luft eine Maus zielsicher auch in absoluter Dunkelheit lokalisieren.“ Säugetiere stammen dagegen von kleinen, nachtaktiven, hochfrequent hörenden Beutetieren ab, für die es in erster Linie wichtig war zu erkennen, aus welcher Richtung ungefähr ein Räuber kommt. Die genaue Lokalisation war viel weniger wichtig als die räumliche Auflösung in der Gegend, aus der die Geräusche kamen. So ist es für ein potenzielles Beutetier wichtiger, aus den Hintergrundgeräuschen die Sig­natur des Räubers herauszufiltern, um vor ihm zu fliehen oder sich verstecken zu können. Außerdem muss es detektieren, in welche Richtung sich der Räuber bewegt, und ob es nur ein oder mehrere Räuber sind. Zwar gebe es auch Säugetiere, die als Raubtiere recht genau lokalisieren können, wie beispielsweise Katzen, schränkt der Wissenschaftler ein. „Diese Tiere mussten dafür aber zusätzliche Strategien entwickeln, mit dem Problem der relativen Lokalisation umzugehen. Die Katze akkumuliert und vergleicht erst unterschiedliche binaurale (beide Ohren betreffend, Anm. d. Red.) und spektrale Informationen über ein paar Sekunden, bevor sie nach der Maus im Gras springt“.

Diese neuen Erkenntnisse sollen zukünftig helfen, Hörgeräte und Cochlea-Implantate zu verbessern. Typisch ist hier das „Cocktail-Party“-Problem: Wenn viele Personen gleichzeitig sprechen, ist es für einen Zuhörer viel schwieriger, einem bestimmten Gespräch zu folgen. Trotzdem schaffen es Menschen mit gesundem Gehör in der Regel, das eine Gespräch durch eine gute räumliche Auflösung herauszufiltern. Hörgeräte besitzen diesen Filter nicht. Einzelne Töne können Hörgeräte gut verarbeiten, aber in einer komplexen Geräusch­umgebung wie auf einer Party sind sie wenig hilfreich, da alle Geräusche gleichermaßen verstärkt werden.

jc_18_09_01c
Hörprobanden-Drehstuhl in der Münchner Virtual-Reality-Kammer
Kommunizierende Hörgeräte

Dieses Phänomen lässt sich jetzt erklären, denn die Vielzahl an Geräuschen verändert das dynamische Hörfeld. Hörgeräte beider Ohren sollten deshalb miteinander kommunizieren können und sich dynamisch an die Hörumgebung anpassen. Dies sind Schlussfolgerungen, die die Neurobiologen aus ihren Ergebnissen ableiten konnten. „Außerdem muss die räumliche Auflösung durch neue Algorithmen verbessert werden. Das ist viel wichtiger als einfach mehr Pegeldruck“, ergänzt Michael Pecka, einer der beiden Erstautoren der aktuellen Veröffentlichung und Postdoktorand bei Grothe.

Ab in die Virtual Reality

Um nun weiter zu forschen, nutzen die Neurobiologen ihre Virtual-Reality-Kammer. In diesem schalltoten Raum dienen 36 verschiedene Lautsprecher dazu, einen möglichst naturgetreuen Höreindruck zu simulieren. Die Versuche sind sehr aufwendig, weil dabei für jeden Probanden ein individueller Abgleich der Ohren stattfinden muss, damit tatsächlich ein naturgetreues Klangerlebnis außerhalb des Kopfes entstehen kann. Auf einem drehbaren Stuhl können hier auch Auswirkungen von passiven und aktiven Kopf- und Körperbewegungen (zum Beispiel Hinwendung zum Schall) untersucht werden. So hoffen die Forscher, noch genauer herauszufinden, warum Säugetiere anders hören.



Letzte Änderungen: 10.10.2019