Editorial

Sprache mit Pfiff

(25.8.15) In einigen Gegenden der Türkei verständigen sich Bergbewohner über große Distanzen mit einer Pfeifsprache. Der Bochumer Psychologe Onur Güntürkün hat untersucht, wie die gepfiffenen Silben im Gehirn verarbeitet werden.
editorial_bild

Die Sprachverarbeitung ist Sache der linken Hirnhälfte. Zumindest legen zahllose Experimente eine deutliche linkshemisphärische Dominanz nahe, wenn wir Worte und Sätze im Gehirn auswerten. Auch klinische Befunde fügen sich in dieses Bild ein. So sind Sprachstörungen häufig auf Schlaganfälle in der linken Hälfte des Gehirns zurückzuführen. Obwohl der Betroffene noch hören kann, ist er dann nicht mehr in der Lage, dem Gesprochenen eine Bedeutung zuzuordnen.

Ob man eine Geschichte liest oder vorgelesen bekommt, ob man Morsezeichen hört oder Gebärdensprache sieht – sobald eine semantische Bedeutung enthalten ist, ist vor allem die linke Hemisphäre gefordert. Dabei ist es nach gängiger Lehrmeinung egal, welche physikalischen Eigenschaften das über die Sinnesorgane aufgenommene Signal hat.

Links oder rechts?

„Ich habe diese Hypothese nie so wirklich geglaubt“, gesteht der Psychologe Onur Güntürkün. Er leitet die Biopsychologie an der Ruhr-Universität Bochum und erforscht schon seit Jahrzehnten die Zusammenhänge zwischen menschlichem Verhalten und den Vorgängen auf neurobiologischer Ebene. Obwohl die linkshemisphärische Dominanz gut belegt ist, weiß man aus anderen Studien, dass Gesprochenes auch die rechte Seite des Gehirns beschäftigt.

Editorial

Güntürkün gibt ein Beispiel: Man ruft eine Freundin oder Bekannte an – in diesem Gedankenexperiment möge sie „Claudia“ heißen. „Das ist aber schön, dass du anrufst“, zitiert Güntürkün unsere imaginäre Gesprächspartnerin in einem entspannten Tonfall. Denselben Satz wiederholt er dann übertrieben freundlich.

„In beiden Fällen sind die Worte die gleichen, die Grammatik ist die gleiche – aber Claudias Reaktion lässt auf vollkommen unterschiedliche emotionale Prozesse schließen“, so Güntürkün. Dass die zweite Version von Claudias Antwort ironisch oder sarkastisch gemeint sein könnte, ist nämlich nicht in den verwendeten Vokabeln kodiert, sondern allein im Tonfall der Stimme. Und diese Aspekte der Sprache würden vor allem die rechte Gehirnhälfte aktivieren, erklärt Güntürkün.

Nun schreibt man der rechten Großhirnhälfte gern zu, für die Verarbeitung emotionaler Aspekte zuständig zu sein. Güntürkün sieht aber auch auf physikalischer Ebene einen Unterschied zwischen den gesprochenen Worten und dem Tonfall in der Stimme. Die rechte Gehirnhälfte sei darauf spezialisiert, langsame Veränderungen aus den Schallwellen zu dekodieren; die Art, wie man etwas sagt, schlägt sich in solchen langsamen Veränderungen der Schallereignisse nieder. Anders hingegen die Silben, aus denen sich die Sachinformation gesprochener Worte ergibt. Güntürkün: „Mit der Sprache, die ich mit Ihnen spreche, produziere ich sehr schnelle Modulationen des Schallsignals, und darauf ist unsere linke Hirnhälfte spezialisiert.“

Pfeifsprachen

Doch was, wenn man eine Sprache ausschließlich aus Silben konstruiert, die durch langsame akustische Veränderungen gebildet werden? Falls nicht allein der semantische Inhalt über die Verarbeitung im Gehirn entscheidet, sondern auch die physikalische Beschaffenheit des Signals, dann müsste eine solche Sprache andere neuronale Aktivitäten auslösen. Sollte hingegen die gewohnte Asymmetrie zugunsten der linken Hirnhälfte auftreten, dann wäre wohl die bisherige Sicht auf die Sprachverarbeitung korrekt.

Zum Glück muss man eine solche Sprache nicht erst erfinden, denn in verschiedenen Regionen der Welt gibt es sogenannte „Pfeifsprachen“. Eine davon ist das „Gepfiffene Türkisch“, das in einigen Bergregionen der Türkei von den Einwohnern zusätzlich zum normalen Türkisch ... nicht gesprochen, sondern gepfiffen wird. Personen können sich damit über mehrere Kilometer hinweg verständigen, sofern Wetterbedingungen und geographische Gegebenheiten optimal sind.

Gepfiffenes Türkisch enthält denselben Wortschatz wie gesprochenes Türkisch. Gepfiffene Silben und die daraus gebildeten Worte unterscheiden sich aber in einem wesentlichen Punkt von einer gesprochenen Sprache, weiß Güntürkün:

„Die Pfeifsprache kann gar nicht anders, als langsame Veränderungen des Schallsignals über die Zeit zu produzieren.“

Semantisch lassen sich also in gesprochener wie gepfiffener Sprache dieselben Informationen kodieren, allerdings ist die akustische Verpackung eine andere. Güntürkün wollte nun wissen, wie die Grundbausteine beider Sprachen, nämlich die einzelnen Silben, im Gehirn verarbeitet werden. „Wenn die linke Hirnhälfte selbst bei der Pfeifsprache immer noch die dominante ist, dann strecke ich die Waffen“, verspricht Güntürkün, denn dann wäre die Sprachverarbeitung tatsächlich unabhängig vom physikalischen Format des Signals.

Dichotisches Hören

Für seine Experimente griff Güntürkün auf ein bewährtes Instrument der Psychologen zurück: das Dichotische Hören. Beim Dichotischen Hören bekommt die Testperson gleichzeitig unterschiedliche Signale auf dem linken und dem rechten Ohr präsentiert. Die Versuche führt man daher mit Kopfhörern durch, um die Schallsignale zuverlässig zu trennen. Die vom rechten Ohr gehörte Information erreicht zuerst die linke Hirnhälfte – und umgekehrt. Zwar tauschen sich beide Hemisphären sofort über das Corpus callosum miteinander aus – die Fasern, die beide Hälften miteinander verbinden. Spannend wird das Experiment aber, wenn der Versuchsleiter gleichzeitig auf beiden Ohren etwas anderes präsentiert.

So kann man etwa die Silben ‚Ba’ und ‚Ta’ über Kopfhörer abspielen. „Wenn man auf beiden Ohren ein ‚Ba’ gibt, dann hört die Person ein ‚Ba’“, beschreibt Güntürkün und fährt fort: „Sie würden auch ein ‚Ba’ hören, wenn man Ihnen nur auf dem linken oder nur auf dem rechten Ohr ein ‚Ba’ präsentieren würde.“ Interessant seien aber zwei diskrepante Silben. Dabei müssen natürlich Lautstärke und Länge beider Signale identisch sein. Wenn man gleichzeitig links ein ‚Ba’ und rechts ein ‚Ta’ abspielt, dann gewinnt die Silbe, die zuerst die linke Hirnhälfte erreicht. „Subjektiv hört die Person dann nur ein ‚Ta’“, so Güntürkün.

Genau diesen Test zum Silbenhören haben Güntürkün und die Koautoren Monika Güntürkün und Constanze Hahn mit Versuchspersonen durchgeführt, die sowohl gesprochenes als auch gepfiffenes Türkisch beherrschen; ihre Ergebnisse haben Güntürkün et. al. diesen Monat in Current Biology vorgestellt (Vol. 25, pR706–8). Für das gesprochene Türkisch reproduzierte das Forscherteam die aus der Literatur bekannte Asymmetrie: Mehr als doppelt so viele korrekt benannte Silben wurden vom rechten Ohr gehört und somit von der linken Hemisphäre erkannt. Soweit nicht überraschend.

Gleichberechtigte Hirnhälften

Beim gepfiffenen Türkisch hingegen tut sich die linke Hirnhälfte anscheinend schwerer und identifiziert deutlich weniger Silben als sonst. Die rechte Hemisphäre schneidet ähnlich ab wie beim Hören gesprochener Silben. Unterm Strich gibt es beim Dichotischen Hören gepfiffener Silben keine signifikanten Unterschiede mehr zwischen beiden Hirnhälften; welche Seite eine Silbe erkennt, gleicht also einem Münzwurf. Die Ergebnisse stützen Güntürküns Vermutung, dass es bei der Sprachverarbeitung sehr wohl auf die physikalische Beschaffenheit des Reizes ankommen kann. „Langsame Veränderungen des akustischen Signals über die Zeit: das kann die rechte Hemisphäre viel besser als die Linke“, fasst er zusammen.

Nun misst man für die Pfeifsprache beim dichotischen Hörtest zwar keine linkshemisphärische Dominanz, allerdings scheint die rechte Seite auch keine auffallend größere Rolle zu spielen. Güntürkün geht davon aus, dass die linke Hemisphäre auch für die Verarbeitung von Pfeifsprache noch eine Restkompetenz mitbringt, weil sie gut darin sei, Bestandteile von Sprache zu erkennen. Bei der Interpretation der Ergebnisse ist er daher vorsichtig.

Gern würde er Schlaganfallpatienten der Bergdörfer untersuchen, die wegen linkshemisphärischer Läsionen kein gesprochenes Türkisch mehr verstehen. „Würde er oder sie bessere Kommunikationsmöglichkeiten oder zumindest ein besseres Verstehen des Türkischen haben, wenn wir mit dieser Person pfeifen würden?“, fragt sich Güntürkün. Die Antwort könnte nicht nur dabei helfen, grundsätzliche Prinzipien zur Sprachverarbeitung besser zu verstehen, sondern möglicherweise auch neue Wege für die Rehabilitation nach Schlaganfällen eröffnen.

Mario Rembold

Foto: (c) Onur Güntürkün

 

 




Letzte Änderungen: 06.10.2015