Wissenschaftler am Max-Planck-Institut für empirische Ästhetik in Frankfurt und an der New York University haben herausgefunden, dass Rhythmen im Gehirn (Oszillationen) die Verarbeitung von Musik unterstützen. Dieser Forschungsbefund trägt auch dazu bei, das auditorische System des Menschen besser zu verstehen. Und er legt nahe, dass eine musikalische Ausbildung die funktionale Rolle von Rhythmen im Gehirn verstärken kann.
Die Studie, die im Fachjournal Proceedings of the National Academy of Sciences (PNAS) erschienen ist, wirft ein neues Licht auf die Bedeutung der kortikalen Oszillation für die Erkennung von musikalischen Sequenzen. Kortikale Oszillationen sind rhythmische elektrische Potentiale in den Hirnarealen, die sich synchronisieren müssen, um Informationen auszutauschen.
„Wir konnten die Rhythmen im Gehirn isolieren, die den Tempi in der gehörten Musik entsprechen“, erklärt Keith Doelling, Hauptautor der Veröffentlichung. „Die Befunde zeigen, dass das Vorhandensein dieser Rhythmen unsere Wahrnehmung von Musik und von Tonhöhenänderungen verbessert.“
Wie zu erwarten, belegt die Studie auch, dass Musiker stärker ausgeprägte Oszillationen aufweisen als Nicht-Musiker. „Das zeigt, dass wir tatsächlich trainieren können, unser auditorisches Wahrnehmungssystem effizienter zu nutzen“, sagt Co-Autor David Poeppel, Direktor der Abteilung Neurowissenschaften am Max-Planck-Institut für empirische Ästhetik. „Musiker sind durch ihre Erfahrung einfach besser in dieser Art von Verarbeitung.“
Gehirn schwingt synchron zur Sprache
Frühere Studien konnten zeigen, dass Rhythmen im Gehirn sehr präzise mit Sprache synchronisiert sind und uns dadurch helfen, fortlaufenden Sprachfluss zu verstehen. Mit anderen Worten: Das Mitschwingen sorgt dafür, dass wir Silben, Wörter und Sätze in der gesprochenen Sprache als solche wahrnehmen können, auch wenn sie nicht – wie in der Schriftform – durch Leerstellen oder Satzzeichen voneinander getrennt sind.Bisher war allerdings noch nicht bekannt, welche Rolle diese Rhythmen im Gehirn bei der Verarbeitung von anderen komplexen Lauten wie zum Beispiel Musik spielen.
Um diese Frage zu beantworten, führten die Wissenschaftler drei Experimente durch, bei denen sie Magnetenzephalographie einsetzten. Damit können winzige magnetische Felder gemessen werden, die durch Gehirnaktivität erzeugt werden. Die Studienteilnehmer wurden gebeten, kleine Tonhöhenveränderungen zu identifizieren, die in 13 Sekunden langen Ausschnitten aus klassischen Klavierstücken zu hören waren (Bach, Beethoven, Brahms) und die sich hinsichtlich des Tempos unterschieden – von einer halben Note bis zu acht Noten pro Sekunde.Die Wissenschaftler teilten die Teilnehmer in Musiker (mindestens sechs Jahre musikalische Ausbildung und aktiv praktizierend) und Nicht-Musiker ein.
Für Musik, die aus mehr als einer Note pro Sekunde bestand, zeigten sich sowohl bei Musikern als auch bei Nicht-Musikern kortikale Oszillationen, die sich mit der Geschwindigkeit der Töne im gehörten Stück synchronisierten. Daraus schließen die Wissenschaftler, dass diese Oszillationen bei allen Teilnehmern dafür sorgten, die gehörten Laute zu verarbeiten. Allerdings war zu beobachten, dass die Gehirne der Musiker deutlicher mit dem Rhythmus der Musik synchronisierten.
Zusätzlich fanden sich nur bei Musikern Oszillationen, die auch mit ungewöhnlich langsamen Stücken in Einklang kamen. Dieser Unterschied – so die Autoren – weist möglicherweise darauf hin, dass Nicht-Musiker kontinuierliche Melodien schlechter erkennen können und Musik eher als aneinandergereihte Töne wahrnehmen. Außerdem entdecken Musiker wesentlich akkurater Tonhöhenabweichungen – was sich auch in korrespondierenden kortikalen Oszillationen widerspiegelte.
Der neuronale Rhythmus des Gehirns, so die Wissenschaftler, scheint also eine Rolle zu spielen bei der Analyse von Klangströmen und ihre Aufteilung in größere Einheiten, die dann als Sprache oder Musik wahrgenommen werden.
Absätze
Quelle
http://www.mpg.de