Das menschliche Gehirn Spuren Rede mehr genau in der Zeit als die anderen klingt

Menschen können mühelos zu erkennen und zu reagieren, um die natürlichen Geräusche und sind besonders abgestimmt auf die Rede. Es wurden mehrere Studien hat genau zu lokalisieren und zu verstehen, die Sprache-spezifische Teile des Gehirns, aber als die gleichen Hirnareale sind meist aktiv, für alle sounds, es blieb unklar, ob oder nicht das Gehirn hat einzigartige Prozesse, die für die Sprachverarbeitung, und wie führt es diese Prozesse. Eine der größten Herausforderungen war, zu beschreiben, wie das Gehirn passt sehr variable akustische Signale zu sprachlichen Darstellungen, wenn es keine eins-zu-eins-Korrespondenz zwischen den beiden—wie das Gehirn identifiziert, die gleichen Worte gesprochen, die durch unterschiedliche Sprecher und Dialekte der gleichen.

Für diese jüngste Studie, die Forscher, geführt von Professor Riitta Salmelin, dekodiert und rekonstruiert gesprochene Worte, die aus Millisekunden-Skala Gehirn-Aufnahmen in 16 gesunde finnische freiwillige. Sie nahm den neuartigen Ansatz der Nutzung der natürlichen akustischen Variabilität einer großen Vielfalt der Klänge (Worte, gesprochen von verschiedenen Sprechern, Umwelt-sounds aus vielen Kategorien) und ordne Sie magnetenzephalographie (MEG) – Daten unter Verwendung physiologisch-inspiriert machine-learning-Modelle. Diese Arten von Modellen, mit der Zeit aufgelöst und die Zeit-gemittelte Darstellungen von sounds, die verwendet wurden, in der Gehirn-Forschung vor. Das neuartige, skalierbare Formulierung von co-lead-Autor Ali Faisal erlaubt, die für die Anwendung solcher Modelle auf die gesamte Gehirn-Aufnahmen, und diese Studie ist die erste, zu vergleichen, die gleichen Modelle, die für Sprache und andere Geräusche.

Aalto-Forscher und Hauptautor Anni Nora sagt, “ entdeckten Wir, dass der Zeit-Verriegelung der kortikalen Aktivierung um die Entfaltung der Spracheingabe ist entscheidend für die Kodierung der Rede. Wenn wir ein Wort hören, z.B. „Katze“, hat unser Gehirn, es Folgen sehr genau in der Zeit in der Lage sein zu verstehen, seine Bedeutung‘.

Als Kontrast, mal-Verriegelung wurde nicht hervorgehoben, in der kortikalen Verarbeitung von nicht-Sprach-Umwelt-sounds, vermittelt die gleiche Bedeutung wie das gesprochene Wort, wie beispielsweise Musik oder Gelächter. Stattdessen zeitlich gemittelte ist-Analyse ausreichend, um erreichen Ihre Bedeutungen. „Das bedeutet, dass die gleichen Darstellungen (wie eine Katze aussieht, was es tut, wie es sich anfühlt, etc.) zugegriffen werden, indem das Gehirn auch, wenn Sie hören das miauen einer Katze, aber der Klang an sich wird analysiert, wie ein ganzes, ohne die Notwendigkeit für ähnliche Zeit-sperren von Gehirn-Aktivierung“, Nora erklärt.

Zeit-gesperrt-Codierung wurde auch beobachtet, für sinnlos neue Wörter. Aber auch Reaktionen auf von Menschen verursachte non-speech sounds wie lachen nicht zeigen verbesserte Dekodierung mit dem dynamic time-locked-Mechanismus und waren besser rekonstruiert, mit Hilfe eines time-averaged-Modell, was darauf hindeutet, dass Zeit-gesperrt-Kodierung ist speziell für sounds identifiziert die Rede.

Ergebnisse zeigen, dass das Gehirn Reaktionen Folgen, Rede mit besonders hoher zeitlicher treue

Die aktuellen Ergebnisse deuten darauf hin, dass in den Menschen, eine Besondere Zeit-gesperrt-encoding-Mechanismus entwickelt haben, zur Rede. Basierend auf anderen Studien, die diese Verarbeitung Mechanismus scheint zu sein, abgestimmt auf die native Sprache mit ausführlichen Exposition auf die Sprache, die Umgebung, die während der frühen Entwicklung.

Die gegenwärtige Suche nach der Zeit-gesperrt-Codierung, speziell für Sprache, vertieft das Verständnis der Berechnungen erforderlich für die Zuordnung zwischen akustischen und sprachlichen Repräsentationen (von der laute zu Wörtern). Die aktuellen Ergebnisse werfen die Frage auf, welche spezifischen Aspekte innerhalb der Klänge sind von entscheidender Bedeutung für cueing, das Gehirn mit diesem speziellen Modus der Codierung. Um dies weiter verfolgen, so wollen die Wissenschaftler weiter, um real-life-wie auditive Umgebungen wie überlappenden Umwelt-Klänge und Sprache.’Zukünftige Studien sollten untersuchen, ob ähnliche Zeit-Schließungen beobachtet werden, mit der Spezialisierung in der Verarbeitung von anderen sounds, die durch Erfahrung, z.B. für instrumental-sounds für Musiker‘, Nora sagt