Речь и музыка: симпозиум Общества когнитивной неврологии

Эта тема стала ключевой для одного из симпозиумов в рамках ежегодного собрания Общества когнитивной неврологии (CNS), проходившего на прошлой неделе в Сан-Франциско. Исследователи уже много лет задаются вопросом, как мозг отличает музыкальные звуки и песни от обычной речи и почему в ответ на красивую музыку возникает сильный эмоциональный отклик. В рамках дискуссии несколько ведущих ученых в сфере нейробиологии музыки попытались ответить на эти вопросы.


«За последние два десятилетия множество превосходных исследований показали сходные механизмы между речью и музыкой на многих уровнях обработки информации в мозге. Однако фундаментальный вопрос, который часто упускается из виду, заключается в том, что заставляет мозг по-разному воспринимать музыкальные и речевые сигналы и зачем людям нужны два разных слуховых сигнала», — отмечает организатор симпозиума по восприятию музыки и речи Эндрю Чанг (Andrew Chang) из Нью-Йоркского университета, сам скрипач с многолетним опытом. 

Музыка и младенцы

Работа нейробиолога Кристины Ванден Бош дер Недерланден (Christina Vanden Bosch der Nederlanden) из Университета Торонто предполагает, что ключевым фактором для различения звуков и ритмов становится высота звука. По видимому, именно она позволяет людям, начиная с младенчества, отличать речь от музыки. Кроме того, прогностические способности мозга лежат в основе восприятия как речи, так и музыки.

Дер Недерланден и ее коллеги исследуют, понимают ли люди еще в младенчестве разницу между обычной речью и песней. На встрече CNS она представила новые данные, собранные непосредственно перед и во время пандемии COVID-19, об акустических особенностях, которые формируют музыку и язык в процессе развития ребенка. 

В одном из экспериментов 4-месячные младенцы слушали и речь, и песню, причем, как в в виде обращения именно к ребенку, так и в виде монотонного отвлеченного проговаривания слов голосом. При этом регистрировалась электрическая активность мозга с помощью электроэнцефалографии (ЭЭГ).

Оказалось, что младенцы лучше отслеживали высказывания, адресованные младенцу, когда их произносили голосом по сравнению с пропеванием. И эти наблюдения отличаются от данных, полученных на взрослых, которые лучше отслеживают именно пение по сравнению с произнесенными высказываниями. 

Также ученые обнаружили, что высота тона и ритм больше влияют на активность мозга при речи по сравнению с песней. Например, им удалось понять, что повышение тона связано с лучшим отслеживанием речи, которую адресуют младенцу. То есть отсутствие «стабильности высоты тона» может сообщать созревающему мозгу о речи, тогда как, наоборот, стабильная высота тона, по словам авторов – это особенность, которая «может сигнализировать слушателю: ”О, это звучит так, как будто кто-то поет»». 

В онлайн-эксперименте дер Недерланден и ее коллеги просили детей и взрослых качественно описать, чем отличаются музыка и язык. Это дало им богатый набор данных, который говорит многое о том, какие акустические отличия люди разного возраста видят между музыка и языком. Также удалось получить различные точки зрения на то, как различаются функциональные роли музыки и языка в нашей повседневной жизни. И дети, и взрослые, говоря о разнице, описывали такие особенности, как темп, высота звука, ритм – важные особенности для различения речи и песни.

В будущей работе исследовательница надеется перейти к более натуралистичным экспериментам и для изучения обработки музыки и языка за пределами лаборатории использовать мобильную ЭЭГ.

Определение прогностического кода музыки

Гильем Марион (Guilhem Marion), музыкант и программист из Ecole Normale Supérieure (Франция) создал новую вычислительную модель музыки, которая помогает исследователям понять, как мозг воспринимает музыку с помощью «прогностического кодирования», аналогичного тому, как люди предсказывают закономерности в языке.

Теория прогностического кодирования объясняет, как мозг пытается предсказать следующую ноту во время прослушивания музыки, и это именно то, что делают вычислительные модели музыки для создания новой музыки. Ученый использует эти модели, чтобы лучше понять, как культура влияет на восприятие музыки, как используются для этого знания, основанные на индивидуальном окружении. 

В работе, проведенной с Джованни Ди Либерто (Giovanni Di Liberto) и коллегами, Марион записал ЭЭГ-активность 21 профессионального музыканта, которые слушали или представляли в уме четыре хоровых произведения Баха. В этом исследовании авторы смогли определить степень неожиданности для каждой ноты, используя вычислительную модель, основанную на большой базе данных западной музыки. 

«Наше исследование впервые показало среднюю реакцию ЭЭГ на воображаемые музыкальные ноты и продемонстрировало, что они коррелируют с музыкальным «сюрпризом», рассчитанным с использованием статистической модели музыки», — говорит Марион.

«Вы часто либо делаете звуки неестественными, если все хорошо контролируется для вашей экспериментальной цели, либо сохраняете их естественные свойства, но тогда становится трудно справедливо сравнивать звуки между экспериментальными условиями. Новаторский подход Марион и Ди Либерто позволяет исследователям изучать и даже изолировать нейронную активность во время прослушивания непрерывной естественной речи или записи музыки», — отметил Эндрю Чанг.

Он считает, что понимание взаимосвязи между музыкой и языком может помочь нам исследовать фундаментальные вопросы человеческого познания: зачем людям нужна музыка и речь и как люди общаются и взаимодействуют друг с другом с помощью этих форм.


Текст: Анна Хоружая