Учёные из Осаки и Национального института информационно‑коммуникационных технологий в Японии провели интересный эксперимент — попытались понять, как работает наш мозг, когда мы говорим и слушаем собеседника. Они включили «мозгоподобную» модель, аналогичную той, что используется в ChatGPT, и совместили её с данными функциональной магнитно‑резонансной томографии. Получилось любопытное сочетание — машинный интеллект + рентген речи. В эксперименте восемь участников спонтанно общались с исследователем. Им задавали вопросы для разговора, а в это время сканировали мозг. Каждое высказывание записывали, превращали в цифровые векторы с помощью GPT‑модели. Потом проверяли, какие участки мозга начинают «жужжать» при разговоре и слушании.
Оказалось очень интересно: мозг реагирует на слова, предложения и целые куски дискурса по‑разному, в зависимости от того, говорит человек или слушает. То есть, когда человек говорит, он выстраивает слова в предложения одним способом — и совсем иначе, чем когда он воспринимает чужие слова. При создании речи мозг сливает слова в предложения и объединяет предложения в цельные мысли по одному алгоритму, а при восприятии — по другому. И это не одно и то же: когда мы сами формулируем мысль, мы задействуем другие механизмы, чем когда обрабатываем уже сказанное.
В научной статье, опубликованной в журнале Human Behaviour, подчёркивается, что мозг использует разные нейронные пути при разговоре и при слушании. Это означает, что говорить и понимать — это похожие, но всё же разные процессы. И хотя они выполняют похожую функцию — строят смысл из слов, — мозг делает это по‑разному. Это очень круто, ведь когда человек говорит, он активирует определённые области, которые когнитивно формируют высказывание. А когда слушает, ему нужно не только принимать слова, но и интерпретировать их в контексте, поэтому активируются другие зоны, другие нейронные цепочки.
Старший автор, Шинджи Нисимото, пояснял, что долгосрочная цель — понять, как человеческий мозг поддерживает обычную жизнь. А язык и общение — ключевые проявления человеческого интеллекта. Именно поэтому они начали изучать, как именно мозг управляет диалогом.
Авторы говорят, что без больших языковых моделей, подобных тем, что лежат в основе ChatGPT, подобные исследования было бы сложно вести. Именно они позволяют анализировать динамику речи в режиме реального времени. Первый автор, Масахиро Ямашита, объяснил, что они следили за мозгом при речи и слушании и сравнивали разные временные масштабы: как мозг обрабатывает информацию за одну секунду и за тридцать две. Выяснилось, что чем дольше отрезок, тем глубже разница между построением значения в речи и в восприятии.
Появилось ощущение, что мозг сохранил общий лексический словарь — он знает значение слов и предложений, но сам процесс объединения смыслов для говорящего и для слушающего — разный. И это прямое подтверждение того, что наш мозг не просто повторяет слова, но и организует их по‑разному. В будущем учёные хотят понять, как мозг выбирает, что сказать. Ведь у человека масса мыслей — и нужно быстро решить, какая из них будет сформулирована и произнесена. Это бы пояснило, как мы так оперативно поддерживаем разговоры в реальной жизни.
