20分の空き時間があるのに、お気に入りのポッドキャストの最新エピソードが数分長くて…でも大丈夫。再生速度を上げて、その分を補うことができます。
ふぅ。
異なる速度で音声を聞くと何が起こるでしょうか。神経科学者は、脳の処理速度も上がると考えていました。しかし、少なくとも脳の聴覚部分は「聞き続ける」、つまり一定の時間に計時を続けていることが判明しました。これが、本日Nature Neuroscienceに発表された新しい研究の主要な発見です。この研究は、ロチェスター大学デルモンテ神経科学研究所の生物統計学および計算生物学、生物医学工学、神経科学の助教授であるサム・ノーマン=ハイニエール博士が、ザッカーマン研究所の主任研究員であるニマ・メスガラニ博士、および自身の研究室で電気工学の博士号を取得したメノウア・ケシシアンを含むコロンビア大学の研究者と共同で主導しました。
「これは驚きでした。単語をゆっくり聞いても、聴覚皮質は処理する時間枠を変えないことがわかりました。聴覚皮質は、この固定された時間スケール全体で統合しているようなものです」と、コロンビア大学のポスドク研究員として研究を開始した本研究の筆頭著者、ノーマン=エニエール氏は述べています。「この種の研究の重要な目標の一つは、脳が音声情報を処理する仕組みに関するより優れた計算モデルを構築することです。これにより、科学的ツールの選択肢が広がり、最終的には、音声や言語処理の理解に困難を抱える人が何に問題を抱えているのかを理解するのに役立つでしょう。」
音声の理解とモデル化の複雑さ
聴覚皮質は複数の層と領域から構成され、音の処理と解釈を担う脳領域です。研究者たちは、脳内に音声を処理する領域が複数あることを知っています。一次聴覚皮質、二次聴覚皮質、そして聴覚皮質を超えた言語野です。しかし、各領域の機能や、これらの異なる領域間および領域内の階層構造に関する根本的な理解は十分には進んでいません。
脳の複雑さを理解する上で、計算モデルの開発が役立ってきました。これらのコンピュータモデルは、数式やアルゴリズムを用いて音を理解し、神経反応や人間の行動を予測します。
「音声処理をより深く理解すれば、音声処理の障害の原因をより深く理解できるようになると思います。」
サム・ノーマン・ヘイグネール博士
本研究の著者らは、コンピュータモデルを用いて、自らの研究方法が2つの仮説を区別できるかどうかを検証した。1つは、聴覚皮質は音声構造(例えば単語)を横断して情報を統合するのか、それとも時間軸を横断して情報を統合するのかという仮説である。その結果、一部のコンピュータモデルは、聴覚皮質とは異なり、音声構造を横断して情報を統合することを学習したことが判明した。この発見は、著者らが構造と時間を研究するために用いていた手法の妥当性を検証する上で役立った。
人間の脳へのアクセス
神経科学者が人間の脳から記録できる神経データの種類は、一般的に限られています。脳波計(EEG)は、脳の電気活動を頭皮から読み取るため、その活動を生み出す実際の細胞からは遠く離れています。機能的MRIは脳内の血流を測定しますが、これは脳活動の間接的な指標です。どちらのツールも、人間の脳機能と疾患に関する私たちの理解を大きく変えましたが、どちらの方法も空間的および時間的に正確な神経活動を記録することはできません。
研究者らは、ニューヨーク大学ランゴーン医療センター、コロンビア大学アーヴィング医療センター、ロチェスター大学医療センターのてんかん患者を対象に、人間の脳内の神経活動を正確に測定する研究を行った。てんかんモニタリングのために入院した患者を対象に研究を行った。モニタリングの一環として、医師がてんかんの領域をより正確に特定できるよう、一時的に脳内に電極が埋め込まれた。

伸長音声と圧縮音声の統合ウィンドウを示す図。伸長音声と圧縮音声の統合ウィンドウは似ており、時間依存の統合(緑線)を示し、構造依存の統合(紫線)は示していない。
発作の原因となる脳。これらの電極は、ニューロンが活動する場所のすぐ近くで電気反応を測定するため、EEGやfMRIなどの標準的な方法よりもはるかに高い精度が得られます。
参加者は、オーディオブックの一節を通常の速度で聴く課題を与えられ、その後、同じ一節を遅い速度で再生されました。研究者たちは、発話速度に応じて変化する神経時間窓の変化が見られるのではないかと考えました。しかし、観察された差異はほとんどないかごくわずかでした。これは、処理の基本単位は物理的な時間(例えば100ミリ秒)であり、単語などの音声構造ではないことを示しています。
「この発見は、脳の情報処理は音節や単語といった、私たちが耳にする音声構造に結びついているという直感的な考えに疑問を投げかけています」と、本研究の筆頭著者であり、コロンビア大学電気工学部准教授のメスガラニ氏は述べています。「むしろ、聴覚皮質は音の構造とは無関係に、固定された内部時間スケールで機能していることを示しています。これにより、一貫したタイミングで情報の流れが生まれ、高次脳領域がそれを解釈して言語的意味を導き出すことになります。」
「音声処理をより深く理解すればするほど、音声処理における障害の原因をより深く理解できるようになるでしょう」とノーマン=エニエール氏は述べた。「この研究分野で興味深いのは、聴覚を研究してきた人や言語を研究してきた人がたくさんいるにもかかわらず、脳は耳に届いた音を何らかの形で単語、フレーズ、そして文章に変換する必要があるということです。ですから、脳がどのようにして音中心から言語中心へと変化するのか、そしてこの変化をどのようにモデル化するのかを解明することは、私たちが取り組んでいる刺激的な分野です。」
他の研究者には、コロンビア大学のガイ・マッカン氏とキャサリン・シェボン氏、ニューヨーク大学ランゴーン医療センターのオーリン・デヴィンスク氏、ワーナー・ドイル氏、アディーン・フリンカー氏が含まれます。本研究は、国立衛生研究所(NIH)およびマリー・ジョゼ・アンド・ヘンリー・R・クラビス助成金の支援を受けています。
著者
ケルシー・スミス・ヘイダック
Kelsie_Smith-hayduk@URMC.Rochester.edu
リンク先はUNIVERSITY of ROCHESTER MEDICAL CENTERというサイトの記事になります。(原文:英語)