日前,《PLoS Biology》杂志在线发表了中国科学院生物物理研究所脑与认知国家重点实验室罗欢副研究员、刘祖祥副研究员和纽约大学David Poeppel教授的合作研究成果:Auditory cortex tracks both auditory and visual stimulus dynamics using low-frequency neuronal phase modulation. 该研究利用高时间分辨率的脑磁图成像技术(MEG)探索了人类受试在观看包含对话场景的自然电影片段的大脑实时反应,并对其跨视听觉通道的神经机制进行了深入研究。

  以往对于感知觉研究往往采取了两个方面的简化:总体到特征的简化(即采用包含某种特定性质而不是具有高复杂度的自然刺激),动态到静态的简化(不考虑连续的实时处理过程),而值得注意的是感知觉系统在日常生活中接收到的却是具有高复杂度(同时包含多个特征的组合)和时间连续性(比如对话,音乐,电影等)的信息,因此我们的大脑从某种程度上说应该优化和适应于这种连续实时的高复杂度自然信息流。探索这种高复杂度的自然视听觉流的神经处理机制是极为重要并且具有极大挑战性的。