切尔西vs布莱顿:卡拉宝杯的比赛及时提醒我们,花大钱并不总是解决问题的办法
4
2025-10-05
研究人员发现,大脑处理语言的方式不同,这取决于语言的不同程度以及我们是否集中注意力。这项研究结合了神经记录和计算机建模,证明了语音信息在被更大声的声音淹没时的编码方式与在没有声音的情况下的编码方式不同。
哥伦比亚大学的科学家发现,大脑对语言的编码不同因为它的清晰性和我们对它的关注。这一发现涉及对“瞥见”和“隐藏”语音的不同处理,可以提高大脑识别的准确性控制助听器。
美国哥伦比亚大学尼玛·梅斯加拉尼博士领导的研究人员报告说,大脑在拥挤的房间里对待语言的方式不同,这取决于听起来有多容易,以及我们是否集中注意力。这项研究最近发表在开放获取的期刊《公共科学图书馆生物学》(PLOS Biology)上,该研究结合了神经记录和计算机建模,表明当我们跟随被更大声的声音淹没的语音时,语音信息的编码与相反情况下的编码不同。这一发现可能有助于改善助听器,使其能够隔离有人讲话。
在一个拥挤的房间里集中注意力讲话是很困难的,尤其是当别人的声音更大的时候。然而,平等地放大所有的声音对隔离这些难以听清的声音的能力几乎没有帮助,而且试图只放大助听器的助听器在实际应用中仍然太不准确。
在嘈杂的环境中听别人说话的例子。资料来源:哥伦比亚大学祖克曼研究所(2023)(CC-BY 4.0)
为了更好地了解在这种情况下语言是如何被处理的,哥伦比亚大学的研究人员在癫痫患者接受脑部手术时,通过植入他们大脑的电极记录了他们的神经活动。患者被要求注意一个单一的声音,这个声音有时比另一个声音大(“瞥见”),有时更小(“蒙面”)。
研究人员利用神经记录生成大脑活动的预测模型。模型显示,“瞥见”语音的语音信息在大脑的初级和次级听觉皮层都有编码,而“出席”语音的编码在次级听觉皮层得到增强。相比之下,“蒙面”语音的语音信息只有在有人参与的情况下才会被编码。最后,“蒙面”语音编码比“瞥见”语音编码发生得晚。因为“瞥见的”和“被掩盖的”语音信息似乎是分开编码的,所以专注于破译语音中“被掩盖的”部分可能会改善大脑控制的助听器的听觉注意力解码系统。
该研究的主要作者Vinay Raghavan说:“当在嘈杂的地方听别人说话时,你的大脑会恢复你在背景噪音太大时错过的东西。你的大脑也可以捕捉到你没有集中注意力的谈话片段,但只有在你倾听的人相对安静的时候。”
参考文献:《多语情境下的隐语和隐语的不同神经编码》,作者:Vinay S Raghavan, James O 'Sullivan, Stephan Bickel, Ashesh D. Mehta和Nima Mesgarani, 2023年6月6日,PLOS Biology。DOI: 10.1371 / journal.pbio.3002128
这项工作得到了美国国立卫生研究院(NIH)、美国国家耳聋和其他交流障碍研究所(NIDCD) (DC014279至NM)的支持。资助者在研究设计、数据收集和分析、发表决定或手稿准备中没有任何作用。
发表评论
暂时没有评论,来抢沙发吧~