麻省理工学院的研究人员通过先进的神经网络模型揭示了大脑和听觉之间的新深入认识
麻省理工学院研究人员借助先进神经网络揭示脑与听觉的全新奇迹
在一项引人注目的研究中,麻省理工学院的研究人员深入探索了深度神经网络的领域,旨在揭示人类听觉系统的奥秘。这种探索不仅是一种学术追求,而且有望推动助听器、人工耳蜗和脑机接口等技术的发展。研究人员进行了有关深度神经网络在听觉任务训练中的最大规模研究,揭示了这些模型生成的内部表征与人脑在类似听觉体验中观察到的神经模式之间令人感兴趣的相似之处。
为了理解这项研究的重要性,必须首先理解它试图解决的问题。总体挑战是解读人类听觉皮层复杂的结构和功能,尤其是在各种听觉任务中。这种理解对于开发能够显著影响听力障碍或其他听觉挑战个体生活的技术至关重要。
这项研究的基础是建立在之前的工作基础上,其中神经网络接受训练以完成特定的听觉任务,如从音频信号中识别单词。在2018年进行的一项研究中,麻省理工学院的研究人员证明了这些模型生成的内部表征与听相同声音的个体在功能性磁共振成像(fMRI)扫描中观察到的神经模式之间存在相似性。从那时起,这样的模型已经得到广泛应用,促使麻省理工学院的研究团队进行更全面的评估。
- 斯坦福大学研究人员引入了一种统一的人工智能框架,用于大型语言模型(LLMs)中的协作和贡献属性
- 了解直方图和核密度估计
- 我们如何在人工智能中推进物体识别?这篇人工智能论文介绍了GLEE:一个用于增强图像和视频分析的通用物体级基础模型
该研究涉及对九个公开可用的深度神经网络模型的分析,同时由麻省理工学院的研究人员基于两个不同架构创建了额外的14个模型。这些模型被训练用于各种听觉任务,从识别单词到识别说话者,环境声音和音乐类型。其中两个模型设计用于同时处理多个任务。
这项研究的独特之处在于对这些模型如何逼近人脑观察到的神经表征进行了详细的检查。研究结果表明,模型生成的内部表征与人类听觉皮层中观察到的模式相吻合,特别是当模型接受包含背景噪声的听觉输入时。这一发现具有重要意义,它表明训练模型时添加噪声更准确地反映了背景噪声普遍存在的真实听觉条件。
深入研究所提出的方法的复杂性,展现了一段迷人的旅程。研究人员强调将模型训练于噪声中的重要性,并断言暴露于各种任务和带有背景噪声的听觉输入的模型生成的内部表征与观察到的人脑听觉皮层激活模式相似。这与现实世界中听觉场景中面临的挑战直观地相符,个体常常在各种背景噪声水平下遇到听觉刺激。
该研究进一步支持人类听觉皮层内的分层结构的观点。本质上,模型的处理阶段反映了不同的计算功能,较早的阶段与主听觉皮层中观察到的模式密切相关。随着处理的深入,模型生成的表征更接近于超越主皮层的脑区域中观察到的模式。
此外,该研究强调,接受不同任务训练的模型具有选择性解释大脑特定调谐属性的能力。例如,接受与语音相关任务训练的模型与大脑中的语音选择性区域更密切相关。这种任务特定的调谐提供了对模型进行调整以复制不同听觉处理方面的宝贵见解,从而深入了解大脑对不同听觉刺激的反应。
总之,麻省理工学院对接受听觉任务训练的深度神经网络进行广泛探索,标志着揭示人类听觉处理秘密的重大进步。通过阐明在噪声中训练模型和观察任务特定调谐的益处,这项研究为开发更有效的模型开辟了途径。这些模型具有准确预测脑部反应和行为的潜力,为助听器设计、人工耳蜗和脑机接口带来了新的发展时代。麻省理工学院的开拓性研究丰富了我们对听觉处理的理解,并为听觉研究和技术的变革性应用绘制了一条道路。