神经科学革命:人工智能解码人脑!
柏林 FU 正在研究大型语言模型与人类视觉理解之间的联系,发表在《自然》上。

神经科学革命:人工智能解码人脑!
柏林自由大学 Adrien Doerig 教授领导的团队进行的一项新研究表明,大型语言模型 (LLM) 能够预测人脑对视觉刺激的反应。这项研究发表在著名期刊上自然机器智能发表并题为“人脑中的高级视觉表示与大型语言模型保持一致” 柏林自由大学报道 。
该调查涉及人类视觉感知与法学硕士生成的表征之间的相互作用,例如 ChatGPT 背后的表征。到目前为止,还缺乏有效的工具来分析人们从视觉印象中获得的高度抽象的含义。研究小组通过从正常场景描述中提取“语义指纹”来实现这一目标,然后将其用于对观看日常图像时收集的功能性 MRI 数据进行建模。
数据分析的创新方法
检查的图像包括“孩子们在校园里玩飞盘”和“一只狗站在帆船上”等场景。法学硕士生成的表征可以准确预测大脑活动,从而可以对所看到的内容做出推断。这些方法被证明比许多当前的图像分类系统更有效,凸显了法学硕士在神经科学中的重要性和潜在应用。
此外,还研究了计算机视觉模型直接从图像预测语义指纹的能力,这可以进一步推进研究。这些发现不仅对于神经科学,而且对于智能系统的发展也具有重要意义。大声 弗劳恩霍夫IKS 基于人工智能的认知系统的重要性变得越来越明显,因为这些技术在包括自动驾驶汽车在内的各种应用领域中都是不可或缺的。
人工智能的挑战和高安全性要求
然而,大型语言模型的复杂性和此类系统持续的不可理解性带来了重大挑战。东北大学计算机科学家 David Bau 描述了传统软件如何识别问题,而人工智能通常充当“黑匣子”,其确切功能很难理解。因此,可解释人工智能(XAI)的研究领域对于更好地理解人工智能系统的内部逻辑和决策变得越来越重要 报道 Spektrum.de 。
由于法学硕士用于执行医疗咨询或编程等复杂任务,因此他们的决定易于理解至关重要。为人工智能系统提供解释的必要性至关重要,尤其是在高风险应用中。 Bau 指出,像 OpenAI 这样的公司对源代码保密,这阻碍了进行透明研究的努力,从而限制了安全、可解释的人工智能系统的开发。
正如当前的研究所证明的那样,未来,大脑研究和人工智能开发的见解的综合可能有助于弥合人类和机器理解之间的差距。这些协同作用为两个科学学科开辟了新的视角,并且即将在智能系统的发展方面取得突破性进展。