3月5日,2024年大脑奖(Brain Prize)揭晓。
大脑奖是环球神经科学研究领域最负盛名的名誉,奖金代价1000万丹麦克朗(约1039万公民币)。

2024年大年夜脑奖:行走在神经科学和人工智能之间的交界处_年夜脑_神经 文字写作

今年的奖项由三位顶尖神经科学家分享,他们分别是哥伦比亚大学教授拉里·阿博特(Larry Abbott)、索尔克研究所教授特伦斯·塞诺夫斯基(Terrence Sejnowski)以及哈佛大学和希伯来大学教授海姆·索姆林斯基(Haim Sompolinsky)。
因在打算和理论神经科学领域做出了精彩的贡献,并为人们理解掌握大脑构造、功能以及认知和行为涌现的事理做出了首创性的贡献,三位科学家获此名誉。

对付三位科学家各自的贡献,阿博特接管采访时先容道,“特伦斯将机器学习引入这个领域,这为我们创造大量数据中的模式供应了工具,并教会我们关于生物学习的知识。
海姆是我们当中在打算和物理学方面最为精通的,他建立了许多我们所有人都在利用的模型和打算机仿照的根本。
至于我,则是使这些与实验家相连接的人。
当然,实际上,我们所有人都根据须要灵巧利用这些方法。

大脑奖评比委员会主席理查德·莫里斯(Richard Morris)教授阐明了对付今年获奖者选择的考虑:“如果没有打算和理论神经科学的同步发展,当代脑科学的发展是不可想象的。
这三位科学家运用了来自物理学、数学和统计学新颖而繁芜的方法来研究大脑。
他们为解析当代实验神经科学家所网络到的繁芜数据集,开拓出了关键性的工具。
三位获奖者还提出了一些观点框架,用于理解大脑的一些最基本过程,如学习、影象、感知和大脑如何构建外部天下的舆图。
他们还为神经系统的几种毁坏性疾病,如癫痫、阿尔茨海默病和精神分裂症可能涌现的问题供应了至关主要的新见地。
此外,他们的科学造诣为类脑人工智能的发展铺平了道路,这是我们这个时期的新兴变革技能之一。

打算和理论神经科学研究什么?

人脑由大约1000亿个神经元组成,这些神经元通过数万亿个突触相连。
大脑实行的每项功能都依赖于这些极其繁芜的神经元网络中的信息流。
神经科学的一个基本目标是理解这些网络如何连接在一起,以及个中的神经活动模式如何产生认知和行为的。
大脑的极度繁芜,意味着我们须要理论和打算方法来辨析并理解其措辞。

“面对大脑这样的繁芜体系,拥有一个整体的理解框架变得尤为主要,哪怕这个框架只是一种近似或抽象的模型,也能帮助我们考试测验折衷许多必须相互浸染以使大脑正常运行的部分。
理论神经科学便是利用数学和统计描述,以及打算机仿照来实现这一点的。
这些方法帮助我们理解实验不雅观察和数据,否则这些数据可能看起来是不连贯的,乃至是抵牾的。
更主要的是,理论框架可以帮助提出问题和确定未来实验的方向。
”阿博特阐明道。

理论和打算神经科学利用数学、打算机科学、理论剖析和大脑的抽象来理解掌握其构造的事理,解码其如何处理信息,产生行为、感知、想象力、智力,以及形成知识、影象、办理问题、决策和措辞等认知能力。
该领域为人工智能的发展奠定了根本,并不断匆匆成当代科学中最具革命性的发展高歌年夜进。

大脑奖旨在表彰从根本神经科学到运用临床研究等大脑研究领域中具有高度原创性和影响力的进展。
大脑奖由丹麦Lundbeck基金会颁发,得到者不分国籍、不分区域,该奖项于2011岁首年月次颁发。
在丹麦都城哥本哈根举行的颁奖仪式上,丹麦国王弗雷德里克(Frederik)为大脑奖得到者颁奖。

以下是有关研究者的一些信息。

海姆·索姆波林斯基:揭示人工神经网络和大脑回路之间的惊人相似性

海姆·索姆波林斯基(Haim Sompolinsky)在以色列巴伊兰大学得到物理学博士学位。
目前,他在以色列希伯来大学担当物理学和神经科学教授(名誉教授),并在美国哈佛大学担当分子与细胞生物学及物理学教授(驻校教授)。

索姆波林斯基领导的实验室采取统计物理学方法,研究繁芜神经回路的呈现动力学和集体行为,以及其与关键大脑功能(包括学习、影象、感知和认知)的关系。
他的理论预测已经从果蝇和啮齿类动物的导航回路研究中得到了实验支持。

他的事情阐明了神经元愉快与抑制之间的动态平衡如何导致混沌而稳定的大脑活动模式。
这改变了人们对神经元活动变异性的起源、神经元动态稳定性的机制以及神经疾病中愉快-抑制平衡紊乱的影响的理解。
索姆波林斯基最主要的根本事情之一是建立和理论理解神经回路功能模型,包括长期影象和回顾的回路。

“大脑是一个内在动态的器官——这便是它令人着迷的地方,”索姆波林斯基说。
“想想就寝、梦境、漫想、或是在艺术或科学中的创造性行为、问题办理。
这个理论为我们供应了一个框架,用于观点化、量化和研究回路动态与大脑中这些类型功能之间的链接。

在过去的10年中,人工智能领域的飞速发展深深吸引了索姆波林斯基。
他当前的研究重点在于深度学习、措辞模型和人工神经网络环境中的推理模型。
他的目标是将这些模型调度为生物学上可行的,可利用它们测试关于大脑如何事情的新理论。

“在智能科学的历史上,我们首次拥有了与大脑的架构和运作有着强烈相似性的人工神经网络。
”索姆波林斯基说。
“其具有惊人的认知功能,在许多方面类似于人类的认知。
对我来说,这是一个游戏规则的改变者,这便是我正在事情的领域——在人工智能和神经科学之间的交界处。

近期,索姆波林斯基开拓了几何方法,为研究视觉和措辞中的信息处理供应了一种事理性的方法,这适用于人工神经网络和大脑回路。
这项事情揭示了两个别系之间令人惊异的相似性,并为自然和人工系统中智能的协同研究开辟了新路径。

“现在,他正在将他熟习的严谨的物理方法——以及他无尽的激情亲切——用于办理高等动物认知中的许多令人愉快的谜题,以及处理诸如ChatGPT这样令人惊叹的繁芜的AI模型。
”哈佛大脑科学中央的文卡特什·穆尔蒂(Venkatesh Murthy)说,“他的存在对哈佛的许多群体生了变革性的影响。

拉里·阿博特:用数学建模研究神经回路

拉里·阿博特(Larry Abbott)是一位物理学家出身的神经科学家,他利用数学建模来研究卖力觉得、行动和行为的神经回路。
阿博特在布兰代斯大学(Brandeis University)得到博士学位,在斯坦福线性加速器中央得到博士后,研究方向是理论粒子物理学。

阿博特最先在布兰迪斯大学任物理学教授,1989年时转着迷经科学研究,后于1993年加入生物系。
2005年,他转入哥伦比亚大学,目前是哥伦比亚大学祖克曼心智、大脑和行为研究所的威廉·布卢尔理论神经科学教授。

谈到为何从物理学转向神经科学,阿博特在接管采访时表示,“我在布兰迪斯大学的物理系事情,从事粒子物理学研究,探寻宇宙中最根本的物质身分。
出于好奇,我走进了伊夫·马德尔(Eve Marder)的实验室,她正成为神经科学领域的主要人物。
她实验室里的一位博士后有一个装置,用来记录龙虾神经回路的活动。
研究设备中有一个音频监视器,能将神经活动转换成振荡的点击声模式。
这些声音深深吸引了我,并改变了我的生活和我在科学领域的职业轨迹。
听到这些声音的那一刻,我意识到我必须超过学科的界线,从物理学转向神经科学,只管这一跳跃令人畏惧。
幸运的是,Eve通过教我神经科学的措辞来帮助我过渡。
我们的首次互助研究开拓了一个新工具,用于操纵单个大脑细胞的电属性。
这便是我入行的缘故原由。

阿博特的研究涉及神经元和神经网络的打算建模和数学剖析,剖析技能和打算机仿照被用于研究单个神经元如何对其浩瀚的突触输入作出反应,神经元如何相互浸染以产生功能性神经回路,以及大量神经元如何表示、存储和处理信息。
在2021年天桥脑科学研究院(TCCI)研讨会上,阿博特曾作《How brains add vectors》演讲。
当时他分享了自己对付依赖于尖峰韶光的突触可塑性形式、嗅觉中感官编码的转换,以及在大型神经网络中内部天生的活动动态和旗子暗记传播的兴趣。
他目前的事情包括基于连接体的果蝇神经回路建模。

“我对我们对自己在世界中位置的感知感到着迷。
想象一下,当你在一个房间里闭上眼睛,纵然你四处移动,你仍旧知道东西在哪里。
不知如何,我们将天下作为一个内部布局重修在脑中。
这是一件深刻的事情;我们是怎么做到的呢?结果表明,纵然是体积眇小的果蝇的大脑,也能构建出对天下的内部重现。
因此,我们正在利用果蝇来帮助识别任何动物,无论是果蝇还是人类,为理解它在世界中的位置所需进行的打算。
”阿博特说。

阿博特曾在2004年得到了美国国立卫生研究院院长先锋奖,于2010年得到了施瓦茨理论与打算神经科学奖,以及2013年得到第一届数学神经科学奖。

特伦斯·塞诺夫斯基:理解大脑的打算资源

特伦斯·塞诺夫斯基(Terrence Sejnowski)最初在普林斯顿大学得到物理学博士学位,然后进入普林斯顿大学和哈佛医学院担当博士后研究员。
1981年,他加入了约翰斯·霍普金斯大学。
1989年,他搬到了拉荷亚,目前是萨尔克生物研究所的弗朗西斯·克里克教授以及加州大学圣迭戈分校的精彩神经生物学教授。

从1991年到2017年,塞诺夫斯基还是霍华德·休斯医学研究所的研究员。
他是美国国家科学院、美国国家工程院、美国国家医学院、美国国家发明家学院以及美国艺术与科学学院的成员。

塞诺夫斯基著有《深度学习革命》,“在过去的十年中,深度学习已经彻底改变了人工智能……那么,这场革命从何而来?它是受到了大脑的大规模并行架构的启示。
第一次,人工智能和神经科学在讲同一种措辞。
这场革命一夜之间发生,但它花了几十年韶光才成熟。
我在1980年代神经信息处理系统会议刚开始的时候就在场。
我们聚拢了数学家、神经科学家、认知科学家,以及打算机视觉和语音识别领域的研究职员。
这些人在考试测验办理非常困难的问题,而他们领域中现有的工具和技能是不足的,比如语音识别。
这很难,由于这是一个非常高维的问题。
传统算法失落败了。
须要大量的数据才能取得进展。
而神经网络可能会有所帮助。

“现在,我们生活在一个时期,首次有了一个数学框架,它每天都在变得更善于处理天下的繁芜性。
自然界良久以前就在完成这个过程,进化出大脑帮助我们生存。
”塞诺夫斯基说。

塞诺夫斯基博士在神经网络和打算神经科学研究领域一贯是首创者。
他的研究目标是理解大脑的打算资源,并利用打算模型建立从大脑到行为的联系事理。
为了实现这一目标,他采取了从生物物理到系统级别的多个研究层面的理论和实验方法。

在赛诺夫斯基看来,人工智能和神经科学的发展是并行推进的。
目前在创新神经技能方面已经取得了巨大的进步,从一次记录一个神经元到同时记录成千上万个神经元,以及同时记录大脑的许多部分,彻底开启了一个全新的天下。

“我曾说,人工智能和人类智能之间正在发生一种领悟。
随着我们对大脑事情办法的理解越来越深入,这将反响在人工智能上。
但与此同时,他们实际上正在创建一整套的学习理论,这可以运用于理解大脑,并许可我们剖析成千上万个神经元及其活动是如何产生的。
因此,神经科学和人工智能之间的这种反馈循环我认为更加令人愉快和主要。
”赛诺夫斯基说。
他探索的核心问题包括突触强度如何被调节,树突如何在神经元中整合突触旗子暗记,神经元网络如何产生动态活动模式,感官信息如何在大脑皮层中被表示,影象表征如何在就寝中形成和巩固,以及如何折衷分布式觉得运动系统。

他的实验室开拓了用于盲源分离的独立分量剖析法(ICA),这种方法被普遍用于剖析头皮脑电图(EEG)和功能磁共振成像(fMRI)的大脑成像。
塞诺夫斯基在1980年代还是开拓神经网络学习算法的先驱,与杰弗里·辛顿(Geoffrey Hinton)一起发明了玻尔兹曼机——这是第一个多层神经网络的学习算法,为深度学习奠定了根本。
塞诺夫斯基是神经信息处理系统(NeurIPS)基金会主席,该基金会组织了规模最大的人工智能会议,他也是近年来领悟神经科学和人工智能的领衔人物之一。

“我们目前的许多人工智能都是基于我们在60年代对大脑的理解。
现在我们知道的远比那时候多,而且越来越多的这些知识正在被整合到架构中。
击败围棋冠军的程序AlphaGo,不仅包括了一个大脑皮层的模型,还包括了一个称为基底核的大脑部分的模型,这个部分对付制订一系列决策以实现目标非常主要。
有一个算法叫做时序差异,由理查德·萨顿(Richard Sutton)在80年代开拓,当其与深度学习结合时,它能够实行非常繁芜的策略,这因此前没有人见过的。
”塞诺夫斯基在一次采访中提到。

塞诺夫斯基表示,随着我们理解大脑的架构,以及我们开始理解如何将它们整合到人工系统中,这将供应远超我们现在的更多能力。

参考文献:

https://zuckermaninstitute.columbia.edu/scientist-columbia-s-zuckerman-institute-wins-prestigious-brain-prizehttps://lundbeckfonden.com/files/media/document/The%20Brain%20Prize%202024%20Information%20Pack.pdfhttps://www.theverge.com/2018/10/16/17985168/deep-learning-revolution-terrence-sejnowski-artificial-intelligence-technology