新闻动态
您当前的位置:云南网 >> 教育频道 >> 新闻动态 >> 正文
推动机器学习技术“爆炸式”发展——2024年诺贝尔物理学奖授予两位“人工智能先驱”
发布时间:2024年10月09日 05:20:17  来源: 科技日报

原标题:推动机器学习技术“爆炸式”发展——2024年诺贝尔物理学奖授予两位“人工智能先驱”

美国科学家约翰·霍普菲尔德(左)和英裔加拿大科学家杰弗里·辛顿(右),因通过人工神经网络实现机器学习而作出的基础性发现和发明获得2024年诺贝尔物理学奖。 诺贝尔奖官网

◎本报记者 张佳欣

还记得那个横空出世即一路“狂飙”的ChatGPT吗?从2023年起,人工智能(AI)“百模大战”从硝烟燃起到全面打响,让人应接不暇。而AI模型背后的关键技术,正是机器学习。

10月8日,瑞典皇家科学院宣布,将2024年诺贝尔物理学奖授予美国科学家约翰·霍普菲尔德和英裔加拿大科学家杰弗里·辛顿,以表彰他们通过人工神经网络实现机器学习而作出的基础性发现和发明。

诺贝尔奖委员会称:“尽管计算机无法思考,但现在,机器已经可以模仿人的记忆并具备学习等功能。今年的物理学奖得主为实现这一目标作出了贡献。”

灵感源自人脑结构

当我们谈论AI时,通常指的是使用人工神经网络进行的机器学习。如今,AI正在彻底改变科学、工程和日常生活。

事实上,这项技术最初的开发灵感源自人脑结构。在人工神经网络中,大脑的神经元由具有不同值的节点表示。这些节点通过类似于突触的连接相互影响,这些连接可以变强或变弱。例如,通过在同时具有高数值的节点之间建立更强连接,可以对人工神经网络进行训练。

机器学习长期以来一直是科学家们研究的重要内容,其中包括对大量数据的分类和分析。霍普菲尔德和辛顿利用物理学工具构建了新方法,为当今强大的机器学习奠定了基础。他们的研究起始阶段可回溯至20世纪80年代,早在那时,他们就在人工神经网络方面开展了重要工作。

利用物理学训练人工神经网络

霍普菲尔德发明了一种联想记忆网络,它能够存储和重建图像以及其他类型的数据模式。

如何理解呢?我们可以将节点想象成像素。“霍普菲尔德网络”利用了物理学中描述物质特性的原理。根据该原理,材料因原子自旋而具有独特特性,这种特性使每个原子成为一个小型磁铁。整个网络的描述方式相当于物理学中自旋系统的能量,它通过寻找节点之间连接的值来进行训练,从而使得保存的图像具有较低的能量。

当输入扭曲或不完整的图像时,“霍普菲尔德网络”会系统地遍历节点并更新它们的值,从而降低网络的能量。因此,网络能够逐步找到与输入图像最相似的已保存图像。

辛顿的研究建立在“霍普菲尔德网络”基础之上,他构建了一种使用不同方法的新网络,即玻尔兹曼机。它能够学习识别给定类型数据中的特征元素。在研究中,辛顿运用统计物理学原理,通过输入机器运行时可能出现的示例对其进行训练。玻尔兹曼机可用于对图像进行分类,或创建训练模式类型的新示例。辛顿在此基础上进行了拓展,推动了当前机器学习的爆炸式发展。

智能驱动科研或成新范式

“获奖者的工作已经产生了巨大效益。在物理学中,人工神经网络广泛应用于各个领域,例如开发具有特定属性的新材料。”诺贝尔奖物理学委员会主席埃伦·穆恩斯说。

天津大学自然语言处理实验室负责人熊德意教授告诉科技日报记者,诺贝尔物理学奖颁给两位“AI先驱”,除了表彰他们在将物理学与人工神经网络深度结合方面所作的贡献之外,可能还有两层隐含意义,一是物理规律不仅存在于自然界中,在数字世界(计算机模型、模型创建的虚拟世界)中也可能发挥着制约作用。二是AI与物理学等基础科学存在千丝万缕的联系,基础科学不仅为AI筑起了基座,同时其发现和理论也对AI研究提供了启发和灵感。

与此同时,熊德意认为,随着AI纵深发展,其对基础科学的反哺作用越来越明显,智能驱动的科研极有可能成为科研第五范式;AI带来的自动化基础科研,未来可能推动基础研究实现跨域式发展。

)(张佳欣)

责任编辑:小云
关注云南发布
关注云南网微信
关注云南网微博
新闻爆料热线:0871-64160447 64156165 投稿邮箱:ynwbjzx@163.com
云南网简介 |  服务合作 |  广告报价 |  联系方式 |  中央厨房 |  网站声明
滇ICP备08000875号 互联网新闻信息服务许可证编号:53120170002 信息网络传播视听节目许可证号:2511600
互联网出版许可证:新出网证(滇)字 04号
广播电视节目制作经营许可证号:(云)字第00093号
增值电信业务经营许可证编号:滇B2-20090008 ® yunnan.cn All Rights Reserved since 2003.08
未经云南网书面特别授权,请勿转载或建立镜像,违者依法必究
24小时网站违法和不良信息举报电话:0871-64166935;举报邮箱: jubao@yunnan.cn