参考消息网10月10日报道 据法新社10月8日报道,两位科学家由于为聊天生成预训练转换器(ChatGPT)等广受欢迎工具所使用的人工智能(AI)奠定了基础,而在8日获得2024年诺贝尔物理学奖。
诺贝尔物理学委员会表示,被誉为“AI教父”的英国裔加拿大科学家杰弗里·欣顿和美国物理学家约翰·霍普菲尔德因“利用人工神经网络实现机器学习的发现和发明”获得该奖项。
这些发现和发明是什么,又有什么意义?以下是解释。
什么是神经网络和机器学习?
英国牛津大学机器学习专家马克·范德威尔克告诉法新社,人工神经网络是一种“在一定程度上受到”人脑结构启发的数学构造。
人类大脑拥有被称为神经元的细胞的网络,它们通过相互发送信号来响应外部刺激——比如眼睛看到的东西或耳朵听到的东西。
当我们学习事物时,神经元之间有些连接变强,有些连接变弱。
传统计算的工作原理更像是阅读菜谱,而人工神经网络则不同,它大致模仿了上述过程。
有时被称为“节点”的基础计算取代了生物神经元,训练数据则取代了刺激性输入。其理念是,这能让网络逐步学习——“机器学习”因此得名。
霍普菲尔德发现了什么?
但在机器能够学习之前,它还需要具备另一个人类特征:记忆。
你有没有遇到过想不起来的词?比如“鹅”。你可能会首先想到其他类似的词。
范德威尔克说:“如果给你一个模式,但它跟你想要记起来的内容不完全一样,你就需要填补两者之间的空白。这就是你想起特定事物的方式。”
这就是“霍普菲尔德网络”(也被称为“联想记忆”)背后的理念。这位物理学家在20世纪80年代初开发了这种网络。
这一贡献的意义在于,当一个人工神经网络接受存在少许错误的内容时,它可以循环遍历之前存储的模式,来找到最匹配的内容。
这是人工智能发展的重要一步。
欣顿发现了什么?
1985年,欣顿在AI领域做出了他的贡献(至少是其中一项贡献)——玻尔兹曼机。
这一概念以19世纪物理学家路德维希·玻尔兹曼命名,引入了随机性元素。
正是由于这种随机性,当前的AI图像生成器才能针对同一个提示生成无数种结果。
欣顿还证明,神经网络层数越多,“其行为越复杂”。
法国机器学习研究人员弗朗西斯·巴克告诉法新社,这让(神经网络)更容易“高效学习目标行为”。
它有什么用途?
尽管这些想法已经存在,但在20世纪90年代,许多科学家对这个领域失去了兴趣。
机器学习需要算力极强的计算机来处理大量信息。算法需要数百万张狗的图片作为训练数据,才能区分出狗和猫。
巴克说,因此直到本世纪10年代,才有一系列突破“彻底改变了与图像处理和自然语言处理相关的一切”。
从阅读医学影像到自动驾驶导航,从天气预报到深度伪造,如今AI的用途已经数不胜数。
它真的属于物理学吗?
欣顿已经获得过图灵奖,该奖项被视为计算机科学领域的诺贝尔奖。
但几位专家表示,他获得诺贝尔物理学奖是当之无愧的,因为他的工作为科学界开辟了通往AI的道路。
法国研究人员达米安·凯尔利奥指出,这些算法最初“受到物理学的启发,将能量的概念应用于计算领域”。
范德威尔克说,这是诺贝尔奖首次表彰物理学界以及获奖者对“AI方法论发展”的贡献。
虽然ChatGPT有时让AI看似具有真正的创造力,但人们需要认识到机器学习中的“机器”部分。
范德威尔克强调:“这不是魔法。归根结底,AI的一切都是乘法和加法。”(编译/熊文苑)