华侨网 科技教育 诺贝尔物理学奖得主欣顿:人工智能存在失控风险

诺贝尔物理学奖得主欣顿:人工智能存在失控风险

参考消息网10月16日报道 据西班牙《阿贝赛报》网站10月6日报道,20世纪70年代以来,出生于英国的杰弗里·欣顿一直研究生成式人工智能(AI)的核心:神经网络,即能以类似人脑的方式作出决策的算法。欣顿年轻时(如今他已经76岁),没人相信这种事情可能实现。2012年,欣顿和他的两名学生——出生于俄罗斯的伊利亚·苏茨克韦尔和出生于乌克兰的亚历克斯·克里热夫斯基创建了一个神经网络,它能分析成千上万张照片,并识别出狗和汽车等常见事物,其效率远超当时各种程序。谷歌钦佩他们的成就,收购了他们的公司。这家公司成为后来开发出更强大技术(包括聊天机器人,如ChatGPT和谷歌的“巴德”)的基础。苏茨克韦尔后来成为开放人工智能研究中心(OpenAI)的联合创始人兼首席科学家。去年,欣顿出人意料地辞去硅谷的工作(这令科学界大吃一惊),以警告我们正创造一种威胁人类的怪物。

欣顿堪称天才中的天才。他出身学术天才世家。

记者:去年完成转身之前,您一直是AI领域的名人。您为什么要辞职?

欣顿:我顿悟了。75岁时放弃研究,因为我的编程能力已经不够好了。也因为我看到生成式AI的极端风险。尤其是它的发展速度太快。有了ChatGPT这样的聊天机器人,我们已处于我原先认为50年后才能达到的阶段。无论是谷歌还是微软,没有哪家公司会踩下刹车,尽管这项技术难以控制。

记者:您还记得您意识到“将会出现问题”的那一刻吗?

欣顿:这些新的聊天机器人出现后,我意识到人类面临迫在眉睫的威胁。它们会导致数以百万计的人失业;大量虚假视频可能会破坏选举;它们还将带来更具破坏性的网络攻击;或开发出非常危险的生物战病毒。

记者:但他们说AI将解决人类几乎所有问题:从交通到气候变化。

欣顿:我们必须明白,现代AI是比我们的智能强大得多的智能形式。它在很多方面已远远优于我们。

有了ChatGPT,就好像外星人登陆地球,而且它们的英语说得非常好。如果我们遇到这样的外星人,一定会非常害怕……

所有尖端的AI技术都不应向所有人开放源代码。元宇宙平台公司的首席AI科学家扬·莱坎(中文名杨立昆)的主张恰恰相反:应该分享AI技术的所有秘密。

通往超级智能的道路不可阻挡,因为考虑到其惊人的军事应用潜力,各国绝不愿意限制其发展。既然不太可能达成一项全球协议阻止它的发展,于是我们的专家建议,至少要防止它无节制生长。

记者:大型科技公司辩称:“无需担心,总会有人类负责‘掌舵’。”

欣顿:显然,没有任何人掌什么舵。这些公司的意思是,将来会有一些将军说:“是的,好吧,杀人是可以的。”事实上,企业并不能保证有人类负责“掌舵”。

欣顿:有很多理由相信AI会失控。我给你两个理由。第一个:为让AI更有效率,开发人员会在某些时候让它自由定义自己的部分目标,以实现人类设定的最终目标。

例如,如果你想从美国到欧洲旅行,你需要先到一个机场。到达机场就是通往目标途中的部分目标。现在,如果你给AI机会创建它自己的部分目标,它很快就会发现,获得更多的控制权应该是其中之一,因为这几乎可以帮助它完成所有事情。

记者:让您认为AI将变得不可控的第二个原因是什么?

欣顿:第二个原因是,我们将拥有的不是一个超级智能,而是许多个。

记者:这是坏事吗?它们也可以相互制约,就像国家的三权分立,不是吗?

欣顿:想象一下,我们会有一个谷歌的AI、一个微软的AI以及几个亚洲国家的AI。在某个时刻,这些AI中的某一个感受到一点小暗示:它应该有更多的副本……而其他AI的副本则应该更少。那么它会怎么做呢?它会尽可能多地接管AI数据中心,学习更多知识,不断成长,变得更加强大。

并不总是会有人类负责“掌舵”。企业无法保证这一点。AI会发现,为了实现人类给它们设定的目标,最好是由它们来接管一切,而把我们排除在外。

记者:认为AI有自己的需求是不是很疯狂?这些机器只会实现人们为它们设定的目标,不是这样吗?

欣顿:你真的这么想吗?我们应该明确如何定义“需求”。如果你问谷歌的国际象棋AI“阿尔法零”,它是否想击败对手,答案将是:“当然想!”

记者:但这不是需求。这是人类在代码中设定的目标。不是吗?

欣顿:我认为目标和需求归根结底是一回事:AI有一个当前状态和一个它想要实现的状态。为此,它必须克服障碍。我愿称之为一种“需求”。

记者:但AI不会在某天早上醒来时决定“今天我要统治世界”。

欣顿:假设我是为微软工作的超级智能。我很有可能已经知道(或者很快就会发现)我的竞争对手是谷歌和它的超级智能。而且我知道,有了更多的数据和数据中心,我就能学到更多的东西,这样我就会变得更高效、更强大。而且,因为这正是我的程序员们想让我去实现的,他们会通过复制越来越多的我来奖励我。所以我要开始朝这个方向努力。

记者:这听起来像黑暗科幻小说。

欣顿:最终,超级智能将具有我们在黑猩猩群体的争斗中发现的所有特征:对自己的群体非常忠诚,与其他群体激烈竞争。它们可能还喜欢有强大的领导者。

记者:微软公司AI业务首席执行官穆斯塔法·苏莱曼等人看到了另一条红线。苏莱曼说,通过开发AI,我们不是在开发一种工具,而更像是在开发一种具有人类所有优点和缺点的新物种。一旦我们允许AI自我编程,它就会变得危险。

欣顿:完全有可能。这最终将意味着人类灭绝。

记者:还要多久才会出现这种高度类似人类的AI?

欣顿:我们还没有达到那个程度。但进展速度非常快。可能会在5年到20年内实现。我从没想过能在有生之年看到它。但我之前就低估了AI的发展速度。

欣顿曾在多伦多汤森路透金融与风险峰会上发表讲话(路透社资料图片)

免责声明:本文仅代表作者个人观点,与华侨网无关联。其原创性及文中陈诉内容未经本网证实,对本文内容、文字的完整、真实性,以及时效性本网部作任何承诺,请读者自行核实相关内容。如发现稿件侵权,或作者无意愿在华侨网发布文章,请版权拥有者通知华侨网处理。

人工智能“接管诺奖”引发科学界激辩


联系我们

联系我们

514-3979969

邮箱: cpress@chinesepress.com

工作时间:周一至周五 10:00-16:00,节假日休息
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部