参考消息网10月30日报道 据美国趣味科学网站9月20日报道,强人工智能(AGI)是人工智能(AI)研究的一个领域。在这一领域,科学家们正在努力创建一个总体上比人类聪明的计算机系统。这些假设的系统可能具有一定程度的自我认识和自我控制能力——包括自己编辑代码——并且无需接受训练就能像人类那样学习解决问题。
这个术语最早出现在《强人工智能》(施普林格出版社,2007年)一书中,这是由计算机科学家本·戈策尔和人工智能研究员卡西奥·彭纳钦编纂的一套文集。不过,这个概念在人工智能的历史上已经存在了几十年,并出现在许多热门的科幻小说和电影中。
目前使用的人工智能服务——包括脸书网站使用的基本机器学习算法,甚至像ChatGPT这样的大型语言模型(LLM)——都被认为是“弱”人工智能。这意味着它们可以比人类更好地执行至少一项任务,如图像识别,但它们只能执行以训练它们的数据为基础的特定类型的任务或一组操作。而所谓的“强”人工智能将超越其训练数据的限制,在生活和知识的各个领域展示人类水平的能力,并具有与人类相同的推理和语境化水平。
但由于人类还从未创造出AGI,科学家们关于它对人类可能意味着什么、哪些风险比其他风险更有可能出现以及可能产生的社会影响没有达成共识。一些人此前曾猜测AGI永远不会实现,但许多科学家和技术专家——包括计算机科学家雷·库茨韦尔以及马克·扎克伯格、萨姆·奥尔特曼和埃隆·马斯克等硅谷高管——倾向于认为,AGI可以在未来几年内实现。
力量倍增器
人工智能已经在各个领域展示了一系列好处,从协助科学研究到节省人们的时间。例如,内容生成工具等较新的系统可以根据用户的对话模式为营销活动生成美术作品或起草电子邮件。但这些工具只能执行经过训练的特定任务——基于开发人员向它们输入的数据。而AGI可能为人类带来另一些好处,尤其是在需要解决问题的领域。
开放人工智能研究中心(OpenAI)首席执行官奥尔特曼在ChatGPT上线三个月后发表的一篇博文中写道,假设的情况是,AGI可以帮助增加资源的丰富性,加速全球经济发展,并在发现新的科学知识、从而改变可能的极限方面提供帮助。奥尔特曼还说:“AGI有可能给每个人带来令人难以置信的新能力;我们可以想象这样一个世界:我们所有人在几乎任何认知任务中都有机会获得帮助,从而为人类的聪明才智和创造力提供巨大的力量倍增器。”
灾难性后果
然而,马斯克在2023年说,AGI构成很多生存风险——从“错位”,即系统的潜在目标可能与控制它的人类的目标不匹配,到未来系统消灭全人类的“非零可能性”。2021年8月发表在《实验与理论人工智能杂志》上的一篇评论概述了未来AGI系统的几个可能风险,尽管它可能带给“人类巨大利益”。
这篇评论的作者写道:“本评论确定了与AGI相关的一系列风险,包括AGI脱离人类所有者或管理者的控制,被赋予或设定不安全的目标,开发不安全的AGI,AGI的伦理、道德和价值观不佳,对AGI管理不足和构成生存风险。”
作者还假定,未来的技术可能“有能力通过创造更智能的自身版本以及改变其预先设定的目标,实现递归式的自我改进”。研究人员写道,还有一种可能性是,人类群组创造AGI进行恶意使用,或者善意的AGI带来“灾难性意外后果”。
不可逆时刻
对于人类能否真的创造一个强大到足以成为AGI的系统,存在着不同的观点,更不用说何时可以创造这样一个系统了。
对在人工智能科学家中进行的几次大型调查结果进行的评估显示,普遍的共识是,AGI可能在本世纪末之前实现——但随着时间的推移,看法也发生了变化。在21世纪第二个十年,人们普遍认为AGI大约还需要50年才能实现。但最近,这一估计被大幅削减至5至20年之间。
最近几个月,一些专家提出,AGI系统将在这个十年的某个时候实现。这就是库茨韦尔在他的《奇点越来越近》(企鹅出版社,2024年)一书中提出的时间线——我们实现AGI的那一刻代表着技术奇点。
这一刻将是一个不可逆的时刻,之后的技术增长将变得无法控制和不可逆转。库茨韦尔预计,AGI的里程碑将是在本世纪30年代出现一种超级智能,然后在2045年,人们将能够将自己的大脑直接与人工智能连接起来,这将扩展人类的智能和意识。
科学界的其他人认为,AGI可能很快就会实现。例如,戈策尔提出,我们可能会在2027年前到达奇点,而“深层思维”公司的联合创始人沙恩·莱格说,他预计AGI会到2028年实现。马斯克也提出,到2025年底,人工智能将比最聪明的人类更聪明。(编译/王海昉)
开放人工智能研究中心的标志(美联社)