华侨网 科技教育 美媒:人工智能带来12大危险

美媒:人工智能带来12大危险

参考消息网10月16日报道 美国《福布斯》杂志网站10月9日刊登题为《人工智能的12大危险》的文章,作者是乔纳森·瓦伊,内容编译如下:

人工智能(AI)专家加里·马库斯最近分享了他认为的人工智能的最大危险。他表示:“我列出了硅谷人工智能的12个直接危险清单;我最担心的就是自动生成的虚假信息和深度伪造内容可能影响选举。”

1.故意自动大规模制造政治虚假信息。马库斯说:“生成式人工智能系统就是虚假信息的机枪(或核武器),让虚假信息更快、更廉价、更完美。2016年选举期间,每月被花费在制造虚假内容的‘人力巨魔农场’(网络水军)上的开支达125万美元,虚假内容主要是为了在美国制造意见分歧,挑起冲突。”

2.操纵市场。马库斯说,“恶劣的参与者并不仅限于试图影响选举,他们还试图影响市场。我在2023年5月18日就这种可能性提醒过国会;4天后,它就成了事实:一张据称发生爆炸的五角大楼的假图片在互联网上迅速传播”,导致股市短暂下跌。

3.意外错误信息。马库斯指出:“即使不是为了故意欺骗,大语言模型也可能自发地生成(意外)错误信息。令人担忧的一个庞大领域就是医疗咨询领域。斯坦福大学以人为本人工智能研究所开展的一项研究显示:大语言模型对医疗问题的回答变化很大,往往不准确。”

4.诽谤。马库斯指出:“错误信息的一个特别例子就是损害名誉的错误信息,不论是偶然还是故意。在一起令人发指的案例中,聊天生成预训练转换器(ChatGPT)宣称一名法律学教授在阿拉斯加州的一次户外教学期间参与了一起性骚扰学生的案件,它特别提到了《华盛顿邮报》一篇据称记录了这一事件的文章。”

5.非自愿深度伪造。马库斯解释道:“深度伪造正日益成为现实,使用量正在增加。2023年10月(可能更早一些),一些高中生开始使用人工智能制作同学非自愿虚假裸照。”

6.加速犯罪。马库斯提出,生成式人工智能已经被用于假冒身份进行诈骗和鱼叉式网络钓鱼攻击。“迄今最严重的假冒身份诈骗似乎围绕语音克隆。比如,骗子会克隆一名儿童的声音,然后用克隆的声音打电话,声称这个孩子被绑架了,要求父母用比特币汇钱。”

7.网络安全与生物武器。马库斯解释道:“通过自动扫描数以百万行的代码——迄今只能由人类专家来完成,生成式人工智能可能被用于非法入侵网站,从而发现软件和电话的‘零时差’攻击漏洞。”

8.偏见与歧视。“多年来,偏见一直是人工智能存在的一个问题。在拉塔尼娅·斯威尼2013年记录的一个早期案例中,非洲裔美国人姓名的谷歌搜索,其结果截然不同于其他姓名,比如研究犯罪前科的广告。”

9.隐私和数据泄露。马库斯提到了肖莎娜·朱博夫的《监视资本主义时代》一书。她在书中提出,公司在监视我们所有人,且监视资本主义“宣称人类经验是可以转化为行为数据的免费原材料,而行为数据被宣布为专有行为盈余,输入人工智能模型,制作成预测产品,预测你现在、马上和之后会做什么”。马库斯补充说:“然后再卖给希望控制你的任何人。”

10.知识产权未经同意被擅自使用。马库斯指出,人工智能“照搬的(很多内容)都是受版权保护的材料,未经创作者同意就擅自使用。整个过程被称作大数据盗窃——堪称对知识产权的一种土地掠夺行为,(如果政府不采取干预或公民不采取行动加以制止)那将导致财富从我们所有人手中大量转移到少数公司手中”。

11.过度依赖不可靠的系统。马库斯解释道:“在安全问题至关重要的应用领域,任由大语言模型全面掌控世界是一件即将发生的严重错误,尤其是考虑到我们已经发现的各种问题:幻觉、前后不一致的推理和不可靠性。比如,设想一下,一套无人驾驶汽车系统使用大语言模型并产生另一辆车的位置幻觉;或者,一套自动武器系统产生敌人阵地的幻觉;或者,更糟糕的是,大语言模型发射核武器。”

12.环境成本。训练大语言模型需要大量能源,对环境造成不利影响。马库斯解释道:“生成一张简单图像所需耗费的能量大致可以给一部手机充满电。由于生成式人工智能每天可能被无数次使用,能耗加起来就会很高。”

9月12日,在美国亚利桑那州举行的集会上,一名与会者手举用AI生成的前总统特朗普的照片。(法新社)

免责声明:本文仅代表作者个人观点,与华侨网无关联。其原创性及文中陈诉内容未经本网证实,对本文内容、文字的完整、真实性,以及时效性本网部作任何承诺,请读者自行核实相关内容。如发现稿件侵权,或作者无意愿在华侨网发布文章,请版权拥有者通知华侨网处理。

“欧罗巴快帆船”启程探索木卫二

英媒:生成式AI正改变硅谷游戏规则


联系我们

联系我们

514-3979969

邮箱: cpress@chinesepress.com

工作时间:周一至周五 10:00-16:00,节假日休息
关注微信
微信扫一扫关注我们

微信扫一扫关注我们

关注微博
返回顶部