参考消息网11月9日报道 据澳大利亚“对话”网站11月6日发表英国利兹大学政策影响学教授玛格达·奥斯曼的文章《精准的AI假新闻检测系统离我们还有多远?》,内容如下:
为对抗社交媒体和新闻网站上虚假内容造成的危害,数据科学家们正变得越来越有创意。
用于创建聊天机器人(如ChatGPT)的大型语言模型虽然仍处于训练阶段,但已被用于识别假新闻。人工智能(AI)假新闻检测系统具有更好的识别能力,或许能够对深度伪造、鼓吹造势、阴谋论和虚假信息带来的严重危害进行示警,并最终消弭这种危害。
下一阶段的AI工具将对假消息识别功能提供个性化定制,并保护我们免受其害。为让AI实现这种以用户为中心的终极飞跃,数据科学需要求助于行为科学和神经科学。
最近的研究表明,我们可能并非总是有意识地察觉自己遇到了假新闻。神经科学有助于揭示在无意识的情况下所发生的一切。生物标志物(如心率、眼球运动和大脑活动)在面对虚假和真实的内容时,其反应似乎存在微妙差异。换句话说,这些生物标志物可能提供“信号”,显示我们是否上当了。
例如,当人们注视画面中的人脸时,眼球追踪数据显示,我们会注意对方眨眼的频率和血流引起的肤色变化。如果这些地方看起来不自然,就会促使我们断定自己在看一个“深伪”画面。这些知识会给AI带来优势——我们可以训练它模仿人类,在众多信息中寻找判断依据。
利用这些在人眼运动数据和脑电活动方面的发现,AI假新闻检测系统可以进行个性化定制。这些发现显示了何种类型的虚假内容对神经、心理和情感的影响最大,以及对哪类人群的影响最大。
通过了解我们的特定兴趣、个性和情绪反应,AI事实核查系统可以识别并预测哪些内容会引发我们最强烈的反应。这可能有助于了解人们何时会上当受骗,以及哪类素材最容易让人信以为真。
接下来要做的是量身定制保护措施。要保护人们免受假新闻之害,还需要建立干预系统——某种针对假新闻的数字反制措施。有些方法可以做到这一点,比如贴警告标签,附上专家认证的可信内容链接,甚至在人们阅读某项内容时建议他们考虑不同的观点。
个性化的AI假新闻检测器可以被设计成向每个人提供其中一种反制措施,以抵消网络虚假内容的危害。
这种技术已经在测试中。美国专业人员研究了人们与社交平台的个性化AI假新闻检测系统的互动。AI系统学会了减少某一类新闻推送的帖子数量,只保留它认为真实的帖子。作为概念验证,另一项使用社交媒体帖子的研究为每条媒体帖文定制了额外的新闻内容,以鼓励用户阅读不同的观点。
专业测谎系统的好坏取决于它们准确识别出谎言(命中)、将谎言误判为真话(失误),以及将真话指责为谎言(假警报)的频率。同样的逻辑也适用于假新闻检测。
对于检测假新闻的AI系统来说,要做到超级准确,命中率必须非常高(比如90%),因此失误率必须非常低(比如10%),同时假警报率也需要保持在低位(比如10%),不会把真新闻误判为假新闻。
正如最近一项调查所显示的,在某些情况下,新闻内容并非完全虚假或真实,而是部分准确。这可以想见,因为新闻周期的速度意味着,一度被认为是准确的新闻可能出现反转,反之亦然。因此,假新闻检测系统有大量工作要做。(编译/朱丽)
11月6日,一名新闻学院的学生在巴黎街头手持写着“你今天遇到了多少假新闻”的标语牌。(法新社)