Kellogg Insight - 如何做好准备面对AI生成的不实信息?
Skip to content
Insight Unpacked Season 2, "American Healthcare and Its Web of Misaligned Incentives" | Listen Now
Organizations Policy 7月 1, 2023

如何做好准备面对AI生成的不实信息?

我们必须小心,不要被科幻问题分散注意力,而要专注于最迫切的具体风险。”

woman holding globe and flat earth

Lisa Röper

Based on insights from

William Brady

人工智能(简称“AI”)系统的爆炸式增长为用户提供了一系列惊人的任务解决方案。由于大型语言模型(LLM)生成式AI工具的蓬勃发展,例如ChatGPT-4Bard等等,如今创建文本、图像和视频变得更加容易,与人类创作的作品往往无法区分。

因为这些模型校准用于创建原创内容,因此生成不正确的产品无可避免,甚至是预期会发生的,这种情况已被充分记载。因此,这些工具也使得在网上捏造与散播不实信息变得容易很多。

这些技术的进展速度让一些有识之士感到相当紧张。在最近的一封公开信里,包括伊隆·马斯克和史蒂夫·沃兹尼亚克在内的技术大师们纷纷出面呼吁暂停研发AI六个月,他们问:“我们是否应该任由机器使用宣传和谎言淹没我们的信息渠道?”

无论这些AI系统的进展速度如何,我们都将必须习惯于数量庞大的不实信息,研究网上社交互动的凯洛格学院管理与组织学教授威廉·布莱迪这么说。

“我们必须要小心,不要被科幻问题分散注意力,而要专注于最迫切的具体风险,”布莱迪说道。

在下文中,布莱迪破解了关于AI生成的不实信息的常见恐惧,并且澄清我们如何能够学习与其共存。

不实信息比虚假信息问题更大

布莱迪很快对不实信息和虚假信息进行区分。不实信息是误导或不是事实的内容,虚假信息则是用来欺骗受众的策略性创建和采用的信息。

知道两者的不同之处是评估风险的第一步,布莱迪说道。他指出,大部分时候,当人们担心生成式AI的潜在伤害时,他们害怕它会导致虚假信息暴增

“LLM的一种明显用途是它比以往任何时候都更容易创造虚假信息和深度伪造等事物。”布莱迪说道。“这个问题也许会随着LLM的进展变得更严重,但它事实上仅仅是一个更普遍性问题中的一部分。”

虽然深度伪造因为意图误导而会有问题,但它们在所有网络内容中的整体渗透率很低。

“毫无疑问,生成式AI将成为虚假政治信息的主要来源之一。”他说道。“它是否真的具有巨大影响力则有待观察。”

布莱迪表示,持续存在不实信息,比容易制造不实信息更可能出现问题。LLM通过扫描数十亿份文件进行模式识别训练,因此它们可以展现权威但在偏离基准时却缺乏辨识能力。当人们受AI制造的小错误导却又把它们当做来自专家的信息那样信任时就会出现问题。

“LLM学习如何表现出信心十足,但不一定准确。”布莱迪说道。

这是否意味着我们对生成式AI用得越多,不实信息将呈指数级增长?布莱迪说我们无法确定。他指出根据这项研究,社交媒体平台上的不实信息数量很少,有些人估计仅仅占整体信息生态系统的百分之一至百分之二。

他说:“ChatGPT因为增加不实信息供应量而突然使不实信息问题变大,这种想法没有实证。心理因素导致不实信息的传播,这个问题比供应量的问题更大。”

我们也是不实信息背后的问题

布莱迪认为,或许不实信息带来的最大挑战不仅仅来自于毫无节制的技术进展,人们相信机器的心理倾向也难辞其咎。布莱迪说,我们不倾向删减AI生成的内容,因为这么做很劳心费力。换句话说,如果我们不花时间和精力去严格审视在互联网上读到的信息,我们就会更容易使自己去相信不实信息。

“人们有一种‘自动化偏见’,这种偏见使我们认定由电脑模型生成的信息比人类创造的信息更正确。”布莱迪说道。结果是,人们通常不太怀疑AI创造的内容。

当人们相信不实信息,并且不去质疑其真实性就进行分享,不实信息就传播出去了。布莱迪说,人们需要更加留意,了解自己通过哪些方式在不知不觉中促成不实信息的创造与传播。布莱迪将此称为一个“污染问题”。

布莱迪说道:“不实信息的问题往往出在消费者这一边,与人们在社交上如何分享与做出结论息息相关,与自己制造出的信息相关较小。人们相信自己读到的东西,并在分享时添油加醋。事实上,他们已经被误导,而且在放大夸张。”

接受教育

布莱迪说,在现实中,我们不能等待监管机构的监督或公司的控制来遏止不实信息,他们对内容如何创建与分发的影响力微不足道。鉴于AI的增长势不可挡,我们需要学习如何更加认识到可能在何时与何地遇到不实信息。

在理想的世界中,公司会扮演一个重要的角色。

“公司必须根据自己推出的产品做出负责的介入行动。”他说道。“如果内容被标记为有问题,至少人们可以决定它可不可信。”

布莱迪希望看到类似做法应用在不实信息和生成式AI上。他赞成网络平台通过标注生成式AI内容来帮助用户检测不实信息。但他知道等待技术公司推出有效的控制方法是不合理的期待。

“公司不总是因为做出所有应该做的事而获得奖励,而且那样做也不会改变我们目前的情况。但我们其实也可以把这个权力赋予个人。”他说道。

培养用户对不实信息最可能出现的情境的察觉能力,或许可以降低不实信息散播的可能性。

既然年纪较大的成年人最可能成为不实信息的受害者,向那些互联网精通程度不及Z世代的成年人提供如数字扫盲培训视频或游戏化网站等基础教育,对压制网络不实信息可能很有助益。这些努力可以包括设计各种活动唤起大众注意力,让人们察觉算法在过度推广特定类型的内容(包括极端的政治内容)中扮演的角色。

“这是关于教育人们了解有关自己最容易受到不实信息影响的背景情况。”

Featured Faculty

Assistant Professor of Management and Organizations

About the Writer

Susan Margolin is a writer based in Boston.

Add Insight to your inbox.
This website uses cookies and similar technologies to analyze and optimize site usage. By continuing to use our websites, you consent to this. For more information, please read our Privacy Statement.
More in Organizations