Kellogg Insight - 对生成式人工智能的重大利弊权衡
Skip to content
Social Impact 11月 1, 2023

对生成式人工智能的重大利弊权衡

像 ChapGPT 这样的工具可以提高个人层面的效率,但也可能带来重大社会问题。

Machine taking ideas and standardizing them into blocks

Riley Mann

Based on the research of

Francisco Castro

Jian Gao

Sébastien Martin

如果你已经开始在工作流程中加入生成式人工智能工具如 ChatGPT,你可能已经注意到一个相当惊人的情况:虽然人工智能可以帮助你更有效率地写作或编码或画图,但它也需要花费许多功夫才能将作品调整成类似于由你自己创作的东西。

因此,对于生成式人工智能,用户面临着一个基本的利弊权衡。为了最大限度地提高其效率优势,你需要牺牲一些对作品的“保真度”,也就是生成式人工智能在维持你独特风格或观点上的忠实或准确度。

“如果重点在于加快工作速度以及提高生产力,那么为了提高速度你可能就必须在某个地方放弃某些东西。”凯洛格学院管理经济学和决策学助理教授塞巴斯提恩·马丁说道。

对个人来说,这种利弊取舍虽然痛苦,但至少直截了当。你可以将人工智能生成的作品视为“足够好”而接受它,或是投入更多时间将作品个性化,例如通过事前提供更多信息、调整提示或事后对作品进行编辑。对于具有独特风格或观点的个人,他们甚至可能认为对人工智能作品进行个性化是弊大于利的麻烦事,因此干脆弃之不用。

然而,当每一个人都开始使用这些工具会是什么情况呢?速度与保真度之间的利弊取舍是否会对社会具有更广泛的短期与长期影响

马丁在一项与加州大学洛杉矶分校同事弗朗西斯科·卡斯特罗和高剑(译音)共同进行的新研究中发现,使用人工智能创建内容会增加我们集体产出作品的同质性,即使我们试图将作品进行个性化也不会改变。此外,这些内容还会继承人工智能在训练过程中可能学到的任何偏见。换句话说,少数人工智能公司工作者的品味与偏见可能最终会渗透到整个社会之中。研究还发现,这些效应的负面影响会随着人工智能生成的作品用来训练下一代人工智能而加剧。

然而,从更积极的角度来看,该研究表明,创建鼓励用户提供信息以及促进手动编辑的人工智能工具可以预防出现这些结果的最糟糕的情况。

机遇与风险并存

马丁非常熟悉生成式人工智能具有的速度与保真度之间的利弊权衡。毕竟他的母语是法语,他经常得依赖语法检查软件 Grammarly 来提高他的书面英语。他说:“我节省了大量时间!”

尽管如此,马丁也承认使用这个工具无可避免地会影响他写的文章。这倒不是什么严重的问题,最多就是个人惯用的标点符号、遣词用字和句子结构受到影响。“Grammarly 写出来的东西不会和我自己写的东西一模一样。”他说道。“同样的事物可以用不同的方式写出,有时仅仅是风格不同而已。”

但其他时候,差异具有较大的意义。无论我们将一个事件描述为“抗议”或“骚乱”,或是从中间偏右或中间偏左的观点撰写一则新闻,都会有意义地塑造读者对事件的印象。更广泛地说,随着时间的推移,当每个人的集体品味都受到相同算法的影响时,会出现什么样得情况?

为了找到答案,马丁、卡斯特罗和高简建立了一个数学模型来模拟整个社会使用相同人工智能工具的结果。

在他们的模型中,具有各种不同偏好的用户使用人工智能执行相同的任务,并且可以选择依照自己的喜好将作品进行个性化。这些个性化是通过交换关于每一个用户的偏好信息来实现的。用户根据自己的情况决定要花费多少精力:提供更多信息意味着人工智能将能更好地展现独特偏好,但这也需要更多的工作。提供较少的信息会更快更容易,但会产生更加一般化的结果,没有特殊性。如果用户提供的信息有限,那么即使是最好的人工智能也无法猜出用户的真正偏好,但它可以在训练过程中通过学习整个群体各式各样的偏好来做出有根据的猜测。

研究人员想知道,个人用户会如何决定这些工具的使用,以及他们的选择总体而言意味着什么?

受到算法启发

该模型证实,对于具有最常见或中间偏好的用户来说,最佳的决定是按原样接受人工智能产出的作品;但是,具有不太常见偏好的用户则会被激励向人工智能提供额外信息或编辑人工智能作品以使其与默认作品不同。而对于具有边缘偏好的用户来说,人工智能根本不会节省时间,这类用户最好自己创建内容。

该模型也发现,人工智能生成内容的同质性总是高于用户生成内容,这个结论在个人层面是正确的,在此层面人工智能的益处来自于将我们自己的一些折衷偏好来代替更流行的偏好。该结论在群体层面也同样正确。人工智能生成内容呈现的偏好范畴比群体的偏好范围变化更小,这是因为具有边缘品味的用户根本不使用这项工具,以至于效果被放大。

此外,这种一致性会随着时间推移而累积,因为人工智能生成的内容会用来训练下一代人工智能,于是形成了一种研究人员称为的同质性“死亡螺旋”。新人工智能用同质性更高的数据加以训练,因此创造出同质性内容的可能性更大。于是用户需要花费更多时间与精力来调整人工智能生成的作品以符合自己的偏好,有些人不愿意这么做,从而导致更加同质化。

该模型显示,AI 的另一个问题,即偏见,也会随着时间的推移而累积。由于大多数人工智能是由少数人创建与训练(典型方式是采用 RLHF,即基于人类反馈的强化学习),因此一些偏见渗入初始人工智能产出的作品几乎不可避免。用户可以通过一些努力来消除这种偏见,不过如果偏见够小,大多数人可能会认为不值得去处理,或者甚至根本没有注意到。

但如果我们都这样做,那这种可以理解的个人行为就会累积。随着时间的推移,“任何人工智能偏见实际上可能转变为社会偏见。”马丁说道。

这让人工智能公司对社会产出作品具有巨大影响,即使用户竭尽所能加以限制也无法改变。

前进的道路

研究人员发现,有一些方法可以缓解与人工智能相关的社会问题。最有希望的一个方法是让更多人与人工智能互动并且自己编辑人工智能生成的作品。只要模型生成的作品能够反映出用户的真实偏好,同质性和偏见便不会泛滥失控,而要能做到反映真实偏好就需要用户清楚表达自己的偏好。

在实践中,这或许意味着人工智能在生成结果之前先询问用户一些问题,以便更好地了解用户的独特风格或观点。这也许还意味着提供多个作品版本。

“不是给你一个版本,而是尝试给你两个截然不同的版本让你选择。”马丁表示。

他承认,这些建议在短期内会减慢用户的速度,从而使该技术的用处稍有降低。但从长远来看,无论对于用户还是对于人工智能工具来说,这种策略“肯定非常好”。

马丁对生成式人工智能在内容创作中发挥的作用仍然持乐观态度——只要它继续反映人类的全方位偏好。事实上,让大量新作家、艺术家或程序员更容易进行创作甚至可能会带来好处。他说:“人工智能还可以让更多的人从事他们以前无法做到的事情,这可能会增加一点多样性。”

About the Writer

Jessica Love is editor in chief of Kellogg Insight.

More in Social Impact