Kellogg Insight - 我们在网上的极化速度快的惊人
Skip to content
Organizations Data Analytics 4月 6, 2017

我们在网上的极化速度快的惊人

即使用户一开始只是阅读各类观点的帖子,他们还是将自己隔离在社交媒体的回音室里

Social media echo chambers form surprisingly fast.

Morgan Ramberg

Based on the research of

Alessandro Bessi

Fabiana Zollo

Michela Del Vicario

Michelangelo Puliga

Antonio Scala

Guido Caldarelli

Brian Uzzi

Walter Quattrociocchi

偏见气泡,观念滤器,回音室,无论你怎么称呼这些社交媒体孕育出的意识形态堡垒,从Quartz(石英)到The Guardian(卫报)的每一个人都认为它们是造成美国极度分化政治氛围的关键所在。

社交媒体网站使用算法来提供个性化内容,这些算法在确保用户只得到符合自己既有观点的信息方面显然非常重要。然而,用户自己的行为对于网上回音室的形成扮演着什么角色呢?毕竟,算法虽然可以确保你看到自己赞同的帖子,但是要不要对张三的评论点赞,想不想分享李四的视频,则是你自己的决定。

或许,一千两百万名社交媒体用户可以帮助我们找出答案。

在大数据集的帮助下,Kellogg管理与组织学教授Brian Uzzi和一个位于意大利的研究团队合作,最近开始探索政治极化网络环境中的人类行为。他和研究团队发现,用户很少保持中立,绝大多数的人很快就被极化的内容吸引过去。

Uzzi希望,这些发现能帮助我们开始了解进而化解回音室效应。

“社交媒体对大众心理的影响十分巨大,并负有帮助教育我们的重任,”他说。“社交媒体把假新闻变成真新闻,并坚定地推波助澜,将我们带进一个充斥着虚假和‘另类事实’的时代。”

科学与阴谋

Uzzi与来自IMT School for Advanced Studies Lucca的同事们(Alessandro Bessi、Fabiana Zollo、Michela Del Vicario、Michelangelo Puliga、Antonio Scala、 Guido Caldarelli及Walter Quattrociocchi)合作,针对一千两百万名脸书和YouTube用户的行为进行研究。

具体地说,研究团队针对某些放在Youtube上同时也存在413个不同的脸书页面中的视频,研究它们得到的“点赞”、分享和评论情况。

首先,研究人员将视频分成两类。他们通过分析含有视频的脸书页面来进行这项分类工作。

出现在如Illuminati Mind Control(光照派思想控制)、Exposing Satanic World Government(暴露撒旦世界政府)、Doctors Are Dangerous(医生很危险)等脸书页面的视频,也就是提供没有事实根据的争议性信息的页面,被归入“阴谋”类。出现在如Scientific American Magazine(美国科学杂志)、National Science Foundation(美国国家科学基金会)、NASA(美国国家航空航天局)等脸书页面的视频,也就是提供科学知识和理性思维的页面,则被归入“科学”类。

然后,研究人员对这些同时出现在脸书和YouTube的视频的用户使用规律进行比较。他们研究了从2010年1月到2014年12月这段时间的帖子及其相关的用户互动。通过这种方式,他们能够只用公开信息即可追踪用户与上述两类内容的互动在一段时间内的变化。

在脸书和YouTube平台上,有些用户只和阴谋类的内容互动,有些则只与科学类内容互动。另外还有用户一开始和阴谋类与科学类内容都有互动,但很快就转到只与其中一类互动。

无论用户如何开始,几乎所有用户后来都变得高度极化。研究人员对此的定义是,当用户有超过95%的评论、分享和“点赞”都针对某个单一类别的内容时,就会发生极化现象。事实上,93.6%的脸书用户,以及87.8%的YouTube观看者,都属于这一类。

惊人的速度

但是,最让Uzzi吃惊的,是用户极化的速度。

那些开始时同时与阴谋类和科学类视频互动的用户,“我们以为他们会继续关注各种内容,但结果他们很快就变得非常有选择性,”Uzzi说道。有多快?最慢差不多是在他们做出第五个评论、分享或“点赞”的时候。

“甚至那些在开始时同时抱持两种观点的人都可能很快走入回音室,”他说。

他指出,这意味着人们接触的媒体内容变化,能够以惊人的速度影响用户的信念。像Facebook 和 YouTube等平台,都纷纷根据用户过去的点击情况不断调整用户收看的内容。他说:“时间可能走得很快。以特定的方式调整内容,可能引导人们即刻做出判断,然后坚持这些判断,甚至外面出现另类信息也不为所动。”

一旦进入回音室,用户往往就留在里面,不管是哪个平台,也不管用户被极化为科学派还是阴谋派,都是这样的情况。“就信息与想法而言,我们很快就变成老狗,一旦成了老狗,我们就不学新把戏了,”Uzzi说。

除此之外,Uzzi指出 其他研究显示,一旦极化后,用户往往变得愈发极化。“在回音室里,能让人的想法转变的是更极端的观点,”他说。“因此,你或是变得更左派,或是变得更右派,因为最大的声音才能驱使人们到某个方向。”

揭发没有效果

意识形态回音室是存在的,而人们往往很快进入,然后留在里面。如何劝说他们出来呢?特别是目前待在充斥着虚假及误导信息回音室里的人?

答案看似简单:揭发虚假信息。然而,极化的社交媒体用户似乎对与自己想法相左的内容没有兴趣去接触。而当他们确实与揭发的帖子互动时,还可能产生反效果,导致他们更加顽固地坚持自己的立场。

例如,同一个意大利研究团队当中一些人先前做过一项研究,研究思维被极化为阴谋派的九百多万名脸书用户的评论行为,并发现这些用户中只有大约十万人对揭发的帖子发表过评论。而那些与揭发内容确实有互动的人,他们的反应往往是在与阴谋相关的脸书页面上活动得更频繁。

拆除回音室所做的努力

最近出现了几个帮助社交媒体用户逃离自己回音室的尝试。其中包括一些插件,例如FlipFeed插件,它使用户能够用随机、不同意识形态的陌生人的帖子取代自己的Twitter帖子,另外还有Escape Your Bubble插件,能将对立的政治观点穿插到用户的脸书新闻里。

这些工具的效果如何尚有待评估,但想像过去人们期待互联网能发挥阻止--而非助长--回音室效应的作用就觉得可笑。

“互联网刚刚问世时,许多观察家和科学家以为这些点击即可获取的新信息将使每一个人变得更聪明,” Uzzi说。“当时的想法是,既然人们不需要去图书馆翻遍旧杂志来获得信息,他们应该会探讨其他人观点的正确性。他们会核对事实,倾听正反两方的论据,因此他们会更快地了解事实真相。

然而那样的想法,正如Uzzi所说,是“难以实现的愿望。”

Featured Faculty

Richard L. Thomas Professor of Leadership and Organizational Change; Professor of Management and Organizations

About the Writer
Anne Ford is a writer in Evanston, Illinois.
About the Research
Bessi, Alessandro, Fabiana Zollo, Michela Del Vicario, Michelangelo Puliga, Antonio Scala, Guido Caldarelli, Brian Uzzi, and Walter Quanttrociocchi. 2016. “Users Polarization on Facebook and YouTube.” PLoS ONE. 11(8): e0159641.

Read the original

More in Organizations