为什么极端内容更容易流行?

全球范围内新冠肺炎的形势扑朔迷离。除了日益增长的确诊人数令人压抑之外,更让人担忧的是国外社交媒体上不断冒出“反隔离运动”、“病毒是骗局”、“口罩是压迫”等极端言论。反疫苗分子也趁机出来活动,散布各种阴谋论。部分美国民众甚至愿意相信,口罩上的鼻梁条是5G天线,用于控制思想、传递讯息,或能够使人罹患脑癌。类似的极端内容在社交网络上获得了大量的关注和转发,每次浏览都会让人感到迷惑:

这些热衷于传播极端言论的用户,到底是在反讽,还是真的相信自己转发的内容?

个体天生喜欢极端观点

其实并不仅仅是疫情爆发期,对极端观点的追逐是社交媒体的长期趋势。

牛津大学 Seth Flaxman 教授于2018年发布了一篇研究,他的团队分析了5万名美国互联网用户的浏览历史,得出了一个结论,社交媒体及搜索引擎用户倾向于使用比较极端的新闻来源——譬如布莱巴特新闻网(美国极端保守主义媒体)而非偏中立的福克斯新闻——毋庸置疑,这样的阅读习惯会影响到整体内容的导向。

社会心理学领域有个理论叫做动机性推理,指的是人非常依赖自己固有的认知,往往会投入大量认知资源来驳斥异己之见,从而更加坚定自己的想法。事实上,大多数互联网用户对与自己不同的观点的接受度都是非常有限的。这一点和用户的年龄、学历没有关系,不论受过高等教育的人,还是泛娱乐化的低龄用户,都难免陷入其中。

不管是网络还是现实语境,用户都是为了寻求共鸣而非异见,而网络恰好可以帮助人们更容易找到想法类似的同类,并通过话题、“赞转评”等方式为用户提供了抱团的机会。当某个公共事件发生后,群体中少数用户之间观点碰撞产生共鸣,进而发酵形成煽动性的氛围,产生舆论主场,并将群体的情绪向极端方向引导;在面对这种通过群体传染不断放大并迅速扩展的行为或言论时,多数个体的判断能力和自控能力都会大大降低,怕孤立、易跟风,极易失去理智——这正是群体极化理论的典型路径。

图片来源unsplash

古斯塔夫·勒庞的《乌合之众》中有个很经典的观点:“群体不善推理,却急于采取行动”。社交网络刚好满足了群体、时限性强、行动门槛低等条件,因此为极端观点的传播提供了极大的方便:借助热点事件,创造一些激进的口号标签等符号建构,增强受众的认同感,很容易就能在社交网络上快速传播开。社交网络的用户不在意自己所获取和传播的信息是不是真相,而更在意自身的情感情绪是否在事件中获得代入感。

而用户偏好极端内容带来的恶性循环是,有些原本温和中立的KOL,在网上持续输出内容一段时间后,其观点也逐渐变得极端。这不难理解,内容生产者很容易从读者的反馈中总结出规律,充满攻击性的极端内容是获取关注度的一条捷径,他们自然乐于以此来讨好自己的读者,由此产生极端内容传播的恶性循环。

管治与流量的二律背反

对于一些社区来说,极端内容意味着争议,即可以带来多方人群的重重讨论,且不论理是否能越辩越明,流量肯定是越辩越多,因此一些产品对于极端内容的态度也是暧昧的。

以Facebook为例,极端内容的盛行之下,其推荐算法可能是诱因之一。社会学家兼Facebook研究员Monica Lee研究发现,近2/3加入极端主义小组的用户都是被Facebook推荐吸引而非主动检索。算法分析用户在平台上每一个行为,继而推荐更多可能喜欢的内容,兴趣转化为点击,点击转化为参与和活跃度,最终达成商业变现。

图片来源unsplash

视频网站YouTube上曾经发生一起大V约架事件:一位拥有400万粉丝的视频博主、喜剧演员Steven Crowder在上传的视频中对科技媒体Vox的评论员Carlos Maza的种族和性取向出言不逊,并任由其粉丝在Maza的评论区发表了大量极端的侮辱性言论。Maza向平台反映了无数次都没有得到很好的解决,无奈发布了一条视频控诉YouTube的内容审查和网络暴力管理松散。迫于Maza的影响力,Youtube方面终于做出了处理——但也仅仅是Crowder的违规视频不再享受广告分成而已。某种程度上,这两个例子正印证了极端内容与流量的冲突性,相比普通内容,前者更能激活讨论,进而增加流量,也难免一些社区对极端内容态度暧昧。

极端内容的流行可以追溯自互联网诞生之初对自由平等的追求,社交网络的崛起源自于人们相互交流与信息获取方面的需求。任何社区成立之初,都希望建立一个中立、平和的交流之地。

Facebook和Twitter也都试图在允许用户发声和内容监管之间达到一种平衡,即使在法律要求下不得不删除一些不恰当内容,他们也尽量表现得宽容,原因是他们不想得罪用户。

约翰·霍普金斯大学的Steven Salzberg教授曾撰文对反疫苗分子进行了严肃的批判。这些极端分子到处创建新的论坛、Facebook小组拉拢成员,甚至还拍摄了纪录片来散布有关疫苗的错误信息,不断宣传疫苗会导致自闭症等说法。其内容缺乏科学依据,却凭借煽动性的描述和焦虑渲染对新手父母造成了误导。

Steven Salzberg教授将其行为与邪教进行了类比,指出了反疫苗分子与邪教类似的四个特征:

1. 组织成员具有外人无法理解的特殊见识;

2. 该组织及其领导人是了解「真相」的唯一途径;

3. 对外部世界不合理的恐惧,例如即将发生的灾难,邪恶的阴谋和迫害;

4. 预算或支出没有相应财务披露。

显然,这些类似邪教组织的言论早已超出了言论自由的范畴,并且到了影响公共安全的地步。

技术:多管齐下,聊胜于无

极端内容的流行已经引起了监管部门的注意,尤其社交网络拥有大量的青少年用户,其价值观形成难免受到这些极端内容影响,并演变成违法犯罪等极端行为。因此,世界各国政府也在改进监管措施,以期对恶性事件防范于未然。

除了政府部门的监管、法律法规的健全之外,全世界不甘心受极端内容污染的互联网用户也都在努力。

有开发者意识到这个问题,开发了插件来标注极端内容:Affective Network团队的开发者先是与Twitter用户进行了一项实验,旨在帮助他们更好地消化在网络上看到的新闻内容。随后根据实验内容,推出了Google浏览器插件Affective Network(Aff-Net),它可以使Twitter用户对内容进行过滤和彩色标记,使互联网上的内容更加明确,以避免情绪、情感等心理健康受到互联网上的内容影响。

平台方也在做出一些努力,通过算法来控制极端内容的流行。

Facebook自2016年以来为对抗“极端化”采取了一系列措施,包括改变内容推送算法,使其包含更多来自朋友和家人的帖子;通过机器学习系统,更快地检测仇恨言论和其他恶意内容;从算法推荐中删除违反Facebook政策的群组;组建内容审查队伍,在全世界范围内雇佣了三万人来承担网站安全工作。其负责人称:

“我们已经采取了许多措施来减少可能在我们的平台上导致极端化的内容数量,有时是以牺牲利润为代价的。这项工作永远不会结束,因为归根结底,网络话语是社会的延伸,而网络话语又是高度极端化的。但我们的工作是减少极端化对我们产品体验的影响,我们正致力于做到这一点。

Twitter首席执行官Jack Dorsey也曾公开表态,任何人都不应成为网上谩骂的目标,Twitter不会为这种行为提供土壤。

YouTube在删除不良内容方面也颇有经验——在2018年7月到9月之间,共有780万条视频被删除,80%都是被网站功能自动屏蔽的,且其中四分之三的内容没有被浏览过。目前,YouTube的审核团队多达一万人,负责删除违规视频和进一步改善各种机制和政策。

图片来源unsplash

但是,面对海量盛行的极端内容,这些措施的真实作用如何,确实很难评估,至少我们作为用户直观感受上并不明显。扎克伯格在去年三月份一份公开信中写到:“通过更新互联网监管规则,我们可以保留其最好的一面:人们表达的自由、企业家创造的自由,同时保护社会免受更多危害。”这或许从侧面印证了技术手段带来的成果可能收效甚微。

我们无法左右他人,但可以做好自己

对于普通用户来说,身处信息大爆炸时代,每天都能看到各类极端事件及言论,难免会产生兴奋、焦虑、怀疑等情绪。有些专家呼吁由学校或社区组织开展媒体素养教育,向学生和公众传递基本的批判思维和争论中辨别偏见的方法,以更理智地评估消息来源。

个体毕竟精力有限,没有能力与极端内容作斗争,只能尽量远离群体暴力的影响,并做好情绪管理,做到独善其身。尤其要注意的是未成年孩子的家长。未成年人使用社交网络本身就面临着沉迷、信息焦虑等风险,倘若受到极端内容的影响,很容易坠入网络欺凌或被欺凌的深渊,因此家长需要对自己的孩子做好引导,教导孩子警惕极端内容的陷阱,客观认识世界,克制猎奇心理,避免落入群体狂欢的圈套。

互联网上,每个人都肩负着信息接受者和传播者的双重身份,都是传播链条上不可或缺的一环,我们可以做出自己的选择,关注哪些内容,发布哪些内容,都是一念之间的选择——尽可能去忽略极端信息,而不是为其推波助澜。当个体每一个行为都谨慎一分,就可以更大程度地减少对整个网络造成的污染。
作者:二因斯坦 TRI轻作者

来自: 腾讯研究院 

感谢支持199IT
我们致力为中国互联网研究和咨询及IT行业数据专业人员和决策者提供一个数据共享平台。

要继续访问我们的网站,只需关闭您的广告拦截器并刷新页面。
滚动到顶部