YouTube算法之下 “阴谋论”成了最受欢迎的东西

毫无疑问,YouTube应当对平台上的舆论和价值观导向负责。

火星上曾经存在文明、法国总统马克龙是魔鬼、911事件是美国政府发动的……你可能想不到,这些耸人听闻的阴谋论在YouTube上颇有市场,流传甚广。究其原因,YouTube的推荐算法有着不可推卸的责任——它为用户推荐了更加极端的内容,很多时候会让用户偏离搜索的初衷,在错误的道路上一路狂奔。毫无疑问,YouTube应当对平台上的舆论和价值观导向负责,问题如果得不到解决,YouTube就将始终面对质疑和谴责的声音。本文编译自纽约时报,作者Jack Nicas,原文标题“Can YouTube Quiet Its Conspiracy Theorists?”,希望给您带来启发。

气候变化是一场科学家的联合骗局,《圣经》曾预言特朗普将当选美国总统,埃隆·马斯克(Elon Musk)是一个试图征服世界的魔鬼崇拜者……所有这些不可思议的谣言都在YouTube上找到了组织。

多年来,这家由谷歌创办和运营的全球最大流媒体网站一直是阴谋论者最高效的传声筒,YouTube自己也不得不承认这一点。2019年1月,YouTube表示将限制“可能以有害的方式误导用户”的视频传播。

此后一年里,YouTube推荐的阴谋论视频确实比以前少了很多。但加州大学伯克利分校(University of California, Berkeley)的一项新研究发现,算法的改进并不彻底,而且YouTube还在继续向用户推荐各种类型的虚假内容。

这项研究在15个月的时间里审查了800万个YouTube上的视频推荐,为反阴谋论斗争提供了迄今为止最清晰的图景,得出的结论却是喜忧掺半:目前,打击阴谋论内容对谷歌、FacebookTwitter这些科技公司来说仍十分有挑战性。

可以说,遏制阴谋论是对硅谷打击虚假信息能力的一场重大考验,尤其是在2020年美国大选前的这段时间。

野火烧不尽,春风吹又生

YouTube强大的推荐算法吸引了20亿月活用户观看网站认为他们爱看的视频,这使得它在世界范围取代了电视曾经的辉煌地位。YouTube表示,用户每天观看平台视频的时间超过10亿小时,其中超过70%的内容是由平台推荐的,这使得推荐算法跻身最具影响力的算法之列。

YouTube上的大部分视频都会投放广告,带来的收入能激励发布者不断创作新的视频,而YouTube也能从中分一杯羹。

然而,成功的背后有着黑暗的一面。研究表明,YouTube推荐系统性地扩大了那些分裂性、煽动性、明显不可信的视频带来的影响,而其他旨在吸引眼球以带来更多流量和广告的算法——比如Facebook的新闻推送,也存在同样的问题。

代价很高昂:YouTube几乎要被大量的错误信息和令人讨厌的上传内容淹没了。

伯克利的研究人员发现,YouTube基本上已经把一些类型的谣言从相关推荐中清除干净了,包括“地球是平的”、“美国政府发动了9·11恐怖袭击”这两个“重点打击对象”。今年6月,YouTube表示,人们通过推荐观看相关视频的时间减少了50%。

然而,就在YouTube宣布成功之后不久,“地平说”和“9·11真相”又卷土重来,并在之后几个月反反复复地出现在推荐栏目里。

不只是“地平说”和“9·11真相”流传甚广,研究人员发现,YouTube仿佛是妄想狂和多疑症的狂欢之地——南极洲的冰层下隐藏着天使;政府其实掌握了空中悬浮的秘术;探测器拍下的照片证明火星上曾经有过文明;乔治·布什的葬礼上,一系列政要们的镜头表明一个重大秘密即将被曝光……

一位名叫佩里·斯通(Perry Stone)的“福音传道者”频繁地在YouTube上散布一些谣言,比如圣 经可以预测未来、气候变化不构成威胁、世界领导人崇拜魔鬼等等。他的每个视频都有成千上万的浏览量。仅仅是在这项研究中,斯通的视频在相关推荐里就出现了近8000次。

一段被观看了60万次的视频“马克龙会成为反基督者吗”甚至声称,法国总统马克龙是个不折不扣的魔鬼,证据之一是他赢得了66.06%的选票,而三个连写的6在《圣 经》里是魔鬼的代号。

阴谋论内容不光让人啼笑皆非,而且正在往可怕的方向发展——美国联邦调查局(FBI)最近指出,一些非主流阴谋论的传播已然构成了美国国内的恐怖威胁。上个月,一名德国男子在YouTube上上传了一段视频,称一个“看不见的秘密组织”在地下掩体中利用精神控制虐待儿童,随后在法兰克福郊区开枪打死了9人。

研究人员认为,YouTube其实能够决定根除哪些类型的错误信息,又默许哪些类型的错误信息存在。“这表面上是技术问题,但归根结底是政策问题,”研究的合著者、加州大学伯克利分校的计算机科学教授哈尼·法里德(Hany Farid)说。

他补充道:“如果YouTube有能力让一些问题百出的内容接近于消失,那么完全可以在很多事情上做得更多。当他们说‘不行’的时候,意思其实是他们‘不’。”

YouTube发言人法沙德·沙德卢(Farshad Shadloo)却表示,网站的推荐旨在引导人们观看那些既有权威性又让他们满意的视频,并且YouTube正在不断改进生成推荐的算法。

他说:“仅在过去一年中,我们就对推荐算法进行了超过30次改进,以减少对不确定内容和有害信息的推荐,包括气候变化谣言和其他类型的阴谋论视频。在我们的努力下,相关推荐内容的观看时间在美国地区下降了70%以上。”

这个研究靠谱吗?

为了更好地研究YouTube,法里德和另一名伯克利研究人员马克·法德尔(Marc Faddoul)以及谷歌前工程师纪尧姆·查斯洛特(Guillaume Chaslot)展开了合作(查斯洛特曾参与开发了YouTube的相关推荐算法)。

自2018年10月以来,研究人员收集了YouTube上一千多个最受欢迎和推荐的新闻相关频道的视频边上出现的相关推荐,这使得他们的研究成为相关主题下规模最大、最深入的研究之一。然后,他们发明了一种算法,能够对一段视频传播阴谋论的可能性进行0到1范围内的打分,包括分析视频的台词、文字描述和用户评论。

与大多数YouTube相关研究一样,这种研究方法也存在缺陷。判断一个视频是否会传播阴谋论本身就是主观的,让算法来做更可能导致错误。

为了减少错误,研究人员只考虑那些可能性得分高于0.5的视频。他们还根据自己的打分对视频数量进行了折算:例如,一个评分为0.75的视频相当于四分之三个传播阴谋论的视频。

不过,这些推荐信息是在没有登录YouTube账号的情况下收集的,不符合大部分人的观看习惯。登录后,YouTube会根据人们的浏览历史对推荐进行个性化处理。但是,研究人员无法大规模创建有一定浏览历史的账号,因此很难对个性化推荐进行研究。

这一挑战阻碍了其他更进一步的研究。普林斯顿大学(Princeton University)计算机科学教授阿尔温德·纳拉亚南(Arvind Narayanan)说,他和学生们放弃了关于YouTube是否会让用户变得更激进的研究,因为他们无法研究个性化推荐。去年年底,Narayanan还对一项类似的研究提出了批评——这项研究在没有登录的情况下得出研究结论,认为YouTube几乎没有让用户变得更激进。

在纽约时报的邀请下,纳拉亚南对伯克利分校的研究进行了回顾。他表示,即使是在没有登录的情况下,研究阴谋论内容推荐在一段时间内所占比重是有意义的。但他说,如果没有检查个性化推荐,这项研究就无法总结YouTube给用户造成的影响。

“对我而言,一个更有趣的问题是,YouTube上的阴谋论视频对人和社会有什么影响?”纳拉亚南在电子邮件中说,“没有YouTube的合作,我们就无法好好研究这个问题。”

YouTube的发言人沙德卢对这项研究的结论提出了质疑,他强调研究是在非登录环境下进行的,并不能代表大多数人的体验。他还说,研究中对用以收集推荐数据的频道的选择过于主观,不能代表YouTube上的主流内容。

不过,研究人员坚持认为他们选择的是最受欢迎和推荐的新闻相关频道。

除了改进算法、减少阴谋论视频的推荐次数,YouTube还推出了其他举措。比如,对于诸如登月和气候变化相关的阴谋论,YouTube打算在视频下面加入维基百科的链接,来让那些站不住脚的说法不攻自破。

不过,这些措施是否真的有效,还是要打个问号。

感谢支持199IT
我们致力为中国互联网研究和咨询及IT行业数据专业人员和决策者提供一个数据共享平台。

要继续访问我们的网站,只需关闭您的广告拦截器并刷新页面。
滚动到顶部