为什么假新闻如此令人难以置信的有效

2019-06-14 15:30:11 围观 : 189

  为什么假新闻如此令人难以置信的有效

  

  如果你从社交媒体上得到你的消息,就像大多数美国人一样,你每天都会遭遇恶作剧,谣言,阴谋论和误导性新闻。当它与来自诚实来源的可靠信息混合在一起时,真相很难辨别。

  

                  事实上,我的研究团队对来自哥伦比亚大学的Emergent谣言跟踪器的数据进行的分析表明,这种错误的信息可能会像病毒一样可靠。

  

                  许多人都在质疑这种数字错误信息的冲击是否会影响2016年美国大选的结果。根据过去的分析和其他国家的说法,事实是我们不知道,尽管有理由相信它完全有可能。每一条错误信息都有助于形成我们的观点。总的来说,这种伤害可能是非常真实的:如果人们可能会因为选择退出免疫接种而危及我们孩子的生活,那么为什么我们的民主呢?

  

                  作为通过社交媒体传播错误信息的研究员,我知道限制新闻欺诈者’谷歌和Facebook最近宣布的销售广告的能力是朝着正确方向迈出的一步。但它不会遏制政治动机所导致的滥用行为。

  

                    

  

                      

  

                  

  

                    

  

                      

  

                  

  

                  

  

                      

  

                    

  

                      

  

                        简报

  

                        注册即可收到您现在需要了解的热门新闻。查看示例

  

                      

  

                          

  

                               立即注册

  

                          

  

                    

  

                  

  

                  利用社交媒体

  

                  大约10年前,我和我的同事进行了一项实验,其中我们了解到72%的大学生信任链接似乎来自朋友–甚至到了在钓鱼网站上输入个人登录信息的程度。这种广泛存在的漏洞表明了另一种形式的恶意操纵:人们可能也会相信他们在点击社交联系人的链接时收到的错误信息。

  

                  为了探索这个想法,我创建了一个虚假的网页,其中包含随机的,计算机生成的八卦新闻–像“名人X与名人Y一起上床睡觉!”这样的事情。搜索名称的网站访问者将触发脚本自动编制有关此人的故事。我在网站上加入了免责声明,称该网站包含无意义的文字和“事实”。我还在页面上放置了广告。在月底,我收到了广告收入的邮件支票。这就是我的证据:假新闻可以通过虚假来污染互联网来赚钱。

  

                    

  

                      

  

                  

  

                  可悲的是,我不是唯一有这个想法的人。十年后,我们有了一个虚假新闻和数字错误信息的行业。 Clickbait网站制造恶作剧以从广告赚钱,而所谓的超党派网站发布和传播谣言和阴谋理论来影响公众舆论。

  

                  创建社交机器人的虚拟账户是多么容易,这些虚拟账户由看似真实的人的软件控制,因此可以产生真正的影响力。我实验室的研究发现了许多假基层运动的例子,也称为政治性的草皮运动。

  

                  作为回应,我们开发了BotOrNot工具来检测社交机器人。它并不完美,但准确到足以揭示英国脱欧和抗议运动中的说服运动。使用BotOrNot,我们的同事发现,关于2016年选举的大部分在线聊天都是由机器人产生的。

  

                  

  

                    

  

                        

  

                        

  

                        

  

                          

  

                            

  

                          

  

                        

  

                        

  

                        

  

                            

  

                            

  

                        

  

                        

  

                        

  

                        

  

                    

  

                  

  

                  在关于加利福尼亚疫苗接种法的#SB277标签传播的可视化中,点是使用该主题标签发布的Twitter账户,并且它们之间的线显示了重新标记的帖子的转发。较大的点是转发更多的帐户。红点很可能是机器人;蓝色的可能是人类。 Onur Varol,CC BY-ND

  

                    

  

                      

  

                  

  

                    

  

                      

  

                  

  

                  创造信息泡沫

  

                  由于一系列复杂的社会,认知,经济和算法偏见,我们人类很容易受到数字错误信息的操纵。其中一些已经有了很大的发展:当我们的物种适应逃避掠食者时,信任来自我们社交圈的信号并拒绝与我们的经验相矛盾的信息。但是在今天缩小的在线网络中,与地球另一端的阴谋理论家建立的社交网络联系无助于我的观点。

  

                  复制我们的朋友并取消那些有不同意见的人给我们的回声室如此两极分化,研究人员只需看着你的朋友就可以高度准确地判断你是自由派还是保守派。网络结构如此密集,以至于任何错误信息几乎瞬间在一组内传播,因此隔离以至于它不会到达另一组。

  

                  在我们的泡沫中,我们有选择地接触符合我们信仰的信息。这是最大限度地提高参与度的理想方案,但对于培养健康的怀疑主义是一种有害的方案。确认偏差使我们在没有阅读文章的情况下分享标题。

  

                    

  

                      

  

                  

  

                    

  

                      

  

                  

  

                  当我们自己的研究项目成为2014年美国中期选举前的恶性错误信息活动的主题时,我们的实验室得到了个人的教训。当我们调查正在发生的事情时,我们发现有关我们的研究的假新闻报道主要由Twitter用户在一个党派回声室中共享,这是一个由政治活跃用户组成的庞大且同质的社区。这些人迅速转发,不受揭穿信息的影响。

  

                  

  

                    

  

                        

  

                        

  

                        

  

                          

  

                            

  

                          

  

                        

  

                        

  

                        

  

                            

  

                            

  

                        

  

                        

  

                        

  

                        

  

                    

  

                  

  

                  在Twittersphere的回声室图中,紫色圆点表示人们散布关于Truthy研究项目的错误主张;试图揭露虚假信息的两个账户在最左边是橙色。 Giovanni Luca Ciampaglia,CC BY-ND

  

                    

  

                      

  

                  

  

                    

  

                      

  

                  

  

                  病毒必然性

  

                  我们的研究表明,鉴于我们的社交网络的结构和我们有限的注意力,一些模因将不可避免地传播,无论其质量如何。即使个人倾向于共享更高质量的信息,整个网络也无法区分可靠信息和伪造信息。这有助于解释我们在野外观察到的所有病毒恶作剧。

  

                  注意力经济照顾其余部分:如果我们关注某个主题,将产生关于该主题的更多信息。制造信息并将其作为事实传递比报告实际真相更便宜。制作可以适合每个群体:保守派读到教皇支持特朗普,自由派认为他赞同克林顿。他没有做过。

  

                  对算法感到满意

  

                  由于我们无法关注Feed中的所有帖子,因此算法会确定我们所看到的内容以及我们所看到的内容。今天社交媒体平台使用的算法旨在优先处理帖子–我们可能会点击,做出反应并分享。但最近的一项分析发现,故意误导的网页至少得到了与真实新闻一样多的在线分享和反应。

  

                    

  

                      

  

                  

  

                    

  

                      

  

                  

  

                  这种对真理参与的算法偏见加剧了我们的社会和认知偏见。因此,当我们关注社交媒体上分享的链接时,我们倾向于访问比我们进行搜索并访问最佳结果时更小,更同质的源集。

  

                  现有研究表明,在回音室中可以让人们更容易接受未经证实的谣言。但我们需要更多地了解不同的人如何应对单一的恶作剧:有些人立即分享,有些则事先检查它。

  

                  我们正在模拟社交网络,以研究共享和事实检查之间的竞争。我们希望能够帮助解开相互矛盾的证据,证明事实检查何时有助于阻止恶作剧的传播以及什么时候没有。我们的初步结果表明,骗子信徒群体越是隔离,骗局就越久。同样,它不仅涉及恶作剧本身,还涉及网络。

  

                  许多人正在试图弄清楚如何应对这一切。根据Mark Zuckerberg的最新公告,Facebook团队正在测试潜在的选择。一群大学生提出了一种简单地将共享链接标记为“已验证”的方法。或不。

  

                    

  

                      

  

                  

  

                    

  

                      

  

                  

  

                  有些解决方案仍然遥不可及,至少目前是这样。例如,我们还不能教授人工智能系统如何辨别真相和虚假。但我们可以告诉排名算法为更可靠的来源提供更高的优先级。

  

                  研究假新闻的传播

  

                  如果我们更好地了解信息传播的糟糕程度,我们就可以更有效地打击假新闻。例如,如果机器人对许多谎言负责,我们可以将注意力集中在检测它们上。如果问题是回声室,或许我们可以设计不排除不同观点的推荐系统。

  

                  为此,我们的实验室正在构建一个名为Hoaxy的平台,以跟踪和可视化未经证实的声明的传播以及对社交媒体的相应事实检查。这将为我们提供真实世界的数据,我们可以通过这些数据通知我们的模拟社交网络。然后我们可以测试打击假新闻的可能方法。

  

                  Hoaxy也可以向人们展示他们的意见被在线信息操纵是多么容易–甚至我们中的一些人有多大可能在网上分享谎言。 Hoaxy将加入我们的社交媒体天文台的一套工具,让任何人都可以看到memes如何在Twitter上传播。将这些工具链接到人类事实检查器和社交媒体平台可以更容易地减少重复工作并相互支持。

  

                    

  

                      

  

                  

  

                    

  

                      

  

                  

  

                  我们必须将资源投入研究这一现象。我们需要全力以赴:计算机科学家,社会科学家,经济学家,记者和行业合作伙伴必须共同努力,坚决抵制错误信息的传播。

  

                  Filippo Menczer,计算机科学与信息学教授;布卢明顿印第安纳大学复杂网络与系统研究中心主任

  

                  本文最初发表于The Conversation。阅读原始文章。