假新闻源于Collin在2017年的讲话。在一年一度的常规政治新闻中,高调的丑闻震撼了我们对人性的信念,人们痛苦地发现,区分新闻中的现实和虚构变得越来越难。社交媒体的兴起也造成了一种似乎无法阻挡的虚假信息传播力量,这些错误的信息在今年早些时候以剑桥分析公司丑闻的形式显现出其丑陋的侧面。这引发了人们对社交媒体问责制以及那些运营网站的人员如何能够切实解决他们自己造成的“怪物”问题的严重质疑。
麻省理工学院CSAIL(计算机科学与人工智能实验室)和QRCI(卡塔尔计算研究所)于昨天(10月4日)宣布了一个新项目,该项目旨在识别虚假新闻在传播之前的来源,或可能将不可信赖的新闻信息自动分类。尽管增加真实性检测的益处是无法估量的,但是,当处理像假新闻这样不可预测的“野兽”时,这些新功能是否只不过是路上的一次撞击罢了?
Bullsh * t检测
在当下,检测假新闻很困难,在造成太多损害之前公布虚假声明,像Snopes和Politifact这样的网站承受着比以往任何时候都要大的压力。问题在于处理个人索赔非常耗时,一旦错误的信息泄露,损害就已经造成。麻省理工学院CSAIL和QCRI的项目旨在通过识别持续传播错误信息的网站和具有重大政治倾向的网站来解决这个问题(因为这些网站通常是假新闻的主要提供者)。
该系统查看来自该网站的文章及其维基百科页面、Twitter帐户、URL结构和网络流量,以及搜索表明强烈政治偏见或错误信息的关键词和语言特征(例如,虚假新闻媒体经常使用更多夸张性语言)。使用来自媒体偏见/事实检查(MBFC)的数据,该系统检测网站的“ 事实性”水平的准确率为65%,检测到政治偏见的准确率大约为70%。
虽然该项目还处于初期阶段,但共同作者普雷斯拉夫·纳科夫(Preslav Nakov)相信这将有助于现有的事实核查服务,使他们能够“立即查看假新闻分数,以确定给予不同观点的有效性。 ”这将是该项目如何在实践中发展和使用的一个关键点,因为人们仍然需要检查这些分数,以确定新闻信息是否跨越虚假信息的界线,或者只是用情绪化和说服力的语言来扭曲事实。
过多的信任
至少目前,该项目与手动事实检查器一起使用最为有用,但是随着机器学习算法进一步发展,理论上它将能够提前识别这些站点并告知媒体监管机构风险所在。然而,那些主要通过社交媒体上不受限制的频道进行广泛传播的假新闻提出了一个重要问题:拥有人工智能检测的承诺,是否会让读者陷入虚假的安全感?
Facebook 今年早些时候发布了一项广告宣传活动,宣布他们致力于处理假新闻、虚假账户、点击攻击和垃圾邮件,这是马克扎克伯格将Facebook带回其核心价值观的更广泛战略的一部分。在成为历史上最引人注目的数据泄露之一的中心之后,Facebook正在努力说服用户相信他们可以被信任。
Pew Research在2017年9月进行的一项研究发现,45%的美国成年人使用Facebook获取新闻,尽管任何人都可以在社交媒体上发帖。但是,当有必要监控超过20亿用户时,如何控制人们对非官方信息来源的依赖?Facebook显然希望向用户和监管机构保证他们的算法能够解决这个问题,但证明新闻是错误的,就像在墙上贴上果冻:最好的情况是耗费时间,最糟糕的情况是不可能发生。事实上,Facebook的实力和麻省理工学院的检测系统可能会引导人们放松警惕,更愿意相信他们所读的内容。
人们是问题所在
相信耸人听闻的信息的意愿是一种真实存在的现象,揭露虚假信息并不总能改变人们的思想。发表在《Intelligence》杂志上的2017年11月的一项研究发现,那些认知能力较低的人在被告知有关虚构人的诋毁信息是假的之后,仍无法改变原来的印象。正如麻省理工学院CSAIL论文本身所说的那样:“即使揭穿是由声誉良好的事实检查组织来完成,这也无助于说服那些已经相信虚假信息的人”。
一项麻省理工学院的研究发现,真实新闻到达用户的时间是相关信息触达Twitter用户时间的6倍,而“70%的假新闻比真相更有可能被转推”。因此,社交媒体用户加剧了假新闻的传播,并且很少有机器学习可以改变已经根深蒂固的坏习惯。
实施机器学习以对抗假新闻的传播是值得肯定的,并且这个问题需要被解决,因为主要媒体机构的可信度受到质疑。但随着社交媒体加剧了错误信息的传播,检测和揭露虚假新闻的来源能够让人类克服本能来相信我们被告知的内容吗?
(选自:forbes 作者:Charles Towers-Clark 编译:网易智能 参与:nariiy)
免责声明:本文由用户投稿,(图文、音视频)均由用户自行上传分享,文章内容不代表本站立场,本站不对其内容的真实性、完整性、准确性给予任何担保、暗示和承诺,仅供读者参考,文章版权归原作者所有。若您的权利被侵害,请联系本站在线客服进行删除。