文 | 约瑟夫·奈
“假新闻”一词已经成为美国总统特朗普对一切他不喜欢的报道的代名词。但它也是一个分析术语,用来描述以传统新闻报道形式呈现的有意的歪曲。这不是一个全新的问题。1925年,《哈珀斯杂志》发表了一篇关于“假新闻”危害的文章。今天,有三分之二的美国成年人从社交媒体获取一些新闻,而社交媒体的业务模式决定了它们极易受到外部操纵,很容易被利润或诽谤目的所利用。
不管是业余人士、犯罪分子还是政府,许多组织擅长用逆向工程破解科技平台解析信息的方法。俄罗斯在这方面堪称高手,它是第一批认识到如何将社交媒体用作武器、利用美国自己公司的政府之一。
面临浩如烟海的在线信息量,人们很难弄清楚应该把注意力放在哪。注意力,而不是信息,成为需要捕获的稀缺资源。大数据和人工智能让传播的微定位成为可能,使人们所得到的信息局限于思维类似的“过滤器泡沫”。
社交媒体所提供的免费服务基于这样的营利模式:用户的信息和注意力才是真正的产品,并出售给广告商。它们设计算法来学习是什么让用户保持参与,从而能投放更多广告,产生更多收入。
愤怒等情绪刺激了参与,错误但令人愤怒的新闻被证明要比准确的新闻更吸引浏览者的参与。研究发现,推特上的假消息比真消息获得转发的可能性高70%。类似地,今年早些时候德国的一项研究发现,YouTube的算法会系统性地引导用户专享极端主义内容,因为这些内容的点击率和收入最高。传统新闻媒体的事实核查常常无法跟上脚步,有时甚至会因为吸引更多注意力而起到反作用。
从其性质看,社交媒体的盈利模式可以被国家和非国家行动方武器化。最近,Facebook因为在保护用户隐私方面漫不经心而饱受批评。其CEO马克·扎克伯格承认,2016年Facebook没有为我们日常所面临的协作信息操作做好准备。但公司此后吸取了很多教训,并开发了成熟的系统将技术和人相结合,以阻止对服务的选择干预。这些措施包括挖掘和删除假账户的自动程序;不再像过去那样将散播假消息的页面突出显示;增加1万人解决安全问题等等。但问题并没有得到解决。
人工智能等科技方案不是万灵丹。因为假新闻通常更情绪化和粗暴,它们比真新闻传播得更快更远。即使在有事实核查的条件下,重复假消息也能增加个人接受它为真消息的可能性。
在准备2016年美国总统竞选期间,俄罗斯圣彼得堡的互联网研究局花了一年多时间,打造了几十个伪装成美国地方新闻机构的社交媒体账号。有时它们的报道会倾向于某个候选人,但其主要目的是造成民主混乱、令人嫌恶的印象,以及压低投票率。
1996年,美国国会通过了通讯规范法,当时尚在襁褓中的社交媒体公司,被视作为客户提供彼此互动服务的中立的电信服务提供商,但这一模式显然已不合时宜。在政治压力下,大公司开始更仔细地检查它们的网络,删除明显的假消息。但限制受到美国宪法第一修正案保护的言论自由,会产生棘手的实践问题。机器和非美国行动方不具有第一修正案所赋予的权利,但令人厌恶的国内组织和个人具有这些权利,而他们可能成为外国势力的中介。
无论如何,外国势力造成的伤害不如我们自己造成的伤害。假新闻和外国假扮真新闻源的问题很难解决,因为这要在重要价值观中间进行权衡。社交媒体公司担心受到审查,想要避免批评它们玩忽职守和收钱的立法者的监管。
欧洲选举的经验表明,调查新闻报道和事先警告公众,有助于让选民抵制假消息。但与假新闻之间的斗争,可能将一直是炮制者和他们所利用的平台公司之间的猫鼠游戏。它可能成为任何一个国家选举的背景噪音。时刻保持警觉便是保护民主的代价。
(Copyright: Project Syndicate,2018,编辑:许瑶)