虚假信息时代的挑战:识别、应对与人机协作 |Misinformation

Author:  Hailey

想象这样一个场景:几年前的某一天,你在微信群里看到一条传言,声称你所居住的幸福街道即将进入“静默状态”。这条消息像病毒一样在社区传播,你和许多邻居一样,陷入了混乱和恐慌。你匆忙奔向超市,发现那里已经挤满了同样惊慌失措的人群。在一番拼搏后,你带着满满一车的食品回家,心中充满了对未来的不安。然而,随着时间的推移,你渐渐意识到那只是一条假消息,而你囤积的食物也在无用地过期。

简介

在我们的数字化世界中,以假新闻为形式的欺骗是一种无所不在的现象。虽然虚假信息长期以来一直被用来塑造人们的思想和行为,但社交媒体却将其不利影响大大放大。首先,社交媒体平台已经发展成为一个广泛的消费和分享新闻的来源,获取、发布和分享信息从未如此容易。其次,客观性和平衡性等新闻规范常常被遗忘、忽视,甚至有意地被推翻。最后,用户经常在没有事实核查的情况下分享内容,特别是当内容含有争议性或情绪化的内容时。


虚假信息对我们的影响是什么?

不可靠或假的内容可能对社会产生严重影响,并可能对民主和经济构成重大威胁。COVID-19大流行期间就是一个明显的例子,大量虚假和未经验证的新闻在公众中引起恐慌,导致许多人在阅读了关于COVID-19的错误信息后采取了极端措施,这不仅影响了他们的健康,也对社会秩序造成了干扰。此外,反复接触虚假内容会改变人们对信息的感知,尤其是当这些内容与个人信仰一致时。随着虚假内容的不断增加,真实与虚假之间的界限变得模糊,使人们对所有信息的真实性产生怀疑,进而认为所有内容都可能是有偏见的。随着时间的推移,这种情况可能会损害整个新闻生态系统的信誉。因此,采取有效措施对抗虚假信息变得尤为重要。


有措施可以对抗虚假信息?

目前,应对虚假信息的干预措施主要可以分为四类:基于内容的策略、基于来源的策略、基于个人用户的策略、以及基于社区的策略。

2.1 基于内容的策略

单个内容片段(例如,新闻文章)的特点会影响人们如何与之互动和反应。这些特点涉及多个方面,包括文章引用的来源数量、读者对该新闻话题的预先接触程度、文章中的支持性证据、内容是否显得有偏见,以及其他新闻机构对同一新闻事件的报道数量。这些基于内容的因素,每一个都可以作为启发式的工具,帮助个人评估信息的真实性。

这些因素也可以被操纵,以此影响人们对内容可靠性和信息处理的看法。例如,在研究中,Kreiner 和 Gamliel 发现框架效应在个人评估新闻真实性时起到了重要作用:当结果对读者有利时,框架效应会影响对文章可靠性的感知,但在不利的结果下则影响较小。

在实际操作中,基于内容的策略大致分为三类:首先是使用事实核查员与虚假信息进行辩论,这是一种广泛采用的做法,涉及不同实体,包括社交媒体公司(如Facebook和Twitter)、新闻机构和学术机构;其次是展示内容可信度的信号,例如通过特定指标如⚠️来标示信息的可靠性;最后是降低误导性内容的可见度,例如使用算法减少虚假信息的推送。事实核查者的形式多样,从评估新闻事实声明的网站(如PoliticFact和Snopes)到信誉良好的新闻媒体(如华盛顿邮报和华尔街日报),再到社交平台使用的内容审核技术(包括付费代理或志愿者),以及自动事实核查器。图 1 显示了使用事实核查者在 Facebook 上争论新闻的示例。

尽管事实核查是一个重要工具,但其效果也有局限性。人们可能不会接触到事实核查信息,或即使这些信息可用,也可能因为选择性偏见而被忽视。这是因为人们倾向于接触那些符合他们现有信仰的信息,而避免挑战自己信仰的信息。此外,事实核查在某些情况下可能适得其反,即所谓的逆火效应,使人们在某些情况下更有可能相信被揭露的错误信息。

2.2基于来源的策略

信息来源的相关因素也会影响个人对该信息的评估。Lewandowsky 等人解释说,当人们缺乏动机或知识去深入调查一条信息时,他们往往会依赖对信息来源可信度的判断。如果认为某个来源可信,人们也更倾向于相信该来源提供的内容。在这种情况下,如果缺乏对来源的具体信息,可能会降低用户对该来源内容的信任度。多个因素会影响来源的感知可信度。比如网站的“外观和感觉”、信息的组织方式、网站设计的专业性,以及看似官方的徽标和域名等。

Epstein 等人研究了使用众包来识别制造虚假信息的媒体机构。他们的实验结果表明,参与者比假新闻来源更信任主流来源。此外,Epstein 等人认为,相比于单篇文章的评估,关注新闻来源的整体评价更为有效。原因主要有两个:首先,评估新闻来源的可信度所需的评分量明显少于单篇文章,由于新闻来源的数量远少于文章数量,因此来源级别的评分更具可扩展性;其次,来源级别的评分似乎不太受特定标题特质的影响。

在另一个研究中,Dias等人通过调查实验探究了通过添加徽标横幅来增加帖子发布者信息的可见性是否能提高对帖子的评估。他们的结果显示,即使增加了发布者信息,也不会显著影响参与者对标题准确性的判断。当标题虽准确但来自不可信赖的来源时,人们往往认为内容的可信度较低。换言之,增加发布者信息可能会增加错误地将真实标题视为虚假标题的可能性。因此,未来的研究需要进一步探讨提供不同类型的来源信息(例如添加徽标横幅与提供详细信息)在新闻评估中的不同效果。

2.3 基于个人用户的策略

个人用户的特点对他们如何处理不同虚假信息有显著影响。这些特点包括个人的先有信念、媒体素养技能,以及个性特征。

研究指出,人们的新闻消费习惯通常受到其先前信仰的影响,从而导致所谓的选择性曝露现象。这种认知偏见促使人们寻找和接受那些符合他们已有观点的信息,进而助长了虚假信息的传播和形成了信息回声室效应。确认偏见的作用进一步加强了这种倾向,使人们对符合自身信仰的信息缺乏批判性接受,对纠正信息持有抵抗态度。然而,最新的研究表明,分享信息的动机可能更多地受到个人目标等因素的影响,而非仅仅是先前的信念。例如,人们可能会分享信息来适应某个群体或突出自己的身份,无论该信息的内容真实性和来源如何。

在媒体素养方面,研究人员探讨了不同形式的素养(如媒体素养、信息素养、新闻素养和数字素养)与个体识别及应对虚假信息的能力之间的关联。例如,调查发现具有较高数字媒体素养水平的个体更不易受虚假信息及其影响所干扰。信息素养在影响个体对虚假信息的反应方面也扮演了重要角色。然而,值得注意的是,拥有这些素养技能并不必然导致个体减少分享虚假信息的行为,因为情感和社交反馈等因素可能影响其决策。

个性特征方面,一系列研究探索了这些特征是否影响个体对虚假信息的反应。例如,使用五因素模型(Five Factor Model ofpersonality)测量的个性特征显示,开放性(openness)与分享虚假信息呈正相关,而神经质(neuroticism)则与之呈负相关。宜人性(Agreeableness)则主要在个体应对虚假信息时发挥作用。

在研究个体层面应对虚假信息的策略时,常见的方法包括:提高个体媒体素养技能的干预、引导关注内容可信度的干预、识别不真实账户的干预,以及识别和阻止虚假信息传播者的干预。

提高个体媒体素养技能方面,最近一些基于游戏的心理干预措施被提出,目的是增强个体识别虚假信息的能力。例如,Roozenbeek 和 van der Linden 设计的“坏消息游戏”,通过玩家学习识别不信任、极端言论、冒充等技巧,帮助减少虚假信息的传播。Basol 等人设计的“Go Viral!”游戏则旨在提高个体识别 COVID-19 虚假信息中使用的操纵技巧的能力。这些游戏不仅提升了参与者识别虚假信息的能力,还减少了他们分享虚假信息的意愿。Jeon 等人设计的“ChamberBreaker”游戏,则致力于增强玩家对信息回声室效应和保持信息多元视角重要性的认识。

尽管提高识别虚假和误导性内容的能力非常重要,但这并不总能减少分享虚假信息的意愿。例如,人们可能因为表达社会身份或忠诚而分享他们知道是虚假的内容。因此,为了提升媒体素养干预措施的有效性,还需要考虑其他因素,如先前信仰的作用。

将个体的注意力转向内容的可信度:最近,研究人员开始关注通过引导在线用户将注意力转向所分享内容的可信度来减少虚假信息的传播。最近的研究显示,许多人在在线分享内容时受到情感和社交反馈的驱动。受到这些观察的启发,Pennycook等人研究了鼓励在线用户反思内容准确性是否能使他们更不容易传播虚假信息的效果。在Twitter上进行的一项实地实验中,他们选择了经常分享虚假信息的Twitter用户。然后,研究人员给这些用户发送私人消息,要求他们评价新闻标题的准确性。通过邀请这些用户反思新闻的准确性方面,这种干预措施增加了这些用户在接下来的24小时内分享的新闻的平均准确性。另一个例子是,Jahanbakhsh等人研究了两种行为Nudge/助推措施(准确性评估和理由解释)对分享虚假新闻的影响,结果显示,这些助推措施能减少分享虚假内容,但也同时减少了真实内容的分享。

(推特X使用的nudge策略,请见图二)

2.4基于社区的策略

在线社区通过其独特的机制影响成员对虚假信息的响应。举例来说,社区内的互动行为,如分享、点赞、评论等,能增加成员接触虚假信息的几率。例如,当一个用户的联系人对某篇帖子点赞时,该用户更可能看到这条内容。这种增加的内容可见性进而提高了成员对虚假信息的接触频率,从而可能导致所谓的熟悉性偏见。在熟悉性偏见中,个体可能记住了内容本身,却忘记了其来源和背景细节。这种偏见会增加人们接受虚假信息为真实信息的可能性,进而促进虚假信息的传播。

尽管在线社区在促进虚假信息传播方面发挥着重要作用,但在设计围绕社区因素的干预措施方面,研究尚显不足。例如,Andı和Akesson进行的研究探讨了基于社会规范的行为助推/nudge是否能减少虚假信息的分享。他们实施了一种描述性规范干预,即通过一条消息提醒参与者网络上存在大量虚假信息,并警告他们在分享新闻前应三思而行。这条消息通常显示在用户浏览的文章上方,内容为:“请注意:网络上存在许多误导性和虚假信息。大多数负责任的人在与朋友和关注者分享内容之前会仔细考虑。”研究结果表明,接受这种干预的参与者表现出更少分享虚假信息的倾向。然而,目前尚不确定这一结果是由于虚假信息丰富程度的提醒,还是社会规范一致性的影响。


3. AI可以帮助用户分辨事实与真伪吗?人工智能提供的解释如何改变人们的决策

在这个数字化的时代,人工智能(AI)正逐渐成为我们日常决策的一部分。特别是大型语言模型(LLMs)如ChatGPT,不仅展现了其多功能性,还在各种任务上达到了接近人类的水平。这些由LLM驱动的个人助理承诺提供更加自然、流畅的用户体验。然而,当信息获取变得如此便捷,且定制化的AI解释缺乏精确的信息来源时,一个新的问题浮现出来:这是否会促进非事实信息的传播?

考虑到人们从传统的“谷歌搜索”转向更多地“向ChatGPT提问”,我们开展了一项研究,旨在探索人们在不同质量的AI建议环境下对健康相关声明的接受程度。实验通过Prolific平台招募了300名美国参与者,他们被告知正在参与一个测试健康误导检测AI助手的实验。在实验中,参与者被展示了一系列健康声明,并要求他们对这些声明的真实性进行初步评分。随后,他们会看到AI给出的建议,并被要求再次评分。AI的建议分为三种情况:1)无解释:仅提示声明可能真或假,没有进一步细节;2)说服力不强:提供一些与声明关系不大或有误导性的质量较低推理;3)说服力强:提供更合理、有说服力的解释和推理。这些解释是由ChatGPT3.5预先生成的,旨在为声明的“真”或“假”提供论据。实验结束后,参与者提供了人口统计信息,并分享了使用AI助手的体验。

研究结果引人深思:无论AI建议的质量如何,参与者的观点都显著偏向AI的建议方向,而且这一改变不受年龄、性别、教育水平或专业知识的影响。尽管高质量的解释更有说服力,但人们似乎仅因接受到AI建议就倾向于改变看法。更令人关注的是,即使建议质量提高,人们对AI的信任并没有显著增加。当AI建议含糊不清时,这种信任甚至会减少。这些发现突显了AI建议的强大影响力,并且对于设计AI健康建议系统的权威性和公众健康影响提出了重要的警示。


4. 结语

在这个信息泛滥的时代,虚假信息已成为我们每个人生活中不可忽视的一部分。本文深入探讨了虚假信息的定义、应对策略,以及一项针对这一现象的探索性研究。虚假信息不仅无处不在,而且具有深远的影响,从而使我们每个人都可能成为其受害者。然而,同样重要的是,我们都有能力成为信息的守护者。在分享信息之前,让我们先停下来思考:这条信息真的可靠吗?


Open question:

1. 如何设计干预措施,鼓励用户对信息提出质疑并进行批判性分析?

2. 什么样的设计,可以帮助用户辨别事实与虚构,同时尊重用户选择相信什么的自由?

3. 人们如何与人工智能合作,共同应对虚假信息的挑战,包括由AI产生的虚假内容?


5. Reference如想进一步了解,请点击下文,如果本文对你有用,欢迎引用):

Aghajari, Z., Baumer, E. P., & DiFranzo, D. (2023). Reviewing Interventions to Address Misinformation: The Need to Expand Our Vision Beyond an Individualistic Focus. Proceedings of the ACM on Human-Computer Interaction, 7(CSCW1), 1-34.

Sergeeva, E., Sergeeva, A., Tang, H., Bongard-Blanchy, K., & Szolovits, P. (2023). Right, No Matter Why: AI Fact-checking and AI Authority in Health-related Inquiry Settings. arXiv preprint arXiv:2310.14358.