search
尋找貓咪~QQ 地點 桃園市桃園區 Taoyuan , Taoyuan

闢謠反而讓人更堅信謠言?

常言道:「造謠張張嘴,闢謠跑斷腿」。這話描述的是謠言的傳播速度和廣度往往遠勝於闢謠的現象。不過就算闢謠跑斷了腿勉強追上了謠言的傳播,闢謠真的有用嗎?很可惜,在很多情況下闢謠不僅不會讓人懷疑謠言而相信真相,甚至還會讓人更堅信之前的謠言。

這在心理學上叫做「逆火效應」(Backfire effect),也叫「迴旋鏢效應」(Boomerang effect):當新的信息(比如闢謠)與人們已有的認知和信念相矛盾時,人們很可能會因此而更堅信先前的信念。所以最成功的謠言會跟人們的已有認知、立場或擔憂「一拍即合」,讓人們覺得這簡直就是自己的想法,一拍大腿說「我就知道!」,而之後任何的反駁證據都會被人們看做是對自己的否定、挑戰和貶低,激發人們的心理自我保護機制,讓人加倍地堅信謠言,並像保護自己一般保護謠言。

最近十幾年來,對於這一課題的研究跨越了多個領域:傳播學、政治學、心理學、社會學。相關論文甚至還出現在了大氣科學、醫學、流行病學和公共衛生等通常與社會科學沒有太大交集的期刊上。由於氣候變化和疫苗等話題是謠言的重災區,相關領域的科學家也不得不開始系統性研究到底該如何用自己的專業知識來有效地反駁各類謠言,讓科學研究的成果不會因為大眾的誤解而付之東流。

一、Nyhan 和 Reifler 的經典研究

Nyhan and Reifler (2010) 在實驗中讓兩組受試者分別閱讀一篇新聞報道,其中對照組閱讀的新聞中有關於伊拉克持有大殺傷性武器的內容(實為謠言,且與右派的認知更為符合),而實驗組閱讀的新聞則在最後還加上了對謠言的反駁。他們發現,闢謠整體來看並沒有改變人們對謠言的看法,但這很大程度上取決於受試者的政治立場。對於本來的政治立場就與這一謠言不符合的左派,闢謠很有效果,但對於傾向與認同謠言觀點的右派而言,闢謠反而可能讓他們更相信謠言,且政治立場越偏右闢謠的反作用就越大。研究者之後又用關於減稅和幹細胞研究的話題重複了實驗,依然得到了相似的結果。

二、「逆火效應」並非僅限於政治相關話題

比如Byrne and Hart (2009) 就發現一些旨在鼓勵人們戒煙的宣傳反而會使部分人群的吸煙率上升。Nyhan et al. (2014) 用了4種不同的方法向家長們科普疫苗的好處並闢謠疫苗會導致自閉症的傳言(美國有不少人相信),但這4種科普手段雖然減少了家長對疫苗的誤解,但均未能提高家長讓孩子接種疫苗的意願,而那些原本就對疫苗最抵觸的家長甚至更不願意讓孩子接種疫苗了。Nyhan and Reifler (2015) 關於流感疫苗的研究也得到了幾乎完全相同的結果:科普雖然在整體上降低了人們相信「流感疫苗會導致流感」這一謠言的可能,但卻讓那些之前就最不信任流感疫苗的人更不願意接種疫苗了。

三、關於「信仰極化」

一個相關的現象叫「信仰極化」(belief polarization),簡單來說就是對某些客觀事實的宣傳並不會讓不同人群達成共識,反而會激勵他們根據自己原有的信仰站隊,導致更嚴重的兩極分化。比如Batson早在1975年就發現,當基督教徒和非信徒讀到一個對聖經中一些內容的反駁時,非信徒對聖經內容更加懷疑了,而信徒卻更加相信那段經文了。類似地,Gollust et al. (2009) 發現民主黨人更傾向於相信關於社會因素如何導致糖尿病的科普,而共和黨人更有可能拒絕相信這樣的科普,這可能是因為在共和黨人的價值觀中,健康(以及其他許多結果,例如貧窮)主要是受個人選擇和行為而非社會因素的影響(所以也就沒有必要讓政府通過政策來改變現狀)。氣候變化也是一個極化非常嚴重的話題,民眾對於關於氣候變化的信息的接受程度和反應很大程度上受到了他們政治立場的影響,即使被告知自己所處地域會遭受氣候變化的嚴重打擊,許多人仍然選擇堅守立場。相關研究很多,就不贅述了,可以參見Hart and Nisbet (2011) 的研究和總結。

四、越關心政治、教育程match度越高反而固執?

一個人的立場和政治參與/了解程度還會共同影響闢謠/科普的有效性。美國醫保政策熟悉的人很可能也聽說過關於歐巴馬醫保會導致所謂"death panel"的謠言,這一謠言最早是由政客Palin開始傳播的,也已被反覆證偽,但Nyhan et al. (2013) 的研究顯示,民眾對相關闢謠的反應取決於他們對Palin的看法和他們對政治的關心和了解程度:那些對Palin沒有好感的民眾或對Palin有好感但對政治了解不多的民眾在接受闢謠后更不相信"death panel"的存在並更支持歐巴馬醫保改革了,但那些既支持Palin,又對政治比較了解的民眾卻會加倍相信"death panel"並更加反對醫保改革。類似的現象還發生在教育程度上 (Hamilton 2011)。與很多人設想的不同,教育程度與相信氣候變化之間並沒有明顯的相關,而是取決於政治立場。在民主黨支持者當中,教育程度越高則越相信氣候變化,而這在共和黨支持者當中恰好相反,教育程度越高則越可能不相信氣候變化。這有可能是因為教育程度較高的人更有可能接觸到或有能力和精力去尋找反對氣候變化的一些看起來很「科學」的信息。但「看起來科學」和科學的差距還是很大的,即使是教育程度高的人也往往無法準確認知其中的差異,畢竟隔行如隔山。因此誤認為自己有「科學」撐腰的高學歷者就可能會對自己的立場更自信也更難接受相反的信息。

五、「逆火效應」與不堪一擊的信任

「逆火效應」不僅會使人們拒絕相信闢謠,還會使這些人對闢謠的來源產生不信任,從而對將來類似的闢謠產生一定的免疫 (Brehm and Brehm 1981)。Munro (2010) 發現,當人們的原有認知被科學證據反駁時,人們往往並不會改變自己的看法,而是會轉而認為這一話題是沒法用科學下結論的,並對科學方法甚至科學本身產生懷疑和不信任,用類似「科學也不是萬能的」、「這種事沒法用科學研究的」這樣的說法正當化自己的立場。 Nisbet et al. (2015) 也有相似的發現,並且這一傾向在保守派和自由派身上都會出現。通俗點說,用科學研究闢謠不僅有可能闢謠失敗,還會反過來牽連到科學方法、科研人員在一些人眼中的公信力。

六、說到底似乎還是關於三觀

不少研究發現,人們往往會用自己的世界觀(也包括價值觀、政治立場、身份認同等)作為自己認知的基模 (schema),並用其來過濾信息。當新的信息與自己已有的世界觀和認知相矛盾時,人們一般會通過motivated reasoning (動機驅動的思考?) 等策略來消除這些矛盾,例如認定新的信息是錯的或新信息的來源不可信,或是尋找符合自己世界觀的替代信息來反駁那些與之矛盾的信息,或是回歸自己信念的來源來重新堅定自己立場(類似於信徒在被反駁后回去讀一遍經書壓壓驚?),或是乾脆採取更消極和封閉的態度:「不管你怎麼說,我有權利有我自己的想法 / 我怎麼想不管你事...」。

相比這些策略,根據新信息而相應地調整自己的世界觀則顯得更加困難。與其承認自己的錯誤和無知,並改變甚至重建自己的三觀和認知,人們更願意選擇維護自己的三觀,獲得精神勝利。雖然在很多問題上民眾作為整體的認知和態度對解決問題非常重要,但人作為個體往往意識不到自己個人看法會有什麼現實影響,這導致「事實正確」顯得太過抽象,做到「事實正確」的心理效用遠低於「感覺正確」的心理效用,但在認知上所需要付出的努力卻更大。所以與其冒著三觀被顛覆的風險接受新信息,還不如守著自己最熟悉的安全空間讓自己輕鬆、開心一點。

七、那麼應該如何對抗謠言呢?

界自然也研究和嘗試過各種科普和糾正認知的方法,總體結果不容樂觀,似乎很少有策略能廣泛並有效地破除民眾已有的錯誤認知。不過也有一些相對有潛力的策略。一種思路是,既然那些挑戰民眾世界觀的科普容易無效甚至適得其反,那也許可以從framing (框架) 著手,也就是針對不同人群的特點和思維模式,把同樣的科普內容換不同的說法、角度進行交流,避開世界觀、政治立場等高壓線而曲線救國 (Kahan 2010; Lewandowsky et al. 2012). Feinberg and Willer (2012) 在實驗中發現,對於同一個環境保護話題,如果在解釋時更加強調「傷害和關愛」相關的內容,自由派會更容易表示支持,而如果把問題放在「純潔性」的框架下解釋則會讓保守派更支持環保(比如可以說「上帝創造的世界本是純凈的,而污染會損害上帝造物的純潔性,所以人類有責任保護環境」)。Feygina et al. (2010) 也發現,如果讓保守派民眾認為環保是「愛國的」、「維護現狀和美國生活方式的」、「對企業有好處的」,他們很可能會轉而支持環保。

措辭上的細節也很重要,Schuldt et al. (2011) 發現「全球變暖」和「氣候變化」這兩個詞引發的民眾反應有很大差異。當用「全球變暖」這個詞時,民眾更可能不相信,因為「變暖」這個詞方向性太強,普通人很容易望文生義然後拿「冬天明明這麼冷,哪有什麼全球變暖」這樣的局部個例來正當化自己的懷疑,而把用詞換成「氣候變化」后至少民眾很難再用身邊的個例輕鬆「反駁」。類似地,Hardisty et al. (2010) 發現如果把「碳排放稅」這個詞改為「碳排放彌補(carbon offset)」,共和黨人(通常很反對稅收)對其支持率就會提高,但這種用詞上的變化對民主黨人和中立選民則沒有影響。總之,這種策略似乎要求科普和闢謠像廣告公司一樣深入研究不同人群的需求和心理,有針對性地精確投放,而非天真地認為只要客觀地介紹事實就夠了。

而另一些策略似乎就更有操縱性成分了。Cohen et al. (2007) 和 Nyhan and Reifler (2011) 的研究強調了引導信息接收方進行「自我肯定」的重要性。發現在向民眾科普一些與他們世界觀相衝突的內容時,如果讓他們寫一段自己一次踐行重要價值觀/原則的經歷,那麼這種「自我肯定」會讓他們更有安全感/自信,也相對不會認為科普內容威脅到了自己的世界觀,也就更有可能接受科普(說實話我個人感覺這種方法簡直有些patronizing,像哄小孩一樣嘛,但偏偏這種看似愚蠢的方法竟然能奏效...)。對消費者心理的研究也有類似發現 (Cheng et al. 2011) :「自我肯定」可以讓消費者更容易接受他們本來非常喜愛的品牌的負面新聞,因為「自我肯定」讓他們覺得這些負面新聞並不是在貶低他們自己而只是貶低那個品牌(設計台詞:「不要怕,我們只是在說那個品牌不好,並沒有說支持那個品牌的你不好,你最好了,棒棒噠!」...)。

最近一篇關於「假新聞疫苗」的論文(van der Linden et al. 2017)在媒體上也獲得了不少關注。所謂「假新聞疫苗」跟現實中的疫苗原理類似,也就是在人們接觸到真的假新聞之前先發制人地讓人們接觸可能的假新聞,然後進行反駁,從而讓人產生對假新聞的「免疫力」。換句話說,既然人們習慣於先入為主,那麼我們就爭取保證「先入」的是真實信息而非謠言。類似於普通疫苗,這種「心理疫苗」可能也會產生群體免疫效應 (herd immunity),即只要一個群體中足夠多的人接種了疫苗,那麼那些沒有接種的個體也會受到保護,因為這時病毒/謠言已經無法有效地大範圍傳播了。不知在信息時代,相比對疾病的免疫,人們是否更缺乏對錯誤信息的免疫,以至於將來會出現為了讓人們去接種疫苗,得先給人們接種「抗謠言疫苗」的情況......其實這篇論文的思路之前不少研究也採用過,只不過沒放到「疫苗」的框架下討論而已,更多請參考 Lewandowsky et al (2012) 文中的"Using misinformation to inform" 部分。

更多可能的思路和策略請看 Lewandowsky et al (2012) 的總結:

一些總結和思考:

  • 科普和闢謠很難。這些內容的傳播本身就很難,而要做到有效並避免產生反作用就更是難上加難。

  • 人的認知很難改變,尤其是那些紮根於三觀、立場、身份認同的認知。認知的惰性和慣性和人們對安全感、確定性和自尊心的心理剛需讓人很難把觀點和個人區分開,讓人像保護自己一般保護一些哪怕錯誤的觀點。科普和闢謠需要想辦法避免激發這種「自我保護機制」,巧妙地讓人在自我肯定和認同中接受信息。雖然這樣的過程和民眾的各種反應會常常讓人覺得沮喪甚至絕望,但我們不能扔下一句「民眾真蠢」就走了或是期望現狀能自發地有什麼神奇的改變。絕大多數人在絕大多數話題上都是無知的,以前一直都是這樣,將來也一直都會這樣,任何知識的普及都需要在這樣的背景下進行,也需要對這種現狀有足夠的認識和預計。

  • 科普和闢謠需要盡量主動出擊,先發制人,即使無法改變所有人的看法(比如一些持有特定世界觀或政治立場的人群),也要盡量爭取圍觀群眾,擠壓謠言和誤解的生存空間,畢竟這個陣地「我們不去佔領,別人就會來佔領」。

  • 在現代社會,有效的科普和闢謠往往需要有一些類似於「市場調研」的支持,需要創新、策略甚至專業運營。

  • 科普和闢謠不能只靠個體的興趣和熱情,還需要制度性的鼓勵和組織,也需要更多專業研究和政策支持。

還有一些相關的想法和吐槽放在最後吧:

1. 闢謠最有可能觸及到的恰好是那些對相關話題非常關心的人,但這些人也同樣更有可能已經順著謠言的方向進行了研究,找到了許多似乎可以佐證謠言的相關信息,找到了一些志同道合的小團體,並在這件事上投入了大量的時間、感情甚至金錢。這時如果有人說其實他們相信的都只是謠言,那豈不等於說他們之前的投入都白費了,都是沉沒成本了嗎?在這種情況下不少人是寧可抱著沉沒成本一起沉沒也不願意接受現實而跳船的。

2. 關於陰謀論我也想稍微說幾句。一些人會有這樣的邏輯:「有人反對了,就說明觸動到那些人利益了,說明我的理論是對的,而反對聲越大,則觸動的利益越大。什麼?學界專家99%反對?那必然是學界被收買了/政治正確,我再也不信學界了。」一旦有了這種信念,一些人甚至會發展出一種基於陰謀論的使命感:「學界/媒體全都被收買了,只能靠我來拯救眾人了,所以無論他們怎麼反對我,我都要挺住,絕對不向他們屈服!」

所謂「只有小孩才分對錯,大人只講利益」的價值觀真是害人不淺,一些人發自內心地不相信有人真的會因為真相和公共利益而非私利而發聲。就xiang評論里說的:人不是你撞的,你為什麼要扶?!……

這也讓我想起了一個笑話:

一個人醉酒駕車,結果在路上逆向行駛,然後邊開邊給朋友打電話:「今天大家都怎麼了?為什麼所有人都在逆行?」。

當你覺得絕大多數人都在逆行的時候,是否應該至少反思一下有沒有可能是自己在逆行呢?是否應該看一下路邊和地上的標誌呢?為什麼就盲目自信只有自己才是對的呢?

3. 不少人(有時也許也包括我自己)在獲取信息時本來就不是為了獲取「真相」,而是為了「自我肯定」,為了感受他們腦中對事物已有的觀點和思維模式 (schema) 得到確認和支持的那種優越感和快感。很多人在看完某篇文章后最期待說的的不是 「原來…?」,而是 「果然…!」 。把一句「我早就說過吧!」拍在別人臉上帶來的多巴胺遠勝於發現自己的錯誤並默默習得新的知識。

4. 人們常常無法把觀點和個人分開,覺得觀點錯了就等於自己丟面子。無知應該是個中性詞,絕大多數人在絕大多數問題上都是無知的,知道自己無知是一種優點,元無知(不知道自己無知)才是真無知。一個人如果一直都是對的則說明ta沒有進步,而如果不停地發現自己的錯誤則ta很有可能一直在學習。

參考文獻:

  • Batson, C. D. (1975). Rational processing or rationalization? The effect of disconfirming information on a stated religious belief. Journal of Personality and Social Psychology32(1), 176–184. doi.org/10.1037/h0076771

  • Brehm, S. S., & Brehm, J. W. (2013). Psychological Reactance: A Theory of Freedom and Control. Academic Press.

  • Byrne, S., & Hart, P. S. (2009). Communication Yearbook 33. Routledge.

  • Byrne, S., & Hart, P. S. (2009). The Boomerang Effect A Synthesis of Findings and a Preliminary Theoretical Framework. Annals of the International Communication Association, 33(1), 3–37. The Boomerang Effect A Synthesis of Findings and a Preliminary Theoretical Framework

  • Cheng, S. Y. Y., White, T. B., & Chaplin, L. N. (2012). The effects of self-brand connections on responses to brand failure: A new look at the consumer–brand relationship. Journal of Consumer Psychology, 22(2), 280–288. The effects of self-brand connections on responses to brand failure: A new look at the consumer-brand relationship

  • Cohen, G. L., Sherman, D. K., Bastardi, A., Hsu, L., McGoey, M., & Ross, L. (2007). Bridging the partisan divide: Self-affirmation reduces ideological closed-mindedness and inflexibility in negotiation. , 93(3), 415–430.doi.org/10.1037/0022-3514.93.3.415

  • Feinberg, M., & Willer, R. (2013). The Moral Roots of Environmental Attitudes. Psychological Science, 24(1), 56–62. The Moral Roots of Environmental Attitudes

  • Feygina, I., Jost, J. T., & Goldsmith, R. E. (2010). System Justification, the Denial of Global Warming, and the Possibility of 「System-Sanctioned Change.」 Personality and Social Psychology Bulletin, 36(3), 326–338. doi.org/10.1177/0146167209351435

  • Gollust, S. E., Lantz, P. M., & Ubel, P. A. (2009). The Polarizing Effect of News Media Messages About the Social Determinants of Health. American Journal of Public Health99(12), 2160–2167. The Polarizing Effect of News Media Messages About the Social Determinants of Health

  • Hamilton, L. C. (2011). Education, politics and opinions about climate change evidence for interaction effects. Climatic Change, 104(2), 231–242. Education, politics and opinions about climate change evidence for interaction effects

  • Hardisty, D. J., Johnson, E. J., & Weber, E. U. (2010). A dirty word or a dirty world?: Attribute framing, political affiliation, and query theory. , 21(1), 86–92.doi.org/10.1177/0956797609355572

  • Hart, P. S., & Nisbet, E. C. (2012). Boomerang Effects in Science Communication: How Motivated Reasoning and Identity Cues Amplify Opinion Polarization About Climate Mitigation Policies. Communication Research, 39(6), 701–723. Boomerang Effects in Science Communication

  • Kahan, D. (2010). Fixing the communications failure. Nature, 463(7279), 296–297.doi.org/10.1038/463296a

  • Lewandowsky, S., Ecker, U. K. H., Seifert, C. M., Schwarz, N., & Cook, J. (2012). Misinformation and Its Correction: Continued Influence and Successful Debiasing.Psychological Science in the Public Interest, 13(3), 106–131. doi.org/10.1177/1529100612451018

  • Munro, G. D. (2010). The Scientific Impotence Excuse: Discounting Belief-Threatening Scientific Abstracts. Journal of Applied Social Psychology, 40(3), 579–600.doi.org/10.1111/j.1559-1816.2010.00588.x

  • Nyhan, B., & Reifler, J. (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior, 32(2), 303–330. When Corrections Fail: The Persistence of Political Misperceptions

  • Nyhan, B., & Reifler, J. (2011). Opening the political mind? The effects of self-affirmation and graphical information on factual misperceptions. Unpublished manuscript.

  • Nyhan, B., & Reifler, J. (2015). Does correcting myths about the flu vaccine work? An experimental evaluation of the effects of corrective information. Vaccine, 33(3), 459–464.Elsevier: Article Locator

  • Nyhan, B., Reifler, J., Richey, S., & Freed, G. L. (2014). Effective Messages in Vaccine Promotion: A Randomized Trial. Pediatrics, 133(4), e835–e842. Effective Messages in Vaccine Promotion: A Randomized Trial

  • Nyhan, B., Reifler, J., & Ubel, P. A. (2013). The hazards of correcting myths about health care reform. Medical Care, 51(2), 127–132. doi.org/10.1097/MLR.0b013e318279486b

  • Schuldt, J. P., Konrath, S. H., & Schwarz, N. (2011). 「Global warming」 or 「climate change」?Whether the planet is warming depends on question wording. Public Opinion Quarterly75(1), 115–124. 「Global warming」 or 「climate change」?

  • van der Linden, S., Leiserowitz, A., Rosenthal, S., & Maibach, E. (2017). Inoculating the Public against Misinformation about Climate Change. Global Challenges, 1(2), n/a-n/a.Inoculating the Public against Misinformation about Climate Change



熱門推薦

本文由 yidianzixun 提供 原文連結

寵物協尋 相信 終究能找到回家的路
寫了7763篇文章,獲得2次喜歡
留言回覆
回覆
精彩推薦