2011/12/02

デバンキングハンドブック (1/6) デバンクについての誤情報をデバンクする

[Cook, J., Lewandowsky, S. (2011), The Debunking Handbook. St. Lucia, Australia: University of Queensland. November 5. ISBN 978-0-646-56812-6.]

Debunking myths is problematic. Unless great care is taken, any effort to debunk misinformation can inadvertently reinforce the very myths one seeks to correct. To avoid these “backfire effects”, an effective debunking requires three major elements. First, the refutation must focus on core facts rather than the myth to avoid the misinformation becoming more familiar. Second, any mention of a myth should be preceded by explicit warnings to notify the reader that the upcoming information is false. Finally, the refutation should include an alternative explanation that accounts for important qualities in the original misinformation.

誤情報をデバンクするのは、なかなかむつかしい。よほど注意してないと、誤情報をデバンクするための努力が、意図せずして、正そうとした誤情報を逆に強化してしまうことがある。このような「バックファイアー効果」を避けるために、効果的なデバンクに次の3大要素が必要だ。第1は、誤情報に慣れ親しまないように、反論は、誤情報ではなくコアな事実に焦点をあてる必要がある。第2は、誤情報に言及するときは、読者に対して予め明確に、誤情報であることを述べておくこと。最後は、反論には、元の誤情報で重要な位置を占めている問題についての、代替説明を加えるべきであること。

Debunking the first myth about debunking
デバンクについての誤情報をデバンクする


It’s self-evident that democratic societies should base their decisions on accurate information. On many issues, however, misinformation can become entrenched in parts of the community, particularly when vested interests are involved.1,2 Reducing the influence of misinformation is a difficult and complex challenge.

正確な情報に基づいて意思決定することを、民主主義社会は基礎とすべきことは自明である。多くの問題で、しかし、既得権益が絡んでいる場合は特に、コミュニティの一部に誤情報が定着することがある。誤情報の影響を減らすことは困難かつ複雑な課題である。

A common misconception about myths is the notion that removing its influence is as simple as packing more information into people’s heads. This approach assumes that public misperceptions are due to a lack of knowledge and that the solution is more information - in science communication, it’s known as the “information deficit model”. But that model is wrong: people don’t process information as simply as a hard drive downloading data.

誤情報についてのよくある誤解は、誤情報の影響の除去は、人々の頭に情報を詰め込めばいいというものだ。このアプローチは、大衆の誤解が知識不足によるものであると仮定し、その解決策はサイエンスコミュニケーションにおける、より多くの情報だというものである。これは「情報の欠如モデル」として知られている。しかし、このモデルは間違っている。ハードディスクにデータをダウンロードするように、人々は情報を処理しているわけではない。

Refuting misinformation involves dealing with complex cognitive processes. To successfully impart knowledge, communicators need to understand how people process information, how they modify their existing knowledge and how worldviews affect their ability to think rationally. It’s not just what people think that matters, but how they think.

誤情報への反論には、複雑な認知過程への対処が必要である。うまく知識を伝えるには、コミュニケータは、人々がどのように情報を処理し、既存知識をどのように修正し、世界観が合理的思考能力にどのように影響するのか理解しておく必要がある。

First, let’s be clear about what we mean by the label “misinformation” - we use it to refer to any information that people have acquired that turns out to be incorrect, irrespective of why and how that information was acquired in the first place. We are concerned with the cognitive processes that govern how people process corrections to information they have already acquired - if you find out that something you believe is wrong, how do you update your knowledge and memory?

まず、我々は「誤情報」という言葉の"の意味を明確にしておこう。それは、人々がその情報を獲得した理由や方法に関わりなく、人々が獲得した、間違っていると判明している情報のことである。既に獲得した情報を人々が修正する過程を支配する認知過程を、我々は相手にしている。我々は信じていた何かが間違いだとわかったとき、どのようにして知識や記憶を更新するのだろうか?

Once people receive misinformation, it’s quite difficult to remove its influence. This was demonstrated in a 1994 experiment where people were exposed to misinformation about a fictitious warehouse fire, then given a correction clarifying the parts of the story that were incorrect.3 Despite remembering and accepting the correction, people still showed a lingering effect, referring to the misinformation when answering questions about the story.

ひとたび人々が誤情報を受け取ると、その影響を除去するのは非常に困難だ。これは1994年に行われた「被験者に架空の倉庫火災についての誤情報を知らせ、その後に、誤っていた情報の一部を訂正する情報を与えた」実験で示されている。被験者たちは、この訂正情報を覚えていて、受け入れているにもかかわらず、質問に対する回答で誤情報の方を引用するという残留効果を示した。

Is it possible to completely eliminate the influence of misinformation? The evidence indicates that no matter how vigorously and repeatedly we correct the misinformation, for example by repeating the correction over and over again, the influence remains detectable.4 The old saying got it right - mud sticks.

では、誤情報の影響を完全に除去することは可能なのだろうか? いかに精力的に誤情報の訂正を繰り返し行っても、たとえば訂正情報を何度も何度も与えても、誤情報の影響は検出可能なレベルで残っている。古いことわざは正しかった。「たとえ裁判で無罪になっても、悪評は残る」

There is also an added complication. Not only is misinformation difficult to remove, debunking a myth can actually strengthen it in people’s minds. Several different “backfire effects” have been observed, arising from making myths more familiar,5,6from providing too many arguments,7or from providing evidence that threatens one’s worldview.8

さらなる合併症状もある。誤情報の除去は困難であり、さらには誤情報のデバンクで人々の信念を逆に強化していまうことがある。誤情報をより身近にしてしまったり、多くの論を与えすぎたり、人々の世界観の脅かすような証拠を提示したりするなどにより、
幾つかの違った「バックファイアー効果」が見られている。

The last thing you want to do when debunking misinformation is blunder in and make matters worse. So this handbook has a specific focus - providing practical tips to effectively debunk misinformation and avoid the various backfire effects. To achieve this, an understanding of the relevant cognitive processes is necessary. We explain some of the interesting psychological research in this area and finish with an example of an effective rebuttal of a common myth.

誤情報のデバンクで最もやりたくことは、失態であり、問題のさらなる深刻化である。そこで、このハンドブックでは、主として、誤情報の効果的なデバンクや様々なバックファイヤー効果を回避するための、実用的なTIPSにフォーカスした。これを実現するためには、関連する認知価値の理解が不可欠である。我々は、この分野についての興味深い心理学研究について説明し、広まっている誤情報への効果的反論例を提示する。

It’s not just what people think that matters, but how they think.
人々が考えていることのみが問題ではない、人々が考える方法が問題なのだ。


1. Jacques, P. J., & Dunlap, R. E. (2008). The organisation of denial: Conservative think tanks and environmental skepticism. Environmental Politics, 17, 349-385.
2. Oreskes, N., & Conway, E. M. (2010). Merchants of doubt. Bloomsbury Publishing.
3. Johnson, H. M., & Seifert, C. M. (1994). Sources of the continued influence effect: When discredited information in memory affects later inferences. Journal of Experimental Psychology: Learning, Memory, and Cognition, 20 (6), 1420-1436.
4. Ecker, U. K., Lewandowsky, S., Swire, B., & Chang, D. (2011). Correcting false information in memory: Manipulating the strength of misinformation encoding and its retraction. Psychonomic Bulletin & Review, 18, 570-578.
5. Skurnik, I., Yoon, C., Park, D., & Schwarz, N. (2005). How warnings about false claims become recommendations. Journal of Consumer Research, 31, 713-724.
6. Weaver, K., Garcia, S. M., Schwarz, N., & Miller, D. T. (2007). Inferring the popularity of an opinion from its familiarity: A repetitive voice sounds like a chorus. Journal of Personality and Social Psychology, 92, 821-833.
7. Schwarz, N., Sanna, L., Skurnik, I., & Yoon, C. (2007). Metacognitive experiences and the intricacies of setting people straight:Implications for debiasing and public information campaigns. Advances in Experimental Social Psychology, 39, 127-161.
8. Nyhan, B., & Reifler, J. (2010). When Corrections Fail: The Persistence of Political Misperceptions. Political Behavior, 32, 303-330.

つづく...


デバンキングハンドブック:
posted by Kumicit at 2011/12/02 02:20 | Comment(0) | TrackBack(0) | ID: General | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前:

メールアドレス:

ホームページアドレス:

コメント: [必須入力]


この記事へのトラックバック