2006/07/08

Dembskiの2005年版Specificationの定義を批判するMark Frank

インテリジェントデザイン理論家Dr. William Dembskiは何とか、インテリジェントデザインの中心的概念である"Specification"を定義しようとして、のたうっている。何しろ、「自然法則でも偶然でも説明できなくて、意味ありげ(Specified)なものはデザインだ!!」というDembskiの説明フィルタが、誰が見ても"God of the gaps"論そのものだからだ。"Specified"が定義できれば、道は拓けそうな気になっているのだろう。

ただ、生物とは、「機能する複数の部品が組み合わさったひとつの機械」と見ることができる。すなわち、どんな生物のどんな器官も「意味ありげ」なのだ。だから、進化経路がわかっていない生物やその器官は何でも「デザイン」になる。従って、機能性などを取り上げて、"Specified"を定義しようというのは無理ということだ。

そこで、確率論に持ち込んで定義しようとしたらしい。それが:

==>William A. Dembski: Specification: The Pattern That Signifies Intelligence, 2005

41ページと長々しく、既に批判されまくっているネタたる"Specified"なので、誰もあいてにしなかったのだが、ただひとり、Mark Frankだけは批判を執筆した:

==>Mark Frank: Detecting design: Specification versus Likelihood

執筆者Mark Frank本人は、簡単すぎたかなあと言っているのだが、それほど簡単でもない。とりあえず、一通り全訳つけたので、見たい人はどうぞ。


http://www.talkreason.org/articles/likely.cfm
Detecting design: Specification versus Likelihood
By Mark Frank

Abstract

The Intelligent Design (ID) movement proposes that it is possible to detect whether something has been designed by inspecting it, assessing whether it might have been produced by either necessity or chance alone, and, if the answer is negative, concluding it must have been designed. This means there is no need to make any commitments about the nature of the designer.

インテリジェントデザイン運動は、それが必然でも偶然でも創られたかどうかを調べて、その答えが否定的であれば、それがデザインされたはずだと結論するという調査方法によって、何かがデザインされたかどうか検出できるのだと提唱する。これは、デザイナーの性質についていかなるコミットメントも必要ではないことを意味する。

This approach relies heavily on the concept of specification. The proponents of ID have made various attempts to define specification. A recent attempt is in a paper written by William Dembski in 2005 which is clearly intended to supersede previous attempts. This essay examines this revised definition of specification and highlights some issues in Dembski's paper. It also proposes that our intuitive understanding of when an outcome is implausible is much better explained by a comparison of the likelihoods of different hypotheses. Finally the essay considers some of Dembski's objections to the comparison of likelihoods and Bayesian approaches in general.

このアプローチは、"指定(Specification)"のコンセプトに大きく依存している。インテリジェントデザインの支持者たちは、"指定"を定義しようという様々な試みをしてきた。最近の試みは、William Dembskiの2005年の文献であり、これは明らかに従来の試みに取って代わるものである。このエッセイは改訂された"指定(Specification)"を調べ、Dembskiの文献の問題点を挙げる。結果が信じがたいときの我々の直感的理解が、異なる仮説の尤度によって、はるかにうまく説明されることを提唱する。最後に、このエッセイで尤度とベイジアンアプローチの比較に対するDembskiの異論を考慮する。


Introduction

There are a large number of refutations of the Intelligent Design movement on the Internet, in academic journals, and in books. Many of the authors have better credentials than I do. So it is reasonable to ask -- why another one? There are two reasons:

ネット上や学術誌や本でインテリジェントデザイン運動は大量に反証されてきた。その多くは私よりも成果が大きい。従って、さらにもう1本書くのは何故かと問うのは合理的だろう。理由は2つある:

  • William Dembski wrote a new paper in June 2005 (Dembski 2005a) which supersedes his previous explanations of concepts such as specification. As far as I know, no one has made a new assessment based on this paper. Quite possibly earlier critics have grown tired of pointing out the obvious, but I am new to this game and remain motivated.



    William Dembskiは2005年6月に新しい文献(Dembski 2005a)を書いて、"指定(Specification)"のようなコンセプトの彼のこれまでの説明を改訂した。私の知る限り、この文献について誰も新しい評価をしていない。おそらく初期の批判者たちは自明なことを指摘するのにうんざりしてきたのだろう。しかし、私はこのゲームの新規参入者であり、まだ動機を失っていない。

  • I have tried hard to make this essay readable for someone with little knowledge of statistics or probability. The downside of this is that those who know a bit will find parts childishly simple.



    確率統計に疎い人々でもこのエッセイを読めるようにした。このエッセイの良くないところは、少しでも知っていれば、子供っぽく単純な部分があるとわかることである。



Body

Suppose you buy a new computer game that plays poker with you. It is meant to deal you a poker hand at random [1] and then play a game with you. You start it up and on the very first round it deals you these five cards:

あなたはコンピュータゲーム"ポーカー"を買ったとしよう。それは、ランダムにあなたに手札を配って、ゲームを始めるはずだ[1]。そして、あなたはゲームを始めて、その最初のラウンドで、次のような手札が配られたとしよう:

A♠, K♠, Q♠, J♠, 10♠

(For those who don't know the rules of Poker - this hand is known as a Royal Flush and it's the highest Hand You can get).
(ポーカーを知らない人のために言っておくと、この手札はロイヤルフラッシュで、最高の手札である)

What would your reaction be? Do you accept that you were lucky, or do you decide that the program did not deal your hand randomly, it is not performing as advertised, and you return it to the shop with an angry note? Almost anyone with a small knowledge of poker would make the second choice. The chances of getting a Royal Flush if the cards are dealt randomly are about 2.5 million to 1. This is roughly the same as the odds of you being killed by lightning in the coming year.

あなたはどう思うだろうか? ラッキーだったと思うだろうか。それとも、広告どおりに動作せず、ランダムに手札を配っていないと、怒りのメモつきで店に返品するだろうか?少しでも、ポーカーを知っていれば、ほとんど誰でも後者を選ぶだろう。ランダムに手札が配られれば、ロイヤルフラッシュを手にする確率は250万分の1である。これは、おおよそ、これから1年に稲妻で死亡するくらいに珍しい。

Now suppose instead the computer deals you this hand:
では、コンピュータが次の手札を配ったとしよう:

2♣, 3♦, 7♥, 10♠, Q♦

There is nothing special about this hand in poker -- in fact it has a very low score. Most poker players would accept that this was a random deal without a second thought. But the probability of getting this hand with a random deal is the same as the probability of getting the first hand. In fact the probability of getting any named five cards is the same.

この手札はポーカーでは特別なものではない。事実、これはとても低い得点だ。ほとんどのポーカープレイヤーはランダムに配られたと考えるだろう。しかし、この手札を配られる確率と、前の手札を配られる確率と同じである。事実、いかなる名前つきの5枚のカードも配られる確率は同じだ。

These examples crop up repeatedly in this essay so I will give them names. I will call the first one Hand X and the second one Hand Y.

これらの例は、このエッセイで繰り返し使うので名前を付けておこう。最初のを手札Xとし、二つめのを手札Yとする。

Why do we count Hand X as an incredible coincidence -- so much so that we dismiss the possibility of a random deal -- while we accept Hand Y as quite normal? Hand X is in some sense special; whereas Hand Y is ordinary.

何故我々は、手札Yをまったくの普通だと思うのに、ランダムに手札が配られている可能性を棄却するほど、手札Xを信じがたい偶然と考えるのだろか。手札Xは何らかの意味で特別で、手札Yは普通であると。

This is an important question in statistics, and there is some dispute over the answer. It is also an important question for the intelligent design movement and its proponents believe they have the answer. They would claim the first hand is not just improbable but also that it is specified. That is, it conforms to a pattern and this is what makes it so special. (They then go on to say that some living systems are also specified and that the conventional explanation of evolution based on random mutation and natural selection can be dismissed, just as the random deal can be dismissed as an explanation of the Royal Flush.)

これは統計における重要な問題であり、答えについて幾らかの議論がある。それはインテリジェントデザイン運動にとっても重要な問題であり、その支持者たちは答えを持っていると信じている。彼らは第1の手札がありえないだけでなく、"指定されている"と主張している。すなわち、それはパターンに従っており、これはそれを特別なものにしていると。(彼らは、さらに、幾らかの生物システムが同様に"指定されて"おり、突然変異と自然淘汰という進化論の従来の説明は成り立たないと言う。ロイヤルフラッシュの説明として、ランダムな手札の配りが成り立たないように。)

The leading figure in explaining the intelligent design concept of specification is William Dembski. He has written about the subject many times as he tries to refine and justify the concept. His most recent explanation is "Specification: The Pattern That Signifies Intelligence" (Dembski, 2005) a paper to be found on his web site. He says in addendum 1, referring to previous explanations of specification in his books, that: "The changes in my account of these concepts here should be viewed as a simplification, clarification, extension, and refinement of my previous work..." So it seems we are pretty safe as treating this paper as superseding all previous explanations of specification and representing the definitive view of the intelligent design movement.

"指定"のインテリジェントデザインのコンセプトを説明する重鎮はWilliam Dembskiである。彼はこのコンセプトを洗練し、正当化しようとして、何度もこの話題について執筆している。彼の最も新しい説明は、彼のWebサイトに文献[Dembski 2005]にある「"指定"(Specification): 知性を意味するパターン」である。彼はaddendum 1において、彼の本たちにおける従来の"指定"(Specification)の説明に触れて、「これらのコンセプトの説明の変更は、単純化・明確化・拡張および精緻化と見るべきである」と書いている。従って、この文献をこれまでの"指定"(Specification)の説明に取って代わり、インテリジェントデザイン運動の最も信頼できる見方だと考えてよい。

Dembski's paper is 41 pages long, and his definition of specification is complex, so I will try to extract the key points. He approaches specification in stages, starting with Fisherian significance testing. This form of testing a hypothesis is a useful stepping stone to his concept of specification because it is familiar to many readers and is similar to specification in some important respects. It is an alternative way of looking at an event and deciding whether that event could plausibly be the result of a given hypothesis. Fisherian significance testing guides us to make this decision based on whether the observed data are extreme [2]. For example, suppose a car is rated by the government as having an average fuel consumption of 40 miles per gallon (mpg). A consumer organisation wishes to check this figure and monitors the fuel consumption of a sample of 10 cars from different owners. They find that the average fuel consumption of the 10 cars is 30 mpg. It is possible that the government is right and that this was just a sample of cars that for various reasons (driving habits, poor servicing, urban environment) had a worse than average fuel consumption. However, the more the measured fuel consumption of the sample differs from 40 mpg the more we would be inclined to say that the government was wrong and the hypothesis that the average fuel consumption is 40 mpg can be rejected. This applies if the sample fuel consumption is very high or very low. This is similar to the example of Hand X in that a hypothesis (random deal, 40 mpg average fuel consumption) is rejected because the results (Royal Flush, very high or low sample average fuel consumption) are very unlikely given the hypothesis. But in the case of the vehicle fuel consumption there is no specification. High or low sample averages are not special in the way that a Royal Flush is. They are just extreme. They are at the edges of what is possible given the hypothesis that the average fuel consumption is 40 mpg.

Dembskiの文献は41ページの長さがあり、彼の"指定"(Specification)の定義は複雑なので、キーポイントを抽出したいと思う。彼は"指定"(Specification)に対するアプローチは段階をおっており、まず、Fisherの有意性検定から始めている。この形式の仮説テストは、多くの読者が慣れ親しんでいて、幾つかの重要な観点で"指定"(Specification)と似ているので、有効な踏み石になる。イベントについての代替的見方であって、イベントが与えられた仮説の結果であると納得できるかどうか判断方法である。Fisherの有意性検定は観測されたデータが極端なのかどうかに基づいて判断できるようにしてくれる[2]。たとえば、政府によって40マイル/ガロンの平均的燃料消費であると評価されている車があったとしよう。そして、消費者団体がこの数字をチェックしようと別々の所有者の車10台のサンプルの燃料消費を計測した。10台の車の平均燃費が30マイル/ガロンだった。政府は正しくて、サンプルの車たちは、運転の習慣や保守の悪さや都市環境など、様々な理由で平均燃費より悪かったのかもしれない。しかし、もっと多くの計測例で40マイル/ガロンから乖離しているなら、政府は間違っていて、平均燃費が40マイル/ガロンであるという仮説は棄却される。これは、サンプルの燃料消費が非常に大きいか小さいときに適用される。これは手札Xの例と似ていて、結果(ロイヤルフラッシュ・サンプルの平均燃費が大きすぎるか小さすぎる)が仮説(ランダムな手札の配り方・40マイル/ガロンの平均燃費)から与えられるものではありえないので、仮説が棄却される。しかし、自動車の燃料消費の例では、"指定"(Specificationはない。サンプルの平均が大きいか小さいかは、ロイヤルフラッシュのような特別なものではない。ただ極端なだけだ。それは、40マイル/ガロンの平均燃費という仮説から与えられる可能性のエッジであるということだ。

Dembksi also includes an extension of this concept. Suppose that all 10 cars in the sample returned a fuel consumption that was exactly 40 mpg within the accuracy of our measurement system. He would claim that this is also evidence against the hypothesis because the observed data are too good [3]. This is a curious observation and not, as far as I know, part of Fisher's approach to significance testing. I will come back to it later in the essay.

Dembskiはこのコンセプトの拡張を含ませた。サンプルの10台の車すべてが、計測システムの測定精度において正確に40マイル/ガロンだったとしよう。彼は、観測されたデータが良すぎるので、仮説に反する証拠だと主張する[3]。これは奇妙な話で、私の知る限り、有意性検定に対するFisherのアプローチにそのようなものはない。これについてはエッセイの後方で再度触れることにする。

Dembski then goes on to treat specification as an extension of classical hypothesis testing, only now the reason for rejecting a hypothesis is not defined in terms of the extremity of the observed data; instead he defines specification in terms of conforming to patterns. In the two examples of poker hands above, Hand X could be said to conform to a pattern and that is the reason it is special. In fact Hand X conforms to many patterns. Here are just a few of them:

Dembskiはそして、古典的仮説検証の拡張として"指定"(Specification)を扱い続ける。今や仮説を棄却する理由は、観測されたデータの極端さによって定義されない。その代わりに彼は"指定"(Specification)をパターンに従うという意味で定義する。上記のポーカーの手札の2つの例では、手札Xはパターンに従っていて、それゆえに特別だと言う。事実、手札Xは多くのパターンに従っている。たとえば:

Patterns which Hand X (A♠, K♠, Q♠, J♠, 10♠) conforms to

Pattern
パターン
An example of another hand that conforms to the same pattern
パターンの例
All 5 cards have different values
5
枚がすべて異なる数字
2♣, 3♦, 7♥, 10♠, Q♦
All 5 cards are in a numerical sequence
5
枚が数列に
7♣, 8♦, 9♥, 10♠, J♦
All 5 cards are of the same suit
マークが同じ
2♣, 3♣, 7♣, 10♣, Q♣
Is a Royal Flush
ロイヤルフラッシュ
A♣, K♣, Q♣, J♣, 10♣
Is a Royal Flush in the suit of spades
スペードノロイヤルフラッシュ
no other hand matches this pattern


To get to his definition of specification Dembski concentrates on two properties of a pattern. One property is "the probability that the chance hypothesis under investigation will match the pattern". He doesn't have a word for this but you could say that some patterns are more demanding of the hypothesis than others, in the sense that the hypothesis is less likely to produce a result that matches these patterns than others. So the pattern "All 5 cards have different values" is not very demanding of a random deal because there are many, many different hands that conform to that pattern. The pattern "Is a Royal Flush" is extremely demanding as only four hands match the pattern.

Dembskiの"指定"(Specification)の定義に到達するために、Dembskiはパターンの2つの特性に着目する。ひとつは「調査対象の偶然仮説がパターンにマッチする確率」である。彼はこれについての用語を定めないが、あるパターンは他のパターンよりさらなる仮説を必要とすると言えるかもしれない。あるいは、仮説は、別なパターンよりこれらのパターンにマッチする結果をもたらすと考えられないと。なので、「5枚すべてが異なる数字である」というパターンはランダムな手札配りを要求しない。というのは、このパターンに従う手札は多数あるからだ。パターンがロイヤルフラッシュであるというのは、4つの手札しかマッチしないので、極端にランダムな手札配りを要求している。

The other property is the simplicity of describing the pattern. This is a subtler property. It has to do with the minimum number of concepts that are needed to describe the pattern. For example, the string of numbers:

もうひとつの特性は、パターン記述の単純さである。これはより微妙な特性だ。これは、パターンを記述すためにひつよなコンセプトの数の最小値と関係する。たとえば、数列:

2, 2, 2, 2, 2, 2, 2, 2, 2, 2

can be described as "repeat 2 ten times". However, it is hard to see how to describe the following string so succinctly:

は、「2を10回繰り返す」と書ける。しかし、次の数列は簡潔に記述する方法が見つけ難い:

2, 7, 132, 41, 13, 1006, 18, 25, 99, 7

Dembski defines this idea more formally on page 16 of the paper. I don't think the concept of simplicity is as clear as he suggests -- but it makes rough intuitive sense that the pattern "Is a Royal Flush" is simpler than the pattern "Includes a 2, 3, 7, 10 and Q".

Dembskiは文献の16ページで、より正式にこのアイデアを定義している。私は彼が言うほど、単純さのコンセプトが明確だとは考えない。しかし、パターンがロイヤルフラッシュであるということは、パターンが2,3,7,10, Qを含むよりも単純であると、ラフに直感的に意味する。

Dembski then defines the specification of an observed event in terms of the simplest pattern which that event conforms to and the list of all equally simple or simpler patterns that it might have conformed to, but didn't. He calls the number of such patterns the specificational resources of the event. This is something of a mouthful so I will try to expand on it. Hand X conforms to the pattern "Is a Royal Flush". Let us assume that we are clear about what "simple" means and that "Is a Royal Flush" is the simplest pattern that this hand matches. Then the specificational resources associated with Hand X is the number of other patterns that a poker hand might conform to that are equally simple or simpler. For example, the pattern "comprises 2, 3, 4, 5, 6 all of the same suit" would appear to be equally simple and should be included in the list of patterns that go to make up the specificational resources of Hand X. It seems that the intuition that Dembski is trying to express more precisely is that when we say "what a coincidence" on receiving a Royal Flush we should recognise that there are a number of other hands we might have received that would have produced a similar level of surprise. Before ruling out the hypothesis of a random deal we should consider the total probability of producing an outcome that is at least as surprising.

イベントが従う最も単純なパターンおよび、従ったかもしれないが、実際には従っていない、すべて等しく単純もしくはより単純なパターンのリストという形で、Dembskiは観測されたイベントの"指定"(Specification)を定義する。彼はそのようなパターンの数をイベントの"指定可能なリソース"(Specificational Resource)と呼んでいる。これはちょっと、言葉が少なすぎるので、私が詳述しよう。手札Xは"ロイヤルフラッシュ"というパターンに従う。単純が意味するものが何である明白であり、この手札が従う最も単純なパターンは"ロイヤルフラッシュ"であると仮定することにしよう。そうすると、手札Xに伴う指定可能なリソースは、等しく単純か、より単純なパターンで、ポーカーの手札が従う他のパターンの数である。たとえば、同じマークの2, 3, 4, 5, 6というパターンは、等しく単純であり、手札Xの指定可能なリソースのリストに加えられるべきである。Dembskiがより正確に表現しようとした直感は、ロイヤルフラッシュを配られて、「何て偶然だ」というとき、同程度の驚きを生み出す、多くの異なる手札があって、それを配れるかもしれないこを我々は認識すべきだということのようだ。ランダムな手札配りの仮説を棄却する前に、我々は少なくとも驚きに値する結果を出す全確率を考える必要がある。

Actually there is further refinement to the concept of specificational resources which creeps into Dembski's paper without comment. A pattern may be simpler than another but also less demanding, i.e. easier to achieve by chance. The pattern "contains no aces" is extremely simple -- surely at least as simple as a Royal Flush -- but there is a high probability of a random deal having no aces. On page 18 of the paper Dembski appears to define specificational resources as including any pattern at least as simple as the observed pattern. This would mean the specificational resources of the Royal Flush included patterns such as "has no aces" which are not at all demanding. Then on page 19 he switches to the probability of matching any pattern which is simpler and more demanding than the observed pattern. This makes sense in terms of satisfying our intuitive feeling that a Royal Flush is an extraordinary coincidence although there is no attempt to justify the revised definition. Let us, however, accept the amended definition: the specificational resources of an event is a number which is calculated by counting the simplest pattern which the event conforms to plus all the other patterns it might have conformed to which are at least as simple and no more probable.

実は、指定可能リソースのコンセプトにさらなる改良が、コメントなしにDembskiの文献にこっそり加えられている。他のパターンよりも単純なパターンは、しかし、要求が小さく、すなわち、偶然によって実現しやすい。"エースを含まない"パターンは非常に単純であり、確かに少なくともロイヤルフラッシュと同程度に単純であるが、エースのない手札を配る確率は高い。Dembskiの文献の18ページで、Dembskiは、少なくとも観測されたパターンと同じくらいに単純なあらゆるパターンを含むものとして、指定可能リソースを定義しようとしている。これは、ロイヤルフラッシュの指定可能リソースは、何も要求しない"エースのない"パターンのようなパターンを含む。改訂された定義を正当化する試みがないにもかかわらず、ロイヤルフラッシュが驚異的な偶然だという我々の直感的感覚を満たす意味で、これは意味をなす。しかしながら、この改訂された定義を受け入れてみよう:イベントの指定可能リソースは、イベントが従う最も単純なパターンと、他の少なくとも同じくらい単純か、ありえそうにないものでイベントが従ったかもしれないパターンを数えることで計算される。

His final step is to define the specificity of the outcome by multiplying the specificational resources (the number of possible patterns of equal or greater simplicity) by the probability of the observed simplest pattern and taking the negative logarithm to base 2 of this figure. The less mathematically inclined can ignore the last part -- the important thing is that specificity is defined in terms of the probability of matching the observed pattern and the number of possible patterns of similar simplicity. The final bit of mathematical manipulation just makes specificity a number that increases as the probability gets smaller and ranges between zero and infinity rather than one and zero.

彼の最終ステップは、指定可能リソース(同じくらい単純かそれ以上に単純な、可能なパターンの数)と観測された最も単純なパターンの積をとって、2を底とする対数をとって符号を反転することで、"指定性"(specificity)を定義することだ。数学に興味がないなら、最後の部分は無視してよい。重要なことは、指定性(specificity)は、観測されたパターンにマッチする確率とよく似た指定性(Simlicity)の可能な数の形で定義されるということだ。最後の数式操作は、確率が小さくなるほど、指定性(Simlicity)が大きくなるようにし、数値の範囲を0から1ではなく、0から無限大にするためである。

There are a lot of issues with this paper -- for example, how in practice do you determine the specificational resources for a real event, such as the development of the immune system, as opposed to the controlled world of poker hands and coin tosses. However, I want to focus on one particular concern. What is the justification for Dembski's approach? Why should we reject a hypothesis because the data conform to a simple but demanding pattern? Dembski justifies his approach by essentially saying it is an extension of Fisherian significance testing. So let's return to hypothesis testing.

このDembskiの文献には多くの問題がある。たとえば、制御されたポーカーの手札の世界やコイン投げと対比して、免疫系のような現実のイベントに対して、実際にどうやって指定可能リソースを定めるのか。しかし、私は特定の懸念に焦点を合わせたい。Dembskiのアプローチを正当化するのは何か? 何故、データが単純だがパターンを要求するが故に、仮説を棄却しなければならないのか?DembskiはFisherの有意性検定の拡張と言うだけで、彼のアプローチを正当化している。

Dembski describes Fisherian significance testing, but nowadays this is not common practice for hypothesis testing which owes more to Neyman and Pearson -- who were strongly opposed to Fisher's approach. If you open almost any introductory statistics text book and turn to the section on hypothesis testing you will see that the student is told that they should define two hypotheses -- the null hypothesis (the one being tested) and an alternative hypothesis. In fact hypothesis testing is often considered to be a balance of two risks -- the risk of rejecting the null hypothesis when it is true versus the risk of rejecting the alternative hypothesis when it is true.

DembskiはFisherの有意性検定を記述するが、今日ではこれは仮説検定を一般的な方法ではない。Fisherのアプローチに強く反対したNeymanとPeasonによるものを使う。どんな統計の入門書を見ても、仮説検証についての節では、検証対象となる帰無仮説と代替仮説の2つの仮説を定義しろと書かれている。事実、仮説検証は、真であるにも関わらず帰無仮説を棄却するリスクと、真であるにも関わらず代替仮説を棄却するリスクという2つのリスクのバランスだと考えられている。

The need to do this can be illustrated by the common question of whether to use one-tailed or two-tailed testing. Let's go back to the fuel consumption test, but let us now assume that the 40 mpg average fuel consumption claim came from the manufacturer and it is a key part of their advertising campaign because they have been under heavy pressure to produce a vehicle with a better fuel consumption. In this context we would dismiss the possibility that the average fuel consumption was actually better than stated because in that case the manufacturer would certainly have said so. The only alternative hypothesis we would entertain is that the manufacturer is exaggerating its claim and the average fuel consumption is worse than advertised. So we would accept extremely low miles per gallon as evidence for dismissing the 40 mpg claim, but not extremely high miles per gallon. In statistical parlance we would use a one-tailed test and we are only going to reject the null hypothesis if the results fall into one extreme -- but not if they fall into the other. The reason is clear. When the results are extremely low the alternative hypothesis provides a better explanation of the results than the null hypothesis. When the results are extremely high they are still extreme but the null hypothesis provides a better explanation than the alternative hypothesis.

こうしなければならないの理由は、片側検定か両側検定かどちらを使うのかという一般的問題によって例示できる。ここで、燃費検証にもどろう。ただし、今度は40マイル/ガロンは製造元の主張であり、低燃費の車を作れというプレッシャーのもとにあって、広告キャンペーンのキーとなっていることにしよう。このコンテキストでは、平均燃費が製造元の主張よりも良いという可能性は無視できる。というのは、その場合は、製造元はそのように主張するからだ。我々が考えうる唯一の代替仮説は、製造元が燃費を誇張していて、平均燃費は広告よりも悪いというものだけだ。従って、我々は極端にマイル/ガロンが小さいことが、40マイル/ガロンを棄却する証拠となるが、極端に大きいマイル/ガロンはそうではないと、と考えてよい。結果がひとつの極端に落ちても、もう片方の極端に落ちないなら、片側検定を使い、帰無仮説の棄却だけを考えればよい。理由は明らかだ。結果が極端に低ければ代替仮説が帰無仮説よりも、よりよい説明を与える。結果が極端に高ければ、それは極端ではあるが、帰無仮説が代替仮説よりも、よりよい説明を与える。

With a little imagination it is possible to devise even more compelling illustrations of the role of the alternative hypothesis. Suppose that the problem now is that the old models of the vehicle had an average mpg that varied between 30 and 50 mpg and on rare occasions even more -- although the overall average of all vehicles was 40 mpg. The manufacturer introduces an innovation that it claims will give a much more consistent mpg that will typically remain between 42 and 45 mpg (yes I know it is an engineering miracle). The consumer organisation wants to verify that this is true. It takes a sample of five recent models and finds the average mpg for all five models is between 42 and 45 mpg. These results are not at all extreme according to the old hypothesis and had we not had an alternative hypothesis in mind we would probably have accepted the similarity of the figures as a fairly unremarkable coincidence. However, the alternative hypothesis provides a much better explanation for the figures and therefore we would consider them as strong evidence against the null hypothesis that the fuel consumption pattern had not changed. This is nothing to do with extremes. If the data had all been very high or very low the null hypothesis would have been the best explanation and we would not have rejected it.

ちょっとイマジネーションを働かせれば、代替仮説の役割を、もっとわかりやすく記述する方法を思いつく。すべての車の平均は40マイル/ガロンであるが、その車のオールドモデルの平均が30マイル/ガロンから50マイル/ガロンの間を変化していて、稀にはもっと大きいという問題を考えてみよう。製造元は典型的には42〜45マイル/ガロンにおさまると主張する技術革新を導入したとしよう(もちろん、私はそれが技術的に奇跡だとわかっている)。消費者団体はこれが真実かどうか検証したがっている。5つの最新モデルについてサンプルをとって、5つのモデルすべて平均燃費が42〜45マイル/ガロンであることがわかった。これらの結果は、古い仮説によれば極端な値ではな全然ない。まったく考えられない偶然として数字の類似性を認めた代替仮説を想定することはない。しかしながら、代替仮説はこの数字に対してよりよい説明を与え、従って、燃料消費パターンが変わっていないという帰無仮説に反する強い証拠として考えることができる。これは極端とはまったく関係がない。データがすべて極端に大きいか小さいかなら、帰無仮説は最良の説明を与え、これを棄却することはない。

Dembski himself provides a further example when he writes of some data being too good. Returning to our original example -- suppose we are determining if the average fuel consumption is 40 mpg and all the cars in the sample return almost exactly 40 mpg. He would say this is too good a fit and the null hypothesis should be rejected. But why? Again the answer appears obvious. We know a bit about human nature and it seems likely that someone is either fiddling the data or unconsciously altering it. Alternatively the sample may not be truly random -- maybe the owners all had very similar lifestyles. There are a number of plausible explanations that explain the data better than the null hypothesis -- even if they have not been explicitly stated.

Dembksi自身は、データが良すぎたときについて書いたときに、さらなる例を示した。もとの例にもどるなら、平均燃費が40マイル/ガロンで、サンプルのすべての車が正確に40マイル/ガロンだったとしよう。彼は、これは適合しすぎていて、帰無仮説は棄却されるべきだと言う。しかし、何故? 再び、答えは明らかになる。我々は人間の性質について、少しはわかっていて、誰かが数字を改竄したか、無意識に操作したように見える。あるいは、サンプルは本当にランダムではなく、所有者たちが非常に良く似たライフスタイルを持っているか。帰無仮説よりもデータをよく説明する、もっと納得できる多くの説明がありうる。それらが直接に主張されていなくても。

How does this approach extend to specification and the example of the Royal Flush? Most people would accept that the Royal Flush is a literally incredible coincidence. But there is a much simpler explanation of why it is incredible than using the concept of specification. There are alternative hypotheses that provide a better explanation for meeting this pattern than a random deal. They include:

このアプローチを"指定"(specification)やロイヤルフラッシュの例に拡張するのか? 大半の人々は、ロイヤルフラッシュが字義通りに信じられない偶然であることを受け入れるだろう。しかし、"指定"(specification)というコンセプトを使わなくても、これが何故に信じがたいかをもっと単純に説明する方法がある。ランダムな手札配りよりも、このパターンにマッチするよりよい説明を与える代替仮説がある。それは次を含む:

  • The writer of the program knows the rules of poker and fixed it so the first deal was not random but was the highest possible hand to encourage users of the program to use it. This would mean the observed outcome was virtually certain.


    プログラムの作者はポーカーのルールを知っていて、最初の手札をランダムではなく、可能な最高の手札に固定して、ユーザにこのプログラムを使いたくさせようとした。これは観測された結果が、事実上確実だったことを意味する。

  • There is a bug in the programme so that under certain conditions instead of dealing randomly it chooses a card at random and then the subsequent four cards in the same suit. This would have a 1 in 13 chance of producing a Royal Flush.



    プログラムにはバグがあって、ある特定の条件では、ランダムに手札配りが行われる代わりに、ランダムに1枚カードを選んで、続く4枚は同じマークにするようになっていた。これだと、1/13の確率でロイヤルフラッシュとなる。

The two hands that began this paper:(本論文の始めに示した2つの手札)

Hand X: A♠, K♠, Q♠, J♠, 10♠

and

Hand Y: 2♣, 3♦, 7♥, 10♠, Q♦

are equally probable using a random deal with a probability of 1 in 2.5 million. But they are not equally probable under either of the hypotheses above. In fact Hand Y is impossible under both hypotheses and the Hand X has a probability of 1 under the first hypothesis and 1/13 under the second.

は、ランダムな手札配りでは、250万分の1の確率で等しい。しかし、前述のどの仮説でも、同じ確率ではない。事実、手札Yは、両仮説で不可能であり、手札Xは第1の仮説では確率1であり、第2の仮説では確率1/13である。

This approach explains why in many circumstances, such as dealing playing cards, outcomes that conform to simple patterns suggest a human designer might be involved. It is a matter of human psychology that we are more interested in producing outcomes that conform to simple patterns than outcomes that are complex and conform to no recognisable pattern. So if we consider the very generic hypothesis "someone designed this outcome" then under that hypothesis outcomes that conform to simple patterns are more likely than outcomes that do not conform to such patterns.

トランプゲームの手札配りのような多くの状況において、結果が人間のデザイナーが関与したこを示唆する単純なパターンに従うのはなぜかを、このアプローチは説明する。これは人間の心理学の問題で、我々は、複雑なパターンに従う結果やパターンが見出せないような結果に比べて、単純なパターンに従う結果が生み出される方に関心を持つ。従って、誰かがこの結果をデザインしたという一般的な仮説を考えるなら、その仮説のもとでは、単純なパターンに従う結果の方が、そのようなパターンに従わない結果よりも、よりありそうである。

It might appear that I am arguing that there are patterns in nature that suggest design. In a sense that is true. Some patterns do suggest human design. But the key point is that this is based on a comparison of possible explanations of the observed results and what we know about humans as designers. Some of the explanations include design (and take into account, among other things, the human desire and ability to conform to patterns) and others do not and each has to be evaluated as an alternative. Dembski and the intelligent design movement generally cannot accept this approach because it requires comparing the designer explanation of living systems with chance explanations and this means saying something about who the designer is, how the designer implements their design, and why the designer is doing it. It is fundamental to the ID thesis that it is possible to detect design simply by looking at the chance hypothesis and the observed outcome with saying anything about the designer.

自然にはデザインを示唆するパターンがあると論じているように見えるかもしれない。ある意味、それは正しい。あるパターンは人間のデザインを示唆している。しかし、キーポイントは、観測された結果についての可能な説明たちの比較と、デザイナーとしての人間について知っていることに基づくものである。幾つかの説明はデザインを含んでおり(とりわけ、パターンに従うという人間の意識と能力を考慮する)、他の説明はデザインを含まない。それぞれは代替仮説として評価される。Dembskiやインテリジェントデザイン運動は、一般的にこのアプローチを容認できない。というのは、生物システムについてのデザイナー説明と偶然説明の比較を求められ、これはデザイナーが誰で、デザインをどのように実装したか、そしてデザイナーが何故そうしたかについて何かを言うことを意味するからだ。偶然仮説と観測された結果だけを見れば、デザイナーについて何も言わなくてもデザインを検出できるというのが、インテリジェントデザイン理論の基本である。

So far we have established that the use of specifications to reject chance hypothesis has some problems of interpretation and has no justification, while comparing likelihoods seems to account for our intuitions and is justified. Dembski is well aware of the likelihood approach and has tried to refute it by raising a number of objections elsewhere, notably in chapter 33 of his book "The Design Revolution" which is reproduced on his web site (Dembksi 2005b). But there is one objection that he raises which he considers the most damning of all and which he repeats virtually word for word in the more recent paper. He believes that the approach of comparing likelihoods presupposes his own account of specification.

これまでで、"指定"(Specification)を使って偶然仮説を棄却することには解釈の問題があり、正当化できていないことを確認した。これに対して、尤度は我々の直感を説明しており、尤度は正当化されている。Dembskiは尤度アプローチについて熟知していて、多くの反論をあちこちで挙げて論破しようとしている。特に、彼のWeb Siteにアップされている彼の本"The Design Revolution"の第33章[Dembski 2005b]で。しかし、彼が最も失敗していると考えている点についてのひとつ反論を挙げている。彼はそれを繰り返し、事実上、一言一句そのまま、最近の文献にも書いている。彼は尤度を比較するアプローチが彼の"指定"(Specification)についての説明を前提にしていると信じている。

He illustrates his objection with another well worn example in this debate -- the case of the New Jersey election commissioner Nicholas Caputo who is accused of rigging ballot lines. It was Caputo's task to decide which candidate comes first on a ballot paper in an election and he is meant to do this without bias towards one party or another. Dembski does not have the actual data but assumes a hypothetical example where the party of the first candidate on the ballot paper follows this pattern for 41 consecutive elections (where D is democrat and R is republican)

Dembskiは彼の反論をこの論争において使い古された例で表現する。New Jersey選挙コミッショナーNicholas Caputoが投票用紙への候補者の記載順序を不正操作したとして訴えられた裁判の例である。どの候補者が投票用紙の一番目に来るかを決めるのがCaputoの仕事であり、政党支持のバイアスなしにこれを決めなければならなかった。Dembskiは実際のデータを持っていなかったが、投票用紙の一番目に記載された候補の政党が、41回の連続した選挙でこのパターンに従うと仮定した(Dは民主党・Rは共和党)。

DDDDDDDDDDDDDDDDDDDDDDRDDDDDDDDDDDDDDDDDD

This is clearly conforms to a pattern which is very demanding for the hypothesis that Caputo was equally likely to make a Republican or Democrat first candidate. In fact it conforms to a number of such patterns for 41 elections, for example:

これは明らかに、第1候補を共和党にするか民主党にするかをCaputoが等しくなるようにしたという仮説に対して、要求が多いパターンに従っている。実際、41回の選挙において多くのそのようなパターンに従っている:

  • There is only one republican as first candidate.(第1候補として、唯一の共和党候補がいた)
  • One party is only represented once.(ひとつの政党は1回だけ勝つ)
  • There are two or less republicans.(2名かそれ以下の共和党員がいた)
  • There is just one republican and it is between the 15th and 30th election.(共和党員は1人であり、それは15回目と30回目の間である)
  • Includes 40 or more Democrats.(40名か、それ以上の民主党員がいた

And so on(その他)

Dembski has decided that the relevant pattern is the last one. (This is interesting in itself as it is a single-tailed test and assumes the hypothesis that Caputo was biased towards Democrats. Another alternative might simply have been that Caputo was biased -- direction unknown -- in which case the pattern should have been "one party is represented at least 40 times"). His argument is that when comparing the likelihoods of two hypotheses (Caputo was biased towards Democrats or Caputo was unbiased) generating this sequence, we would not compare the probability of the two hypotheses generating this specific event but the probability of the two hypotheses generating an event which conforms to the pattern. And we have to use his concept of a specification to know what the pattern is. But this just isn't true. We can justify the choice of pattern simply by saying "this is a set of outcomes which are more probable under the alternative hypothesis (Caputo is biased towards Democrats) than under the hypothesis that Caputo is unbiased". There is no reference to specification or even patterns in this statement.

Dembskiは、関連したパターンが最後のものであると判断した。(これは面白いことに、これは片側検定であり、Caputoが民主党にバイアスがあったいう仮定している。ほかの代替仮説は、政党は問わずにバイアスがあったというもので、パターンは片方の政党が少なくとも40回勝つ)。 彼の論は、この系列が生成されるときの、2つの仮説(Caputoは民主党バイアスと、Caputoはバイアスなし)のもっともらしさを比較するにあたって、我々は2つの仮説がこの特定のイベントを生成する確率ではなく、2つの仮説がこのパターンに従うイベントを生成する確率を比較していることだ。そして、我々は彼の"指定"(Specification)のコンセプトを使うには、パターンがナンであるかを知る必要がある。しかし、これは正しくない。我々はパターンの選択を、「これは、Caputoにバイアスなしの仮説よりも、代替仮説(Caputoは民主党バイアス)のもとで、よりありえる結果のセットである」とだけ言えば正当化できる。この主張には、"指定"(Specification)やパターンについての言及はない。

This is clearer if we consider a different alternative hypothesis. Suppose that instead of suspecting Caputo of favouring one party or another we suspect him of being lazy and simply not changing the order from one election to another -- with the occasional exception. The "random" hypothesis remains the same - he selects the party at random each time. The same outcome:

これは、我々が別な代替仮説を考えれば、明白になる。Caputoがどちらかの政党に肩入れしていると疑う代わりに、彼が怠慢で、選挙のたびに順序を帰るのをサボったいう、よくある例外だと疑ってみよう。この場合でも、ランダム仮説(Caputoは毎回ランダムに政党を選んだ)は同様に残る。同じ結果:

DDDDDDDDDDDDDDDDDDDDDDRDDDDDDDDDDDDDDDDDD

counts against the random hypothesis but for a different reason -- it has only two changes of party. The string:

はランダム仮説に反しているが、これは違う理由による。2回だけ政党の順を変えたと。系列が:

DDDDDDDDDDDDDDDDDDDDDDRRRRRRRRRRRRRRRRRRRR

would now count even more heavily against the random hypothesis - whereas it would have been no evidence for Caputo being biased.

であれば、よりランダムな仮説に不利になる。ところが、これはCaputoが片方の政党に肩入れした証拠にはならない。

So now we have two potential patterns that the outcome matches and could be used against the random hypothesis. How do we decide which one to use? On the basis of the alternative hypothesis that might better explain the outcomes that conform to the pattern.

今や、結果がランダム仮説にマッチするパターンとランダム仮説に反するように使えるパターンの2つの候補パターンを持っている。どっちを使うかを、どう決めればよいだろうか? パターンに従う結果をよりよく説明する代替仮説の基づく。

The comparison of likelihoods approach is so compelling that Dembski himself inadvertently uses it elsewhere in the same chapter of The Design Revolution. When trying to justify the use of specification he writes "If we can spot an independently given pattern.... in some observed outcome and if possible outcomes matching that pattern are, taken jointly, highly improbable ...., then it's more plausible that some end-directed agent or process produced the outcome by purposefully conforming it to the pattern than that it simply by chance ended up conforming to the pattern."

尤度の比較アプローチはあまりにも魅力的で、Dembski自身が不注意にも、The Design Revolutionの同じ章の別の場所で使っている。"指定"(Specification)を使うことを正当化しようとして、Dembskiは次のように書いている。「もし、いくつかの観測結果から我々が独立に所与のパターンを見つけられるなら、そしてもし、可能な結果がマッチしたパターンが、組み合わせれば、とてもありそうにないものなら、偶然に生成されて、結果としてパターンに従ったと考えるよりも、何らかの終端指示エージェントもしくはプロセスが目的を持ってパターンに従わせたと考える方がもっともらしい」

We do come across incredible coincidences (like Hand X) and the rational thing to do is to reject the underlying chance hypothesis (like a random deal). However, this decision is not based on the convoluted and loosely defined concept of specification. It is based on the simple fact there are better explanations.

我々が手札Xのような信じがたい偶然に遭遇すると、ランダムな手札配りのような偶然仮説を棄却するのが合理的だ。しかし、この判断は、入り組んでいてい、かつあいまいに定義された"指定"(Specification)のコンセプトに基づくものではない。単に、そちらの方がよりよい説明であるという事実に基づいている。

References

Dembski, W. A, 2005a Specification: The Pattern That Signifies Intelligence. http://www.designinference.com/documents/2005.06.Specification.pdf (accessed 1/6/2006)
Dembski, W. A., 2005b Design by Elimination versus Design by Comparision http://www.designinference.com/documents/2005.09.Fisher_vs_Bayes.pdf (accessed 4/6/2006)


[1] A common fault in the ID debate is to use the word "random" without further definition as though it were obvious what it means. So I shall be more explicit. In this context "random deal" means that as each of the 5 cards that make up the hand is chosen, it is equally likely to be any of the cards in the pack.

インテリジェントデザインの議論の一般的な欠陥は、"ランダム"という言葉を、その意味するところが明らかであるかのように、定義なしに使うことである。従って、私はもっと直接的だ。このコンテキストで、"ランダムな手札配り"は、手札を構成する5枚のカードのそれぞれが選ばれ、パックのどのカードも等しく選ばれことを意味する。

[2] Technically speaking Dembski talks about rejecting a chance hypothesis when the observed outcome falls into any parts of the probability density function (pdf) that are below a defined value. I use the word "extreme" as shorthand for this.

技術的には、Dembskiは、観測された結果が、定められた値を下回る確率密度関数の部分に落ちた時に偶然仮説の棄却することについて話している。私は極端(extreme)という単語をこれについての短縮表現として使っている。

[3] Technically speaking he writes about classical hypothesis testing rejecting a hypothesis when the outcome falls into a part of the pdf which are above a defined value.

技術的には、Dembskiは、結果が、定められた値よりも確率密度関数の大きい部分に落ちた時に仮説を棄却する古典的仮説検証について書いている。


posted by Kumicit at 2006/07/08 23:55 | Comment(0) | TrackBack(0) | Dembski | このブログの読者になる | 更新情報をチェックする
この記事へのコメント
コメントを書く
お名前:

メールアドレス:

ホームページアドレス:

コメント: [必須入力]


この記事へのトラックバック