Jump to content

Conditional independence

This is a fully translated article. Click here for more information.
From DawoumWiki, the free Mathematics self-learning
(Redirected from Conditionally independent)

확률 이론(probability theory)에서, 두 확률 사건 는, 만약 의 발생 그리고 의 발생이 그들의 조건부 확률 분포(conditional probability distribution) 주어진 에서 독립(independent) 사건이면 조건적으로 독립(conditionally independent)입니다. 다른 말로, 가 주어진 에서 조건적으로 독립인 것과 가 발생한다는 정보가 주어졌을 때, 가 발생했는지 여부의 정보는 발생하는 의 가능성에 대한 정보를 제공하지 않고, 가 발생하는 여부의 정보는 발생하는 의 가능성에 대한 정보를 제공하지 않는다는 것은 필요충분 조건입니다.

조건부 독립의 개념은 확률 사건에서 확률 변수와 확률 벡터로 확장될 수 있습니다.

Conditional independence of events

Definition

확률 이론의 표준 표기법에서, 가 주어진 에서 조건적으로 독립인 것과 인 것은 필요충분 조건입니다. 주어진 에서 의 조건부 독립은 에 의해 표시됩니다. 공식적으로:

 

 

 

 

(Eq.1)

또는 동등하게,

.

Examples

스택-교환(StackExchange)에 대한 토론은 몇 가지 유용한 예제를 제공합니다.[1]

Coloured boxes

각 셀은 가능한 결과를 나타냅니다. 사건 , 는 각각 음영-처리된 빨간색, 파란색 및 노란색 영역에 의해 표시됩니다. 사건 사이의 겹치는 부분은 음영-처리된 자주색입니다.

These are two examples illustrating conditional independence.

이들 사건의 확률은 전체 영역에 관한 음영-처리된 영역입니다. 예제 둘 다에서 는 주어진 에서 조건적으로 독립인데, 왜냐하면:

[2]

그러나 주어진 에서 조건적으로 독립이 아닌데, 왜냐하면:

Weather and delays

두 사건을 저녁 식사를 위해 시간 안에 집에 도착하는 사람 A와 B의 확률로 놓고, 세 번째 사건은 눈 폭풍우가 도시에 닥치는 사실이라고 놓습니다. A와 B 둘 다가 저녁 식사를 위해 시간 안에 집에 도착할 낮은 확률을 가지지만, 낮은 확률은 여전히 서로 사이에 독립입니다. 즉, A가 늦었다는 지식은 B가 늦을지 여부를 말할 수 없습니다. (그들은 서로 다른 지역에 살고 있고, 다른 거리를 여행하고, 다른 교통 수단을 사용하고 있을 수 있습니다.) 어쨌든, 만약 여러분이 그들이 같은 지역에 살고 있고, 같은 교통 수단을 사용하고, 같은 장소에서 일한다는 정보를 가지면, 두 사건은 조건적으로 독립이 아닙니다.

Dice rolling

조건부 독립은 세 번째 사건의 본질에 달려 있습니다. 만약 두 주사위를 굴리면, 우리는 두 주사위가 서로 사이에 독립적으로 동작한다고 가정할 수 있습니다. 하나의 주사위의 결과를 본다고 해서 두 번째 주사위의 결과에 대해 말할 수 없을 것입니다. (즉, 두 주사위는 독립입니다.) 만약, 어쨌든, 첫 번째 주사위의 결과가 3이고, 누군가가 세 번째 사건에 대해 말해주면 – 두 결과의 합이 짝수라면 – 정보의 이 여분의 단위는 두 번째 결과에 대한 선택사항을 홀수로 제한합니다. 다시 말해서, 두 사건은 독립이 될 것이지만, 조건적으로 독립은 아닙니다.

Height and vocabulary of kids

높이와 단어는 독립적이지 않습니다; 그러나 그들은 만약 나이를 더하면 조건적으로 독립입니다.

Conditional independence of random variables

확률 변수(random variable) 는 주어진 세 번째 확률 변수 에서 조건적으로 독립인 것과 그들이 주어진 에서 그들의 조건부 확률 분포에서 독립인 것은 필요충분 조건입니다. 즉, 는 주어진 에서 조건적으로 독립인 것과, 의 임의의 값이 주어지면, 의 확률 분포는 의 모든 값에 대해 같고 의 확률 분포는 의 모든 값에 대해 같은 것은 필요충분 조건입니다. 공식적으로:

 

 

 

 

(Eq.2)

여기서 는 주어진 에서 의 조건부 누적 분포 함수(cumulative distribution function)입니다.

두 사건 는 만약

이면, 주어진 σ-대수(σ-algebra) 에서 조건적으로 독립이며, 여기서 는, 시그마 대수 가 주어지면, 사건 , 지시 함수(indicator function)조건부 기대(conditional expectation)를 표시합니다. 즉,

두 확률 변수 는, 만약 위의 방정식이 에서 모든 에서 에 대해 유지되면, 주어진 σ-대수 에서 조건적으로 독립입니다.

두 확률 변수 는, 만약 그들이 주어진 σ(W): 에 의해 생성된 σ-대수에서 독립이면, 주어진 확률 변수 에서 조건적으로 독립입니다. 이것은 다음으로 공통적으로 쓰입니다:

또는

이것은 "는 주어진 에서 에 독립이다"라고 읽습니다; 조건은 전체 명제에 적용됩니다: "주어진 에서 (에 독립입니다)".

만약 가 값의 셀-수-있는 집합으로 가정하면, 이것은 형식 의 사건에 대해 XY의 조건부 독립과 동등합니다. 두 사건보다 많은, 또는 두 확률 변수보다 많은 조건부 독립은 유사하게 정의됩니다.

다음의 두 예제는 암시하거나 또는 암시하지 않음을 보여줍니다. 먼저, 는 확률 0.5을 갖는 0이고 그렇지 않으면 1이라고 가정합니다. W = 0일 때, 를 독립적으로 취하며, 각각은 확률 0.99를 갖는 값 0이고 그렇지 않으면 1을 가집니다. 일 때, 가 다시 독립이지만, 이번에는 그들이 확률 0.99를 갖는 값 1을 취합니다. 그런-다음 입니다. 그러나 는 종속적인데, 왜냐하면 Pr(X = 0) < Pr(X = 0|Y = 0)이기 때문입니다. 이것은 Pr(X = 0) = 0.5이기 때문이지만, 만약 Y = 0이면 W = 0이고 따라서 마찬가지로 X = 0일 가능성이 매우 높으므로, Pr(X = 0|Y = 0) > 0.5입니다. 두 번째 예제에 대해, 을 가정하고, 각각은 확률 0.5를 갖는 값 0과 1을 취합니다. 를 곱 로 놓습니다. 그런-다음 일 때, Pr(X = 0) = 2/3이지만, Pr(X = 0|Y = 0) = 1/2이므로, 는 거짓입니다. 이것은 역시 Explaining Away의 예제입니다. 케빈 머피(Kevin Murphy)의 튜토리얼[3]을 참조하십시오. 여기서 는 값 "brainy" 및 "sporty"를 취합니다.

Conditional independence of random vectors

확률 벡터(random vectors) 은 주어진 세 번째 확률 벡터 에서 조건적으로 독립인 것과 그들이 주어진 에서 그들의 조건부 누적 분포에서 독립인 것은 필요충분 조건입니다. 공식적으로:

 

 

 

 

(Eq.3)

여기서 , 이고 조건부 누적 분포는 다음처럼 정의됩니다.

Uses in Bayesian inference

p를 다가오는 국민-투표(referendum)에서 "예"를 투표할 유권자의 비율로 놓습니다. 여론 조사(opinion poll)를 취하여, 우리는 모집단으로부터 무작위로 n 유권자를 선택합니다. i = 1, ..., n에 대해, Xi = 1 or 0를 i번째 선택된 유권자가 "예"에 투표할 것인지 아닌지 여부를 각각 해당하는 것으로 놓습니다.

통계적 추론(statistical inference)에 대한 빈도주의자(frequentist) 접근에서, 우리는 임의의 확률 분포를 p에 귀속하지 않고 (만약 확률이 어떤 사건의 발생의 상대적 빈도 또는 어떤 모집단의 비율로 어떻게든지 해석될 수 없다면) 우리는 X1, ..., Xn독립(independent) 확률 변수라고 말합니다.

대조적으로, 통계적 추론에 대한 베이즈(Bayesian) 접근에서, 우리는 임의의 그러한 "빈도" 해석의 비-존재성과 상관없이 확률 분포(probability distribution)p에 할당하고, 우리는 p가 확률이 할당되는 임의의 구간에 있다는 믿음의 정도로 확률을 직역할 것입니다. 해당 모델에서, 확률 변수 X1, ..., Xn은 독립이 아니지만, 그들은 주어진 p의 값에서 조건적으로 독립입니다. 특히, X의 많은 숫자가 1과 같은 것으로 관측되면, 주어진 해당 관측에서, p가 1에 가까워지는, 높은 조건부 확률을 의미하고, 따라서 주어진 해당 관측에서, 관측된 다음 X가 1과 같아질 수 있는 높은 조건부 확률을 의미할 것입니다.

Rules of conditional independence

조건부 독립의 명제를 통치하는 규칙의 집합은 기본 정의로부터 파생되어 왔습니다.[4][5]

주목: 이들 의미는 임의의 확률 공간에 대해 유지되므로, 그들은 만약 우리가 또 다른 변수, 말하자면 K에 대한 모든 각 조건함으로써 하위-전체집합을 고려하면 계속 유지될 것입니다. 예를 들어, 임을 역시 의미할 것입니다.

주목: 아래에서, 쉼표는 "그리고(AND)"로 읽을 수 있습니다.

Symmetry

Decomposition

증명:

  •      (의 의미)
  •      (변수 B를 적분함으로써 무시하십시오)
  •     

비슷한 증명은 XB의 독립을 보여줍니다.

Weak union

증명:

  • 정의에 의해, .
  • 분해 의 속성에 기인하여, .
  • 위의 두 방정식을 결합하면 를 제공하며, 이것은 을 수립합니다.

두 번째 조건은 비슷하게 입증될 수 있습니다.

Contraction

증명:

이 속성은 을 알아차림으로써 입증될 수 있으며, 그것의 각 상등은, 각각, 에 의해 주장됩니다.

Contraction-weak-union-decomposition

위의 세 개를 함께 넣으면, 우리는 다음을 가집니다:

Intersection

엄격하게 양의 확률 분포에 대해,[5] 다음은 역시 유지됩니다:

위의 다섯 규칙은 펄 및 파스에 의해 "그래포이드 공리(Graphoid Axioms)"로 이름-지어졌는데,[6] 왜냐하면 그들은, 만약 가 "X에서 A로의 모든 경로가 집합 B에 의해 차단됨"을 의미하는 것으로 해석되면, 그래프에서 유지되기 때문입니다.[7]

See also

References

  1. ^ http://math.stackexchange.com/questions/23093/could-someone-explain-conditional-independence
  2. ^ To see that this is the case, one needs to realise that Pr(RB | Y) is the probability of an overlap of R and B (the purple shaded area) in the Y area. Since, in the picture on the left, there are two squares where R and B overlap within the Y area, and the Y area has twelve squares, Pr(RB | Y) = 2/12 = 1/6. Similarly, Pr(R | Y) = 4/12 = 1/3 and Pr(B | Y) = 6/12 = 1/2.
  3. ^ http://people.cs.ubc.ca/~murphyk/Bayes/bnintro.html
  4. ^ Dawid, A. P. (1979). "Conditional Independence in Statistical Theory". Journal of the Royal Statistical Society, Series B. 41 (1): 1–31. JSTOR 2984718. MR 0535541.
  5. ^ a b J Pearl, Causality: Models, Reasoning, and Inference, 2000, Cambridge University Press
  6. ^ Pearl, Judea; Paz, Azaria (1985). "Graphoids: A Graph-Based Logic for Reasoning About Relevance Relations". {{cite web}}: Missing or empty |url= (help)
  7. ^ Pearl, Judea (1988). Probabilistic reasoning in intelligent systems: networks of plausible inference. Morgan Kaufmann.

External links