Jump to content

Covariance

This is a fully translated article. Click here for more information.
From DawoumWiki, the free Mathematics self-learning
The sign of the covariance of two random variables X and Y

확률 이론통계학에서, 공분산(covariance)은 두 개의 확률 변수(random variable)의 결합 변동가능성의 측정입니다.[1] 만약 한 변수의 큰 값이 다른 변수의 큰 값과 주로 대응하고, 같은 것이 작은 값에 대해 유지되면 (즉, 변수가 유사한 행동을 보여주는 경향이 있으면), 공분산은 양수입니다.[2] 반대의 경우에, 하나의 변수의 큰 값이 다른 변수의 작은 값에 주로 대응할 때 (즉, 변수가 반대의 행동을 보여주는 경향이 있으면), 공분산은 음수입니다. 공분산의 부호는 따라서 변수 사이의 선형 관계(linear relationship)에 있는 경향을 보여줍니다. 공분산의 크기는 해석하기 쉽지 않은데 왜냐하면 그것은 정규화되지 않고 따라서 변수의 크기에 따라 달라지기 때문입니다. 공분산의 정규화된 버전(normalized version of the covariance), 상관 계수(correlation coefficient)는, 어쨌든, 선형 관계의 강도를 그의 크기에 의해 보입니다.

구별은 (1) 결합 확률 분포(joint probability distribution)의 속성으로써 보일 수 있는 모집단(population) 매개변수(parameter)인 두 확률 변수의 공분산, 그리고 (2) 표본의 기술자로 역할을 하는 것 외에도, 역시 모집단 매개변수의 추정된(estimated) 값으로 역할을 하는 표본(sample) 공분산 사이에 만들어져야 합니다.

Definition

유한한 두 번째 모멘트(second moments)를 갖는 두 개의 결합적으로 분포된(jointly distributed) 실수-값 확률 변수(random variables) 에 대해, 공분산은 그것들의 개별 기댓값과의 편차 곱의 기댓값(expected value, 또는 평균)으로 정의됩니다:[3][4]: p. 119 

여기서 의 기댓값이며, 역시 의 평균으로 알려져 있습니다. 공분산은 역시 때때로, 분산(variance)과의 비유에서, 또는 로 표시됩니다. 기대의 선형성 속성을 사용함으로써, 이것은 그것들의 곱의 기댓값에서 그것들의 기댓값의 곱을 뺀 값으로 단순화될 수 있습니다:

그러나 이 방정식은 치명적인 취소(catastrophic cancellation)에 취약합니다 (아래 수치 계산(numerical computation) 섹션을 참조하십시오).

공분산 측정의 단위(units of measurement)의 단위 곱하기 의 단위입니다. 대조적으로, 공분산에 의존하는 상관 계수(correlation coefficients)는 선형 의존성의 차원-없는(dimensionless) 측정입니다. (실제로, 상관 계수는 단순히 공분산의 정규화된 버전으로 이해될 수 있습니다.)

Definition for complex random variables

두 개의 복소 확률 변수(complex random variables) 사이의 공분산은 다음과 같이 정의됩니다:[4]: p. 119 

정의에서 두 번째 인수의 복소 켤레화에 주목하십시오.

관련된 유사-공분산(pseudo-covariance)이 역시 정의될 수 있습니다.

Discrete random variables

만약 (실수) 확률 변수 쌍 가 같은 확률 를 갖는 에 대해 값 =을 취할 수 있으면, 공분산은 평균 의 관점에서 다음과 같이 동등하게 쓸 수 있습니다:

평균을 직접적으로 참조 없이 다음과 같이 동등하게 표현될 수도 있습니다:[5]

보다 일반적으로, 만약 의 가능한 구현이 개 있으면, 즉 이지만 에 대한 같지-않는 확률을 가질 가능성이 있으면, 공분산은 다음과 같습니다:

Example

Geometric interpretation of the covariance example. Each cuboid is the axis-aligned bounding box of its point (x, y, f (x, y)), and the X and Y means (magenta point). The covariance is the sum of the volumes of the cuboids in the 1st and 3rd quadrants (red) minus those in the 2nd and 4th (blue).

가 다음과 같은 결합 확률 질량 함수(joint probability mass function)를 가지고 있다고 가정하며,[6] 이것에서 6개의 중앙 셀은 6개의 가상 실현 의 이산 결합 확률 를 제공합니다:

x
5 6 7
y 8 0 0.4 0.1 0.5
9 0.3 0 0.2 0.5
0.3 0.4 0.3 1

는 3개의 값 (5, 6, 및 7)을 취할 수 있고 반면에 는 2개 (8, 및 9)를 취할 수 있습니다. 그것들의 평균은 입니다. 그런-다음,

Properties

Covariance with itself

분산(variance)은 두 변수가 동일한 공분산의 특수한 경우입니다 (즉, 이것에서 한 변수가 항상 다른 변수와 같은 값을 취합니다):[4]: 121 

Covariance of linear combinations

만약 , , , 및 가 실수-값 확률 변수이고 가 실수-값 상수이면, 다음 사실은 공분산의 정의의 결과입니다:

실수-값에서 확률 변수의 수열 과 상수 에 대해, 다음을 가집니다:

Hoeffding's covariance identity

두 확률 변수 사이의 공분산을 계산하기 위해 유용한 항등식은 호프딩의 공분산 항등식입니다:[7]

여기서 는 확률 벡터 의 결합 누적 분포 함수이고 주변 분포(marginals)입니다.

Uncorrelatedness and independence

공분산이 영인 확률 변수는 비-상관된(uncorrelated) 것이라고 불립니다.[4]: p. 121  유사하게, 주요 대각선 외부의 모든 각 엔트리에서 공분산 행렬(covariance matrix)이 영인 확률 벡터의 구성 요소도 비-상관된 것이라고 불립니다.

만약 독립 확률 변수(independent random variables)이면, 그것들의 공분산은 영입니다.[4]: p. 123 [8] 이것은 독립 아래에 있기 때문에 따라옵니다,

그 전환은, 어쨌든, 일반적으로 참이 아닙니다. 예를 들어, 에 균등하게 분포되고 라고 놓습니다. 분명히, 는 독립이 아니지만,

이 경우에서, 사이의 관계는 비-선형이고, 반면에 상관 및 공분산은 두 확률 변수 사이의 선형 종속성을 측정합니다. 이 예제는 두 확률 변수가 비-상관된 것이면, 일반적으로 그것들이 독립이라는 것을 의미하지 않음을 보여줍니다. 어쨌든, 만약 두 변수가 결합적 정규적으로 분포된(jointly normally distributed) 것이면 (그러나 단순히 개별적 정규적으로 분포된(individually normally distributed) 것이 아니면), 비-상관성이 독립성을 의미합니다.

Relationship to inner products

공분산의 많은 속성은 안의 곱(inner product)의 속성과 유사한 속성을 만족시키는 것을 관찰함으로써 우아하게 추출할 수 있습니다:

  1. 쌍-선형(bilinear): 상수 및 확률 변수 에 대해,
  2. 대칭(symmetric):
  3. 양의 반-한정(positive semi-definite): 모든 확률 변수 에 대해 이고, 거의 확실하게(almost surely) 상수임을 의미합니다.

실제로 이들 속성은 공분산이 유한한 두 번째 모멘트를 갖는 확률 변수의 부분공간을 취하고 상수만큼 다른 임의의 두 개를 식별함으로써 얻은 몫 벡터 공간(quotient vector space)에 걸쳐 안의 곱을 정의함을 의미합니다. (이 식별은 위의 양의 반-한정성을 양의 한정성으로 바꿉니다.) 해당 몫 벡터 공간은 유한한 두 번째 모멘트와 평균 영을 갖는 확률 변수의 부분공간과 동형적입니다; 해당 부분공간에서, 공분산은 정확히 표본 공간 위에 실수-값 함수의 L2 안의 곱입니다.

그 결과, 유한한 분산을 갖는 확률 변수에 대해, 다음 부등식은

코시–슈바르츠 부등식(Cauchy–Schwarz inequality)을 통해 유지됩니다.

Proof: 만약 이면, 그것은 자명하게 유지됩니다. 그렇지 않으면, 다음 확률 변수를 놓습니다:

그런-다음 우리는 다음을 가집니다:

Calculating the sample covariance

관찰되지 않은 모집단에서 추출한 각각의 개의 관찰에 기반한 변수 사이의 표본 공분산은 다음 엔트리를 갖는 행렬(matrix) 로 제공됩니다:

이것은 변수 와 변수 사이의 공분산의 추정입니다.

표본 평균과 표본 공분산 행렬은 번째 원소 가 확률 변수 중 하나인 확률 벡터(random vector) 평균(mean)과 공분산 행렬의 비-편향된 추정(unbiased estimates)입니다. 표본 공분산 행렬이 분모에서 이 아닌 을 가지는 이유는 본질적으로 모집단 평균 가 알 수 없는 것이고 표본 평균 로 대체되기 때문입니다. 만약 모집단 평균 가 알려져 있으면, 유사한 비-편향된 추정은 다음과 같이 제공됩니다:

.

Generalizations

Auto-covariance matrix of real random vectors

유한한 이차 모멘트를 갖는 개의 결합적으로 분포된 확률 변수의 벡터 에 대해, 그것의 자기-공분산 행렬 (역시 분산-공분산 행렬(variance–covariance matrix) 또는 간단히 공분산 행렬(covariance matrix)로 알려져 있음) (역시 또는 으로 표시됨)은 다음과 같이 정의됩니다:[9]: p.335 

를 공분산 행렬 Σ을 갖는 확률 벡터(random vector)라고 놓고, A를 왼쪽에서 에 작용할 수 있는 행렬이라고 놓습니다. 행렬-벡터 곱 A X의 공분산 행렬은 다음과 같습니다:

이것은 기대(expectation)의 선형성의 직접적인 결과이고 벡터에 백색화 변환(whitening transformation)과 같은 선형 변환(linear transformation)을 적용할 때 유용합니다.

Cross-covariance matrix of real random vectors

실수 확률 벡터(random vectors) 에 대해, 교차-공분산 행렬은 다음과 같습니다:[9]: p.336 

 

 

 

 

(Eq.2)

여기서 는 벡터 (또는 행렬) 전치(transpose)입니다.

이 행렬의 -번째 원소는 i-번째 스칼라 성분과 j-번째 스칼라 성분 사이의 공분산 와 같습니다. 특히, 전치(transpose)입니다.

Cross-covariance sesquilinear form of random vectors in a real or complex Hilbert space

보다 일반적으로 를 첫 번째 변수에서 역 선형 을 갖는 또는 에 걸쳐 힐베르트 공간(Hilbert spaces)이라고 놓고, resp. 값 확률 변수라고 놓습니다. 그런-다음 의 공분산은 다음에 의해 주어진 위에 반-쌍선형(sesquilinear) 형식 (첫 번째 변수에서 역 선형)입니다.

Numerical computation

일 때, 방정식 는 정확하게 계산되지 않으면 치명적인 취소( catastrophic cancellation)가 발생하기 쉽고 따라서 이전에 데이터가 중앙에 배치되지 않았을 때 컴퓨터 프로그램에서 피해야 합니다.[10] 수치적으로 안정적인 알고리듬(Numerically stable algorithms)이 이 경우에서 선호되어야 합니다.[11]

Comments

공분산은 때때로 두 개의 확률 변수 사이의 "선형 종속성"의 측정이라고 불립니다. 그것은 선형 대수(linear algebra)의 문맥에서와 같은 것을 의미하지 않습니다 (선형 의존성(linear dependence)을 참조하십시오). 공분산이 정규화될 때, 변수 간의 관계를 설명하는 최상의 가능한 선형 함수에 대한 적합도를 제공하는 피어슨 상관 계수(Pearson correlation coefficient)를 얻습니다. 이런 의미에서 공분산은 종속성의 선형 척도입니다.

Applications

In genetics and molecular biology

공분산은 생물학에서 중요한 측정입니다. DNA의 특정 서열은 종 사이에서 다른 것보다 더 많이 보존되고, 따라서 단백질의 2차 및 3차 구조 또는 RNA 구조를 연구하기 위해, 밀접하게 관련된 종의 서열을 비교합니다. 만약 서열 변화가 발견되거나 비-부호화 RNA(noncoding RNA, 예를 들어 microRNA)에서 전혀 변화가 발견되지 않으면, 서열은 RNA 루프와 같은 공통적인 구조 모티프에 필요한 것으로 밝혀졌습니다. 유전학에서, 공분산은 Genetic Relationship Matrix(GRM, 일명 친족 행렬)의 계산에 대해 기초 역할을 하며, 가까운 친척이 알려지지 않은 표본의 인구 구조에 대한 추론과 복잡한 특성의 유전 가능성 추정에 대한 추론을 가능하게 합니다.

진화론과 자연 선택론에서, 가격 방정식(Price equation)은 시간이 지남에 따라 유전적 특성의 빈도가 어떻게 변하는지 설명합니다. 그 방정식은 진화와 자연 선택에 대한 수학적 설명을 제공하기 위해 특성과 적합도(fitness) 사이의 공분산을 사용합니다. 그것은 유전자 전달과 자연 선택이 인구의 각 새로운 세대 내에서 유전자의 비율에 미치는 영향을 이해하는 방법을 제공합니다.[12][13] 가격 방정식은 W.D. Hamilton의 친족 선택 작업을 다시 도출하기 위해 George R. Price에 의해 도출되었습니다. 가격 방정식의 예제는 다양한 진화 사례에 대해 구성되었습니다.

In financial economics

공분산은 금융 경제학, 특히 현대 포트폴리오 이론과 자본 자산 가격 책정 모델에서 중요한 역할을 합니다. 다양한 자산의 수익률 사이의 공분산은 특정 가정 아래에서 투자자가 다양화 맥락에서 보유하기 위해 (긍정적 분석에서) 예측되거나 (규범적 분석에서) 예측해야 하는 다양한 자산의 상대적인 금액을 결정하는 데 사용됩니다.

In meteorological and oceanographic data assimilation

공분산 행렬은 데이터 동화(data assimilation)로 알려진 절차, 일기 예보 모델을 실행하는 데 필요한 초기 조건을 추정하는 데 중요합니다. '예측 오차 공분산 행렬'은 전형적으로 평균 상태 (기후학적 또는 앙상블 평균) 주변의 섭동 사이에서 구성됩니다. '관측 오차 공분산 행렬'은 (대각선 위에) 결합된 관측 오차와 측정 사이의 (대각선 밖의) 상관 오차를 나타내도록 구성됩니다. 이것은 칼만 필터링(Kalman filtering)에 대한 광범위한 적용과 시간-변하는 시스템에 대한 보다 일반적인 상태 추정(state estimation)의 예입니다.

In micrometeorology

에디 공분산(eddy covariance) 기법은 평균 값에서 수직 풍속의 순간 편차와 가스 농도에서 순간 편차 사이의 공분산이 수직 난류 플럭스 계산의 기초가 되는 주요 대기 측정 기법입니다.

In signal processing

공분산 행렬은 신호의 스펙트럼 변동성을 포획하는 데 사용됩니다.[14]

In statistics and image processing

공분산 행렬은 주요 성분 해석(principal component analysis)에서 데이터 전처리(data preprocessing)에서 기능 차원성을 줄이기 위해 사용됩니다.

See also

References

  1. ^ Rice, John (2007). Mathematical Statistics and Data Analysis. Belmont, CA: Brooks/Cole Cengage Learning. p. 138. ISBN 978-0534-39942-9.
  2. ^ Weisstein, Eric W. "Covariance". MathWorld.
  3. ^ Oxford Dictionary of Statistics, Oxford University Press, 2002, p. 104.
  4. ^ a b c d e Park,Kun Il (2018). Fundamentals of Probability and Stochastic Processes with Applications to Communications. Springer. ISBN 978-3-319-68074-3.
  5. ^ Some new deformation formulas about variance and covariance. Proceedings of 4th International Conference on Modelling, Identification and Control(ICMIC2012). June 2012. pp. 987–992. {{cite conference}}: Cite uses deprecated parameter |authors= (help)
  6. ^ "Covariance of X and Y | STAT 414/415". The Pennsylvania State University. Archived from the original on August 17, 2017. Retrieved August 4, 2019.
  7. ^ Papoulis (1991). Probability, Random Variables and Stochastic Processes. McGraw-Hill.
  8. ^ Siegrist, Kyle. "Covariance and Correlation". University of Alabama in Huntsville. Retrieved Oct 3, 2022.
  9. ^ a b Gubner, John A. (2006). Probability and Random Processes for Electrical and Computer Engineers. Cambridge University Press. ISBN 978-0-521-86470-1.
  10. ^ Donald E. Knuth (1998). The Art of Computer Programming, volume 2: Seminumerical Algorithms, 3rd edn., p. 232. Boston: Addison-Wesley.
  11. ^ Schubert, Erich; Gertz, Michael (2018). "Numerically stable parallel computation of (co-)variance". Proceedings of the 30th International Conference on Scientific and Statistical Database Management – SSDBM '18. Bozen-Bolzano, Italy: ACM Press: 1–12. doi:10.1145/3221269.3223036. ISBN 9781450365055. S2CID 49665540.
  12. ^ Price, George (1970). "Selection and covariance". Nature. 227 (5257): 520–521. Bibcode:1970Natur.227..520P. doi:10.1038/227520a0. PMID 5428476. S2CID 4264723.
  13. ^ Harman, Oren (2020). "When science mirrors life: on the origins of the Price equation". Phil. Trans. R. Soc. B. 375 (1797): 1–7. doi:10.1098/rstb.2019.0352. PMC 7133509. PMID 32146891. Retrieved 2020-05-15.
  14. ^ Sahidullah, Md.; Kinnunen, Tomi (March 2016). "Local spectral variability features for speaker verification". Digital Signal Processing. 50: 1–11. doi:10.1016/j.dsp.2015.10.011.