Matrix which has a multiplicative inverse
선형 대수(linear algebra) 에서, n xn 정사각 행렬(square matrix) A 는 다음임을 만족하는 n x 정사각 행렬 B 가 존재하면 역-가능 (invertible , 역시 비-특이(nonsingular ) 또는 비-퇴화(nondegenerate ))이라고 불립니다:
A
B
=
B
A
=
I
n
{\displaystyle \mathbf {AB} =\mathbf {BA} =\mathbf {I} _{n}\ }
여기서 I n 는 n xn 항등 행렬(identity matrix) 을 나타내고 사용된 곱셈은 보통의 행렬 곱셈(matrix multiplication) 입니다. 만약 이것이 그 경우이면 행렬 B 는 A 에 의해 고유하게 결정되고, A 의 (곱셈의) 역 (inverse )이라고 불리며, A −1 로 표시됩니다.[1] 행렬 반전 (Matrix inversion )은 주어진 역-가능 행렬 A 에 대해 이전 방정식을 만족시키는 행렬 B 를 찾는 과정입니다.
역-가능이 아닌 정사각 행렬은 특이 (singular ) 또는 퇴화 (degenerate )이라고 불립니다. 정사각 행렬은 특이인 것과 그것의 행렬식(determinant) 이 영인 것은 필요충분 조건입니다.[2] 특이 행렬은 만약 정사각 행렬의 엔트리가 숫자 직선 또는 복소 평면의 임의의 유한 영역에서 무작위로 선택되면, 행렬이 특이일 확률은 0, 즉 그것은 "거의 결코 특이 행렬이 아니라"는 점에서 드뭅니다. 비-정사각 행렬 (m ≠ n 인 m xn 행렬)은 역을 가지지 않습니다. 어쨌든, 일부 경우에서, 그러한 행렬은 왼쪽 역(left inverse) 또는 오른쪽 역(right inverse) 을 가질 수 있습니다. 만약 A 가 m xn 이고 A 의 랭크(rank) 가 n (n ≤ m )이면, A 는 왼쪽 역행렬, BA = I n 을 만족하는 n xm 행렬 B 를 가집니다. 만약 A 가 랭크 m (m ≤ n )을 가지면, 그것은 오른쪽 역, AB = I m 을 만족하는 n xm 행렬 B 를 가집니다.
가장 공통적인 경우는 실수 또는 복소수에 걸쳐 행렬의 경우이지만, 모든 이들 정의는 모든 링(ring) 에 걸쳐 행렬에 대해 제공될 수 있습니다. 어쨌든, 링이 교환적인 경우에서, 정사각 행렬이 역-가능이기 위한 조건은 그것의 행렬식이 링에서 역-가능이라는 것이며, 이는 일반적으로 비-영인 것보다 더 엄격한 요구 사항입니다. 비-교환 링에 대해, 보통의 행렬식이 정의되지 않습니다. 왼쪽-역 또는 오른쪽-역의 존재에 대해 조건은 더 복잡한데, 왜냐하면 랭크의 개념이 링에 걸쳐 존재하지 않기 때문입니다.
행렬 곱셈의 연산 (및 링 R 에서 엔트리)과 함께 n × n 역-가능 행렬의 집합은 하나의 그룹(group) , GLn (R ) 으로 표시되는 차수 n 의 일반 선형 그룹(general linear group) 을 형성합니다.
Properties
The invertible matrix theorem
A 를 필드(field) K (예를 들어, 실수의 필드
R
{\displaystyle \mathbb {R} }
)에 걸쳐 정사각 n × n 행렬이라고 놓습니다. 다음 명제는 동등합니다 (즉, 그것들은 임의의 주어진 행렬에 대해 모두 참이거나 모두 거짓입니다):[3]
AB = I n = BA 임을 만족하는 n × n 행렬 B 가 있습니다.
행렬 A 는 왼쪽 역 (즉, BA = I 를 만족하는 B 가 존재함) 또는 오른쪽 역 (즉, AC = I 임을 만족하는 C 가 존재함)을 가지며, 이 경우에서 왼쪽 역과 오른쪽 역 둘 다가 존재하고 B = C = A −1 입니다.
A 가 역-가능, 즉, A 가 역을 가지고, 비-특이이고, 비-퇴화입니다.
A 는 n × n 항등 행렬(identity matrix) I n 과 행-동등(row-equivalent) 입니다.
A 는 n × n 항등 행렬(identity matrix) I n 과 열-동등(column-equivalent) 입니다.
A 는 n 피벗 위치(pivot positions) 를 가집니다.
A 는 완전한 랭크(rank) 를 가집니다; 즉, rank A = n .
랭크 A = n 에 기초하여, 방정식 Ax = 0 은 자명한 해 x = 0 만 가지고 방정식 Ax = b 는 Kn 에서 각 b 에 대해 정확하게 하나의 해를 가집니다.
A 의 커널(kernel) 은 자명합니다, 즉, 그것은 원소로 널 벡터만을 가집니다, ker(A ) = {0 }.
A 의 열은 선형적으로 독립(linearly independent) 입니다.
A 의 열은 Kn 을 스팬(span) 합니다.
Col A = Kn .
A 의 열은 Kn 의 기저(basis) 를 형성합니다.
x 를 Ax 로 매핑하는 선형 변환은 Kn 에서 Kn 으로의 전단사(bijection) 입니다.
A 의 행렬식(determinant) 은 비-영입니다: det A ≠ 0 . 일반적으로, 교환 링(commutative ring) 에 걸쳐 정사각 행렬이 역-가능인 것과 그것의 행렬식이 해당 링에서 단위(unit) 인 것은 필요충분 조건입니다.
숫자 0은 A 의 고윳값(eigenvalue) 이 아닙니다.
전치(transpose)
A
⊤
{\displaystyle \mathbf {A} ^{\top }}
는 역가능 행렬입니다 (따라서 A 의 행은 선형적으로 독립(linearly independent) 이고, Kn 을 스팬하고, Kn 의 기저(basis) 를 형성합니다).
행렬 A 는 기본 행렬(elementary matrices) 의 유한 곱으로 표현될 수 있습니다.
Other properties
게다가, 다음 속성이 역-가능 행렬 A 에 대해 유지됩니다:
(
A
−
1
)
−
1
=
A
{\displaystyle (\mathbf {A} ^{-1})^{-1}=\mathbf {A} }
비-영 스칼라 k 에 대해
(
k
A
)
−
1
=
k
−
1
A
−
1
{\displaystyle (k\mathbf {A} )^{-1}=k^{-1}\mathbf {A} ^{-1}}
A 가 직교-정규 열이면
(
A
x
)
+
=
x
+
A
−
1
{\displaystyle (\mathbf {Ax} )^{+}=\mathbf {x} ^{+}\mathbf {A} ^{-1}}
이며, 여기서 + 는 무어–펜로즈 역(Moore–Penrose inverse) 를 나타내고 x 는 벡터입니다.
(
A
⊤
)
−
1
=
(
A
−
1
)
⊤
{\displaystyle (\mathbf {A} ^{\top })^{-1}=(\mathbf {A} ^{-1})^{\top }}
임의의 역-가능 n × n 행렬 A 와 B 에 대해,
(
A
B
)
−
1
=
B
−
1
A
−
1
.
{\displaystyle (\mathbf {AB} )^{-1}=\mathbf {B} ^{-1}\mathbf {A} ^{-1}.}
보다 일반적으로, 만약
A
1
,
…
,
A
k
{\displaystyle \mathbf {A} _{1},\dots ,\mathbf {A} _{k}}
가 역-가능 n × n 행렬이면,
(
A
1
A
2
⋯
A
k
−
1
A
k
)
−
1
=
A
k
−
1
A
k
−
1
−
1
⋯
A
2
−
1
A
1
−
1
.
{\displaystyle (\mathbf {A} _{1}\mathbf {A} _{2}\cdots \mathbf {A} _{k-1}\mathbf {A} _{k})^{-1}=\mathbf {A} _{k}^{-1}\mathbf {A} _{k-1}^{-1}\cdots \mathbf {A} _{2}^{-1}\mathbf {A} _{1}^{-1}.}
det
A
−
1
=
(
det
A
)
−
1
.
{\displaystyle \det \mathbf {A} ^{-1}=(\det \mathbf {A} )^{-1}.}
행렬 U 의 역행렬 V 의 행은 U 의 열에 직교-정규(orthonormal) 입니다 (그리고 열에 대해 행을 교환하는 것도 마찬가지입니다). 이를 확인하기 위해, UV = VU = I 라고 가정하며, 여기서 V 의 행은
1
≤
i
,
j
≤
n
{\displaystyle 1\leq i,j\leq n}
에 대해
v
i
T
{\displaystyle v_{i}^{\mathrm {T} }}
로 표시되고 U 의 열은
u
j
{\displaystyle u_{j}}
로 표시됩니다. 그런-다음 명확하게, 임의의 두
v
i
T
u
j
=
δ
i
,
j
{\displaystyle v_{i}^{\mathrm {T} }u_{j}=\delta _{i,j}}
의 유클리드 안의 곱(Euclidean inner product) 입니다. 이 속성은 역시 U 의 열에 대한 직교 벡터의 집합 (그러나 반드시 직교 벡터는 아님)이 알려져 있는 일부 예시에서 정사각 행렬의 역을 구성하는 데 유용할 수 있습니다. 이 경우에서, 역 V 의 행을 결정하기 위해 반복적인 그람–슈미트 과정(Gram–Schmidt process) 을 이 초기 집합에 적용할 수 있습니다.
그 자신의 역 (즉, A = A −1 와 A 2 = I 임을 만족하는 행렬 A )인 행렬은 인볼루션 행렬(involutory matrix) 이라고 불립니다.
In relation to its adjugate
행렬 A 의 수반(adjugate) 은 다음과 같이 A 의 역을 찾기 위해 사용될 수 있습니다:
만약 A 가 역-가능 행렬이면, 다음과 같습니다:
A
−
1
=
1
det
(
A
)
adj
(
A
)
.
{\displaystyle A^{-1}={\frac {1}{\det(A)}}\operatorname {adj} (A).}
In relation to the identity matrix
다음과 같은 행렬 곱셈의 결합성에서 따릅니다: 만약 유한 정사각 (finite square ) 행렬 A 와 B 에 대해 다음이면,
A
B
=
I
{\displaystyle \mathbf {AB} =\mathbf {I} \ }
역시 다음입니다:
B
A
=
I
{\displaystyle \mathbf {BA} =\mathbf {I} \ }
[4]
Density
실수의 필드에 걸쳐,
R
n
×
n
{\displaystyle \mathbb {R} ^{n\times n}}
의 부분집합으로 고려되는 특이 n × n 행렬의 집합은 널 집합(null set) , 즉, 르베그(Lebesgue) 측정 영(measure zero) 을 가집니다. 이것은 특이 행렬이 행렬식(determinant) 함수의 근이기 때문에 참입니다. 이것은 행렬의 엔트리에서 다항식이기 때문에 연속 함수입니다. 따라서 측정 이론(measure theory) 의 언어에서, 거의 모든(almost all) n × n 행렬은 역-가능입니다.
게다가, n × n 역-가능 행렬은 모든 n × n 행렬의 토폴로지적 공간(topological space) 에서 조밀한(dense) 열린 집합(open set) 입니다. 동등하게, 단일 행렬의 집합은 닫혀 있고 n × n 행렬의 공간에서 아무 데도 조밀하지 않습니다 .
실제로 어쨌든, 역-가능 행렬을 만날 수 있습니다. 그리고 수치적 계산(numerical calculations) 에서, 역-가능이지만 비-역가능 행렬에 가까운 행렬은 여전히 문제가 될 수 있습니다; 그러한 행렬은 나쁜-조건(ill-conditioned) 이라고 말합니다.
Examples
랭크 n-1을 갖는 비-역가능 행렬의 예제
A
=
(
2
4
2
4
)
.
{\displaystyle \mathbf {A} ={\begin{pmatrix}2&4\\2&4\end{pmatrix}}.}
이 2 × 2 행렬의 랭크가 일임을 쉽게 알 수 있으며, 이는 n-1≠n이므로, 그것은 비-역가능 행렬입니다.
다음 2 × 2 행렬을 생각해 보십시오:
B
=
(
−
1
3
2
1
−
1
)
.
{\displaystyle \mathbf {B} ={\begin{pmatrix}-1&{\tfrac {3}{2}}\\1&-1\end{pmatrix}}.}
행렬
B
{\displaystyle \mathbf {B} }
는 역-가능입니다. 이를 확인하기 위해,
det
B
=
−
1
2
{\textstyle \det \mathbf {B} =-{\frac {1}{2}}}
를 계산할 수 있으며, 이는 비-영입니다.
비-역가능, 또는, 특이 행렬의 예제로 다음 행렬을 생각해 보십시오:
C
=
(
−
1
3
2
2
3
−
1
)
.
{\displaystyle \mathbf {C} ={\begin{pmatrix}-1&{\tfrac {3}{2}}\\{\tfrac {2}{3}}&-1\end{pmatrix}}.}
C
{\displaystyle \mathbf {C} }
의 행렬식은 0이며, 이는 행렬이 비-역가능이 되기 위한 필요충분 조건입니다.
Methods of matrix inversion
Gaussian elimination
가우스 소거법(Gaussian elimination) 은 행렬의 역을 계산하기 위한 유용하고 쉬운 방법입니다. 이 방법을 사용하여 행렬 역을 계산하기 위해, 증가된 행렬(augmented matrix) 은 먼저 왼쪽 편에 반전될 행렬을 갖고 오른쪽 편에 항등 행렬(identity matrix) 을 갖도록 생성됩니다. 그런-다음 가우스 소거법은 왼쪽 편을 항등 행렬로 변환하기 위해 사용되며, 이는 오른쪽 편을 입력 행렬의 역이 되는 결과를 초래합니다.
예를 들어, 다음 행렬을 취합니다:
A
=
(
−
1
3
2
1
−
1
)
.
{\displaystyle \mathbf {A} ={\begin{pmatrix}-1&{\tfrac {3}{2}}\\1&-1\end{pmatrix}}.}
역을 계산하기 위한 첫 번째 단계는 증가된 행렬을 만드는 것입니다:
(
−
1
3
2
1
0
1
−
1
0
1
)
.
{\displaystyle \left({\begin{array}{cc|cc}-1&{\tfrac {3}{2}}&1&0\\1&-1&0&1\end{array}}\right).}
이 행렬의 첫 번째 행을
R
1
{\displaystyle R_{1}}
이라고 부르고 두 번째 행을
R
2
{\displaystyle R_{2}}
라고 부릅니다. 그럼-다음 행 1과 행 2를 더해서 행 2에 씁니다:
(
R
1
+
R
2
→
R
2
)
.
{\displaystyle (R_{1}+R_{2}\to R_{2}).}
이것은 다음을 산출합니다:
(
−
1
3
2
1
0
0
1
2
1
1
)
.
{\displaystyle \left({\begin{array}{cc|cc}-1&{\tfrac {3}{2}}&1&0\\0&{\tfrac {1}{2}}&1&1\end{array}}\right).}
다음으로, 행 2에 3을 곱하고 행 1에서 뺍니다:
(
R
1
−
3
R
2
→
R
1
)
,
{\displaystyle (R_{1}-3\,R_{2}\to R_{1}),}
이는 다음을 산출합니다:
(
−
1
0
−
2
−
3
0
1
2
1
1
)
.
{\displaystyle \left({\begin{array}{cc|cc}-1&0&-2&-3\\0&{\tfrac {1}{2}}&1&1\end{array}}\right).}
마지막으로, 행 1에 –1을 곱하고:
(
−
R
1
→
R
1
)
{\displaystyle (-R_{1}\to R_{1})}
행 2에 2를 곱합니다:
(
2
R
2
→
R
2
)
.
{\displaystyle (2\,R_{2}\to R_{2}).}
이것은 왼쪽 편에 항등 행렬을 산출하고 오른쪽 편에 역 행렬을 산출합니다:
(
1
0
2
3
0
1
2
2
)
.
{\displaystyle \left({\begin{array}{cc|cc}1&0&2&3\\0&1&2&2\end{array}}\right).}
따라서,
A
−
1
=
(
2
3
2
2
)
.
{\displaystyle \mathbf {A} ^{-1}={\begin{pmatrix}2&3\\2&2\end{pmatrix}}.}
이것이 작동하는 이유는 가우스 소거법 과정이
E
n
E
n
−
1
⋯
E
2
E
1
A
=
I
{\displaystyle \mathbf {E} _{n}\mathbf {E} _{n-1}\cdots \mathbf {E} _{2}\mathbf {E} _{1}\mathbf {A} =\mathbf {I} }
와 같이 기본 행렬(Elementary matrix ,
E
n
{\displaystyle \mathbf {E} _{n}}
)을 사용하여 기본 행 연산을 사용하는 왼쪽 행렬 곱셈을 적용하는 순서열로 볼 수 있기 때문입니다.
A
−
1
{\displaystyle \mathbf {A} ^{-1}}
을 사용하여 오른쪽-곱셈을 적용하여,
E
n
E
n
−
1
⋯
E
2
E
1
I
=
I
A
−
1
{\displaystyle \mathbf {E} _{n}\mathbf {E} _{n-1}\cdots \mathbf {E} _{2}\mathbf {E} _{1}\mathbf {I} =\mathbf {I} \mathbf {A} ^{-1}}
를 얻습니다. 그리고 오른쪽 변
I
A
−
1
=
A
−
1
{\displaystyle \mathbf {I} \mathbf {A} ^{-1}=\mathbf {A} ^{-1}}
은 우리가 원하는 역입니다.
E
n
E
n
−
1
⋯
E
2
E
1
I
{\displaystyle \mathbf {E} _{n}\mathbf {E} _{n-1}\cdots \mathbf {E} _{2}\mathbf {E} _{1}\mathbf {I} }
를 얻기 위해, A 와 I 를 조합함으로써 증가된 행렬을 만들고 가우스 소거법을 적용합니다. 두 부분은 기본 행 작업의 같은 순서열을 사용하여 변환됩니다. 왼쪽 부분이 I 가 될 때, 같은 기본 행 연산 순서열이 적용된 오른쪽 부분은 A –1 가 됩니다.
Newton's method
적합한 시작하는 시드를 찾는 것이 편리하면, 뉴턴 방법(Newton's method) 의 일반화가 곱셈 역 알고리듬(multiplicative inverse algorithm) 에 사용될 때 편리할 수 있습니다:
X
k
+
1
=
2
X
k
−
X
k
A
X
k
.
{\displaystyle X_{k+1}=2X_{k}-X_{k}AX_{k}.}
Victor Pan 과 John Reif 는 시작 시드를 생성하는 방법을 포함하는 연구를 수행해 왔습니다.[5] [6] 바이트 매거진(Byte magazine) 은 그들의 접근 방식 중 하나를 요약했습니다.[7]
뉴턴의 방법은 위의 호모토피에 대해 만들어진 순서열과 같이 충분하게 동작하는 관련된 행렬의 가족을 처리할 때 특히 유용합니다: 때때로 새로운 역에 대한 근사를 정제하기 위한 좋은 출발 점은 현재 행렬에 거의 일치하는 이전 행렬, 예를 들어 Denman-Beavers 반복에 의한 행렬 제곱근 을 얻는 데 사용되는 역행렬 순서열의 쌍의 이미 얻은 역행렬일 수 있습니다; 이것은 만약 그것들이 하나만으로도 충분할 만큼 서로 충분히 가깝지 않으면 각각의 새로운 행렬에서 반복의 패스가 두 번 이상 필요할 수 있습니다. 뉴턴의 방법은 불완전한 컴퓨터 산술(imperfect computer arithmetic) 로 인해 작은 오차에 의해 오염된 가우스-요르단 알고리듬에 대한 "개선(touch up)" 수정에도 유용합니다.
Cayley–Hamilton method
케일리-해밀턴 정리(Cayley–Hamilton theorem) 는 A 의 역을 det(A ) , A 의 대각합과 거듭제곱의 관점에서 표현하도록 허용합니다:[8]
A
−
1
=
1
det
(
A
)
∑
s
=
0
n
−
1
A
s
∑
k
1
,
k
2
,
…
,
k
n
−
1
∏
l
=
1
n
−
1
(
−
1
)
k
l
+
1
l
k
l
k
l
!
tr
(
A
l
)
k
l
,
{\displaystyle \mathbf {A} ^{-1}={\frac {1}{\det(\mathbf {A} )}}\sum _{s=0}^{n-1}\mathbf {A} ^{s}\sum _{k_{1},k_{2},\ldots ,k_{n-1}}\prod _{l=1}^{n-1}{\frac {(-1)^{k_{l}+1}}{l^{k_{l}}k_{l}!}}\operatorname {tr} \left(\mathbf {A} ^{l}\right)^{k_{l}},}
여기서 n 은 A 의 차원이고, tr(A ) 는 주요 대각선의 합에 의해 주어진 행렬 A 의 대각합(trace) 입니다. 합은 s 와 선형 디오판토스 방정식(Diophantine equation) 을 만족시키는 모든
k
l
≥
0
{\displaystyle k_{l}\geq 0}
의 집합에 걸쳐 취합니다:
s
+
∑
l
=
1
n
−
1
l
k
l
=
n
−
1.
{\displaystyle s+\sum _{l=1}^{n-1}lk_{l}=n-1.}
공식은 인수
t
l
=
−
(
l
−
1
)
!
tr
(
A
l
)
{\displaystyle t_{l}=-(l-1)!\operatorname {tr} \left(A^{l}\right)}
의 완전한 벨 다항식(Bell polynomials) 의 관점에서 다음과 같이 다시 쓸 수 있습니다:
A
−
1
=
1
det
(
A
)
∑
s
=
1
n
A
s
−
1
(
−
1
)
n
−
1
(
n
−
s
)
!
B
n
−
s
(
t
1
,
t
2
,
…
,
t
n
−
s
)
.
{\displaystyle \mathbf {A} ^{-1}={\frac {1}{\det(\mathbf {A} )}}\sum _{s=1}^{n}\mathbf {A} ^{s-1}{\frac {(-1)^{n-1}}{(n-s)!}}B_{n-s}(t_{1},t_{2},\ldots ,t_{n-s}).}
Eigendecomposition
만약 행렬 A 가 고유-분해될 수 있고, 고윳값 중 어느 것도 영이 아니면, A 는 역-가능이고 그것의 역은 다음에 의해 제공됩니다:
A
−
1
=
Q
Λ
−
1
Q
−
1
,
{\displaystyle \mathbf {A} ^{-1}=\mathbf {Q} \mathbf {\Lambda } ^{-1}\mathbf {Q} ^{-1},}
여기서 Q 는 i -번째 열이 A 의 고유-벡터
q
i
{\displaystyle q_{i}}
인 정사각형 (N × N ) 행렬이고, Λ 는 대각선 원소가 해당 고윳값, 즉
Λ
i
i
=
λ
i
{\displaystyle \Lambda _{ii}=\lambda _{i}}
인 대각 행렬(diagonal matrix) 입니다. 만약 A 가 대칭적이면, Q 는 직교 행렬(orthogonal matrix) 임을 보장하며, 따라서
Q
−
1
=
Q
⊤
{\displaystyle \mathbf {Q} ^{-1}=\mathbf {Q} ^{\top }}
입니다. 게다가, Λ 는 대각 행렬이기 때문에, 그것의 역은 쉽게 계산될 수 있습니다:
[
Λ
−
1
]
i
i
=
1
λ
i
.
{\displaystyle \left[\Lambda ^{-1}\right]_{ii}={\frac {1}{\lambda _{i}}}.}
Cholesky decomposition
만약 행렬 A 가 양수 한정(positive definite) 이면, 그것은 역은 다음으로 얻을 수 있습니다:
A
−
1
=
(
L
∗
)
−
1
L
−
1
,
{\displaystyle \mathbf {A} ^{-1}=\left(\mathbf {L} ^{*}\right)^{-1}\mathbf {L} ^{-1},}
여기서 L 은 A 의 아래쪽 삼각 숄레스키 분해(Cholesky decomposition) 이고, L * 은 L 의 켤레 전치를 나타냅니다.
Analytic solution
수반 행렬(adjugate matrix) 로 알려진 여인수의 행렬(matrix of cofactors) 의 전치를 작성하는 것도 작은 행렬의 역을 계산하는 효율적인 방법일 수 있지만, 이 재귀 방법은 큰 행렬에 대해 비효율적입니다. 역을 결정하기 위해, 여인수의 행렬을 계산합니다:
A
−
1
=
1
|
A
|
C
T
=
1
|
A
|
(
C
11
C
21
⋯
C
n
1
C
12
C
22
⋯
C
n
2
⋮
⋮
⋱
⋮
C
1
n
C
2
n
⋯
C
n
n
)
{\displaystyle \mathbf {A} ^{-1}={1 \over {\begin{vmatrix}\mathbf {A} \end{vmatrix}}}\mathbf {C} ^{\mathrm {T} }={1 \over {\begin{vmatrix}\mathbf {A} \end{vmatrix}}}{\begin{pmatrix}\mathbf {C} _{11}&\mathbf {C} _{21}&\cdots &\mathbf {C} _{n1}\\\mathbf {C} _{12}&\mathbf {C} _{22}&\cdots &\mathbf {C} _{n2}\\\vdots &\vdots &\ddots &\vdots \\\mathbf {C} _{1n}&\mathbf {C} _{2n}&\cdots &\mathbf {C} _{nn}\\\end{pmatrix}}}
이때,
(
A
−
1
)
i
j
=
1
|
A
|
(
C
T
)
i
j
=
1
|
A
|
(
C
j
i
)
{\displaystyle \left(\mathbf {A} ^{-1}\right)_{ij}={1 \over {\begin{vmatrix}\mathbf {A} \end{vmatrix}}}\left(\mathbf {C} ^{\mathrm {T} }\right)_{ij}={1 \over {\begin{vmatrix}\mathbf {A} \end{vmatrix}}}\left(\mathbf {C} _{ji}\right)}
여기서 |A | 는 A 의 행렬식(determinant) , C 는 여인수의 행렬(matrix of cofactors) 이고, C T 는 행렬 전치(transpose) 를 나타냅니다.
Inversion of 2 × 2 matrices
위에 나열된 여인수 방정식 (cofactor equation )은 2 × 2 행렬에 대해 다음 결과를 산출합니다. 이들 행렬의 반전은 다음과 같이 수행될 수 있습니다:[9]
A
−
1
=
[
a
b
c
d
]
−
1
=
1
det
A
[
d
−
b
−
c
a
]
=
1
a
d
−
b
c
[
d
−
b
−
c
a
]
.
{\displaystyle \mathbf {A} ^{-1}={\begin{bmatrix}a&b\\c&d\\\end{bmatrix}}^{-1}={\frac {1}{\det \mathbf {A} }}{\begin{bmatrix}\,\,\,d&\!\!-b\\-c&\,a\\\end{bmatrix}}={\frac {1}{ad-bc}}{\begin{bmatrix}\,\,\,d&\!\!-b\\-c&\,a\\\end{bmatrix}}.}
이것은 1/(ad − bc ) 가 문제에서 행렬의 행렬식의 역수이기 때문에 가능하고, 같은 전략이 다른 행렬 크기에 대해 사용될 수 있습니다.
케일리–해밀턴 방법은 다음을 제공합니다:
A
−
1
=
1
det
A
[
(
tr
A
)
I
−
A
]
.
{\displaystyle \mathbf {A} ^{-1}={\frac {1}{\det \mathbf {A} }}\left[\left(\operatorname {tr} \mathbf {A} \right)\mathbf {I} -\mathbf {A} \right].}
Inversion of 3 × 3 matrices
계산적으로 효율적인 3 × 3 행렬 반전은 다음에 의해 제공됩니다:
A
−
1
=
[
a
b
c
d
e
f
g
h
i
]
−
1
=
1
det
(
A
)
[
A
B
C
D
E
F
G
H
I
]
T
=
1
det
(
A
)
[
A
D
G
B
E
H
C
F
I
]
{\displaystyle \mathbf {A} ^{-1}={\begin{bmatrix}a&b&c\\d&e&f\\g&h&i\\\end{bmatrix}}^{-1}={\frac {1}{\det(\mathbf {A} )}}{\begin{bmatrix}\,A&\,B&\,C\\\,D&\,E&\,F\\\,G&\,H&\,I\\\end{bmatrix}}^{\mathrm {T} }={\frac {1}{\det(\mathbf {A} )}}{\begin{bmatrix}\,A&\,D&\,G\\\,B&\,E&\,H\\\,C&\,F&\,I\\\end{bmatrix}}}
(여기서 스칼라 A 는 행렬 A 와 혼동되어서는 안됩니다).
만약 행렬식이 비-영이면, 행렬은 역가능이며, 위의 오른쪽 편에 있는 중간 행렬의 원소는 다음에 의해 지정합니다:
A
=
(
e
i
−
f
h
)
,
D
=
−
(
b
i
−
c
h
)
,
G
=
(
b
f
−
c
e
)
,
B
=
−
(
d
i
−
f
g
)
,
E
=
(
a
i
−
c
g
)
,
H
=
−
(
a
f
−
c
d
)
,
C
=
(
d
h
−
e
g
)
,
F
=
−
(
a
h
−
b
g
)
,
I
=
(
a
e
−
b
d
)
.
{\displaystyle {\begin{alignedat}{6}A&={}&(ei-fh),&\quad &D&={}&-(bi-ch),&\quad &G&={}&(bf-ce),\\B&={}&-(di-fg),&\quad &E&={}&(ai-cg),&\quad &H&={}&-(af-cd),\\C&={}&(dh-eg),&\quad &F&={}&-(ah-bg),&\quad &I&={}&(ae-bd).\\\end{alignedat}}}
A 의 행렬식은 다음처럼 사뤼스의 규칙(rule of Sarrus) 을 적용함으로써 계산될 수 있습니다:
det
(
A
)
=
a
A
+
b
B
+
c
C
.
{\displaystyle \det(\mathbf {A} )=aA+bB+cC.}
케일리–해밀턴 분해는 다음을 제공합니다:
A
−
1
=
1
det
(
A
)
(
1
2
[
(
tr
A
)
2
−
tr
(
A
2
)
]
I
−
A
tr
A
+
A
2
)
.
{\displaystyle \mathbf {A} ^{-1}={\frac {1}{\det(\mathbf {A} )}}\left({\frac {1}{2}}\left[(\operatorname {tr} \mathbf {A} )^{2}-\operatorname {tr} (\mathbf {A} ^{2})\right]\mathbf {I} -\mathbf {A} \operatorname {tr} \mathbf {A} +\mathbf {A} ^{2}\right).}
일반적인 3 × 3 역은 교차 곱(cross product) 과 삼중 곱(triple product) 의 관점에서 간결하게 표현될 수 있습니다. 만약 행렬
A
=
[
x
0
x
1
x
2
]
{\displaystyle \mathbf {A} ={\begin{bmatrix}\mathbf {x} _{0}&\mathbf {x} _{1}&\mathbf {x} _{2}\end{bmatrix}}}
(세 개의 열 벡터
x
0
{\displaystyle \mathbf {x} _{0}}
,
x
1
{\displaystyle \mathbf {x} _{1}}
, 및
x
2
{\displaystyle \mathbf {x} _{2}}
로 구성됨)가 역가능이면, 그것의 역은 다음에 의해 제공됩니다:
A
−
1
=
1
det
(
A
)
[
(
x
1
×
x
2
)
T
(
x
2
×
x
0
)
T
(
x
0
×
x
1
)
T
]
.
{\displaystyle \mathbf {A} ^{-1}={\frac {1}{\det(\mathbf {A} )}}{\begin{bmatrix}{(\mathbf {x_{1}} \times \mathbf {x_{2}} )}^{\mathrm {T} }\\{(\mathbf {x_{2}} \times \mathbf {x_{0}} )}^{\mathrm {T} }\\{(\mathbf {x_{0}} \times \mathbf {x_{1}} )}^{\mathrm {T} }\end{bmatrix}}.}
A 의 행렬식, det(A ) 은 x 0 , x 1 , 및 x 2 의 삼중 곱—행 또는 열에 의해 형성된 평행육면체(parallelepiped) 의 부피와 같습니다:
det
(
A
)
=
x
0
⋅
(
x
1
×
x
2
)
.
{\displaystyle \det(\mathbf {A} )=\mathbf {x} _{0}\cdot (\mathbf {x} _{1}\times \mathbf {x} _{2}).}
수식의 정확성은 교차-곱과 삼중 곱 속성을 사용하고 그룹에 대해, 왼쪽 역과 오른쪽 역이 항상 일치한다는 점을 주목함으로써 확인될 수 있습니다. 직관적으로, 교차 곱 때문에, A –1 의 각 행은 A 의 대응하지 않는 두 열에 직교합니다 (
I
=
A
−
1
A
{\displaystyle \mathbf {I} =\mathbf {A} ^{-1}\mathbf {A} }
의 비-대각 항이 0이 되도록 합니다). 다음에 의해 나누는 것은
det
(
A
)
=
x
0
⋅
(
x
1
×
x
2
)
{\displaystyle \det(\mathbf {A} )=\mathbf {x} _{0}\cdot (\mathbf {x} _{1}\times \mathbf {x} _{2})}
I = A –1 A 의 대각선 원소가 단위가 되도록 합니다. 예를 들어, 첫 번째 대각선은 다음과 같습니다:
1
=
1
x
0
⋅
(
x
1
×
x
2
)
x
0
⋅
(
x
1
×
x
2
)
.
{\displaystyle 1={\frac {1}{\mathbf {x_{0}} \cdot (\mathbf {x} _{1}\times \mathbf {x} _{2})}}\mathbf {x_{0}} \cdot (\mathbf {x} _{1}\times \mathbf {x} _{2}).}
Inversion of 4 × 4 matrices
차원이 증가함에 따라, A 의 역수에 대한 표현이 복잡해집니다. n = 4 에 대해, 케일리–해밀턴 방법은 여전히 다루기 쉬운 표현으로 이어집니다:
A
−
1
=
1
det
(
A
)
(
1
6
[
(
tr
A
)
3
−
3
tr
A
tr
(
A
2
)
+
2
tr
(
A
3
)
]
I
−
1
2
A
[
(
tr
A
)
2
−
tr
(
A
2
)
]
+
A
2
tr
A
−
A
3
)
.
{\displaystyle \mathbf {A} ^{-1}={\frac {1}{\det(\mathbf {A} )}}\left({\frac {1}{6}}\left[(\operatorname {tr} \mathbf {A} )^{3}-3\operatorname {tr} \mathbf {A} \operatorname {tr} (\mathbf {A} ^{2})+2\operatorname {tr} (\mathbf {A} ^{3})\right]\mathbf {I} -{\frac {1}{2}}\mathbf {A} \left[(\operatorname {tr} \mathbf {A} )^{2}-\operatorname {tr} (\mathbf {A} ^{2})\right]+\mathbf {A} ^{2}\operatorname {tr} \mathbf {A} -\mathbf {A} ^{3}\right).}
Blockwise inversion
행렬은 다음 해석적 반전 공식을 사용함으로써 행렬을 블록-별 반전 시킬 수도 있습니다:
[
A
B
C
D
]
−
1
=
[
A
−
1
+
A
−
1
B
(
D
−
C
A
−
1
B
)
−
1
C
A
−
1
−
A
−
1
B
(
D
−
C
A
−
1
B
)
−
1
−
(
D
−
C
A
−
1
B
)
−
1
C
A
−
1
(
D
−
C
A
−
1
B
)
−
1
]
,
{\displaystyle {\begin{bmatrix}\mathbf {A} &\mathbf {B} \\\mathbf {C} &\mathbf {D} \end{bmatrix}}^{-1}={\begin{bmatrix}\mathbf {A} ^{-1}+\mathbf {A} ^{-1}\mathbf {B} \left(\mathbf {D} -\mathbf {CA} ^{-1}\mathbf {B} \right)^{-1}\mathbf {CA} ^{-1}&-\mathbf {A} ^{-1}\mathbf {B} \left(\mathbf {D} -\mathbf {CA} ^{-1}\mathbf {B} \right)^{-1}\\-\left(\mathbf {D} -\mathbf {CA} ^{-1}\mathbf {B} \right)^{-1}\mathbf {CA} ^{-1}&\left(\mathbf {D} -\mathbf {CA} ^{-1}\mathbf {B} \right)^{-1}\end{bmatrix}},}
(1 )
여기서 A , B , C , 및 D 는 임의적인 크기의 행렬 부분-블록(matrix sub-blocks) 입니다. (A 는 역-가능이 되도록 정사각이어야 합니다. 게다가, A 와 D – CA –1 B 는 비-특이여야 합니다.[10] ) 이 전략은 만약 A 가 대각 행렬이고 D – CA –1 B (A 의 슈어 여(Schur complement) )가 작은 행렬이면 특히 유리한데, 왜냐하면 그것들은 반전을 요구하는 유일한 행렬이기 때문입니다.
이 기술은 여러 번 재발명되었고 측지(geodetic) 행렬의 반전에 그것을 사용한 한스 볼츠(Hans Boltz) (1923)와 그것을 일반화하고 정확성을 입증한 타데우시 바나치에비츠(Tadeusz Banachiewicz) (1937) 덕분입니다.
널러티 정리(nullity theorem) 는 A 의 널러티가 역 행렬의 아래쪽 오른쪽에 있는 부분-블록의 널러티와 같고, B 의 널러티는 역 행렬의 위쪽 오른쪽에 있는 부분-블록의 널러티와 같다고 말합니다.
방정식 (1)로 이어진 반전 절차는 먼저 C 와 D 에서 연산된 행렬 블록 연산을 수행했습니다. 대신, 만약 A 와 B 가 먼저 연산되고, 제공된 D 와 A – BD –1 C 가 비-특이이면,[11] 결과는 다음과 같습니다:
[
A
B
C
D
]
−
1
=
[
(
A
−
B
D
−
1
C
)
−
1
−
(
A
−
B
D
−
1
C
)
−
1
B
D
−
1
−
D
−
1
C
(
A
−
B
D
−
1
C
)
−
1
D
−
1
+
D
−
1
C
(
A
−
B
D
−
1
C
)
−
1
B
D
−
1
]
.
{\displaystyle {\begin{bmatrix}\mathbf {A} &\mathbf {B} \\\mathbf {C} &\mathbf {D} \end{bmatrix}}^{-1}={\begin{bmatrix}\left(\mathbf {A} -\mathbf {BD} ^{-1}\mathbf {C} \right)^{-1}&-\left(\mathbf {A} -\mathbf {BD} ^{-1}\mathbf {C} \right)^{-1}\mathbf {BD} ^{-1}\\-\mathbf {D} ^{-1}\mathbf {C} \left(\mathbf {A} -\mathbf {BD} ^{-1}\mathbf {C} \right)^{-1}&\quad \mathbf {D} ^{-1}+\mathbf {D} ^{-1}\mathbf {C} \left(\mathbf {A} -\mathbf {BD} ^{-1}\mathbf {C} \right)^{-1}\mathbf {BD} ^{-1}\end{bmatrix}}.}
(2 )
방정식 (1 )과 (2 )를 동일시하면 다음으로 이어집니다:
(
A
−
B
D
−
1
C
)
−
1
=
A
−
1
+
A
−
1
B
(
D
−
C
A
−
1
B
)
−
1
C
A
−
1
(
A
−
B
D
−
1
C
)
−
1
B
D
−
1
=
A
−
1
B
(
D
−
C
A
−
1
B
)
−
1
D
−
1
C
(
A
−
B
D
−
1
C
)
−
1
=
(
D
−
C
A
−
1
B
)
−
1
C
A
−
1
D
−
1
+
D
−
1
C
(
A
−
B
D
−
1
C
)
−
1
B
D
−
1
=
(
D
−
C
A
−
1
B
)
−
1
{\displaystyle {\begin{aligned}\left(\mathbf {A} -\mathbf {BD} ^{-1}\mathbf {C} \right)^{-1}&=\mathbf {A} ^{-1}+\mathbf {A} ^{-1}\mathbf {B} \left(\mathbf {D} -\mathbf {CA} ^{-1}\mathbf {B} \right)^{-1}\mathbf {CA} ^{-1}\\\left(\mathbf {A} -\mathbf {BD} ^{-1}\mathbf {C} \right)^{-1}\mathbf {BD} ^{-1}&=\mathbf {A} ^{-1}\mathbf {B} \left(\mathbf {D} -\mathbf {CA} ^{-1}\mathbf {B} \right)^{-1}\\\mathbf {D} ^{-1}\mathbf {C} \left(\mathbf {A} -\mathbf {BD} ^{-1}\mathbf {C} \right)^{-1}&=\left(\mathbf {D} -\mathbf {CA} ^{-1}\mathbf {B} \right)^{-1}\mathbf {CA} ^{-1}\\\mathbf {D} ^{-1}+\mathbf {D} ^{-1}\mathbf {C} \left(\mathbf {A} -\mathbf {BD} ^{-1}\mathbf {C} \right)^{-1}\mathbf {BD} ^{-1}&=\left(\mathbf {D} -\mathbf {CA} ^{-1}\mathbf {B} \right)^{-1}\end{aligned}}}
(3 )
여기서 방정식 (3 )은 우드베리 행렬 항등식(Woodbury matrix identity) 이며, 이는 이항 반전 정리(binomial inverse theorem) 와 동등합니다.
만약 A 와 D 가 둘 다 역가능이면, 위의 두 블록 행렬 역은 간단한 분해를 제공하기 위해 결합될 수 있습니다:
[
A
B
C
D
]
−
1
=
[
(
A
−
B
D
−
1
C
)
−
1
0
0
(
D
−
C
A
−
1
B
)
−
1
]
[
I
−
B
D
−
1
−
C
A
−
1
I
]
.
{\displaystyle {\begin{bmatrix}\mathbf {A} &\mathbf {B} \\\mathbf {C} &\mathbf {D} \end{bmatrix}}^{-1}={\begin{bmatrix}\left(\mathbf {A} -\mathbf {B} \mathbf {D} ^{-1}\mathbf {C} \right)^{-1}&\mathbf {0} \\\mathbf {0} &\left(\mathbf {D} -\mathbf {C} \mathbf {A} ^{-1}\mathbf {B} \right)^{-1}\end{bmatrix}}{\begin{bmatrix}\mathbf {I} &-\mathbf {B} \mathbf {D} ^{-1}\\-\mathbf {C} \mathbf {A} ^{-1}&\mathbf {I} \end{bmatrix}}.}
(2 )
와인스틴-아론샤인 항등(Weinstein–Aronszajn identity) 에 의해, 블록-대각 행렬에서 두 행렬 중 하나는 나머지 하나가 역가능일 때 정확하게 역-가능입니다.
n × n 행렬의 블록 단위 반전은 2개의 절반-크기 행렬의 반전과 2개의 절반-크기 행렬 사이의 6 곱셈을 요구하기 때문에, 행렬을 반전시키기 위해 블록 단위를 사용하는 분할과 정복 알고리듬 은 내부적으로 사용되는 행렬 곱셈 알고리듬 과 같은 시간 복잡도로 실행됨을 알 수 있습니다.[12] 행렬 곱셈 복잡도의 연구 는 O (n 2.3727 ) 의 복잡도를 갖는 곱셈 알고리듬이 존재하고, 반면에 최대 입증된 아래쪽 경계는 Ω (n 2 log n ) 임을 보여줍니다.[13]
이 공식은 위쪽 오른쪽 블록 행렬 B 가 영 행렬일 때 크게 단순화됩니다. 이 공식은 행렬 A 와 D 가 상대적으로 단순한 역 공식 (또는 블록이 모두 정사각이 아닌 경우에서 유사 역(pseudo inverses) )을 가질 때 유용합니다. 이 특별한 경우에서, 위의 전체 일반성에서 언급된 블록 행렬 반전 공식은 다음이 됩니다:
[
A
0
C
D
]
−
1
=
[
A
−
1
0
−
D
−
1
C
A
−
1
D
−
1
]
.
{\displaystyle {\begin{bmatrix}\mathbf {A} &\mathbf {0} \\\mathbf {C} &\mathbf {D} \end{bmatrix}}^{-1}={\begin{bmatrix}\mathbf {A} ^{-1}&\mathbf {0} \\-\mathbf {D} ^{-1}\mathbf {CA} ^{-1}&\mathbf {D} ^{-1}\end{bmatrix}}.}
By Neumann series
만약 행렬 A 가 다음과 같은 속성을 가지면:
lim
n
→
∞
(
I
−
A
)
n
=
0
{\displaystyle \lim _{n\to \infty }(\mathbf {I} -\mathbf {A} )^{n}=0}
A 는 비-특이이고 그것의 역은 노이만 급수(Neumann series) 에 의해 표현될 수 있습니다:[14]
A
−
1
=
∑
n
=
0
∞
(
I
−
A
)
n
.
{\displaystyle \mathbf {A} ^{-1}=\sum _{n=0}^{\infty }(\mathbf {I} -\mathbf {A} )^{n}.}
합의 끝을 자르는 것은 선조건자(preconditioner) 로 유용할 수 있는 "근사" 역을 초래합니다. 잘린 급수는 노이만 급수가 기하적 합(geometric sum) 이라는 점에 유의함으로써 지수적으로 가속될 수 있습니다. 이를테면, 그것은 다음을 만족시킵니다:
∑
n
=
0
2
L
−
1
(
I
−
A
)
n
=
∏
l
=
0
L
−
1
(
I
+
(
I
−
A
)
2
l
)
{\displaystyle \sum _{n=0}^{2^{L}-1}(\mathbf {I} -\mathbf {A} )^{n}=\prod _{l=0}^{L-1}\left(\mathbf {I} +(\mathbf {I} -\mathbf {A} )^{2^{l}}\right)}
.
그러므로, 오직 2L – 2 행렬 곱셈이 합의 2L 항을 계산하기 위해 필요합니다.
보다 일반적으로, 만약 A 가 다음과 같은 의미에서 역-가능 행렬 X "근처"에 있으면,
lim
n
→
∞
(
I
−
X
−
1
A
)
n
=
0
o
r
lim
n
→
∞
(
I
−
A
X
−
1
)
n
=
0
{\displaystyle \lim _{n\to \infty }\left(\mathbf {I} -\mathbf {X} ^{-1}\mathbf {A} \right)^{n}=0\mathrm {~~or~~} \lim _{n\to \infty }\left(\mathbf {I} -\mathbf {A} \mathbf {X} ^{-1}\right)^{n}=0}
A 는 비-특이이고 그것의 역은 다음과 같습니다:
A
−
1
=
∑
n
=
0
∞
(
X
−
1
(
X
−
A
)
)
n
X
−
1
.
{\displaystyle \mathbf {A} ^{-1}=\sum _{n=0}^{\infty }\left(\mathbf {X} ^{-1}(\mathbf {X} -\mathbf {A} )\right)^{n}\mathbf {X} ^{-1}~.}
만약 A − X 가 랭크(rank) 1을 가지는 경우이면 이것은 다음으로 단순화됩니다:
A
−
1
=
X
−
1
−
X
−
1
(
A
−
X
)
X
−
1
1
+
tr
(
X
−
1
(
A
−
X
)
)
.
{\displaystyle \mathbf {A} ^{-1}=\mathbf {X} ^{-1}-{\frac {\mathbf {X} ^{-1}(\mathbf {A} -\mathbf {X} )\mathbf {X} ^{-1}}{1+\operatorname {tr} \left(\mathbf {X} ^{-1}(\mathbf {A} -\mathbf {X} )\right)}}~.}
p -adic approximation
만약 A 가 정수(integer) 또는 유리수(rational) 계수를 갖는 행렬이고 임의적인-정밀도(arbitrary-precision) 유리수에서 해를 구하려면, p -진수(p -adic) 근사 방법은 표준 O(n 3 ) 행렬 곱셈이 사용된다고 가정하여 O(n 4 log2 n ) 에서 정확한 해로 수렴합니다.[15] 그 방법은 딕슨의 p -진수 근사 (각각 O(n 3 log2 n ) )를 통해 n 선형 시스템을 해결하는 데 의존하고 예를 들어 IML에서 임의적인-정밀도 행렬 연산에 특화된 소프트웨어에서 사용할 수 있습니다.[16]
Reciprocal basis vectors method
n × n 정사각 행렬
X
=
[
x
i
j
]
{\displaystyle \mathbf {X} =\left[x^{ij}\right]}
,
1
≤
i
,
j
≤
n
{\displaystyle 1\leq i,j\leq n}
가 주어지면, 이때 n 행은 n 벡터
x
i
=
x
i
j
e
j
{\displaystyle \mathbf {x} _{i}=x^{ij}\mathbf {e} _{j}}
(아인슈타인 합 이 가정됨)으로 해석되고 여기서
e
j
{\displaystyle \mathbf {e} _{j}}
는 유클리드 공간
R
n
{\displaystyle \mathbb {R} ^{n}}
의 표준 직교정규 기저 이며 (
e
i
=
e
i
,
e
i
⋅
e
j
=
δ
i
j
{\displaystyle \mathbf {e} _{i}=\mathbf {e} ^{i},\mathbf {e} _{i}\cdot \mathbf {e} ^{j}=\delta _{i}^{j}}
), 그런-다음 클리퍼드 대수(Clifford algebra) (또는 기하 대수(Geometric Algebra) )를 사용하여 우리는 역수 (때때로 이중이라고 불림) 열 벡터를 역 행렬
X
−
1
=
[
x
j
i
]
{\displaystyle \mathbf {X} ^{-1}=[x_{ji}]}
의 열로 다음과 같이 계산합니다:
x
i
=
x
j
i
e
j
=
(
−
1
)
i
−
1
(
x
1
∧
⋯
∧
(
)
i
∧
⋯
∧
x
n
)
⋅
(
x
1
∧
x
2
∧
⋯
∧
x
n
)
−
1
{\displaystyle \mathbf {x} ^{i}=x_{ji}\mathbf {e} ^{j}=(-1)^{i-1}(\mathbf {x} _{1}\wedge \cdots \wedge ()_{i}\wedge \cdots \wedge \mathbf {x} _{n})\cdot (\mathbf {x} _{1}\wedge \ \mathbf {x} _{2}\wedge \cdots \wedge \mathbf {x} _{n})^{-1}}
위치 "
(
)
i
{\displaystyle ()_{i}}
"는 "
x
i
{\displaystyle \mathbf {x} _{i}}
"가
x
i
{\displaystyle \mathbf {x} ^{i}}
에 대해 위의 표현에서 해당 위치로부터 제거되었음을 나타내는 것에 주목하십시오. 우리는 그런-다음
X
X
−
1
=
[
x
i
⋅
x
j
]
=
[
δ
i
j
]
=
I
n
{\displaystyle \mathbf {X} \mathbf {X} ^{-1}=\left[\mathbf {x} _{i}\cdot \mathbf {x} ^{j}\right]=\left[\delta _{i}^{j}\right]=\mathbf {I} _{n}}
을 가지며, 여기서
δ
i
j
{\displaystyle \delta _{i}^{j}}
는 크로네커 델타(Kronecker delta) 입니다. 우리는 역시, 필요에 따라,
X
−
1
X
=
[
(
e
i
⋅
x
k
)
(
e
j
⋅
x
k
)
]
=
[
e
i
⋅
e
j
]
=
[
δ
i
j
]
=
I
n
{\displaystyle \mathbf {X} ^{-1}\mathbf {X} =\left[\left(\mathbf {e} _{i}\cdot \mathbf {x} ^{k}\right)\left(\mathbf {e} ^{j}\cdot \mathbf {x} _{k}\right)\right]=\left[\mathbf {e} _{i}\cdot \mathbf {e} ^{j}\right]=\left[\delta _{i}^{j}\right]=\mathbf {I} _{n}}
를 가집니다. 만약 벡터
x
i
{\displaystyle \mathbf {x} _{i}}
가 선형적으로 독립이 아니면,
(
x
1
∧
x
2
∧
⋯
∧
x
n
)
=
0
{\displaystyle (\mathbf {x} _{1}\wedge \mathbf {x} _{2}\wedge \cdots \wedge \mathbf {x} _{n})=0}
이고 행렬
X
{\displaystyle \mathbf {X} }
는 역-가능이 아닙니다 (역을 가지지 않습니다).
Derivative of the matrix inverse
역-가능 행렬 A 가 매개변수 t 에 의존한다고 가정합니다. 그런-다음 t 에 관한 A 의 역의 도함수는 다음에 의해 주어집니다:[17]
d
A
−
1
d
t
=
−
A
−
1
d
A
d
t
A
−
1
.
{\displaystyle {\frac {\mathrm {d} \mathbf {A} ^{-1}}{\mathrm {d} t}}=-\mathbf {A} ^{-1}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}\mathbf {A} ^{-1}.}
A 의 역의 도함수에 대해 위의 표현을 유도하기 위해, 행렬 역
A
−
1
A
=
I
{\displaystyle \mathbf {A} ^{-1}\mathbf {A} =\mathbf {I} }
의 정의를 미분하고, 그런-다음 A 의 역에 대해 풀 수 있습니다:
d
(
A
−
1
A
)
d
t
=
d
A
−
1
d
t
A
+
A
−
1
d
A
d
t
=
d
I
d
t
=
0
.
{\displaystyle {\frac {\mathrm {d} (\mathbf {A} ^{-1}\mathbf {A} )}{\mathrm {d} t}}={\frac {\mathrm {d} \mathbf {A} ^{-1}}{\mathrm {d} t}}\mathbf {A} +\mathbf {A} ^{-1}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}={\frac {\mathrm {d} \mathbf {I} }{\mathrm {d} t}}=\mathbf {0} .}
위의 양쪽 변에서
A
−
1
d
A
d
t
{\displaystyle \mathbf {A} ^{-1}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}}
를 빼고 오른쪽에
A
−
1
{\displaystyle \mathbf {A} ^{-1}}
를 곱하여 역의 도함수에 대해 올바른 표현을 제공합니다:
d
A
−
1
d
t
=
−
A
−
1
d
A
d
t
A
−
1
.
{\displaystyle {\frac {\mathrm {d} \mathbf {A} ^{-1}}{\mathrm {d} t}}=-\mathbf {A} ^{-1}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}\mathbf {A} ^{-1}.}
유사하게, 만약
ε
{\displaystyle \varepsilon }
가 작은 숫자이면:
(
A
+
ε
X
)
−
1
=
A
−
1
−
ε
A
−
1
X
A
−
1
+
O
(
ε
2
)
.
{\displaystyle \left(\mathbf {A} +\varepsilon \mathbf {X} \right)^{-1}=\mathbf {A} ^{-1}-\varepsilon \mathbf {A} ^{-1}\mathbf {X} \mathbf {A} ^{-1}+{\mathcal {O}}(\varepsilon ^{2})\,.}
보다 일반적으로, 만약 다음이면
d
f
(
A
)
d
t
=
∑
i
g
i
(
A
)
d
A
d
t
h
i
(
A
)
,
{\displaystyle {\frac {\mathrm {d} f(\mathbf {A} )}{\mathrm {d} t}}=\sum _{i}g_{i}(\mathbf {A} ){\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}h_{i}(\mathbf {A} ),}
다음과 같습니다:
f
(
A
+
ε
X
)
=
f
(
A
)
+
ε
∑
i
g
i
(
A
)
X
h
i
(
A
)
+
O
(
ε
2
)
.
{\displaystyle f(\mathbf {A} +\varepsilon \mathbf {X} )=f(\mathbf {A} )+\varepsilon \sum _{i}g_{i}(\mathbf {A} )\mathbf {X} h_{i}(\mathbf {A} )+{\mathcal {O}}\left(\varepsilon ^{2}\right).}
양의 정수
n
{\displaystyle n}
이 주어지면,
d
A
n
d
t
=
∑
i
=
1
n
A
i
−
1
d
A
d
t
A
n
−
i
,
d
A
−
n
d
t
=
−
∑
i
=
1
n
A
−
i
d
A
d
t
A
−
(
n
+
1
−
i
)
.
{\displaystyle {\begin{aligned}{\frac {\mathrm {d} \mathbf {A} ^{n}}{\mathrm {d} t}}&=\sum _{i=1}^{n}\mathbf {A} ^{i-1}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}\mathbf {A} ^{n-i},\\{\frac {\mathrm {d} \mathbf {A} ^{-n}}{\mathrm {d} t}}&=-\sum _{i=1}^{n}\mathbf {A} ^{-i}{\frac {\mathrm {d} \mathbf {A} }{\mathrm {d} t}}\mathbf {A} ^{-(n+1-i)}.\end{aligned}}}
그러므로,
(
A
+
ε
X
)
n
=
A
n
+
ε
∑
i
=
1
n
A
i
−
1
X
A
n
−
i
+
O
(
ε
2
)
,
(
A
+
ε
X
)
−
n
=
A
−
n
−
ε
∑
i
=
1
n
A
−
i
X
A
−
(
n
+
1
−
i
)
+
O
(
ε
2
)
.
{\displaystyle {\begin{aligned}(\mathbf {A} +\varepsilon \mathbf {X} )^{n}&=\mathbf {A} ^{n}+\varepsilon \sum _{i=1}^{n}\mathbf {A} ^{i-1}\mathbf {X} \mathbf {A} ^{n-i}+{\mathcal {O}}\left(\varepsilon ^{2}\right),\\(\mathbf {A} +\varepsilon \mathbf {X} )^{-n}&=\mathbf {A} ^{-n}-\varepsilon \sum _{i=1}^{n}\mathbf {A} ^{-i}\mathbf {X} \mathbf {A} ^{-(n+1-i)}+{\mathcal {O}}\left(\varepsilon ^{2}\right).\end{aligned}}}
Generalized inverse
역 행렬의 속성 중 일부는 임의의 m × n 행렬에 대해 정의될 수 있는 일반화된 역(generalized inverses , 예를 들어, 무어–펜로즈 역(Moore–Penrose inverse) )에 의해 공유됩니다.
Applications
대부분의 실제 응용에서, 선형 방정식 시스템 을 풀기 위해 행렬을 반전할 필요가 없습니다 ; 어쨌든, 고유한 해에 대해, 관련된 행렬이 역-가능이어야 합니다.
LU 분해 와 같은 분해 기술은 반전보다 훨씬 빠르고, 선형 시스템의 특수 클래스에 대한 다양한 고속 알고리듬도 개발되어 왔습니다.
Regression/least squares
비록 명백한 역은 미지수의 벡터를 추정하기 위해 필요하지는 않지만, 행렬 역 (미지수의 벡터의 이후 공분산 행렬)의 대각선에서 찾은 그것들의 정확도를 추정하기 위한 가장 쉬운 방법입니다. 어쨌든, 행렬 역의 대각선 엔트리만 계산하기 위한 더 빠른 알고리듬은 많은 경우에 알려져 있습니다.[18]
Matrix inverses in real-time simulations
행렬 반전은 컴퓨터 그래픽, 특히 3D 그래픽 렌더링과 3D 모의실험에서 중요한 역할을 합니다. 예를 들어 화면-에서-세계로 레이 캐스팅, 세계-에서-부분공간-에서-세계로 개체 변환, 및 물리적 모의실험이 있습니다.
Matrix inverses in MIMO wireless communication
행렬 반전은 역시 무선 통신의 MIMO (Multiple-Input, Multiple-Output) 기술에서 중요한 역할을 합니다. MIMO 시스템은 N 개의 송신 안테나와 M 개의 수신 안테나로 구성됩니다. 같은 주파수 대역을 차지하는 고유 신호는 N 개의 송신 안테나를 통해 전송되고 M 개의 수신 안테나를 통해 수신됩니다. 각 수신 안테나에 도착하는 신호는 N × M 전송 행렬 H 를 형성하는 N 전송 신호의 선형 조합이 될 것입니다. 수신기가 전송된 정보를 알아낼 수 있도록 행렬 H 가 역-가능이어야 하는 것이 중요합니다.
See also
References
^ "Invertible Matrices" . www.sosmath.com . Retrieved 2020-09-08 .
^ Weisstein, Eric W. "Matrix Inverse" . mathworld.wolfram.com . Retrieved 2020-09-08 .
^ Weisstein, Eric W. "Invertible Matrix Theorem" . mathworld.wolfram.com . Retrieved 2020-09-08 .
^ Horn, Roger A.; Johnson, Charles R. (1985). Matrix Analysis . Cambridge University Press . p. 14. ISBN 978-0-521-38632-6 . .
^ Pan, Victor; Reif, John (1985), Efficient Parallel Solution of Linear Systems , Proceedings of the 17th Annual ACM Symposium on Theory of Computing, Providence: ACM
^
Pan, Victor; Reif, John (1985), Harvard University Center for Research in Computing Technology Report TR-02-85 , Cambridge, MA: Aiken Computation Laboratory
^ "The Inversion of Large Matrices". Byte Magazine . 11 (4): 181–190. April 1986.
^ A proof can be found in the Appendix B of Kondratyuk, L. A.; Krivoruchenko, M. I. (1992). "Superconducting quark matter in SU(2) color group" . Zeitschrift für Physik A . 344 (1): 99–115. Bibcode :1992ZPhyA.344...99K . doi :10.1007/BF01291027 . S2CID 120467300 .
^ Strang, Gilbert (2003). Introduction to linear algebra (3rd ed.). SIAM. p. 71. ISBN 978-0-9614088-9-3 . , Chapter 2, page 71
^
Bernstein, Dennis (2005). Matrix Mathematics . Princeton University Press. p. 44. ISBN 978-0-691-11802-4 .
^
Bernstein, Dennis (2005). Matrix Mathematics . Princeton University Press. p. 45. ISBN 978-0-691-11802-4 .
^ T. H. Cormen, C. E. Leiserson, R. L. Rivest, C. Stein, Introduction to Algorithms , 3rd ed., MIT Press, Cambridge, MA, 2009, §28.2.
^ Ran Raz . On the complexity of matrix product. In Proceedings of the thirty-fourth annual ACM symposium on Theory of computing. ACM Press, 2002. doi :10.1145/509907.509932 .
^
Stewart, Gilbert (1998). Matrix Algorithms: Basic decompositions . SIAM. p. 55. ISBN 978-0-89871-414-2 .
^ Haramoto, H.; Matsumoto, M. (2009). "A p-adic algorithm for computing the inverse of integer matrices" . Journal of Computational and Applied Mathematics . 225 (1): 320–322. Bibcode :2009JCoAM.225..320H . doi :10.1016/j.cam.2008.07.044 .
^ "IML - Integer Matrix Library" . cs.uwaterloo.ca . Retrieved 14 April 2018 .
^ Magnus, Jan R.; Neudecker, Heinz (1999). Matrix Differential Calculus : with Applications in Statistics and Econometrics (Revised ed.). New York: John Wiley & Sons. pp. 151–152. ISBN 0-471-98633-X .
^ Lin, Lin; Lu, Jianfeng; Ying, Lexing; Car, Roberto; E, Weinan (2009). "Fast algorithm for extracting the diagonal of the inverse matrix with application to the electronic structure analysis of metallic systems" . Communications in Mathematical Sciences . 7 (3): 755–777. doi :10.4310/CMS.2009.v7.n3.a12 .
Further reading
"Inversion of a matrix" , Encyclopedia of Mathematics , EMS Press , 2001 [1994]
Cormen, Thomas H. ; Leiserson, Charles E. ; Rivest, Ronald L. ; Stein, Clifford (2001) [1990]. "28.4: Inverting matrices". Introduction to Algorithms (2nd ed.). MIT Press and McGraw-Hill. pp. 755–760. ISBN 0-262-03293-7 .
Bernstein, Dennis S. (2009). Matrix Mathematics: Theory, Facts, and Formulas (2nd ed.). Princeton University Press. ISBN 978-0691140391 – via Google Books .
Petersen, Kaare Brandt; Pedersen, Michael Syskind (November 15, 2012). "The Matrix Cookbook" (PDF) . pp. 17–23.
External links