Jump to content

Invertible matrix

This is a fully translated article. Click here for more information.
From DawoumWiki, the free Mathematics self-learning

선형 대수(linear algebra)에서, nxn 정사각 행렬(square matrix) A는 다음임을 만족하는 nx 정사각 행렬 B가 존재하면 역-가능(invertible, 역시 비-특이(nonsingular) 또는 비-퇴화(nondegenerate))이라고 불립니다:

여기서 Innxn 항등 행렬(identity matrix)을 나타내고 사용된 곱셈은 보통의 행렬 곱셈(matrix multiplication)입니다. 만약 이것이 그 경우이면 행렬 BA에 의해 고유하게 결정되고, A의 (곱셈의) (inverse)이라고 불리며, A−1로 표시됩니다.[1] 행렬 반전(Matrix inversion)은 주어진 역-가능 행렬 A에 대해 이전 방정식을 만족시키는 행렬 B를 찾는 과정입니다.

역-가능이 아닌 정사각 행렬은 특이(singular) 또는 퇴화(degenerate)이라고 불립니다. 정사각 행렬은 특이인 것과 그것의 행렬식(determinant)이 영인 것은 필요충분 조건입니다.[2] 특이 행렬은 만약 정사각 행렬의 엔트리가 숫자 직선 또는 복소 평면의 임의의 유한 영역에서 무작위로 선택되면, 행렬이 특이일 확률은 0, 즉 그것은 "거의 결코 특이 행렬이 아니라"는 점에서 드뭅니다. 비-정사각 행렬 (mnmxn 행렬)은 역을 가지지 않습니다. 어쨌든, 일부 경우에서, 그러한 행렬은 왼쪽 역(left inverse) 또는 오른쪽 역(right inverse)을 가질 수 있습니다. 만약 Amxn이고 A랭크(rank)n (nm)이면, A는 왼쪽 역행렬, BA = In을 만족하는 nxm 행렬 B를 가집니다. 만약 A가 랭크 m (mn)을 가지면, 그것은 오른쪽 역, AB = Im을 만족하는 nxm 행렬 B를 가집니다.

가장 공통적인 경우는 실수 또는 복소수에 걸쳐 행렬의 경우이지만, 모든 이들 정의는 모든 링(ring)에 걸쳐 행렬에 대해 제공될 수 있습니다. 어쨌든, 링이 교환적인 경우에서, 정사각 행렬이 역-가능이기 위한 조건은 그것의 행렬식이 링에서 역-가능이라는 것이며, 이는 일반적으로 비-영인 것보다 더 엄격한 요구 사항입니다. 비-교환 링에 대해, 보통의 행렬식이 정의되지 않습니다. 왼쪽-역 또는 오른쪽-역의 존재에 대해 조건은 더 복잡한데, 왜냐하면 랭크의 개념이 링에 걸쳐 존재하지 않기 때문입니다.

행렬 곱셈의 연산 (및 링 R에서 엔트리)과 함께 n × n 역-가능 행렬의 집합은 하나의 그룹(group), GLn(R)으로 표시되는 차수 n일반 선형 그룹(general linear group)을 형성합니다.

Properties

The invertible matrix theorem

A필드(field) K (예를 들어, 실수의 필드 )에 걸쳐 정사각 n × n 행렬이라고 놓습니다. 다음 명제는 동등합니다 (즉, 그것들은 임의의 주어진 행렬에 대해 모두 참이거나 모두 거짓입니다):[3]

Other properties

게다가, 다음 속성이 역-가능 행렬 A에 대해 유지됩니다:

  • 비-영 스칼라 k에 대해
  • A가 직교-정규 열이면 이며, 여기서 +무어–펜로즈 역(Moore–Penrose inverse)를 나타내고 x는 벡터입니다.
  • 임의의 역-가능 n × n 행렬 AB에 대해, 보다 일반적으로, 만약 가 역-가능 n × n 행렬이면,

행렬 U의 역행렬 V의 행은 U의 열에 직교-정규(orthonormal)입니다 (그리고 열에 대해 행을 교환하는 것도 마찬가지입니다). 이를 확인하기 위해, UV = VU = I라고 가정하며, 여기서 V의 행은 에 대해 로 표시되고 U의 열은 로 표시됩니다. 그런-다음 명확하게, 임의의 두 유클리드 안의 곱(Euclidean inner product)입니다. 이 속성은 역시 U의 열에 대한 직교 벡터의 집합 (그러나 반드시 직교 벡터는 아님)이 알려져 있는 일부 예시에서 정사각 행렬의 역을 구성하는 데 유용할 수 있습니다. 이 경우에서, 역 V의 행을 결정하기 위해 반복적인 그람–슈미트 과정(Gram–Schmidt process)을 이 초기 집합에 적용할 수 있습니다.

그 자신의 역 (즉, A = A−1A2 = I임을 만족하는 행렬 A)인 행렬은 인볼루션 행렬(involutory matrix)이라고 불립니다.

In relation to its adjugate

행렬 A수반(adjugate)은 다음과 같이 A의 역을 찾기 위해 사용될 수 있습니다:

만약 A가 역-가능 행렬이면, 다음과 같습니다:

In relation to the identity matrix

다음과 같은 행렬 곱셈의 결합성에서 따릅니다: 만약 유한 정사각(finite square) 행렬 AB에 대해 다음이면,

역시 다음입니다:

[4]

Density

실수의 필드에 걸쳐, 의 부분집합으로 고려되는 특이 n × n 행렬의 집합은 널 집합(null set), 즉, 르베그(Lebesgue) 측정 영(measure zero)을 가집니다. 이것은 특이 행렬이 행렬식(determinant) 함수의 근이기 때문에 참입니다. 이것은 행렬의 엔트리에서 다항식이기 때문에 연속 함수입니다. 따라서 측정 이론(measure theory)의 언어에서, 거의 모든(almost all) n × n 행렬은 역-가능입니다.

게다가, n × n 역-가능 행렬은 모든 n × n 행렬의 토폴로지적 공간(topological space)에서 조밀한(dense) 열린 집합(open set)입니다. 동등하게, 단일 행렬의 집합은 닫혀 있고 n × n 행렬의 공간에서 아무 데도 조밀하지 않습니다.

실제로 어쨌든, 역-가능 행렬을 만날 수 있습니다. 그리고 수치적 계산(numerical calculations)에서, 역-가능이지만 비-역가능 행렬에 가까운 행렬은 여전히 문제가 될 수 있습니다; 그러한 행렬은 나쁜-조건(ill-conditioned)이라고 말합니다.

Examples

랭크 n-1을 갖는 비-역가능 행렬의 예제

2 × 2 행렬의 랭크가 일임을 쉽게 알 수 있으며, 이는 n-1≠n이므로, 그것은 비-역가능 행렬입니다.

다음 2 × 2 행렬을 생각해 보십시오:

행렬 는 역-가능입니다. 이를 확인하기 위해, 를 계산할 수 있으며, 이는 비-영입니다.

비-역가능, 또는, 특이 행렬의 예제로 다음 행렬을 생각해 보십시오:

의 행렬식은 0이며, 이는 행렬이 비-역가능이 되기 위한 필요충분 조건입니다.

Methods of matrix inversion

Gaussian elimination

가우스 소거법(Gaussian elimination)은 행렬의 역을 계산하기 위한 유용하고 쉬운 방법입니다. 이 방법을 사용하여 행렬 역을 계산하기 위해, 증가된 행렬(augmented matrix)은 먼저 왼쪽 편에 반전될 행렬을 갖고 오른쪽 편에 항등 행렬(identity matrix)을 갖도록 생성됩니다. 그런-다음 가우스 소거법은 왼쪽 편을 항등 행렬로 변환하기 위해 사용되며, 이는 오른쪽 편을 입력 행렬의 역이 되는 결과를 초래합니다.

예를 들어, 다음 행렬을 취합니다:

역을 계산하기 위한 첫 번째 단계는 증가된 행렬을 만드는 것입니다:

이 행렬의 첫 번째 행을 이라고 부르고 두 번째 행을 라고 부릅니다. 그럼-다음 행 1과 행 2를 더해서 행 2에 씁니다: 이것은 다음을 산출합니다:

다음으로, 행 2에 3을 곱하고 행 1에서 뺍니다: 이는 다음을 산출합니다:

마지막으로, 행 1에 –1을 곱하고: 행 2에 2를 곱합니다: 이것은 왼쪽 편에 항등 행렬을 산출하고 오른쪽 편에 역 행렬을 산출합니다:

따라서,

이것이 작동하는 이유는 가우스 소거법 과정이 와 같이 기본 행렬(Elementary matrix, )을 사용하여 기본 행 연산을 사용하는 왼쪽 행렬 곱셈을 적용하는 순서열로 볼 수 있기 때문입니다.

을 사용하여 오른쪽-곱셈을 적용하여, 를 얻습니다. 그리고 오른쪽 변 은 우리가 원하는 역입니다.

를 얻기 위해, AI를 조합함으로써 증가된 행렬을 만들고 가우스 소거법을 적용합니다. 두 부분은 기본 행 작업의 같은 순서열을 사용하여 변환됩니다. 왼쪽 부분이 I가 될 때, 같은 기본 행 연산 순서열이 적용된 오른쪽 부분은 A–1가 됩니다.

Newton's method

적합한 시작하는 시드를 찾는 것이 편리하면, 뉴턴 방법(Newton's method)의 일반화가 곱셈 역 알고리듬(multiplicative inverse algorithm)에 사용될 때 편리할 수 있습니다:

Victor PanJohn Reif는 시작 시드를 생성하는 방법을 포함하는 연구를 수행해 왔습니다.[5][6] 바이트 매거진(Byte magazine)은 그들의 접근 방식 중 하나를 요약했습니다.[7]

뉴턴의 방법은 위의 호모토피에 대해 만들어진 순서열과 같이 충분하게 동작하는 관련된 행렬의 가족을 처리할 때 특히 유용합니다: 때때로 새로운 역에 대한 근사를 정제하기 위한 좋은 출발 점은 현재 행렬에 거의 일치하는 이전 행렬, 예를 들어 Denman-Beavers 반복에 의한 행렬 제곱근을 얻는 데 사용되는 역행렬 순서열의 쌍의 이미 얻은 역행렬일 수 있습니다; 이것은 만약 그것들이 하나만으로도 충분할 만큼 서로 충분히 가깝지 않으면 각각의 새로운 행렬에서 반복의 패스가 두 번 이상 필요할 수 있습니다. 뉴턴의 방법은 불완전한 컴퓨터 산술(imperfect computer arithmetic)로 인해 작은 오차에 의해 오염된 가우스-요르단 알고리듬에 대한 "개선(touch up)" 수정에도 유용합니다.

Cayley–Hamilton method

케일리-해밀턴 정리(Cayley–Hamilton theorem)A의 역을 det(A), A의 대각합과 거듭제곱의 관점에서 표현하도록 허용합니다:[8]

여기서 nA의 차원이고, tr(A)는 주요 대각선의 합에 의해 주어진 행렬 A대각합(trace)입니다. 합은 s와 선형 디오판토스 방정식(Diophantine equation)을 만족시키는 모든 의 집합에 걸쳐 취합니다:

공식은 인수 의 완전한 벨 다항식(Bell polynomials)의 관점에서 다음과 같이 다시 쓸 수 있습니다:

Eigendecomposition

만약 행렬 A가 고유-분해될 수 있고, 고윳값 중 어느 것도 영이 아니면, A는 역-가능이고 그것의 역은 다음에 의해 제공됩니다:

여기서 Qi-번째 열이 A의 고유-벡터 인 정사각형 (N × N) 행렬이고, Λ는 대각선 원소가 해당 고윳값, 즉 대각 행렬(diagonal matrix)입니다. 만약 A가 대칭적이면, Q직교 행렬(orthogonal matrix)임을 보장하며, 따라서 입니다. 게다가, Λ는 대각 행렬이기 때문에, 그것의 역은 쉽게 계산될 수 있습니다:

Cholesky decomposition

만약 행렬 A양수 한정(positive definite)이면, 그것은 역은 다음으로 얻을 수 있습니다:

여기서 LA의 아래쪽 삼각 숄레스키 분해(Cholesky decomposition)이고, L*L의 켤레 전치를 나타냅니다.

Analytic solution

수반 행렬(adjugate matrix)로 알려진 여인수의 행렬(matrix of cofactors)의 전치를 작성하는 것도 작은 행렬의 역을 계산하는 효율적인 방법일 수 있지만, 이 재귀 방법은 큰 행렬에 대해 비효율적입니다. 역을 결정하기 위해, 여인수의 행렬을 계산합니다:

이때,

여기서 |A|A행렬식(determinant), C여인수의 행렬(matrix of cofactors)이고, CT는 행렬 전치(transpose)를 나타냅니다.

Inversion of 2 × 2 matrices

위에 나열된 여인수 방정식(cofactor equation)은 2 × 2 행렬에 대해 다음 결과를 산출합니다. 이들 행렬의 반전은 다음과 같이 수행될 수 있습니다:[9]

이것은 1/(adbc)가 문제에서 행렬의 행렬식의 역수이기 때문에 가능하고, 같은 전략이 다른 행렬 크기에 대해 사용될 수 있습니다.

케일리–해밀턴 방법은 다음을 제공합니다:

Inversion of 3 × 3 matrices

계산적으로 효율적인 3 × 3 행렬 반전은 다음에 의해 제공됩니다:

(여기서 스칼라 A는 행렬 A와 혼동되어서는 안됩니다).

만약 행렬식이 비-영이면, 행렬은 역가능이며, 위의 오른쪽 편에 있는 중간 행렬의 원소는 다음에 의해 지정합니다:

A의 행렬식은 다음처럼 사뤼스의 규칙(rule of Sarrus)을 적용함으로써 계산될 수 있습니다:

케일리–해밀턴 분해는 다음을 제공합니다:

일반적인 3 × 3 역은 교차 곱(cross product)삼중 곱(triple product)의 관점에서 간결하게 표현될 수 있습니다. 만약 행렬 (세 개의 열 벡터 , , 및 로 구성됨)가 역가능이면, 그것의 역은 다음에 의해 제공됩니다:

A의 행렬식, det(A)x0, x1, 및 x2의 삼중 곱—행 또는 열에 의해 형성된 평행육면체(parallelepiped)의 부피와 같습니다:

수식의 정확성은 교차-곱과 삼중 곱 속성을 사용하고 그룹에 대해, 왼쪽 역과 오른쪽 역이 항상 일치한다는 점을 주목함으로써 확인될 수 있습니다. 직관적으로, 교차 곱 때문에, A–1의 각 행은 A의 대응하지 않는 두 열에 직교합니다 (의 비-대각 항이 0이 되도록 합니다). 다음에 의해 나누는 것은

I = A–1A의 대각선 원소가 단위가 되도록 합니다. 예를 들어, 첫 번째 대각선은 다음과 같습니다:

Inversion of 4 × 4 matrices

차원이 증가함에 따라, A의 역수에 대한 표현이 복잡해집니다. n = 4에 대해, 케일리–해밀턴 방법은 여전히 다루기 쉬운 표현으로 이어집니다:

Blockwise inversion

행렬은 다음 해석적 반전 공식을 사용함으로써 행렬을 블록-별 반전시킬 수도 있습니다:

 

 

 

 

(1)

여기서 A, B, C, 및 D는 임의적인 크기의 행렬 부분-블록(matrix sub-blocks)입니다. (A는 역-가능이 되도록 정사각이어야 합니다. 게다가, ADCA–1B는 비-특이여야 합니다.[10]) 이 전략은 만약 A가 대각 행렬이고 DCA–1B (A슈어 여(Schur complement))가 작은 행렬이면 특히 유리한데, 왜냐하면 그것들은 반전을 요구하는 유일한 행렬이기 때문입니다.

이 기술은 여러 번 재발명되었고 측지(geodetic) 행렬의 반전에 그것을 사용한 한스 볼츠(Hans Boltz) (1923)와 그것을 일반화하고 정확성을 입증한 타데우시 바나치에비츠(Tadeusz Banachiewicz) (1937) 덕분입니다.

널러티 정리(nullity theorem)A의 널러티가 역 행렬의 아래쪽 오른쪽에 있는 부분-블록의 널러티와 같고, B의 널러티는 역 행렬의 위쪽 오른쪽에 있는 부분-블록의 널러티와 같다고 말합니다.

방정식 (1)로 이어진 반전 절차는 먼저 CD에서 연산된 행렬 블록 연산을 수행했습니다. 대신, 만약 AB가 먼저 연산되고, 제공된 DABD–1C가 비-특이이면,[11] 결과는 다음과 같습니다:

 

 

 

 

(2)

방정식 (1)과 (2)를 동일시하면 다음으로 이어집니다:

 

 

 

 

(3)

여기서 방정식 (3)은 우드베리 행렬 항등식(Woodbury matrix identity)이며, 이는 이항 반전 정리(binomial inverse theorem)와 동등합니다.

만약 AD가 둘 다 역가능이면, 위의 두 블록 행렬 역은 간단한 분해를 제공하기 위해 결합될 수 있습니다:

 

 

 

 

(2)

와인스틴-아론샤인 항등(Weinstein–Aronszajn identity)에 의해, 블록-대각 행렬에서 두 행렬 중 하나는 나머지 하나가 역가능일 때 정확하게 역-가능입니다.

n × n 행렬의 블록 단위 반전은 2개의 절반-크기 행렬의 반전과 2개의 절반-크기 행렬 사이의 6 곱셈을 요구하기 때문에, 행렬을 반전시키기 위해 블록 단위를 사용하는 분할과 정복 알고리듬은 내부적으로 사용되는 행렬 곱셈 알고리듬과 같은 시간 복잡도로 실행됨을 알 수 있습니다.[12] 행렬 곱셈 복잡도의 연구O(n2.3727)의 복잡도를 갖는 곱셈 알고리듬이 존재하고, 반면에 최대 입증된 아래쪽 경계는 Ω(n2 log n)임을 보여줍니다.[13]

이 공식은 위쪽 오른쪽 블록 행렬 B가 영 행렬일 때 크게 단순화됩니다. 이 공식은 행렬 AD가 상대적으로 단순한 역 공식 (또는 블록이 모두 정사각이 아닌 경우에서 유사 역(pseudo inverses))을 가질 때 유용합니다. 이 특별한 경우에서, 위의 전체 일반성에서 언급된 블록 행렬 반전 공식은 다음이 됩니다:

By Neumann series

만약 행렬 A가 다음과 같은 속성을 가지면:

A는 비-특이이고 그것의 역은 노이만 급수(Neumann series)에 의해 표현될 수 있습니다:[14]

합의 끝을 자르는 것은 선조건자(preconditioner)로 유용할 수 있는 "근사" 역을 초래합니다. 잘린 급수는 노이만 급수가 기하적 합(geometric sum)이라는 점에 유의함으로써 지수적으로 가속될 수 있습니다. 이를테면, 그것은 다음을 만족시킵니다:

.

그러므로, 오직 2L – 2 행렬 곱셈이 합의 2L 항을 계산하기 위해 필요합니다.

보다 일반적으로, 만약 A가 다음과 같은 의미에서 역-가능 행렬 X "근처"에 있으면,

A는 비-특이이고 그것의 역은 다음과 같습니다:

만약 AX랭크(rank) 1을 가지는 경우이면 이것은 다음으로 단순화됩니다:

p-adic approximation

만약 A정수(integer) 또는 유리수(rational) 계수를 갖는 행렬이고 임의적인-정밀도(arbitrary-precision) 유리수에서 해를 구하려면, p-진수(p-adic) 근사 방법은 표준 O(n3) 행렬 곱셈이 사용된다고 가정하여 O(n4 log2 n)에서 정확한 해로 수렴합니다.[15] 그 방법은 딕슨의 p-진수 근사 (각각 O(n3 log2 n))를 통해 n 선형 시스템을 해결하는 데 의존하고 예를 들어 IML에서 임의적인-정밀도 행렬 연산에 특화된 소프트웨어에서 사용할 수 있습니다.[16]

Reciprocal basis vectors method

n × n 정사각 행렬 , 가 주어지면, 이때 n 행은 n 벡터 (아인슈타인 합이 가정됨)으로 해석되고 여기서 유클리드 공간 의 표준 직교정규 기저이며 (), 그런-다음 클리퍼드 대수(Clifford algebra) (또는 기하 대수(Geometric Algebra))를 사용하여 우리는 역수 (때때로 이중이라고 불림) 열 벡터를 역 행렬 의 열로 다음과 같이 계산합니다:

위치 ""는 ""가 에 대해 위의 표현에서 해당 위치로부터 제거되었음을 나타내는 것에 주목하십시오. 우리는 그런-다음 을 가지며, 여기서 크로네커 델타(Kronecker delta)입니다. 우리는 역시, 필요에 따라, 를 가집니다. 만약 벡터 가 선형적으로 독립이 아니면, 이고 행렬 는 역-가능이 아닙니다 (역을 가지지 않습니다).

Derivative of the matrix inverse

역-가능 행렬 A가 매개변수 t에 의존한다고 가정합니다. 그런-다음 t에 관한 A의 역의 도함수는 다음에 의해 주어집니다:[17]

A의 역의 도함수에 대해 위의 표현을 유도하기 위해, 행렬 역 의 정의를 미분하고, 그런-다음 A의 역에 대해 풀 수 있습니다:

위의 양쪽 변에서 를 빼고 오른쪽에 를 곱하여 역의 도함수에 대해 올바른 표현을 제공합니다:

유사하게, 만약 가 작은 숫자이면:

보다 일반적으로, 만약 다음이면

다음과 같습니다:

양의 정수 이 주어지면,

그러므로,

Generalized inverse

역 행렬의 속성 중 일부는 임의의 m × n 행렬에 대해 정의될 수 있는 일반화된 역(generalized inverses, 예를 들어, 무어–펜로즈 역(Moore–Penrose inverse))에 의해 공유됩니다.

Applications

대부분의 실제 응용에서, 선형 방정식 시스템을 풀기 위해 행렬을 반전할 필요가 없습니다; 어쨌든, 고유한 해에 대해, 관련된 행렬이 역-가능이어야 합니다.

LU 분해와 같은 분해 기술은 반전보다 훨씬 빠르고, 선형 시스템의 특수 클래스에 대한 다양한 고속 알고리듬도 개발되어 왔습니다.

Regression/least squares

비록 명백한 역은 미지수의 벡터를 추정하기 위해 필요하지는 않지만, 행렬 역 (미지수의 벡터의 이후 공분산 행렬)의 대각선에서 찾은 그것들의 정확도를 추정하기 위한 가장 쉬운 방법입니다. 어쨌든, 행렬 역의 대각선 엔트리만 계산하기 위한 더 빠른 알고리듬은 많은 경우에 알려져 있습니다.[18]

Matrix inverses in real-time simulations

행렬 반전은 컴퓨터 그래픽, 특히 3D 그래픽 렌더링과 3D 모의실험에서 중요한 역할을 합니다. 예를 들어 화면-에서-세계로 레이 캐스팅, 세계-에서-부분공간-에서-세계로 개체 변환, 및 물리적 모의실험이 있습니다.

Matrix inverses in MIMO wireless communication

행렬 반전은 역시 무선 통신의 MIMO (Multiple-Input, Multiple-Output) 기술에서 중요한 역할을 합니다. MIMO 시스템은 N개의 송신 안테나와 M개의 수신 안테나로 구성됩니다. 같은 주파수 대역을 차지하는 고유 신호는 N개의 송신 안테나를 통해 전송되고 M개의 수신 안테나를 통해 수신됩니다. 각 수신 안테나에 도착하는 신호는 N × M 전송 행렬 H를 형성하는 N 전송 신호의 선형 조합이 될 것입니다. 수신기가 전송된 정보를 알아낼 수 있도록 행렬 H가 역-가능이어야 하는 것이 중요합니다.

See also

References

  1. ^ "Invertible Matrices". www.sosmath.com. Retrieved 2020-09-08.
  2. ^ Weisstein, Eric W. "Matrix Inverse". mathworld.wolfram.com. Retrieved 2020-09-08.
  3. ^ Weisstein, Eric W. "Invertible Matrix Theorem". mathworld.wolfram.com. Retrieved 2020-09-08.
  4. ^ Horn, Roger A.; Johnson, Charles R. (1985). Matrix Analysis. Cambridge University Press. p. 14. ISBN 978-0-521-38632-6..
  5. ^ Pan, Victor; Reif, John (1985), Efficient Parallel Solution of Linear Systems, Proceedings of the 17th Annual ACM Symposium on Theory of Computing, Providence: ACM
  6. ^ Pan, Victor; Reif, John (1985), Harvard University Center for Research in Computing Technology Report TR-02-85, Cambridge, MA: Aiken Computation Laboratory
  7. ^ "The Inversion of Large Matrices". Byte Magazine. 11 (4): 181–190. April 1986.
  8. ^ A proof can be found in the Appendix B of Kondratyuk, L. A.; Krivoruchenko, M. I. (1992). "Superconducting quark matter in SU(2) color group". Zeitschrift für Physik A. 344 (1): 99–115. Bibcode:1992ZPhyA.344...99K. doi:10.1007/BF01291027. S2CID 120467300.
  9. ^ Strang, Gilbert (2003). Introduction to linear algebra (3rd ed.). SIAM. p. 71. ISBN 978-0-9614088-9-3., Chapter 2, page 71
  10. ^ Bernstein, Dennis (2005). Matrix Mathematics. Princeton University Press. p. 44. ISBN 978-0-691-11802-4.
  11. ^ Bernstein, Dennis (2005). Matrix Mathematics. Princeton University Press. p. 45. ISBN 978-0-691-11802-4.
  12. ^ T. H. Cormen, C. E. Leiserson, R. L. Rivest, C. Stein, Introduction to Algorithms, 3rd ed., MIT Press, Cambridge, MA, 2009, §28.2.
  13. ^ Ran Raz. On the complexity of matrix product. In Proceedings of the thirty-fourth annual ACM symposium on Theory of computing. ACM Press, 2002. doi:10.1145/509907.509932.
  14. ^ Stewart, Gilbert (1998). Matrix Algorithms: Basic decompositions. SIAM. p. 55. ISBN 978-0-89871-414-2.
  15. ^ Haramoto, H.; Matsumoto, M. (2009). "A p-adic algorithm for computing the inverse of integer matrices". Journal of Computational and Applied Mathematics. 225 (1): 320–322. Bibcode:2009JCoAM.225..320H. doi:10.1016/j.cam.2008.07.044.
  16. ^ "IML - Integer Matrix Library". cs.uwaterloo.ca. Retrieved 14 April 2018.
  17. ^ Magnus, Jan R.; Neudecker, Heinz (1999). Matrix Differential Calculus : with Applications in Statistics and Econometrics (Revised ed.). New York: John Wiley & Sons. pp. 151–152. ISBN 0-471-98633-X.
  18. ^ Lin, Lin; Lu, Jianfeng; Ying, Lexing; Car, Roberto; E, Weinan (2009). "Fast algorithm for extracting the diagonal of the inverse matrix with application to the electronic structure analysis of metallic systems". Communications in Mathematical Sciences. 7 (3): 755–777. doi:10.4310/CMS.2009.v7.n3.a12.

Further reading

External links