Jump to content

Linear map

This is a fully translated article. Click here for more information.
From DawoumWiki, the free Mathematics self-learning
(Redirected from Linear transformation)

수학(mathematics)과 보다 구체적으로 선형 대수(linear algebra)에서, 선형 맵(linear map)은, 역시 선형 맵핑(linear mapping), 선형 변환(linear transformation), 벡터 공간 준동형(vector space homomorphism), 또는 일부 문맥에서 선형 함수(linear function)라고 불리며, 벡터 덧셈(vector addition)스칼라 곱셈(scalar multiplication) 연산을 보존하는 두 벡터 공간(vector spaces) 사이의 매핑(mapping) 입니다. 같은 이름과 같은 정의는 역시 링에 걸쳐 모듈(modules)의 보다 일반적인 경우에 대해 사용됩니다; 모듈 준동형(Module homomorphism)을 참조하십시오.

만약 선형 맵이 전단사(bijection)이면, 그것은 선형 동형사상(linear isomorphism)이라고 불립니다. 인 경우에서, 선형 맵은 (선형) 자기-사상(endomorphism)이라고 불립니다. 때때로 선형 연산자라는 용어는 이 경우로 참조하지만,[1] "선형 연산자"라는 용어는 다른 관례에 대해 다른 의미를 가질 수 있습니다: 예를 들어 실수(real) 벡터 공간임을 강조하는 데 사용될 수 있습니다 (일 필요는 없습니다), 또는 함수 공간(function space)이라는 점을 강조하기 위해 사용될 수 있으며, 이는 함수형 해석학(functional analysis)의 일반적인 관례입니다.[2] 때때로 선형 함수(linear function)라는 용어는 선형 맵과 같은 의미를 가지지만, 해석학(analysis)에서 그렇지 않습니다.

에서 로의 선형 맵은 항상 의 원점을 의 원점으로 매핑합니다. 게다가, 그것은 에서 선형 부분-공간을 (아마도 더 낮은 차원(dimension)의) 에서 선형 부분-공간으로 매핑합니다;[3] 예를 들어, 그것은 에서 원점(origin)을 통해 평면(plane)평면을 에서 원점을 통한 평면, 에서 원점을 통한 직선(line), 또는 에서 단지 원점으로 매핑합니다. 선형 맵은 종종 행렬(matrices)로 표현될 수 있고, 간단한 예제에는 회전과 반사 선형 변환을 포함합니다.

카테고리 이론(category theory)의 언어에서, 선형 맵은 벡터 공간의 사상(morphisms)입니다.

Definition and first consequences

를 같은 필드(field) 에 걸쳐 벡터 공간으로 놓습니다. 함수 는 만약 임의의 벡터 와 스칼라 에 대해 다음 두 조건을 만족시키면 선형 맵(linear map)이라고 말합니다:

  • 덧셈성(Additivity) / 덧셈의 연산
  • 차수 1의 동차성(Homogeneity) / 스칼라 곱셈의 연산

따라서, 선형 맵은 연산 보존하는(operation preserving) 것이라고 말합니다. 다시 말해서, 선형 맵이 덧셈과 스칼라 곱셈 연산 전 (위 예제의 오른쪽 변) 또는 후 (예제의 왼쪽 변)에 적용되었는지 여부는 중요하지 않습니다.

+로 표시된 덧셈 연산의 결합성에 의해, 임의의 벡터 와 스칼라 에 대해, 다음 상등이 유지됩니다:[4][5] 따라서 선형 맵은 선형 조합(linear combinations)을 보존하는 맵입니다.

벡터 공간 의 영 원소를 각각 로 나타내면, 임을 따릅니다. 차수 1의 동차성에 대한 방정식에서 라고 놓습니다:

자체에 걸쳐 일-차원 벡터 공간으로 보이는 를 갖는 선형 맵 선형 함수형(linear functional)이라고 불립니다.[6]

이들 명제는 수정 없이 링 에 걸쳐 임의의 왼쪽-모듈 으로, 그리고 스칼라 곱셈의 반전 시 임의의 오른쪽-모듈로 일반화합니다.

Examples

  • 선형 맵에 그 이름을 부여하는 원형적인 예제는 함수 이며, 그것의 그래프(graph)는 원점을 통과하는 직선입니다.[7]
  • 보다 일반적으로, 가 벡터 공간의 원점에 중심을 둔 임의의 중심-닮음-변환(homothety) 는 선형 맵입니다.
  • (같은 필드(field)에 걸쳐) 두 벡터 공간 사이의 영 맵 은 선형입니다.
  • 임의의 모듈 위에 항등 맵(identity map)은 선형 연산자입니다.
  • 실수에 대해, 맵 은 선형이 아닙니다.
  • 실수에 대해, 맵 은 선형이 아닙니다 (그러나 아핀 변환(affine transformation)입니다).
  • 만약 실수 행렬(real matrix)이면, 열 벡터(column vector) 를 열 벡터 로 보냄으로써 에서 로의 선형 맵을 정의합니다. 반대로, 유한-차원(finite-dimensional) 벡터 공간 사이의 임의의 선형 맵은 이 방식으로 표현될 수 있습니다; 아래의 § Matrices를 참조하십시오.
  • 만약 를 만족하는 실수 노름 공간(normed spaces) 사이의 등거리-변환(isometry)이면, 는 선형 맵입니다. 이 결과는 복소 노름 공간에 대해 반드시 참은 아닙니다.[8]
  • 미분(differentiation)은 모든 미분-가능 함수의 공간에서 모든 함수의 공간으로의 선형 맵을 정의합니다. 그것은 역시 모든 매끄러운 함수(smooth functions)의 공간 위에 선형 연산자를 정의합니다 (선형 연산자는 선형 자기-사상(endomorphism), 즉, 같은 도메인(domain)코도메인(codomain)을 갖는 선형 맵입니다). 예제는
  • 일부 구간(interval) I에 걸쳐 (한)정 적분(integral)I 위의 모든 실수-값 적분-가능 함수의 공간에서 로의 선형 맵입니다. 예를 들어,
  • 고정된 적분 시작 점을 갖는 무한 적분(integral) (또는 역도함수(antiderivative))은 위의 모든 실수-값 적분-가능 함수의 공간에서 위의 모든 실수-값 미분-가능 함수 공간으로의 선형 맵을 정의합니다. 고정 시작 점 없이, 역도함수는 상수 함수의 선형 공간에 의해 미분-가능 함수의 몫 공간(quotient space)에 매핑됩니다.
  • 만약 가 각각 차원 mn의 필드 F에 걸쳐 유한-차원 벡터 공간이면, (아래의) § Matrices에서 설명된 방법으로 선형 맵 n × m 행렬로 매핑하는 함수는 선형 맵, 심지어 선형 동형(linear isomorphism)입니다.
  • 확률 변수(random variable, 이는 사실 함수, 이를테면 벡터 공간의 원소임)의 기댓값(expected value)은 선형인데, 왜냐하면 확률 변수 에 대해 를 가지기 때문이며, 그러나 확률 변수의 분산은 선형이 아닙니다.

Linear extensions

종종, 선형 맵은 벡터 공간의 부분-집합 위에 그것을 정의하고 그런-다음 선형성에 의해 그것을 도메인의 선형 스팬(linear span)으로 확장함으로써 구성됩니다. 함수(function) 선형 확장은 선형 맵인 일부 벡터 공간(vector space)에 대한 확장(extension)입니다.[9]

는 벡터 공간이고 는 일부 부분-집합 위에 정의된 함수라고 가정합니다. 그런-다음 가 선형 맵 로 확장될 수 있는 것과 가 정수일 때마다, 가 정수이고 를 만족하는 벡터이면, 반드시 입니다.[10] 만약 의 선형 확장이 존재하면 선형 확장 는 고유하고 다음은 위에서 처럼 모든 에 대해 유지됩니다:[10] 만약 가 선형적으로 독립이면 임의의 벡터 공간으로의 모든 각 함수 는 (선형) 맵 으로의 선형 확장을 가집니다 (그 전환도 역시 참입니다).

예를 들어, 이고 이면 할당 는 선형적으로 독립 벡터의 집합 에서 위의 선형 맵으로 선형적으로 확장될 수 있습니다. 고유한 선형 확장 를 다음으로 보내는 맵입니다:

실수 또는 복소수 벡터 공간 위의 벡터 부분-공간(vector subspace) 위에 정의된 모든 각 (스칼라-값) 선형 함수형(linear functional) 는 모든 에 대한 선형 확장을 가집니다. 실제로, 한-바나흐 지배 확장 정리(Hahn–Banach dominated extension theorem)는 이 선형 함수형 가 어떤 주어진 반-노름(seminorm) 에 의해 지배적일 때 (의 도메인에서 모든 에 대해 유지됨을 의미함) 역시 에 의해 지배된 로의 선형 확장이 존재함을 보장합니다.

Matrices

만약 유한-차원(finite-dimensional) 벡터 공간이고 기저(basis)가 각 벡터 공간에 대해 정의되면, 에서 로의 모든 각 선형 맵은 행렬(matrix)에 의해 표현될 수 있습니다.[11] 이것은 구체적인 계산을 허용하기 때문에 유용합니다. 행렬은 선형 맵의 예를 생성합니다: 만약 가 실수 행렬이면 는 선형 맵 을 나타냅니다 (유클리드 공간(Euclidean space)을 참조하십시오).

에 대해 기저라고 놓습니다. 그런-다음 모든 각 벡터 는 필드 에서 계수 에 의해 고유하게 결정됩니다:

만약 가 선형 맵이면,

이는 함수 가 벡터 에 의해 전적으로 결정됨을 의미합니다. 이제 에 대해 기저라고 놓습니다. 그런-다음 우리는 각 벡터 를 다음으로 표현할 수 있습니다: 따라서 함수 의 값에 의해 전적으로 결정됩니다. 만약 우리가 이들 값을 행렬 에 넣으면, 우리는 에서 임의의 벡터에 대해 의 벡터 출력을 계산하기 위해 그것을 편리하게 사용할 수 있습니다. 을 얻기 위해, 의 모든 각 열 가 위에서 정의된 것처럼 에 해당하는 다음 벡터입니다:


그것을 더 명확하게 정의하기 위해, 매핑 에 해당하는 일부 열 에 대해, 여기서 의 행렬입니다. 다시 말해, 모든 각 열 은 좌표 가 열 의 원소인 해당하는 벡터 를 가집니다. 단일 선형 맵은 많은 행렬로 표현될 수 있습니다. 이것은 행렬의 원소 값이 선택한 기저에 따라 달라지기 때문입니다.

선형 변환의 행렬은 다음과 같이 시각적으로 표현될 수 있습니다:

  1. 에 관한 에 대해 행렬:
  2. 에 관한 에 대해 행렬:
  3. 에서 로의 전이 행렬:
  4. 에서 로의 전이 행렬:
The relationship between matrices in a linear transformation

하단 왼쪽 모서리 에서 시작하여 하단 오른쪽 모서리 를 찾는 것을 만족하여, 왼쪽-곱하기—즉, 일 것입니다. 동등한 방법은 , 또는 에 왼쪽-곱해짐을 만족하는 같은 지점에서 시계 방향으로 가는 "더 긴" 방법일 것입니다.

Examples in two dimensions

2-차원(dimensional) 공간 R2에서, 선형 맵은 2 × 2 행렬(matrices)에 의해 설명됩니다. 이것들이 일부 예제입니다:

  • 회전(rotation)
    • 90도 반시계방향만큼:
    • 각도 θ 반시계방향만큼:
  • 반사(reflection)
    • x 축을 통해:
    • y 축을 통해:
    • 원점과 각도 θ를 만드는 직선을 통해:
  • 모든 방향에서 2만큼 스케일링(scaling):
  • 수평 전단 매핑(horizontal shear mapping):
  • 조임 매핑(squeeze mapping):
  • y 축 위로의 투영(projection):

Vector space of linear maps

선형 맵의 합성은 선형입니다: 만약 가 선형이면, 그것들의 합성(composition) 도 그렇습니다. 이것으로부터, 주어진 필드 에 걸쳐 모든 벡터 공간의 클래스(class)는, 사상(morphisms)으로 -선형 맵과 함께, 카레고리(category)를 형성함이 따라옵니다.

선형 맵의 역(inverse)은, 정의될 때, 다시 선형 맵입니다.

만약 가 선형이면, 그것들의 점-별(pointwise)도 선형이며, 이는 에 의해 정의됩니다.

만약 가 선형이고 가 필드 의 원소이면, 맵 는, 에 의해 정의되며, 역시 선형입니다.

따라서 에서 로의 선형 맵의 집합 에 걸쳐 벡터 공간 자체를 형성하며,[12] 때때로 로 표시됩니다.[13] 게다가, 라는 경우에서, 이 벡터 공간은, 로 표시되며, 맵의 합성(composition of maps) 아래에서 결합 대수(associative algebra)인데, 왜냐하면 두 선형 맵의 합성은 다시 선형 맵이고, 맵의 합성은 항상 결합적이기 때문입니다. 이 경우는 아래에 더 자세히 설명됩니다.

다시 유한-차원의 경우가 주어지면, 만약 기저가 선택되면, 선형 맵의 합성은 행렬 곱셈(matrix multiplication)에 해당하고, 선형 맵의 덧셈은 행렬 덧셈(matrix addition)에 해당하고, 선형 맵과 스칼라의 곱셈은 행렬과 스칼라의 곱셈에 해당합니다.

Endomorphisms and automorphisms

선형 변환 자기-사상(endomorphism)입니다; 위에서 정의된 것처럼 덧셈, 합성, 및 스칼라 곱셈과 함께 모든 그러한 자기-사상 의 집합은 필드 (및 특히 링(ring))에 걸쳐 항등 원소를 갖는 결합 대수(associative algebra)를 형성합니다. 이 대수의 곱셈 항등 원소는 항등 맵(identity map) 입니다.

동형(isomorphism)이기도 한 의 자기-사상은 자기-동형(automorphism)이라고 불립니다. 두 개의 자기-동형의 합성은 다시 자기-동형이고, 의 모든 자기-동형의 집합은 그룹(group), 또는 에 의해 표시되는 자기-동형 그룹(automorphism group)을 형성합니다. 자기-동형은 합성 아래에서 역을 소유하는 정확하게 그것들의 자기-사상(endomorphisms)이기 때문에, 는 링 에서 단위(units)의 그룹입니다.

만약 가 유한 차원 을 가지면, 에서 엔트리를 갖는 모든 행렬의 결합 대수(associative algebra)동형적(isomorphic)입니다. 의 자기-동형 그룹은 에서 엔트리를 갖는 모든 역-가능 행렬의 일반 선형 그룹(general linear group) 동형적(isomorphic)입니다.

Kernel, image and the rank–nullity theorem

만약 가 선형이면, 우리는 커널(kernel)과 다음에 의해 이미지(image) 또는 치역(range)을 정의합니다:

여기서 부분-공간(subspace)이고 의 부분-공간입니다. 다음 차원(dimension) 공식은 랭크-널러티 정리(rank–nullity theorem)로 알려져 있습니다:[14]

숫자 는 역시 랭크(rank)라고 불리고 , 또는 때때로, 로 쓰입니다;[15][16] 숫자 널러티(nullity)라고 불리고 또는 로 쓰입니다.[15][16] 만약 는 유한-차원이면, 기저는 선택되고 가 행렬 에 의해 표시되면, 의 랭크와 널러티는 각각 행렬 의 랭크와 널러티와 같습니다.

Cokernel

선형 변환 의 더 미묘한 불변은 여-커널(cokernel)이며, 이는 다음으로 정의됩니다:

이것은 커널에 대한 이중 개념입니다: 커널이 도메인부분-공간인 것처럼, 여-커널은 목표(target)의 공간(quotient space)입니다. 형식적으로, 다음과 같은 정확한 열(exact sequence)을 가지고 있습니다:

이것들은 다음과 같이 해석될 수 있습니다: 풀기 위해 선형 방정식 f(v) = w이 주어지면,

  • 커널은 동차(homogeneous) 방정식 f(v) = 0에 대한 (solutions)의 공간이고, 그것의 차원은 만약 그것이 빈 것이 아니면 해의 공간에서 자유도(degrees of freedom)의 숫자입니다;
  • 여-커널은 해가 만족시켜야 하는 구속 조건(constraints)의 공간이고, 그것의 차원은 독립 구속 조건의 최대 개수입니다.

여-커널의 차원과 이미지의 차원 (랭크)은 목표 공간의 차원에 더합니다. 유한 차원에 대해, 이는 몫 공간 W/f(V)의 차원은 목표 공간의 차원에서 이미지의 차원을 뺀 것임을 의미합니다.

간단한 예로서, f(x, y) = (0, y)에 의해 주어진 맵 f: R2R2을 생각해 보십시오. 그런-다음 방정식 f(x, y) = (a, b)에 대해 해를 가지기 위해, 우리는 a = 0 (하나의 구속 조건)을 가져야 하고, 이 경우에서 해 공간은 (x, b)이거나 동등하게 (0, b) + (x, 0), (1 자유도)로 명시됩니다. 커널은 부분-공간 (x, 0) < V로 표현될 수 있습니다: x의 값은 해에서 자유도입니다 – 반면 여-커널은 맵 WR, 을 통해 표현될 수 있습니다: 벡터 (a, b)가 주어지면, a의 값은 해가 존재하는 데 방해물(obstruction)입니다.

무한-차원의 경우를 보여주는 예제는 맵 f: RR, b1 = 0과 n > 0에 대해 bn + 1 = an을 갖는 에 의해 제공됩니다. 그것의 이미지는 첫 번째 원소 0을 갖는 모든 수열로 구성되고, 따라서, 여-커널은 동일한 첫 번째 원소를 갖는 수열의 클래스로 구성됩니다. 따라서, 그것의 커널이 차원 0을 갖는 반면 (그것은 0 수열만 0 수열로 매핑됨), 그것의 여-커널은 차원 1을 가집니다. 도메인과 목표 공간이 같기 때문에, 커널의 랭크와 차원은 더해져서 여-커널의 랭크와 차원과 같은 합(sum)이 되지만 (), 무한-차원의 경우에서 커널과 자기-사상(endomorphism)의 여-커널이 같은 차원을 가진다는 것을 갖는다고 추론될 수 없습니다 (0 ≠ 1). 반대 상황은 맵 h: RR, cn = an + 1을 갖는 에 대해 얻습니다. 그것의 이미지는 전체 목표 공간이고, 따라서 그것의 여-커널은 차원 0을 가지지만, 그것은 첫 번째 원소만 비-영인 모든 수열을 영 수열에 매핑하고 때문에, 그것의 커널은 차원 1을 가집니다.

Index

유한-차원 커널과 여-커널을 갖는 선형 연산자에 대해, 인덱스(index)를 다음과 같이 정의할 수 있습니다. 즉, 자유도에서 구속 조건의 수를 뺀 값입니다.

유한-차원 벡터 공간 사이의 변환에 대해, 이것은 단지 랭크-널러티에 의한 차이 dim(V) − dim(W)입니다. 이것은 해가 얼마나 많은지 또는 얼마나 많은 구속 조건이 있는지 지표를 제공합니다: 만약 더 큰 공간에서 더 작은 공간으로 매핑하면, 그 맵은 위로 매핑일 것이고, 따라서 심지어 구속 조건 없이 자유도를 가질 것입니다. 반대로, 만약 더 작은 공간에서 더 큰 공간으로 매핑하면, 그 맵이 위로의 매핑일 수 없고, 따라서 심지어 자유도 없이 구속 조건을 가질 것입니다.

연산자의 인덱스는 정확히 2-항 복소수 0 → VW → 0의 오일러 특성(Euler characteristic)입니다. 연산자 이론(operator theory)에서, 프레드홀름 연산자(Fredholm operators)의 인덱스는 연구 주제이며, 주요 결과는 아티야-싱어 인덱스 정리(Atiyah–Singer index theorem)입니다.[17]

Algebraic classifications of linear transformations

선형 맵의 분류는 철저하게 될 수 없습니다. 다음 불완전한 목록은 벡터 공간 위에 임의의 추가적인 구조를 요구하지 않은 몇 가지 중요한 분류를 나열합니다.

VW가 필드 F에 걸쳐 벡터 공간을 표시한다고 놓고 T: VW를 선형 맵으로 놓습니다.

Monomorphism

T는 만약 다음 동등한 조건 중 하나라도 참이면 단사(injective) 또는 단사-사상(monomorphism)이라고 말합니다:

  1. T집합(sets)의 맵으로 일-대-일(one-to-one)입니다.
  2. ker T = {0V}
  3. dim(ker T) = 0
  4. T모닉(monic) 또는 왼쪽-취소가능이며, 즉 말하자면, 임의의 벡터 공간 U와 선형 맵의 임의의 쌍 R: UVS: UV에 대해, 방정식 TR = TSR = S를 의미합니다.
  5. T왼쪽-역가능(left-invertible)이며, 즉 말하자면, STV 위에 항등 맵(identity map)임을 만족하는 선형 맵 S: WV이 존재합니다.

Epimorphism

T는 만약 다음 동등한 조건 중 하나라도 참이면 전사(surjective) 또는 전사-사상(epimorphism)이라고 말합니다:

  1. T는 집합의 맵으로 위로의(onto) 입니다.
  2. coker T = {0W}
  3. T에픽(epic) 또는 오른쪽-취소가능이며, 즉 말하자면, 임의의 벡터 공간 U와 선형 맵의 임의의 쌍 R: WUS: WU에 대해, 방정식 RT = STR = S임을 의미합니다.
  4. T오른쪽-역가능(right-invertible)이며, 즉 말하자면, TSW 위에 항등 맵(identity map)임을 만족하는 선형 맵 S: WV이 존재합니다.

Isomorphism

T는 왼쪽과 오른쪽-역가능 둘 다이면 동형(isomorphism)이라고 말합니다. 이것은 T가 일-대-일이고 위로의 둘 다 (집합의 전단사(bijection))와 동등 또는 역시 T가 에픽과 모닉 둘 다와 동등이고, 따라서 쌍-사상(bimorphism)과 동등합니다.

만약 T: VV가 자기-사상이면, 다음입니다:

  • 만약, 일부 양의 정수 n에 대해, Tn-번째 반복, Tn이 영과 동일하면, T거듭제곱영(nilpotent)이라고 말합니다.
  • 만약 T2 = T이면, T거듭상등(idempotent)이라고 말합니다.
  • 만약 T = kI이면, 여기서 k는 일부 스칼라이며, T는 스케일링 변환 또는 스칼라 곱셈 맵이라고 말합니다; 스칼라 행렬(scalar matrix)을 참조하십시오.

Change of basis

그것의 행렬이 A자기-사상(endomorphism)인 선형 맵이 주어지면, 공간의 기저 B에서 그것은 벡터 좌표 [u]를 [v] = A[u]로 변환합니다. 벡터가 B의 역으로 변경됨에 따라 (벡터는 반변(contravariant)임) 그것의 역 변환은 [v] = B[v']입니다.

이것을 첫 번째 식에 대입하여 따라서

그러므로, 새로운 기저에서 행렬은 A′ = B−1AB이며, B는 주어진 기저의 행렬입니다.

그러므로, 선형 맵은 1-co- 1-contra-variant 대상 또는 유형 (1, 1) 텐서(tensors)라고 말합니다.

Continuity

토폴로지적 벡터 공간(topological vector spaces), 예를 들어 노름 공간(normed spaces) 사이의 선형 변환(linear transformation)은 연속(continuous)일 수 있습니다. 만약 그것의 도메인과 코도메인이 같으면, 그것은 그때에 연속 선형 연산자(continuous linear operator)가 될 것입니다. 노름 선형 공간 위에 선형 연산자가 연속인 것과 그것이 경계진, 예를 들어, 도메인이 유한-차원일 때인 것은 필요충분 조건입니다.[18] 무한-차원 도메인은 불연속 선형 연산자(discontinuous linear operators)를 가질 수 있습니다.

무-경계진, 따라서 불연속의 예제로서, 선형 변환은 상한 노름을 갖춘 매끄러운 함수 공간 위의 미분입니다 (작은 값을 갖는 함수는 큰 값을 갖는 도함수를 가질 수 있지만, 0의 도함수는 0입니다). 특정 예제에 대해, sin(nx)/n는 0으로 수렴하지만, 그것의 도함수 cos(nx)는 그렇지 않으므로, 미분은 0에서 연속적이지 않습니다 (그리고 이 논증의 변형에 따르면, 그것은 어디에서도 연속적이지 않습니다).

Applications

선형 맵의 특정 응용은 컴퓨터 그래픽(computer graphics)에서 수행되는 것과 같은 기하학적 변환(geometric transformations)을 위한 것이며, 여기서 2D 또는 3D 대상의 평행이동, 회전, 및 스케일링은 변환 행렬(transformation matrix)의 사용에 의해 수행됩니다. 선형 매핑은 변경을 설명하는 메커니즘으로도 사용됩니다: 예를 들어 미적분학에서 도함수에 해당합니다; 또는 상대성 이론에서, 참조 프레임의 지역적 변환을 추적하는 장치로 사용됩니다.

이들 변환의 또 다른 응용은 중첩-루프 코드의 컴파일러 최적화(compiler optimizations)컴파일러 병렬화(parallelizing compiler) 기술에 있습니다.

See also

Notes

  1. ^ "Linear transformations of V into V are often called linear operators on V." Rudin 1976, p. 207
  2. ^ Let V and W be two real vector spaces. A mapping a from V into W Is called a 'linear mapping' or 'linear transformation' or 'linear operator' [...] from V into W, if
    for all ,
    for all and all real λ. Bronshtein & Semendyayev 2004, p. 316
  3. ^ Rudin 1991, p. 14
    Here are some properties of linear mappings whose proofs are so easy that we omit them; it is assumed that and :
    1. If A is a subspace (or a convex set, or a balanced set) the same is true of
    2. If B is a subspace (or a convex set, or a balanced set) the same is true of
    3. In particular, the set: is a subspace of X, called the null space of .
  4. ^ Rudin 1991, p. 14. Suppose now that X and Y are vector spaces over the same scalar field. A mapping is said to be linear if for all and all scalars and . Note that one often writes , rather than , when is linear.
  5. ^ Rudin 1976, p. 206. A mapping A of a vector space X into a vector space Y is said to be a linear transformation if: for all and all scalars c. Note that one often writes instead of if A is linear.
  6. ^ Rudin 1991, p. 14. Linear mappings of X onto its scalar field are called linear functionals.
  7. ^ "terminology - What does 'linear' mean in Linear Algebra?". Mathematics Stack Exchange. Retrieved 2021-02-17.
  8. ^ Wilansky 2013, pp. 21–26.
  9. ^ Kubrusly, Carlos (2001). Elements of operator theory. Boston: Birkhäuser. p. 57. ISBN 978-1-4757-3328-0. OCLC 754555941.
  10. ^ a b Schechter 1996, pp. 277–280.
  11. ^ Rudin 1976, p. 210 Suppose and are bases of vector spaces X and Y, respectively. Then every determines a set of numbers such that It is convenient to represent these numbers in a rectangular array of m rows and n columns, called an m by n matrix: Observe that the coordinates of the vector (with respect to the basis ) appear in the jth column of . The vectors are therefore sometimes called the column vectors of . With this terminology, the range of A is spanned by the column vectors of .
  12. ^ Axler (2015) p. 52, § 3.3
  13. ^ Tu (2011), p. 19, § 3.1
  14. ^ Horn & Johnson 2013, 0.2.3 Vector spaces associated with a matrix or linear transformation, p. 6
  15. ^ a b Katznelson & Katznelson (2008) p. 52, § 2.5.1
  16. ^ a b Halmos (1974) p. 90, § 50
  17. ^ Nistor, Victor (2001) [1994], "Index theory", Encyclopedia of Mathematics, EMS Press: "The main question in index theory is to provide index formulas for classes of Fredholm operators ... Index theory has become a subject on its own only after M. F. Atiyah and I. Singer published their index theorems"
  18. ^ Rudin 1991, p. 15 1.18 Theorem Let be a linear functional on a topological vector space X. Assume for some . Then each of the following four properties implies the other three:
    1. is continuous
    2. The null space is closed.
    3. is not dense in X.
    4. is bounded in some neighbourhood V of 0.

Bibliography