본문 바로가기
Study/선형대수학

4-5. 고유값 분해와 선형변환

by EDGE-AI 2022. 1. 6.

본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다.

 

Eigendecomposition

  • A가 diagonalizable하면, 𝐷=𝑉−1𝐴𝑉.
  • 위 식은 𝐴=𝑉𝐷𝑉−1 로 쓸 수 있다. 이를 eigendecomposition of 𝐴 라고 부른다.
    • V : invertible(역행렬 존재)
  • 𝐴 being diagonalizable is equivalent to 𝐴 having eigendecomposition
  • Linear Transformation 𝑇(x)=𝐴x
  • 𝑇(x) = 𝐴x = 𝑉𝐷𝑉−1x = 𝑉(𝐷(𝑉−1x))

1. Change of Basis

  • Let y=𝑉−1x. Then, 𝑉y=x
  • y is a new coordinate of x with respect to a new basis of eigenvectors {𝐯1,𝐯2}.

 

2. Element-wise Scaling

  • 𝑇(x)=𝑉(𝐷(𝑉−1x))=𝑉(𝐷y)
  • Let 𝑧=𝐷y. This computation is a simple Element-wise scaling of y.

 

3. Dimension-wise Scaling

4. Back to Original Basis

  • 𝑇(x)=𝑉(𝐷y)=𝑉𝑧
  • 𝑧 is still a coordinate based on the new basis {𝐯1,𝐯2}
  • 𝑉𝑧 converts 𝑧 to another coordinates based on the original standard basis.

Linear Transformation via A^k

 

출처: https://www.edwith.org/ai251 

'Study > 선형대수학' 카테고리의 다른 글

5-2. 고유값 분해와 특이값 분해의 응용  (0) 2022.01.10
5-1 특이값 분해  (0) 2022.01.07
4-4. 대각화  (0) 2022.01.05
4-3. 특성방정식  (0) 2022.01.05
4-2. 영공간과 직교여공간  (0) 2022.01.05

댓글