Study/선형대수학19 4-1. 고유벡터와 고유값 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Eigenvectors and Eigenvalues An eigenvector of a square matrix 𝐴 ∈ ℝ𝑛×𝑛 is a nonzero vector 𝐱 ∈ ℝ𝑛 such that 𝐴𝐱 = 𝜆𝐱 for some scalar 𝜆 In this case, 𝜆 is called an eigenvalue of 𝐴, and such an 𝐱 is called an eigenvector corresponding to 𝝀. x가 eigenvector라면, 𝑇(x) = 𝐴x = 𝜆x 는 같은 방향으로 길이만 𝜆로 scale된 백터를 출력한다. eigenvalue를 사용하면 A matrix를 사용하는것 보다 연산의 양이 훨씬 .. 2022. 1. 5. 3-5. 그람-슈미트 직교화와 QR 분해 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Gram-Schmidt Orthogonal 하지 않은 두 벡터에 대해 아래 식을 통해 orthogonal한 벡터를 만들어 준다. v2 vector를 v1(=u1) 방향에 대하여 projection 해준다. => v2 vector {𝐱1, 𝐱2, 𝐱3} is clearly linearly independent and thus is a basis for a subspace 𝑊 of ℝ4 . Construct an orthogonal basis for W Solution Let 𝐯1 = 𝐱1 and 𝑊1 = Span {𝐱1} = Span{ 𝐯1} Let 𝐯2 be the vector produced by subtracting fr.. 2022. 1. 4. 3-4. Orthogonal Projection 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. the case of invertible 𝐶 = 𝐴^𝑇𝐴, consider the orthogonal projection of 𝐛 onto Col 𝐴 as Orthogonal and Orthonormal Sets orthogonal set if each pair of distinct vectors from the set is orthogonal That is, if 𝐮𝑖 ⋅ 𝐮𝑗 = 0 whenever 𝑖 ≠ 𝑗. orthonormal set if it is an orthogonal set of unit vectors. Orthogonal and Orthonormal Basis subspace에 대한 basis 중 Ortho.. 2022. 1. 4. 3-3. 정규방정식 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. This can be viewed as a new linear system, 𝐶𝐱 = 𝐝, where a square matrix 𝐶 = 𝐴^𝑇𝐴 ∈ ℝ𝑛×𝑛 , and 𝐝 = 𝐴^𝑇𝐛 ∈ ℝ𝑛 If 𝐶 = 𝐴^𝑇𝐴 is invertible, then the solution is computed as Another Derivation of Normal Equation Computing derivatives w.r.t. 𝐱, we obtain ∵ x^T · a (=a^T · x) 를 미분한 값은 a가 된다. 순서를 바꿔서 한 내적이기 때문 Thus, if 𝐶 = 𝐴^𝑇𝐴 is invertible, then the solutio.. 2022. 1. 3. 3-2 Least Squares와 그 기하학적 의미 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. The most important aspect of the least-squares problem is that no matter what x we select, the vector 𝐴𝐱 will necessarily be in the column space Col 𝐴 Thus, we seek for x that makes 𝐴𝐱 as the closest point in Col 𝐴 to 𝐛. 𝐛 − 𝐴𝐱 ⊥ (𝑥1a1 + 𝑥2a2 ⋯ + 𝑥𝑝a𝑛) for any vector x given a least squares problem, 𝐴𝐱 ≃ 𝐛, we obtain which is called a normal equation .. 2022. 1. 3. 3-1. Least Squares Problem 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Over-determined Linear Systems (#equations ≫ #variables) 보통의 경우 solution이 없음 근사적인 해를 구해 보는 것이 Least Squares Problem의 기본 개념 가장 근사치의 해를 어떻게 정의할 것인가? 1. Inner Product(내적) Let 𝐮, 𝐯, and 𝐰 be vectors in ℝ𝑛 , and let 𝑐 be a scalar. a) 𝐮 ∙ 𝐯 = 𝐯 ∙ 𝐮 (교환 법칙) b) (𝐮 + 𝐯) ∙ 𝐰 = 𝐮 ∙ 𝐰 + 𝐯 ∙ 𝐰 (분배 법칙) c) (𝑐𝐮) ∙ 𝐯 = 𝑐(𝐮 ∙ 𝐯) = 𝐮 ∙ (𝑐𝐯) (상수의 곱) d) 𝐮 ∙ 𝐮 ≥ 𝟎, and 𝐮 ∙.. 2022. 1. 1. 이전 1 2 3 4 다음