LinearAlgebra17 3-5. 그람-슈미트 직교화와 QR 분해 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Gram-Schmidt Orthogonal 하지 않은 두 벡터에 대해 아래 식을 통해 orthogonal한 벡터를 만들어 준다. v2 vector를 v1(=u1) 방향에 대하여 projection 해준다. => v2 vector {𝐱1, 𝐱2, 𝐱3} is clearly linearly independent and thus is a basis for a subspace 𝑊 of ℝ4 . Construct an orthogonal basis for W Solution Let 𝐯1 = 𝐱1 and 𝑊1 = Span {𝐱1} = Span{ 𝐯1} Let 𝐯2 be the vector produced by subtracting fr.. 2022. 1. 4. 3-4. Orthogonal Projection 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. the case of invertible 𝐶 = 𝐴^𝑇𝐴, consider the orthogonal projection of 𝐛 onto Col 𝐴 as Orthogonal and Orthonormal Sets orthogonal set if each pair of distinct vectors from the set is orthogonal That is, if 𝐮𝑖 ⋅ 𝐮𝑗 = 0 whenever 𝑖 ≠ 𝑗. orthonormal set if it is an orthogonal set of unit vectors. Orthogonal and Orthonormal Basis subspace에 대한 basis 중 Ortho.. 2022. 1. 4. 3-3. 정규방정식 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. This can be viewed as a new linear system, 𝐶𝐱 = 𝐝, where a square matrix 𝐶 = 𝐴^𝑇𝐴 ∈ ℝ𝑛×𝑛 , and 𝐝 = 𝐴^𝑇𝐛 ∈ ℝ𝑛 If 𝐶 = 𝐴^𝑇𝐴 is invertible, then the solution is computed as Another Derivation of Normal Equation Computing derivatives w.r.t. 𝐱, we obtain ∵ x^T · a (=a^T · x) 를 미분한 값은 a가 된다. 순서를 바꿔서 한 내적이기 때문 Thus, if 𝐶 = 𝐴^𝑇𝐴 is invertible, then the solutio.. 2022. 1. 3. 3-2 Least Squares와 그 기하학적 의미 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. The most important aspect of the least-squares problem is that no matter what x we select, the vector 𝐴𝐱 will necessarily be in the column space Col 𝐴 Thus, we seek for x that makes 𝐴𝐱 as the closest point in Col 𝐴 to 𝐛. 𝐛 − 𝐴𝐱 ⊥ (𝑥1a1 + 𝑥2a2 ⋯ + 𝑥𝑝a𝑛) for any vector x given a least squares problem, 𝐴𝐱 ≃ 𝐛, we obtain which is called a normal equation .. 2022. 1. 3. 3-1. Least Squares Problem 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Over-determined Linear Systems (#equations ≫ #variables) 보통의 경우 solution이 없음 근사적인 해를 구해 보는 것이 Least Squares Problem의 기본 개념 가장 근사치의 해를 어떻게 정의할 것인가? 1. Inner Product(내적) Let 𝐮, 𝐯, and 𝐰 be vectors in ℝ𝑛 , and let 𝑐 be a scalar. a) 𝐮 ∙ 𝐯 = 𝐯 ∙ 𝐮 (교환 법칙) b) (𝐮 + 𝐯) ∙ 𝐰 = 𝐮 ∙ 𝐰 + 𝐯 ∙ 𝐰 (분배 법칙) c) (𝑐𝐮) ∙ 𝐯 = 𝑐(𝐮 ∙ 𝐯) = 𝐮 ∙ (𝑐𝐯) (상수의 곱) d) 𝐮 ∙ 𝐮 ≥ 𝟎, and 𝐮 ∙.. 2022. 1. 1. 2-6. 전사함수와 일대일함수 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. ONTO(전사) 공역과 치역이 같은 경우 공역중 어떤 값이든 정의역 1개 이상과 대응해야 한다. 입력 벡터의 dimension이 출력 벡터의 dimension보다 같거나 높아야 한다. One-to-One(1대1 함수) ONTO일 필요는 없음 치역은 정의역으로부터 하나의 화살표만을 받아야 한다. input의 차원이 output의 차원보다 작거나 같아야 One-to-One의 가능성이 생긴다. Linearly Independently와 같은 의미를 가진다. 출처: https://www.edwith.org/ai251 2021. 12. 30. 이전 1 2 3 다음