Study62 4-2. 영공간과 직교여공간 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Null Space The null space of a matrix 𝐴 ∈ ℝ𝑚×𝑛 is the set of all solutions of a homogeneous linear system, 𝐴𝐱 = 𝟎. We denote the null space of 𝐴 as Nul 𝐴. Ax=0을 만족하는 모든 솔루션. 직사각행렬에서도 존재 A Matirx가 linearly independent한 경우 nontrivial solution밖에 존재하지 않는다. linearly independent 하면 orthogonal 할 가능성이 있다. orthogonal하지 않은 경우는 projection을 통해 orthogonal한 벡터를 찾을 .. 2022. 1. 5. 4-1. 고유벡터와 고유값 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Eigenvectors and Eigenvalues An eigenvector of a square matrix 𝐴 ∈ ℝ𝑛×𝑛 is a nonzero vector 𝐱 ∈ ℝ𝑛 such that 𝐴𝐱 = 𝜆𝐱 for some scalar 𝜆 In this case, 𝜆 is called an eigenvalue of 𝐴, and such an 𝐱 is called an eigenvector corresponding to 𝝀. x가 eigenvector라면, 𝑇(x) = 𝐴x = 𝜆x 는 같은 방향으로 길이만 𝜆로 scale된 백터를 출력한다. eigenvalue를 사용하면 A matrix를 사용하는것 보다 연산의 양이 훨씬 .. 2022. 1. 5. 3-5. 그람-슈미트 직교화와 QR 분해 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Gram-Schmidt Orthogonal 하지 않은 두 벡터에 대해 아래 식을 통해 orthogonal한 벡터를 만들어 준다. v2 vector를 v1(=u1) 방향에 대하여 projection 해준다. => v2 vector {𝐱1, 𝐱2, 𝐱3} is clearly linearly independent and thus is a basis for a subspace 𝑊 of ℝ4 . Construct an orthogonal basis for W Solution Let 𝐯1 = 𝐱1 and 𝑊1 = Span {𝐱1} = Span{ 𝐯1} Let 𝐯2 be the vector produced by subtracting fr.. 2022. 1. 4. 3-4. Orthogonal Projection 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. the case of invertible 𝐶 = 𝐴^𝑇𝐴, consider the orthogonal projection of 𝐛 onto Col 𝐴 as Orthogonal and Orthonormal Sets orthogonal set if each pair of distinct vectors from the set is orthogonal That is, if 𝐮𝑖 ⋅ 𝐮𝑗 = 0 whenever 𝑖 ≠ 𝑗. orthonormal set if it is an orthogonal set of unit vectors. Orthogonal and Orthonormal Basis subspace에 대한 basis 중 Ortho.. 2022. 1. 4. 3-3. 정규방정식 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. This can be viewed as a new linear system, 𝐶𝐱 = 𝐝, where a square matrix 𝐶 = 𝐴^𝑇𝐴 ∈ ℝ𝑛×𝑛 , and 𝐝 = 𝐴^𝑇𝐛 ∈ ℝ𝑛 If 𝐶 = 𝐴^𝑇𝐴 is invertible, then the solution is computed as Another Derivation of Normal Equation Computing derivatives w.r.t. 𝐱, we obtain ∵ x^T · a (=a^T · x) 를 미분한 값은 a가 된다. 순서를 바꿔서 한 내적이기 때문 Thus, if 𝐶 = 𝐴^𝑇𝐴 is invertible, then the solutio.. 2022. 1. 3. 3-2 Least Squares와 그 기하학적 의미 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. The most important aspect of the least-squares problem is that no matter what x we select, the vector 𝐴𝐱 will necessarily be in the column space Col 𝐴 Thus, we seek for x that makes 𝐴𝐱 as the closest point in Col 𝐴 to 𝐛. 𝐛 − 𝐴𝐱 ⊥ (𝑥1a1 + 𝑥2a2 ⋯ + 𝑥𝑝a𝑛) for any vector x given a least squares problem, 𝐴𝐱 ≃ 𝐛, we obtain which is called a normal equation .. 2022. 1. 3. 이전 1 ··· 6 7 8 9 10 11 다음