Study62 Lecture2. Image Classification 본 글은 Stanford University CS231n 강의를 듣고 정리한 내용입니다. K_Nearset Neighbor Linear classifiers : SVM, Softmax Tow-layer nerual network Image features Image Classification 이러한 이미지를 정해진 discrete labels set 중에 하나의 class로 지정하게 된다. 사람에겐 쉽지만 computer 에겐 매우 어려운 일입니다. 왜냐하면 컴퓨터가 보는 이미지는 0과 255 사이의 숫자들로 이루어져 있기 때문이다. 이러한 픽셀값들은 객체가 움직이거나, 카메라의 앵글이 조금만 달라져도 모두 다른값으로 바뀐다. 그러나 픽셀값들이 모두 바껴도 같은 고양이를 나타낸다. 알고리즘은 이러한 경우.. 2022. 1. 10. 5-2. 고유값 분해와 특이값 분해의 응용 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. 머신러닝에서 Eigendecomposition often handle symmetric positive definite matrix A : 3명에 대한 10개의 feature를 가지는 matrix ATA : inner product 기준으로 두 사람에 대한 similarity pariwise inner product similarity AAT : 특정 feature에 대한 inner product 를 기준으로 한 similarity principal component analysis gram matrix(feature inner product similarity) in style transfer Low Rank Approxi.. 2022. 1. 10. 5-1 특이값 분해 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Singular Value Decomposition 직사각행렬에 대한 decomposition 𝑈 ∈ ℝ𝑚×𝑚 , 𝑉 ∈ ℝ𝑛×𝑛 : matrices with orthonormal columns, providing an orthonormal basis of Col 𝐴 and Row 𝐴, respectively • Σ ∈ ℝ𝑚×𝑛 : a diagonal matrix whose entries are in a decreasing order, i.e., 𝜎1 ≥ 𝜎2 ≥ ⋯ ≥ 𝜎min (𝑚,n) Another Perspective of SVD {𝐮1, … , 𝐮𝑛} for Col 𝐴 and {𝐯1, … , 𝐯𝑛} for Row 𝐴.. 2022. 1. 7. 4-5. 고유값 분해와 선형변환 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Eigendecomposition A가 diagonalizable하면, 𝐷=𝑉−1𝐴𝑉. 위 식은 𝐴=𝑉𝐷𝑉−1 로 쓸 수 있다. 이를 eigendecomposition of 𝐴 라고 부른다. V : invertible(역행렬 존재) 𝐴 being diagonalizable is equivalent to 𝐴 having eigendecomposition Linear Transformation 𝑇(x)=𝐴x 𝑇(x) = 𝐴x = 𝑉𝐷𝑉−1x = 𝑉(𝐷(𝑉−1x)) 1. Change of Basis Let y=𝑉−1x. Then, 𝑉y=x y is a new coordinate of x with respect to a new ba.. 2022. 1. 6. 4-4. 대각화 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Diagonalization a given square matrix 𝐴 ∈ ℝ𝑛×𝑛 into a diagonal matrix via the following form 𝑉 ∈ ℝ𝑛×𝑛 is an invertible matrix and 𝐷 ∈ ℝ𝑛×𝑛 is a diagonal matrix. This is called a diagonalization of 𝐴. V는 A와 같은 dimension의 정사각행렬 𝐷 = 𝑉^(−1)𝐴𝑉 ⟹ 𝑉𝐷 = 𝐴𝑉 𝐴𝑉 = 𝑉𝐷 ⟺ [𝐴𝐯1 𝐴𝐯2 ⋯ 𝐴𝐯𝑛] = [𝜆1𝐯1 𝜆2𝐯2 ⋯ 𝜆𝑛𝐯𝑛] => 𝐴𝐯1 = 𝜆1𝐯1, 𝐴𝐯2 = 𝜆2𝐯2, …, 𝐴𝐯𝑛 = 𝜆𝑛𝐯𝑛 ∴ 𝐯1, 𝐯2, …, 𝐯𝑛 .. 2022. 1. 5. 4-3. 특성방정식 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Linearly Independent 와 Linearly dependent는 역행렬을 가진다와 안가진다와는 다른 개념이다. Linearly Independent는 정사각행렬이 아닌 경우에도 존재하기 때문 정사각행렬의 경우에는 위 개념이 동치가 된다. Characteristic Equation If (𝐴−𝜆𝐼)𝐱=𝟎 has a nontrivial solution, then the columns of (𝐴−𝜆𝐼) should be noninvertible. If it is invertible, 𝐱cannot be a nonzero vector since (𝐴−𝜆𝐼)−1(𝐴−𝜆𝐼)𝐱=(𝐴−𝜆𝐼)−1𝟎⟹𝐱=𝟎 Thus, we can.. 2022. 1. 5. 이전 1 ··· 5 6 7 8 9 10 11 다음