분류 전체보기108 4-1. 고유벡터와 고유값 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Eigenvectors and Eigenvalues An eigenvector of a square matrix 𝐴 ∈ ℝ𝑛×𝑛 is a nonzero vector 𝐱 ∈ ℝ𝑛 such that 𝐴𝐱 = 𝜆𝐱 for some scalar 𝜆 In this case, 𝜆 is called an eigenvalue of 𝐴, and such an 𝐱 is called an eigenvector corresponding to 𝝀. x가 eigenvector라면, 𝑇(x) = 𝐴x = 𝜆x 는 같은 방향으로 길이만 𝜆로 scale된 백터를 출력한다. eigenvalue를 사용하면 A matrix를 사용하는것 보다 연산의 양이 훨씬 .. 2022. 1. 5. Pandas로 그래프 그리기 pandas.plot 메서드 인자 label : 그래프의 범례 이름 ax : 그래프를 그릴 matplotllib의 서브플롯 객체 style : matplotllib에 전달할 'ko--'같은 스타일의 문자열 alpha : 투명도 (0 ~ 1) kind : 그래프의 종류 : line, bar, barh, kde logy : Y축에 대한 로그 스케일 use_index : 객체에 색인을 눈금 이름으로 사용할 지의 여부 rot : 눈금 이름을 로테이션(0~360) xticks, yticks : x축, y축으로 사용할 값 xlin, ylin : x축, y축 한계 grid : 축의 그리드 표시 여부 Pandas의 data가 DataFrame 일 때 plot 메서드 인자 subplots : 각 DataFrame의 칼럼.. 2022. 1. 5. 3-5. 그람-슈미트 직교화와 QR 분해 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Gram-Schmidt Orthogonal 하지 않은 두 벡터에 대해 아래 식을 통해 orthogonal한 벡터를 만들어 준다. v2 vector를 v1(=u1) 방향에 대하여 projection 해준다. => v2 vector {𝐱1, 𝐱2, 𝐱3} is clearly linearly independent and thus is a basis for a subspace 𝑊 of ℝ4 . Construct an orthogonal basis for W Solution Let 𝐯1 = 𝐱1 and 𝑊1 = Span {𝐱1} = Span{ 𝐯1} Let 𝐯2 be the vector produced by subtracting fr.. 2022. 1. 4. 3-4. Orthogonal Projection 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. the case of invertible 𝐶 = 𝐴^𝑇𝐴, consider the orthogonal projection of 𝐛 onto Col 𝐴 as Orthogonal and Orthonormal Sets orthogonal set if each pair of distinct vectors from the set is orthogonal That is, if 𝐮𝑖 ⋅ 𝐮𝑗 = 0 whenever 𝑖 ≠ 𝑗. orthonormal set if it is an orthogonal set of unit vectors. Orthogonal and Orthonormal Basis subspace에 대한 basis 중 Ortho.. 2022. 1. 4. 3-3. 정규방정식 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. This can be viewed as a new linear system, 𝐶𝐱 = 𝐝, where a square matrix 𝐶 = 𝐴^𝑇𝐴 ∈ ℝ𝑛×𝑛 , and 𝐝 = 𝐴^𝑇𝐛 ∈ ℝ𝑛 If 𝐶 = 𝐴^𝑇𝐴 is invertible, then the solution is computed as Another Derivation of Normal Equation Computing derivatives w.r.t. 𝐱, we obtain ∵ x^T · a (=a^T · x) 를 미분한 값은 a가 된다. 순서를 바꿔서 한 내적이기 때문 Thus, if 𝐶 = 𝐴^𝑇𝐴 is invertible, then the solutio.. 2022. 1. 3. 3-2 Least Squares와 그 기하학적 의미 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. The most important aspect of the least-squares problem is that no matter what x we select, the vector 𝐴𝐱 will necessarily be in the column space Col 𝐴 Thus, we seek for x that makes 𝐴𝐱 as the closest point in Col 𝐴 to 𝐛. 𝐛 − 𝐴𝐱 ⊥ (𝑥1a1 + 𝑥2a2 ⋯ + 𝑥𝑝a𝑛) for any vector x given a least squares problem, 𝐴𝐱 ≃ 𝐛, we obtain which is called a normal equation .. 2022. 1. 3. 이전 1 ··· 10 11 12 13 14 15 16 ··· 18 다음