본문 바로가기

Study62

3-1. Least Squares Problem 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Over-determined Linear Systems (#equations ≫ #variables) 보통의 경우 solution이 없음 근사적인 해를 구해 보는 것이 Least Squares Problem의 기본 개념 가장 근사치의 해를 어떻게 정의할 것인가? 1. Inner Product(내적) Let 𝐮, 𝐯, and 𝐰 be vectors in ℝ𝑛 , and let 𝑐 be a scalar. a) 𝐮 ∙ 𝐯 = 𝐯 ∙ 𝐮 (교환 법칙) b) (𝐮 + 𝐯) ∙ 𝐰 = 𝐮 ∙ 𝐰 + 𝐯 ∙ 𝐰 (분배 법칙) c) (𝑐𝐮) ∙ 𝐯 = 𝑐(𝐮 ∙ 𝐯) = 𝐮 ∙ (𝑐𝐯) (상수의 곱) d) 𝐮 ∙ 𝐮 ≥ 𝟎, and 𝐮 ∙.. 2022. 1. 1.
2-6. 전사함수와 일대일함수 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. ONTO(전사) 공역과 치역이 같은 경우 공역중 어떤 값이든 정의역 1개 이상과 대응해야 한다. 입력 벡터의 dimension이 출력 벡터의 dimension보다 같거나 높아야 한다. One-to-One(1대1 함수) ONTO일 필요는 없음 치역은 정의역으로부터 하나의 화살표만을 받아야 한다. input의 차원이 output의 차원보다 작거나 같아야 One-to-One의 가능성이 생긴다. Linearly Independently와 같은 의미를 가진다. 출처: https://www.edwith.org/ai251 2021. 12. 30.
2.5 선형변환 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. A transformation, function, or mapping, 𝑇 maps an input 𝑥 to an output 𝑦 Mathematical notation: 𝑇: 𝑥 ↦ 𝑦 Domain(정의역) : Set of all the possible values of x Co-domain(공역) : Set of all the possible values of y Image(함수의 상) : a mapped output 𝑦, given x Range(치역) : Set of all the output values mapped by each 𝑥 in the domain 하나의 정의역에 하나의 화살표만 정의 Linear Tran.. 2021. 12. 29.
2-4. 부분공간의 기저와 차원 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다 A subspace 𝐻 is defined as a subset of ℝ𝑛 closed under linear combination ex. 곱셈에 닫혀있다(집합 내 원소간 곱이 집합 내에 존재한다.) S = {2} -> 2 * 2 = 4 -> S = {2, 4} -> 2 * 4 = 8 => S = {2, 4, 8} ... ∴ S = {2^(n-1) : n = 1, 2, ..., ∞} subset 중 선형 결합에 닫혀 있는 경우를 subspace라고 부름 subspace는 항상 재료vector들의 span으로 이루어져 있다 A basis of a subspace 𝐻 is a set of vectors that satisfies .. 2021. 12. 29.
2-3. 선형독립과 선형종속 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Linear Independence Given a set of vectors v1, ⋯ , v𝑝 ∈ ℝ^𝑛 , check if v𝑗 can be represented as a linear combination of the previous vectors {v1, v2, … , v𝑗−1} for 𝑗 = 1, … , 𝑝, e.g., v𝑗 ∈ Span {v1, v2, … , v𝑗−1} for some 𝑗 = 1, … , 𝑝? If at least one such v𝑗 is found, then {v1, ⋯ , v𝑝} is linearly dependent. If no such v𝑗 is found, then {v1, ⋯ , v𝑝} .. 2021. 12. 28.
2-2. 선형결합 본 글은 주재걸교수님의 인공지능을 위한 선형대수 강의를 듣고 정리한 내용입니다. Linear Combinations(v1, v2 ...) Weights or Coefficients(c1, c2, ...) Span Span is defined as the set of all linear combinations of vector Collection of all vectors that can be written in the form c1v1 + c2v2 + ... + cpvp Linear Combination of columns Linear Combination of rows (Rank-1) outer product위 예시에서 vector -> Matrix Sum of (Rank-1) outer product.. 2021. 12. 28.