본문 바로가기

Study62

15. Midterm Review 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. Coupon Collector(toy collector) n toy types, equally likely 모든 종류의 장난감을 모을 때까지의 예상 시간 T? T = T1 + T2 + ... + Tn T1 = time until 1st new toy = 1 T2 = additional time until 2nd new toy T3 = additional time until 3rd new toy T1= 1 T2-1 ~ Geom(n-1/n) * T2-1을 해준 것은 기하분포가 0에서 시작한다는 표기 방법, 최소 1개의 장난감은 가지고 있기 때문에 1을 빼줌 Tj - 1 ~ Geom(n-j+1/n) E(T) =.. 2022. 1. 31.
14. 위치, 척도 및 무의식적인 통계학자의 법칙(Location, Scale, and LOTUS) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. Z ~ N(0, 1), CDF Φ E(z) = 0 (정규분포의 대칭성), 1차 적률 Var(z) = E(z^2) = 1, 2차 적률 E(z^3) = 0(LOTUS), 3차 적률 -Z ~ N(0, 1) (Symmetry) 일반정규분포 Let X = μ+σZ , μ ∈ R (mean, location), σ > 0 (Standard Deviation, scale) -> X ~ N(μ, σ^2) E(X) = μ Var(μ+σZ) = σ^2 * Var(Z) = σ^2 Var(X+X) = Var(2X) = 4Var(X) Z = (X - μ) / σ (표준화 → 데이터의 단위 문제가 없어짐) 68-95-99.7% R.. 2022. 1. 29.
13. 정규분포 (Normal Distribution) ≤본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. 균등분포의 일반성 F가 증가하는 CDF라고 할 때, X = F^-1(u) ~ F if u ~ Unif(0, 1) if X ~ F이면 F(X) ~ Unif(0, 1) F(x) = P(X ≤ x) -> F(X) = P(X ≤ X) = 1(틀린 방식!!) F(x) = 1-e^-x, x > 0 -> F(X) = 1-e^-X(맞는 방식) Ex. F(x) = 1-e^-x, x>0 (Exponential distribution with parameter 1, Expo(1)), u ~ Unif(0, 1) X ~ F 인 분포를 simulate(U∼Unif(0,1)를 simulate한다) 하려면 , F^-1(u) = -l.. 2022. 1. 28.
12. 이산, 연속, 균등분포 (Discrete vs. Continuous, the Uniform) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. PDF(Probability Density Function, 확률밀도함수) Defn 확률변수 X has PDF f(x) if P(a ≤ X ≤ b) = ∫[a~b] f(x)dx for all a, b. [a = b -> ∫[a~b] f(x)dx = 0] To be valid, f(x) ≥ 0, ∫[-∞~∞]f(x)dx = 1 * Density f(x​0​​) ⋅ ϵ ≈ P( X ∈ (x​0​​−ϵ / 2, x​ 0​​+ ϵ / 2)) , 매우 작은 양의 값 epsilon ϵ 길이의 구간에 대한 면적 if X has PDF f, the CDF is F(x) = P(X ≤ x) = ∫[-∞~x]f(t)dt i.. 2022. 1. 27.
11. 포아송분포 (The Poisson distribution) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. Poisson Distribution ,X ~ Pois(λ) λ is the "rate" parameter, λ > 0 Valid : ∑PMF = e^-λe^λ = 1 (k로 이루어진 식은 e^λ에 대한 테일러급수) E(X) = e^-λ * ∑ [k=0~∞] k λ^k / k! = λe^-λ * ∑ [k=1~∞] λ^(k-1) / (k-1)! = λe^-λe^λ = λ often used for applications where counting number of "successes" where there are a large number of trials each with small prob of succ.. 2022. 1. 25.
10. 기댓값 (Expectation Continued) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. Proof Linearity Let T = X + Y, show E(T) = E(X)+E(Y) E(T) = ∑ tP(T=t) ?= ∑ xP(X=x) + ∑ yP(Y=y) P(T=t) = ∑P(T=t|X=x)P(X=x) 평균을 구하는 방법은 전부 더해서 나누는 방법 ∑X(s)P({s}), P({s}) = 조약돌의 무게 = 1/n 그룹으로 묶어서 가중평균을 구하는 방법이 있다. ∑xP(X=x) Proof of linearity(discrete case) ∑(X+Y)(s)P({s}) = ∑(X(s)+Y(s))P({s}) = ∑X(s)P({s}) + ∑Y(s)P({s}) = E(X)+E(Y) E(cx) = cE(.. 2022. 1. 24.