본문 바로가기
Study/통계학

14. 위치, 척도 및 무의식적인 통계학자의 법칙(Location, Scale, and LOTUS)

by EDGE-AI 2022. 1. 29.

본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다.

 

  • Z ~ N(0, 1), CDF Φ
    • E(z) = 0 (정규분포의 대칭성), 1차 적률
    • Var(z) = E(z^2) = 1, 2차 적률
    • E(z^3) = 0(LOTUS), 3차 적률
  • -Z ~ N(0, 1) (Symmetry)

일반정규분포

Let X = μ+σZ , μ ∈ R (mean, location), σ > 0 (Standard Deviation, scale)

-> X ~ N(μ, σ^2)

  • E(X) = μ
  • Var(μ+σZ) = σ^2 * Var(Z) = σ^2
    • Var(X+X) = Var(2X) = 4Var(X)
  • Z = (X - μ) / σ (표준화 → 데이터의 단위 문제가 없어짐)

68-95-99.7% Rule

X ~ N(μ, σ^2)

  • P(|X-μ| ≤ σ) ≒ 0.68
  • P(|X-μ| ≤ 2σ) ≒ 0.95
  • P(|X-μ| ≤ 3σ) ≒ 0.997

Poisson Distribution

prod : p0, p1, p2, p3, ...

X : 0, 1, 2, 3, ...

X^2 : 0 , 1, 4, 9, ...

E(X) = ∑XP(X=x)

E(X^2) = ∑X^2P(X=x)

 

X ~ Pois(λ)

X ~ Bin(n, p), Find Var(X)

X = I1 + I2 + ... + In,  Ij ~ Bern(p) i.i.d.

X^2 = I1^2 + I2^2 + ... + In^2 + 2I1I2 + ... + 2I_n-1 I_n

선형성을 이용한  E(X^2) 계산

E(X^2) = nE(I_1^2) + 2 * n C 2 * E(I_1 I_2)

∵ E(I_1^2) = E(I_1), E(I_1)은 0아니면 1이기 때문에 제곱한 값도 같다.

∵ I_1 I_2 -> 둘다 성공했는 지를 나타내는 지시자

 = np + 2 * n(n-1)/2 * p^2 = np + (np)^2 - np^2

 

∴ Var(X) = np - np^2 = np(1-p) = npq , q = 1-p

 

이산확률변수에서의 LOTUS(무의식적인 통계학자 법칙) 증명

∑ g(x)P(X=x) = ∑ [s∈S] g(X(s)) P({s})

     grouped         ungrouped, P({s}) = 자갈의 질량

  • grouped : 모든 자갈들을 합쳐서 동일한 X값을 가지는 거대한 자갈(같은 X값을 가지는 자갈들을 그룹화)을 만든다. 이것들을 묶어서 평균 계산
  • ungrouped : 각 자갈에 대해 g(X(s))를 계산한다면, 각각의 무게가 포함된 평균을 구할 수 있다.

x값들을 먼저 더하고 이것들을 묶어서 전체적인 자갈의 합을 구함.

 

출처: https://www.edwith.org/ai152

댓글