Study62 9. 기댓값, 지시확률변수와 선형성 (Expectation, Indicator Random Variables, Linearity) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. CDF : F(x) = P(X ≤ x), x ∈ R Find P(1 P(a 0 as X -> -∞, F(X) -> 1 as x -> ∞ Independent of random variables X, Y are indep r.v.s if P(X≤x, Y≤y) = P(X≤x)P(Y≤y) for all x, y Discrete case: P(X=x, Y=x) = P(X=x)P(Y=y) Averages(Means, Expected va.. 2022. 1. 22. Lecture 5. Convolutional Neural Networks 본 글은 Stanford University CS231n 강의를 듣고 정리한 내용입니다. Convolutional Neural Networks A bit of history... Fully Connected Layer 32x32x3 image -> stretch to 3072 x 1 3072 dimension을 가진 10개의 행에 대한 dot product를 진행한다. Convolution Layer 필터와 5x5x3 chunk of image 사이의 dot product 값이 1개가 나오게 된다. 하나의 결과를 뽑아내기 위해 5*5*3 총 75-dimensional dot product + bias 를 진행하게 된다. 위 연산은 5x5x3의 chunk를 linear하게 편 후 계산하는 것과 동일하다. .. 2022. 1. 21. 8. 확률변수와 확률분포 (Random Variables and Their Distributions) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. Binomial distribution X ~ Bin(n, p) n = 정수, p = 0~1 실수 Story : X is number of success in n independent Bern(p) trial Sum of indicator rvs(지표 확률 변수) : X = X1 + X2 + ... + Xn, Xj = {1 if jth trial success, 0 otherwise} X1, ..., Xn i.i.d Bern(p) (independent identically distribution) PMF P(X=k) = nCk p^k q^(n-k) ∑ nCk p^k q^(n-k) = (p+q)^n = 1.. 2022. 1. 20. 7. 도박꾼의 파산 문제와 확률변수 (Gambler's Ruin and Random Variables) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. Gambler's Ruin Two gamblers A and B sequence of rounds bet $1, p = P(A wins a certain round), q = 1-p Find prob that A wins entire game (so B is ruined) assuming A starts with $i, B starts with %N-i p_i = P(A wins game | A starts at $i) = p*p_i+1 + q*p_i-1, 1 ≤ i ≤ N-j, p_0 = 0. p_N = 1 계차방정식(difference equation) -> 미분 방정식의 이산형태 guessing을 통.. 2022. 1. 20. 6. Monty Hall 문제와 심슨의 역설 (Monty Hall, Simpson's Paradox) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. Monty Hall Problem 1 door has car, 2 doors have goats, Monty knows which Monty는 항상 염소가 있는 문을 연다. (Monty가 2번 문을 열었다 -> 2번 문 뒤에 염소가 있음을 가정.) P(success if switch | Monty opens door 2) = 2/3 Law of total probability wish we knew where car is event S : succeed (assuming switch) event Dj : Door j has car(c ∈ (1, 2, 3)) P(S) = P(S|D1) / 3 + P(S|D2.. 2022. 1. 18. 5. 조건부 확률과 전확률정리 (Conditioning Continued, Law of Total Probability) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. Thinking conditionally is a condition for thinking How to solve a problem? 간단한 케이스와 극단적인 케이스 적용 문제를 더 작은 조각으로 나누어서 해결 Let A1, A2, ... An partition of S -> disjoint, ∑An = S Then P(B) = P(B∩A1) + P(B∩A2) + ... + P(B∩An) = P(B|A1)P(A1) + ... + P(B|An)P(An) -> law of total probability(전체 확률의 정리) Ex. 52장 중 2개의 랜덤한 카드를 뽑았을 때의 조건부 확률 Find P(both .. 2022. 1. 17. 이전 1 ··· 3 4 5 6 7 8 9 ··· 11 다음