분류 전체보기108 3. Birthday Problem과 확률의 특성 (Birthday Problem, Properties of Probability) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. Birthday Problem 특정 파티에 여러 사람이 있을 때, 같은 생일의 사람이 있을 확률에 대한 문제(최소 2명) K people, find prob that 2 habe same birthday 365 days a year(exclude Feb.29) equally likely, assume independent if k > 365, prob is 1 (pigeongole principle) Let k ≤ 365, prob > 0.5 일 경우 -> k = 23 P(no match) = 365 * 364 * 363 * ... * (365 - k + 1) / 365^k P(match) = 50.7 %.. 2022. 1. 13. 2. 해석을 통한 문제풀이 및 확률의 공리 (Story Proofs, Axioms of Probability) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. Sampling table : choose k object out of n Order matters Order doesn't Replace n^k n+k-1 C k Don't replace n*(n-1)*...*(n-k+1) n C k Pick k times from set of n objects, where order doesn't matter with replacement Extreme cases : k = 0 => n-1 C 0 = 1 Less extreme cases : k = 1 => n C 1 = n Simplest nontrivial examples: n = 2 => k + 1 C k = k .. 2022. 1. 11. Lecture 3. Loss Functions and Optimization 본 글은 Stanford University CS231n 강의를 듣고 정리한 내용입니다. Loss Function : 학습 진행 과정에서 W값이 얼마나 나쁜지를 나타내 주는 함수 Optimization : 모든 가능한 W들 중에 가장 덜 나쁜(bad) W를 찾는 과정 image x와 weight W를 통해 나온 결과와 label y간의 loss값을 모두 더한 뒤 데이터의 갯수만큼 나눠준 값 loss값을 최소화 하는 W값을 찾아가는 과정이 필요함 CIFAR-10의 경우 10개의 class가 있기 때문에 맞고 틀린게 아닌 multiclass에 대한 계산이 필요하다. Multiclass SVM Loss 정답 class의 score가 다른 label의 score보다 월등히 큰 경우(위 식에서는 1이상 큰 경우).. 2022. 1. 11. 1. 확률과 셈 원리 (Probability and Counting) 본 글은 Havard University Statistics 110 강의를 듣고 정리한 내용입니다. 확률론의 활용영역: 유전학, 물리학, 계랑경제학, 금융, 역사학, 정치 인문학, 사회과학계에서도 중요도와 활용이 늘어나고 있음 도박과 게임 - 통계에서 여러 번 연구된 주제이다(페르마, 파스칼) 인생 전반: (수학이 활실성에 대한 학문이라면,) 확률은 불확실성(uncertainty)을 계량화하는 것을 가능하게 해 준다. A sample space(표본 공간) is the set of all possible outcomes of an experiment An event(사건) is a subset of the sample space Naive definition of probability P(A) = Num.. 2022. 1. 10. Lecture2. Image Classification 본 글은 Stanford University CS231n 강의를 듣고 정리한 내용입니다. K_Nearset Neighbor Linear classifiers : SVM, Softmax Tow-layer nerual network Image features Image Classification 이러한 이미지를 정해진 discrete labels set 중에 하나의 class로 지정하게 된다. 사람에겐 쉽지만 computer 에겐 매우 어려운 일입니다. 왜냐하면 컴퓨터가 보는 이미지는 0과 255 사이의 숫자들로 이루어져 있기 때문이다. 이러한 픽셀값들은 객체가 움직이거나, 카메라의 앵글이 조금만 달라져도 모두 다른값으로 바뀐다. 그러나 픽셀값들이 모두 바껴도 같은 고양이를 나타낸다. 알고리즘은 이러한 경우.. 2022. 1. 10. Class 상속 class Car: Manufacture = "India" def __init__(self, color='red', category='sedan'): self.color = color self.category = category def drive(self): print("I'm driving") def accel(self, speed_up, current_speed=10): self.speed_up = speed_up self.current_speed = current_speed + self.speed_up print("speed up", self.speed_up, "driving at", self.current_speed) class NewCar(Car): pass car = NewCar() car.d.. 2022. 1. 10. 이전 1 ··· 7 8 9 10 11 12 13 ··· 18 다음