일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
- 디퓨전모델
- ddpm
- Few-shot generation
- multimodal
- BERT
- GAN
- ue5.4
- 폰트생성
- dl
- cv
- 모션매칭
- motion matching
- userwidget
- WinAPI
- Font Generation
- Unreal Engine
- WBP
- 생성모델
- NLP
- Generative Model
- animation retargeting
- UE5
- Stat110
- 오블완
- 언리얼엔진
- Diffusion
- CNN
- RNN
- 딥러닝
- deep learning
- Today
- Total
Deeper Learning
[Statistics 110] Lecture 14: Location, Scale, and LOTUS 본문
[Statistics 110] Lecture 14: Location, Scale, and LOTUS
Dlaiml 2022. 12. 17. 16:24표준정규분포
표준정규분포에서 기함수의 성질을 이용하면 E(X)=0,E(X2)=1,E(X3)=0.
일반정규분포
X∼μ+σZ 라고 하면 X∼N(μ,σ2) 을 따른다
기댓값은 선형성에 의해 E(X)=E(μ)+σ(E(Z))=μ.
분산의 성질
Var(X)=E((X−E(X))2)=E(X2)−(E(X))2Var(X+c)=Var(X)Var(cX)=c2Var(X)Var(X+Y)≠Var(X)+Var(Y)
일반정규분포의 분산
Var(X)=Var(μ+σZ)=Var(σZ)=σ2Var(Z)=σ2
일반정규분포를 표준정규분포로 표준화 (자주 쓰임)
Z=X−μσ
표준정규분포의 pdf를 알고 있을 때, 일반정규분포의 pdf 식을 도출해낼 수 있음 (Φ는 표준정규분포의 cdf)
P(X−μσ≤x−μσ)=Φ(X−μσ)
합성함수의 미분을 사용하여 식을 전개하면 pdf 식은
1σΦ′(X−μσ)=1σ√2πe−(x−μσ)2/2
독립적인 정규분포를 더하거나 빼도 정규분포
Xj∼N(μj,σ2j)X1+X2∼N(μ1+μ2,σ21+σ22)X1−X2∼N(μ1−μ2,σ21+σ22)
68,95,99.7% Rule
X∼N(μ,σ2)P(|X−μ|≤σ)≈0.68P(|X−μ|≤2σ)≈0.95P(|X−μ|≤3σ)≈0.994
포아송분포의 분산

이항분포의 분산
X∼Bin(n,p),Find Var(X).
Indicator random variable로 표현하면, X=I1+...+In.
분산을 구하기 위해 E(X2)을 구해보자
X^2 = I_1^2 + ...+I_n^2 + 2I_1I_2 + ... + 2I_{n-1}I_n \\ E(X^2) = nE({I_1}^2) + 2\binom{n}{2}E(I_1I_2)
I_1는 지시확률변수로 0아니면 1의 값을 가지기 때문에 I_1^2 = I_1과 같다.
지시확률변수의 곱은 새로운 지시확률변수가 된다. (시행 두번이 모두 성공 / 실패)
식을 이어서 완성하면
=np + n(n-1)p^2 = np + n^2p^2 - np^2 \\Var(X) = np + n^2p^2 - np^2 - n^2p^2 = np(1-p) = npq
LOTUS의 증명(discrete sample space)
E(g(X)) = \sum_xg(x)P(X=x)
Pebble world 관점으로 보면 (가중치를 주지 않고 모두 더하는 합)
\sum_xg(x)P(X=x) = \sum_{s\in S}g(X(s))P(\{s\})
좌변은 같은 x값을 가지는 pebble을 모아 거대한 자갈을 만들고 계산하는 방식
우변은 자갈 하나 하나의 잘량과 해당 자갈의 확률변수의 값을 곱하여 모두 더하는 방식
\sum_x\sum_{S:X(s)=x}g(X(s))P(\{s\}) = \sum_x\sum_{S:X(s)=x}g(X(s))P(\{s\})\\ = \sum_xg(x)\sum_{S:X(s)=x}P(\{s\}) = \sum_xg(x)P(X=x)
직관적인 이해
pebble world 관점으로 평균을 구할 때의 식
E(X) = \sum_{s\in S}X(s)P(\{s\})
X=1 인 자갈 3개(A,B,C), X=2인 자갈 2개(D,E)가 있다고 하자
하나의 자갈의 질량은 1/5, P(\{s\}) = \frac15.
X(s)는 함수로 해당 자갈이 나타내는 확률변수의 값을 output으로 함
X(A),X(B),X(C) = 1, X(D),X(E)=2
g(x) = x^2 일 때 E(g(X))를 구해보자
Pebble world 관점에서 자갈 하나의 질량은 그대로 1/5, 자갈이 나타내는 확률변수의 값은 제곱이 된 상황이다.
g(X(A)),g(X(B)),g(X(C)) = 1^2, g(X(D)),g(X(E)) = 2^2.
식으로 나타내면 아래 식의 좌변과 같고, 우변은 가중치를 주어 기댓값을 계산하는 경우의 식이다.
\sum_{s\in S}g(X(s))P(\{s\}) = \sum_xg(x)P(X=x)
Reference
[0] https://www.youtube.com/playlist?list=PL2SOU6wwxB0uwwH80KTQ6ht66KWxbzTIo
'Statistics & Math > Statistics 110: Probability' 카테고리의 다른 글
[Statistics 110] Lecture 16: Exponential Distribution (0) | 2022.12.24 |
---|---|
[Statistics 110] Lecture 15: Midterm Review (0) | 2022.12.17 |
[Statistics 110] Lecture 13: Normal Distribution (0) | 2022.12.10 |
[Statistics 110] Lecture 12: Discrete vs. Continuous, the Uniform (0) | 2022.12.10 |
[Statistics 110] Lecture 11: The Poisson distribution (0) | 2022.12.10 |