일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 모션매칭
- animation retargeting
- multimodal
- Diffusion
- WinAPI
- UE5
- Few-shot generation
- deep learning
- Font Generation
- NLP
- BERT
- Generative Model
- GAN
- 폰트생성
- dl
- CNN
- 생성모델
- ue5.4
- Stat110
- userwidget
- cv
- 딥러닝
- 언리얼엔진
- ddpm
- 디퓨전모델
- RNN
- 오블완
- Unreal Engine
- motion matching
- WBP
- Today
- Total
Deeper Learning
[Statistics 110] Lecture 19: Joint, Conditional, and Marginal Distributions 본문
[Statistics 110] Lecture 19: Joint, Conditional, and Marginal Distributions
Dlaiml 2022. 12. 24. 22:42Joint, Conditional, Marginal Distribution
joint CDF(discrete & continuous)
F(x,y)=P(X≤x,Y≤y)
joint PDF(continuous)
f(x,y)=ddxdyF(x,y)P((x,y)∈A)=∫∫Af(x,y)dxdy
marginal PDF of X
∫f(x,y)dy
PDF of conditional distribution Y|X

독립
f(x,y)=1π,(x2+y2≤1,0 otherwise).
위 식에서 X의 marginal distribution을 구하면
fX(x)=∫√1−x2−√1−x21πdy=2π√1−x2,(−1≤x≤1)
Y|X의 pdf
fY|X(y|x)=joint pdfmarginal pdf=1/π2π√1−x2
Y의 분포에서 x는 상수이기 때문에 Y|X=x∼unif(−√1−x2,√1−x2).
fY(y)와 fY|X(y|x)가 다르기 때문에 X,Y는 독립이 아님
2-D LOTUS
정의)
X,Y가 jonit PDF f(x,y)를 가지고 g(x,y)가 x,y에 대한 함수라면
E(g(X,Y))=∫∫g(x,y)f(x,y)dxdy.
LOTUS를 활용하면 X,Y가 독립일 때, E(XY)=E(X)E(Y)를 증명 가능
E(XY)=∫inf−inf∫inf−infxyfX(x)fY(y)dxdy=∫inf−infyfY(y)∫inf−infxfX(x)dxdy=∫inf−infyfY(y)E(X)dy=E(X)E(Y)
X,Y는 i.i.d이며 Unif(0,1)을 따를 때, E|X−Y|를 구하여라
E(|X−Y|)=∫10∫10|x−y|1dxdy=∫∫x>y(x−y)dxdy+∫∫x<y(y−x)dxdy=2∫∫x>y(x−y)dxdy=2∫10∫1y(x−y)dxdy=1/3
두 균등분포에 위치하는 점 X,Y의 평균 거리는 1/3
다른 관점으로 보아 M=max(X,Y),L=min(X,Y)라고 하면
|X−Y|=M−LE(M−L)=1/3E(M)−E(L)=1/3E(M)+E(L)=E(X)+E(Y)=1∴
Chicken-egg problem
N\sim Pois(\lambda)개의 달걀이 있고, 각 달걀은 독립적인 Bern(p)에 따라 부화한다.
부화한 달걀의 수를 X라고 하면 X|N \sim Bin(N,p).
Y를 부화하지 못한 달걀의 수라고 하자.
joint PMF f_{X,y}(x,y)를 구하여라.
P(X=i, Y=j) = \sum P(X=i,Y=j|N=n)P(N=n) \\
생각해보면 P(X=3,Y=5|N=10)P(N=10)은 당연하게도 0이다.
이렇게 가능한 N에 대해서 많은 값들이 0을 가지고 결국 남는것은 N= i+j인 경우이다.
\sum P(X=i,Y=j|N=i+j)P(N=i+j) \\ = \sum P(X=i|N=i+j)P(N=i+j)\\=\binom{i+j}{i}p^iq^je^{-\lambda}\frac {\lambda^{(i+j)}}{(i+j)!}\\ =\frac{(i+j)!}{i!j!}p^iq^j\frac{e^{-\lambda}\lambda^{i+j}}{(i+j)!} = e^{-\lambda p}\frac{(\lambda p)^i}{i!}e^{-\lambda q}\frac{(\lambda q)^j}{j!},(e^{-\lambda} = e^{-\lambda(p+q)})
결합분포의 pmf식이 2개의 포아송분포의 pmf로 나뉘어졌다.
X \sim Pois(\lambda p), Y \sim Pois(\lambda q).
N이 포아송분포를 따를 때만 성립하는, 직관과 반대되는 결과
Reference
[0] https://www.youtube.com/playlist?list=PL2SOU6wwxB0uwwH80KTQ6ht66KWxbzTIo
Statistics 110: Probability
Statistics 110 (Probability) has been taught at Harvard University by Joe Blitzstein (Professor of the Practice in Statistics, Harvard University) each year ...
www.youtube.com
'Statistics & Math > Statistics 110: Probability' 카테고리의 다른 글
[Statistics 110] Lecture 21: Covariance and Correlation (0) | 2022.12.25 |
---|---|
[Statistics 110] Lecture 20: Multinomial and Cauchy (0) | 2022.12.25 |
[Statistics 110] Lecture 18: MGFs Continued (0) | 2022.12.24 |
[Statistics 110] Lecture 17: Moment Generating Functions (0) | 2022.12.24 |
[Statistics 110] Lecture 16: Exponential Distribution (0) | 2022.12.24 |