일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- WBP
- Generative Model
- 생성모델
- animation retargeting
- dl
- 모션매칭
- CNN
- RNN
- Stat110
- motion matching
- WinAPI
- Diffusion
- ue5.4
- 폰트생성
- deep learning
- Font Generation
- NLP
- GAN
- 딥러닝
- 언리얼엔진
- UE5
- ddpm
- BERT
- userwidget
- cv
- Few-shot generation
- multimodal
- 오블완
- Unreal Engine
- 디퓨전모델
Archives
- Today
- Total
목록Optimzer (1)
Deeper Learning
Adam Optimizer
Momentum Momentum 방식은 Gradient Descent에 관성을 적용한 것으로 각 weight의 과거 시점의 정보를 저장하고 이를 활용하여 weight가 업데이트된다. $\gamma$는 momentum term으로 0.9를 기본값으로 대부분 사용한다. 위의 그림처럼 Oscillation이 발생할 경우 Momentum을 사용하면 이동방향이 계속해서 바뀔 경우 업데이트가 덜 되며, 같은 방향으로 업데이트가 계속될 경우 더 빠르게 업데이트되기 때문에 결과적으로 SGD보다 빠르게 global minima에 도달할 수 있다. Adagrad Adagrad(Adaptive Gradient)는 지금까지 각 변수의 누적 변화 정도를 기록하여, 변화가 많았던 변수는 step size를 작게 하고 변화가 없었..
AI/Deep Learning
2021. 2. 14. 22:50