일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- UE5
- BERT
- Few-shot generation
- Stat110
- 폰트생성
- 모션매칭
- userwidget
- Diffusion
- 언리얼엔진
- Generative Model
- deep learning
- 디퓨전모델
- WBP
- NLP
- motion matching
- 생성모델
- RNN
- Unreal Engine
- WinAPI
- GAN
- CNN
- cv
- ue5.4
- animation retargeting
- 오블완
- Font Generation
- multimodal
- ddpm
- 딥러닝
- dl
Archives
- Today
- Total
목록Adam (1)
Deeper Learning
Adam Optimizer
Momentum Momentum 방식은 Gradient Descent에 관성을 적용한 것으로 각 weight의 과거 시점의 정보를 저장하고 이를 활용하여 weight가 업데이트된다. $\gamma$는 momentum term으로 0.9를 기본값으로 대부분 사용한다. 위의 그림처럼 Oscillation이 발생할 경우 Momentum을 사용하면 이동방향이 계속해서 바뀔 경우 업데이트가 덜 되며, 같은 방향으로 업데이트가 계속될 경우 더 빠르게 업데이트되기 때문에 결과적으로 SGD보다 빠르게 global minima에 도달할 수 있다. Adagrad Adagrad(Adaptive Gradient)는 지금까지 각 변수의 누적 변화 정도를 기록하여, 변화가 많았던 변수는 step size를 작게 하고 변화가 없었..
AI/Deep Learning
2021. 2. 14. 22:50