일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- 폰트생성
- Generative Model
- Diffusion
- RNN
- 모션매칭
- motion matching
- 디퓨전모델
- 언리얼엔진
- Font Generation
- Few-shot generation
- Stat110
- cv
- animation retargeting
- deep learning
- CNN
- GAN
- 생성모델
- ddpm
- 오블완
- multimodal
- ue5.4
- WBP
- Unreal Engine
- UE5
- userwidget
- NLP
- BERT
- WinAPI
- 딥러닝
- dl
Archives
- Today
- Total
목록경사하강법 (1)
Deeper Learning

Gradient Descent 경사하강법은 미분을 통해 얻은 Gradient Vector를 빼서 Weight를 업데이트하여 cost function을 줄이는 알고리즘이다. Loss fucntion의 기울기를 미분을 통해 구하고 경사의 절댓값이 낮은 쪽으로 계속 이동시켜 극값에 이를 때까지 반복시킨다. Formula f(x): 최소값을 만드는 것이 목표인 Loss function xi: i번째 업데이트된 weights x0: x의 초기값 η: Learning Rate 위의 과정을 반복하여 f(x)의 값이 정해진 값 보다 작아질 때까지 이를 반복한다. #gradient: grad function #eps: epsilon var = init grad = gradient(var..
AI/Deep Learning
2021. 2. 10. 23:37