일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- UE5
- CNN
- 언리얼엔진
- 폰트생성
- userwidget
- motion matching
- WinAPI
- 모션매칭
- 오블완
- deep learning
- NLP
- Diffusion
- dl
- 생성모델
- 디퓨전모델
- GAN
- cv
- Stat110
- ddpm
- ue5.4
- animation retargeting
- BERT
- 딥러닝
- Generative Model
- multimodal
- Font Generation
- WBP
- RNN
- Few-shot generation
- Unreal Engine
Archives
- Today
- Total
목록어텐션 (1)
Deeper Learning
Attention Mechanism
Attention seq2seq 모델에서 RNN, LSTM, GRU 모두 초기시점의 정보가 희석되고 Decoder로 전달되는 Encoder의 마지막 hidden state (+ cell state) 하나에 모든 Encoder의 input의 정보를 담기가 어려워 정보 손실이 일어난다. 이를 해결하기 위해 seq2seq 모델에서 Decoder에서 output 각각의 계산이 모두 Encoder의 hidden state를 참고하여 이루어지는 Attention Mechanism이 제시되었다. 기계번역의 예시에서 Encoder가 특정 단어를 input으로 받아 도출한 output은 상응하는 단어를 번역하는 Decoder가 예측을 하는데 필요한 input과 유사할 것이라는 가정하에 만들어진 Attention Mech..
AI/Deep Learning
2021. 1. 29. 20:29