일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- WinAPI
- Font Generation
- Unreal Engine
- Stat110
- ue5.4
- deep learning
- 딥러닝
- multimodal
- CNN
- 언리얼엔진
- RNN
- 디퓨전모델
- userwidget
- WBP
- BERT
- cv
- motion matching
- NLP
- ddpm
- 생성모델
- Generative Model
- UE5
- 폰트생성
- 모션매칭
- dl
- animation retargeting
- 오블완
- Diffusion
- Few-shot generation
- GAN
Archives
- Today
- Total
목록Skip-gram (1)
Deeper Learning
Word2Vec
Word Embedding Vocabulary를 사용하여 One-hot encoding을 통해 비정형 텍스트 데이터를 수치형 데이터로 전환하여 input으로 사용이 가능하다. 하지만 오직 index하나로 단어의 정보를 표현하고 특정 단어의 index를 제외하고 모두 0으로 이루어진 one-hot vector를 사용하여 생기는 데이터의 Sparsity는 통계적 모델의 성공적인 학습을 방해한다. 특정 단어의 학습이 그 단어와 유사한 단어의 학습과 전혀 다른 과정이 되기 때문에 단어 간의 유사성의 학습이 쉽지 않다. 따라서 Word Embedding이 필요하다. Vocabulary의 size가 100,000 일 때 100,000 차원의 one-hot vector가 만들어진다. 하지만 Word Embedding..
AI/Deep Learning
2020. 12. 6. 20:13