일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- UE5
- CNN
- cv
- Font Generation
- 디퓨전모델
- Stat110
- Few-shot generation
- deep learning
- motion matching
- GAN
- 생성모델
- 오블완
- 언리얼엔진
- 모션매칭
- Diffusion
- RNN
- WBP
- WinAPI
- animation retargeting
- ue5.4
- ddpm
- userwidget
- NLP
- 폰트생성
- BERT
- dl
- Unreal Engine
- Generative Model
- multimodal
- 딥러닝
Archives
- Today
- Total
목록Skip-gram (1)
Deeper Learning
Word2Vec
Word Embedding Vocabulary를 사용하여 One-hot encoding을 통해 비정형 텍스트 데이터를 수치형 데이터로 전환하여 input으로 사용이 가능하다. 하지만 오직 index하나로 단어의 정보를 표현하고 특정 단어의 index를 제외하고 모두 0으로 이루어진 one-hot vector를 사용하여 생기는 데이터의 Sparsity는 통계적 모델의 성공적인 학습을 방해한다. 특정 단어의 학습이 그 단어와 유사한 단어의 학습과 전혀 다른 과정이 되기 때문에 단어 간의 유사성의 학습이 쉽지 않다. 따라서 Word Embedding이 필요하다. Vocabulary의 size가 100,000 일 때 100,000 차원의 one-hot vector가 만들어진다. 하지만 Word Embedding..
AI/Deep Learning
2020. 12. 6. 20:13