일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | ||||||
2 | 3 | 4 | 5 | 6 | 7 | 8 |
9 | 10 | 11 | 12 | 13 | 14 | 15 |
16 | 17 | 18 | 19 | 20 | 21 | 22 |
23 | 24 | 25 | 26 | 27 | 28 |
Tags
- Diffusion
- 디퓨전모델
- 오블완
- WBP
- Stat110
- 딥러닝
- NLP
- 생성모델
- 모션매칭
- WinAPI
- 폰트생성
- UE5
- GAN
- cv
- animation retargeting
- CNN
- Few-shot generation
- 언리얼엔진
- ddpm
- BERT
- deep learning
- Generative Model
- userwidget
- multimodal
- Unreal Engine
- motion matching
- Font Generation
- RNN
- ue5.4
- dl
Archives
- Today
- Total
목록denoising autoencoder (1)
Deeper Learning
BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, Luke Zettlemoyer [Facebook AI] (2019.10) Abstract sequence-to-sequence model을 사전학습시키기 위한 denoising autoencoder BART를 제시 BART는 text를 임의의 noise 함수로 corrupt시키고 모델은 corrupted text를 다시 original text로 재구성하는 방식으로 학습 기본 Transformer 기반 neural machine translation 아키텍처를 사용한 단순한 구조임에도 BERT, GPT 등 여러 최근 사..
AI/Deep Learning
2022. 6. 14. 23:26