일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | |||
5 | 6 | 7 | 8 | 9 | 10 | 11 |
12 | 13 | 14 | 15 | 16 | 17 | 18 |
19 | 20 | 21 | 22 | 23 | 24 | 25 |
26 | 27 | 28 | 29 | 30 | 31 |
Tags
- Unreal Engine
- cv
- 생성모델
- 모션매칭
- UE5
- 오블완
- Stat110
- Few-shot generation
- BERT
- CNN
- Generative Model
- GAN
- deep learning
- NLP
- 딥러닝
- Font Generation
- RNN
- WBP
- 폰트생성
- ue5.4
- 언리얼엔진
- Diffusion
- dl
- motion matching
- multimodal
- 디퓨전모델
- userwidget
- animation retargeting
- ddpm
- WinAPI
Archives
- Today
- Total
목록BART리뷰 (1)
Deeper Learning
BART: Denoising Sequence-to-Sequence Pre-training for Natural Language Generation, Translation, and Comprehension
Mike Lewis, Yinhan Liu, Naman Goyal, Marjan Ghazvininejad, Abdelrahman Mohamed, Omer Levy, Ves Stoyanov, Luke Zettlemoyer [Facebook AI] (2019.10) Abstract sequence-to-sequence model을 사전학습시키기 위한 denoising autoencoder BART를 제시 BART는 text를 임의의 noise 함수로 corrupt시키고 모델은 corrupted text를 다시 original text로 재구성하는 방식으로 학습 기본 Transformer 기반 neural machine translation 아키텍처를 사용한 단순한 구조임에도 BERT, GPT 등 여러 최근 사..
AI/Deep Learning
2022. 6. 14. 23:26