일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Stat110
- 딥러닝
- 모션매칭
- 오블완
- Unreal Engine
- ddpm
- motion matching
- WinAPI
- Few-shot generation
- ue5.4
- cv
- 언리얼엔진
- multimodal
- GAN
- Diffusion
- 생성모델
- Generative Model
- UE5
- dl
- WBP
- 폰트생성
- userwidget
- CNN
- 디퓨전모델
- NLP
- animation retargeting
- RNN
- deep learning
- BERT
- Font Generation
Archives
- Today
- Total
목록RoBERTa 리뷰 (1)
Deeper Learning

Yinhan Liu, Myle Ott, Naman Goyal, Jingfei Du, Mandar Joshi, Danqi Chen, Omer Levy, Mike Lewis, Luke Zettlemoyer, Veselin Stoyanov, Facebook AI, (2019.07) Abstract 언어모델 사전학습은 큰 성능향상을 가져오지만 여러 접근법에 대한 비교가 어려움 BERT의 여러 주요 hyperparameters, training data size의 효과를 정밀하게 측정한 replication study를 제시 BERT가 undertrained 되었고 성능향상의 여지가 있음을 확인 저자가 제시한 모델은 GLUE, RACE, SQuAD에서 SOTA를 달성 1. Introduction ELMo, GPT..
AI/Deep Learning
2022. 6. 1. 15:15