일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | 4 | 5 | ||
6 | 7 | 8 | 9 | 10 | 11 | 12 |
13 | 14 | 15 | 16 | 17 | 18 | 19 |
20 | 21 | 22 | 23 | 24 | 25 | 26 |
27 | 28 | 29 | 30 |
Tags
- Diffusion
- 폰트생성
- 디퓨전모델
- 언리얼엔진
- deep learning
- ddpm
- multimodal
- Font Generation
- 오블완
- Few-shot generation
- Stat110
- animation retargeting
- 생성모델
- 모션매칭
- Generative Model
- RNN
- dl
- BERT
- cv
- NLP
- WinAPI
- WBP
- CNN
- Unreal Engine
- userwidget
- GAN
- motion matching
- UE5
- ue5.4
- 딥러닝
Archives
- Today
- Total
목록convmixer (1)
Deeper Learning

Asher Trockman, J.Zico Kolter. Carnegie Mellon University and Bosch Center for AI. (2022.01.24) Abstract CNN이 vision task에서 지배적인 아키텍처였으나 최근 ViT가 SOTA를 달성 self-attentoin의 quadratic runtime의 한계로 large images를 처리하기 위해 patch embedding을 사용한다. 여기서 질문, ViT의 성능은 Transformer 아키텍처로 인한 것인가? 아니면 input representation으로 patch를 사용한 것이 영향을 끼쳤는가? 논문은 후자에 대한 증거를 제시한다 patch를 바로 input으로 받는 MLP-Mixer, 같은 resolution을..
AI/Deep Learning
2022. 2. 21. 18:45