본문 바로가기

Deeper Learning

검색하기
Deeper Learning
프로필사진 Dlaiml

  • 분류 전체보기 (220)
    • About (1)
    • Statistics & Math (44)
      • Statistics 110: Probability (33)
    • Computer Science (6)
    • Game Development (62)
      • Unreal Engine (28)
      • Devlog (20)
      • WinAPI (11)
      • C&C++ (2)
    • AI (107)
      • Deep Learning (99)
      • Machine Learning & Data Sci.. (7)
      • R (1)
Guestbook
Notice
  • Contact
Recent Posts
Recent Comments
Link
«   2026/04   »
일 월 화 수 목 금 토
1 2 3 4
5 6 7 8 9 10 11
12 13 14 15 16 17 18
19 20 21 22 23 24 25
26 27 28 29 30
Tags
  • GAN
  • cv
  • deep learning
  • 오블완
  • dl
  • RNN
  • Font Generation
  • Generative Model
  • CNN
  • Unreal Engine
  • BERT
  • 모션매칭
  • 생성모델
  • WBP
  • userwidget
  • ddpm
  • NLP
  • multimodal
  • animation retargeting
  • 언리얼엔진
  • Stat110
  • WinAPI
  • 디퓨전모델
  • Few-shot generation
  • Diffusion
  • UE5
  • motion matching
  • ue5.4
  • 폰트생성
  • 딥러닝
more
Archives
Today
Total
관리 메뉴
  • 글쓰기
  • 방명록
  • RSS
  • 관리

목록Semi-supervised learning (1)

Deeper Learning

Knowledge Distillation

Knowledge Distillation Knowledge distillation은 2014 NIPS 2014 workshop에서 Geoffrey Hinton, Oriol Vinyals, Jeff Dean이 발표한 논문 "Distilling the Knowledge in a Neural Network"에서 소개된 개념이다. Knowledge distillation은 Pre-trained 된 대용량의 Teacher Network의 정보를 비교적 작은 크기의 Student Network로 전이시키는 것이다. Teacher-Student Network Student 모델은 Teacher Model을 더 적은 parameter를 가지고 모방하도록 학습된다. unlabeled data만을 사용하여 student ..

AI/Deep Learning 2021. 3. 11. 12:13
Prev 1 Next

Blog is powered by AXZ / Designed by Tistory

티스토리툴바