成學

  • 홈
  • 태그
  • 방명록

data_free_knowledge_distillation 1

[Paper Review] What Makes a Good Dataset for Knowledge Distillation?

This is a Korean review of "What Makes a Good Dataset for Knowledge Distillation?" presented at CVPR 2025. TL;DR일반적인 KD는 학생 모델을 학습할 때, 선생 모델이 학습한 원본 데이터셋을 사용할 수 있다는 가정이 있지만, 실제 application에서는 항상 가능한 것이 아님.이를 극복하기 위해, 'supplemental data'를 사용하는 것을 고려할 수 있음. 그렇다면, 어떤 데이터셋이 지식을 전달할 때에 좋은 데이터셋일까?Real하고, In-domain dataset 만이 유일한 방법이라고 생각할 수 있지만, 본 연구를 통해, unnatural synthetic dataset도 대안이 될 수 있음을 보임. ..

Paper Review/Data-Free Knowledge Distillation 2025.08.31
이전
1
다음
더보기
프로필사진

成學

  • 분류 전체보기
    • Writing
      • Rebuttals
      • Others
    • Paper Review
      • Knowledge Distillation
      • Data-Free Knowledge Distill..
      • Dataset Distillation
      • Neural Operator
      • Domain Generalization
      • Data Augmentation
      • Camera-Radar Fusion Detecti..
    • Book
      • Pattern Recognition and Mac..
      • Riemann Solvers & Numerical..
    • Course
      • Deep Learning for CV (by St..
      • Introduction to Radar Syste..
    • Study
      • Multiphase Flow

Tag

knowledge_distillation, hyperbolic_pdes, object_detection, numerical_methods, Generalization, upwind_schemes, computer_vision, radar_system, discretisation, conservative_methods, overfitting, difference_schemes, parameter_matching, data_augmentation, euler_equation, neural_operator, fluid_dynamics, computational_fluid_dynamics, dataset_distillation, MIT,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

페이스북 트위터 플러그인

  • Facebook
  • Twitter

Archives

Calendar

«   2026/02   »
일 월 화 수 목 금 토
1 2 3 4 5 6 7
8 9 10 11 12 13 14
15 16 17 18 19 20 21
22 23 24 25 26 27 28

방문자수Total

  • Today :
  • Yesterday :

Copyright © AXZ Corp. All rights reserved.

티스토리툴바