공부 공부 공부합시다

공부와 기록
  • 홈
  • 태그
  • 방명록

ML & DL/Basic 2

Knowledge Distillation

Knowledge Distillation: 지식 증류, 미리 학습된 큰 Teacher 모델을 이용하여 Student 모델을 학습함: 작은 student 모델을 사용하여 모델 압축(경량화)에 사용되기도 함: unlabeled data 에 pseudo-labeling 을 적용하기도 함 1. Unlabeled data 만 있을때label 없이 input 을 넣은 후 나온 output 을 이용하여 KL divergence loss 를 구함 ( 두 확률 분포의 차이를 계산 )이때 loss 를 이용한 역전파는 student 모델에서만 일어남 2. labeled data 가 있을때1) labeled data 를 input 으로 넣고, teacher 와 student 의 softmax(T=t) 를 거친 soft lab..

ML & DL/Basic 2024.05.23

Transfer learning

transfer learning: 전이 학습, 보통 CNN 은 두고 fully connected 단을 변경 하여 학습 1. freezefully 변경 후 CNN 단은 freeze 하고 fully 단만 학습 하는 방법학습이 빠르고, 아주 적은 데이터셋으로도 가능 2. whole trainfully 변경 후 CNN 단은 낮은 학습률, fully 는 높은 학습률을 설정하고 전체를 학습하는 방법학습이 상대적으로 오래 걸리고 더 많은 데이터셋이 필요하지만 더 높은 성능을 냄

ML & DL/Basic 2024.05.23
1
프로필사진

룰루랄라 공부합시다

  • 분류 전체보기 (33)
    • ML & DL (2)
      • Basic (2)
      • Mathematics (0)
      • Torch (0)
    • Paper (7)
      • Vision (6)
      • Generation (1)
    • Python (8)
      • 프로그래머스 (8)
      • 알고리즘 (0)
      • Basic (0)
    • 문제 해결 (5)
    • 그 외 (11)
      • Linux (7)
      • git (3)
      • Docker (1)

Tag

adaface, ghostfacenet, arcface, debiasing, linux, facerecognition, paper, Face, Python3, vitpose, deeplearning, PYTHON, error, semi supervised, 프로그래머스, reweighting, self training, Face Recognition, Docker, Git,

최근글과 인기글

  • 최근글
  • 인기글

최근댓글

공지사항

Archives

방문자수Total

  • Today :
  • Yesterday :
my github

Copyright © Kakao Corp. All rights reserved.

티스토리툴바

단축키

내 블로그

내 블로그 - 관리자 홈 전환
Q
Q
새 글 쓰기
W
W

블로그 게시글

글 수정 (권한 있는 경우)
E
E
댓글 영역으로 이동
C
C

모든 영역

이 페이지의 URL 복사
S
S
맨 위로 이동
T
T
티스토리 홈 이동
H
H
단축키 안내
Shift + /
⇧ + /

* 단축키는 한글/영문 대소문자로 이용 가능하며, 티스토리 기본 도메인에서만 동작합니다.