분류 전체보기 33

Sub-center ArcFace: Boosting Face Recognitionby Large-scale Noisy Web Faces

paperswithcode : https://paperswithcode.com/paper/sub-center-arcface-boosting-face-recognition Papers with Code - Sub-center ArcFace: Boosting Face Recognition by Large-scale Noisy Web FacesImplemented in 2 code libraries.paperswithcode.com 오늘은 이전 ArcFace 에서 잠깐 나왔던 내용인 sub-center ArcFace 에 대한 논문을 읽어 보았다ArcFace 에 대하여 잘 모른다면https://lululalams.tistory.com/10 ArcFace: Additive Angular Margin Loss fo..

Paper/Vision 2024.06.06

ViTPose: Simple Vision Transformer Baselines forHuman Pose Estimation

paperswithcode : https://paperswithcode.com/paper/vitpose-simple-vision-transformer-baselines Papers with Code - ViTPose: Simple Vision Transformer Baselines for Human Pose Estimation🏆 SOTA for Pose Estimation on COCO test-dev (AP metric)paperswithcode.com 오늘은 ViTPose 라는 pose estimation 논문에 대해 읽어 보았다이전에 코드를 사용한 적은 있는데, 논문을 제대로 읽어보지 못했기 때문에 이번 기회에 다시 한번 읽어 보았다  Abstract vision transformer 가 pose..

Paper/Vision 2024.05.31

Revisiting the Importance of Amplifying Bias for Debiasing

kakao enterprise ai reseach 에서 papers 를 보다가 발견한 논문https://kakaoenterprise.github.io/papers/aaai-debiasing Revisiting the Importance of Amplifying Bias for DebiasingAbstractkakaoenterprise.github.io 이전 얼굴 이미지 데이터셋을 이용했을때도 항상 배경이나, 헤어스타일, 악세사리 등 편향적 특성이 강하게 나타나면 학습에 악영향을 끼치는 경우가 많았다이런 경우를 위해 Debiasing 을 하는데 , 이 논문은 2022 에 발표된 논문으로 debiasing 성능을 개선하기 위한 새로운 접근법을 보여주고 있다 Abstractdebiasing 은 데이터셋의 bi..

Paper/Vision 2024.05.30

Knowledge Distillation

Knowledge Distillation: 지식 증류, 미리 학습된 큰 Teacher 모델을 이용하여 Student 모델을 학습함: 작은 student 모델을 사용하여 모델 압축(경량화)에 사용되기도 함: unlabeled data 에 pseudo-labeling 을 적용하기도 함 1. Unlabeled data 만 있을때label 없이 input 을 넣은 후 나온 output 을 이용하여 KL divergence loss 를 구함 ( 두 확률 분포의 차이를 계산 )이때 loss 를 이용한 역전파는 student 모델에서만 일어남 2. labeled data 가 있을때1) labeled data 를 input 으로 넣고, teacher 와 student 의 softmax(T=t) 를 거친 soft lab..

ML & DL/Basic 2024.05.23

Transfer learning

transfer learning: 전이 학습, 보통 CNN 은 두고 fully connected 단을 변경 하여 학습 1. freezefully 변경 후 CNN 단은 freeze 하고 fully 단만 학습 하는 방법학습이 빠르고, 아주 적은 데이터셋으로도 가능 2. whole trainfully 변경 후 CNN 단은 낮은 학습률, fully 는 높은 학습률을 설정하고 전체를 학습하는 방법학습이 상대적으로 오래 걸리고 더 많은 데이터셋이 필요하지만 더 높은 성능을 냄

ML & DL/Basic 2024.05.23

AdaFace: Quality Adaptive Margin for Face Recognition

paperswithcode : https://paperswithcode.com/paper/adaface-quality-adaptive-margin-for-face Papers with Code - AdaFace: Quality Adaptive Margin for Face Recognition 🏆 SOTA for Surveillance-to-Booking on IJB-S (Rank-1 metric) paperswithcode.com 오늘은 AdaFace 를 읽어보았다 ArcFace 와 비슷한 이름, 하지만 저품질 데이터셋에 대하여 ArcFace 보다 좋은 성능.. 어떤 것에서 차이가 있을까 궁금하였다 Abstract 저품질의 얼굴 데이터셋을 이용한 인식은 얼굴 속성을 잘 이해하기 힘들기 때문에 계속 도전되..

Paper/Vision 2024.04.18

GhostFaceNets: Lightweight Face RecognitionModel From Cheap Operations

paperswithcode : https://paperswithcode.com/paper/ghostfacenets-lightweight-face-recognition Papers with Code - GhostFaceNets: Lightweight Face Recognition Model From Cheap Operations 🏆 SOTA for Face Recognition on CFP-FF (Accuracy metric) paperswithcode.com 오늘은 Face Recognition 의 GhostFaceNets 에 대하여 읽어 보았다 sota 의 상위에 올라온것 중 최근이기도 하고, ArcFace loss 를 사용했는데 기존 ArcFace 보다 더 좋았다는 것 에서 어떤 점이 다른지 알고 싶..

Paper/Vision 2024.04.17