일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 파이썬 #Python
- 알고리즘 #levenshtein distance #편집거리 #edit distance
- 트랜스포머 #자연어처리 #딥러닝 #구글 #attention #self-attention #BERT #transformer #deeplearing
- 구름
- ssh #우분투 ssh #우분터 서버 #도커 #우분투 도커 #docker #cuda #우분투 개발환경 #딥러닝 #ubuntu docker #ubuntu cuda
- pandas #folium #groupby #네이버부스트코스 #코칭스터디
- GPU #cuda out of memory #gpu 메모리 #pytorch
- 구름자연어처리과정
- cuda #centos #cuda삭제 #리눅스 #cenos cuda삭제
- 깃허브 #우분투 #ubuntu #Github #깃허브 우분투 #깃헙 우분투 #깃헙
- docker #아나콘다 #anaconda #ubuntu anaconda #docker anaconda
- BERT #구글BERT #BERT의정석
- Machine Learning
- docker #도커 #도커 컨테이너 #docker container #도커 우분투
- 머신러닝
- GPU #jtorch GPU #파이토치 병렬 #파이토치 GPU #pytorch gpu #multi process torch #horovod
- logistic regression
- pytorch #cuda #우분투 torch #ubuntu pytorch #cuda torch #cuda pytorch
- jupyter notebook #anaconda #vscode #pytorch #딥러닝 #deep learning #vscode server #서버 vscode #ssh vscode #vscode cuda
- 백준
- 트랜스포머 #transformer #attention #self-attention #어텐션 #인공지능 #AI #딥러닝 #NLP #자연어처리
- docker #우분투 #ubuntu #도커 설치 #docker 설치 #docker installation #우분투 도커
- 백준 #알고리즘 #골드
- docker #cuda #docker container #도커 #도커 컨테이너 #쿠다 #cuda 11.3
- Today
- Total
바닥부터 시작하는 개발 공부
[Computer Vision]Cutmix Augmentation 본문
Cutmix는 네이버 클로바에서 발표한 논문 " CutMix: Regularization Strategy to Train Strong Classifiers with Localizable Features"에서 제안된 이미지 데이터 증강입니다. 이름에서 알 수 있듯이 직관적으로 이미지를 자르고 붙여서 섞는 기법입니다.
기존에는 ResNet-50 칼럼에서와 같이 이미지를 넣어서 모델을 학습시켰습니다. 그런데 문제는 딥러닝 모델들은 데이터의
작은 perturbation으로도 성능에 굉장히 큰 악영향을 줍니다.
다음 실험에서는 각각 Mixup/ Cutout/ Cutmix 기법을 통해서 훈련시킨 모델이 얼마나 Robust해지는지 대해서 실험을 했습니다. 여기서 상대적으로 Cutmix로 훈련시킨 모델이 가장 강인한 것을 확인 할 수 있었습니다.
딥러닝 알고리즘은 분류문제에서 softmax를 활용하는데 이에 따라서 모델이 결과에 대해 over confidence(예측 확률이 거의 1에 근접하게 되는)한 경향이 있습니다. 이를 체크하기 위한 방법으로 Out of Distribution이 존재합니다. 물론 모델이 In-distribution한 데이터를 정확하게 예측하는 것은 큰 문제가 되지 않습니다. 그런데 , 기존 데이터 셋에는 없던 out of distribution 데이터를 test단계에서 넣어주게 되면 이상적으로는 각 class를 1/n으로 예측해주는 것인데 대부분의 경우 모델은 과한 자신감으로(over-confidence) 하나의 class를 높게 예측하게 됩니다.
위 결과는 Pyramid net을 CIFAR데이터 셋으로 학습시킨 결과입니다. Mixup이나 다른 기법들은 over confidence를 증가시켜서 성능이 안좋아지는 반면 Cutmix의 경우 다양한 데이터에 대해 성능이 가장 잘 나온것을 확인 할 수 있었습니다
'딥러닝 > Computer vision' 카테고리의 다른 글
[딥러닝]GAN의 단점은 뭘까? (0) | 2023.02.22 |
---|---|
[딥러닝]GAN 평가하기(1): 어떻게 GAN을 평가해야 할까? (0) | 2023.02.22 |
[Computer vision] Auto albumention(1) (0) | 2023.01.14 |