일 | 월 | 화 | 수 | 목 | 금 | 토 |
---|---|---|---|---|---|---|
1 | 2 | 3 | ||||
4 | 5 | 6 | 7 | 8 | 9 | 10 |
11 | 12 | 13 | 14 | 15 | 16 | 17 |
18 | 19 | 20 | 21 | 22 | 23 | 24 |
25 | 26 | 27 | 28 | 29 | 30 | 31 |
- 백준
- logistic regression
- docker #cuda #docker container #도커 #도커 컨테이너 #쿠다 #cuda 11.3
- 파이썬 #Python
- GPU #jtorch GPU #파이토치 병렬 #파이토치 GPU #pytorch gpu #multi process torch #horovod
- 알고리즘 #levenshtein distance #편집거리 #edit distance
- docker #도커 #도커 컨테이너 #docker container #도커 우분투
- 깃허브 #우분투 #ubuntu #Github #깃허브 우분투 #깃헙 우분투 #깃헙
- 트랜스포머 #transformer #attention #self-attention #어텐션 #인공지능 #AI #딥러닝 #NLP #자연어처리
- docker #우분투 #ubuntu #도커 설치 #docker 설치 #docker installation #우분투 도커
- ssh #우분투 ssh #우분터 서버 #도커 #우분투 도커 #docker #cuda #우분투 개발환경 #딥러닝 #ubuntu docker #ubuntu cuda
- jupyter notebook #anaconda #vscode #pytorch #딥러닝 #deep learning #vscode server #서버 vscode #ssh vscode #vscode cuda
- GPU #cuda out of memory #gpu 메모리 #pytorch
- cuda #centos #cuda삭제 #리눅스 #cenos cuda삭제
- 구름자연어처리과정
- 트랜스포머 #자연어처리 #딥러닝 #구글 #attention #self-attention #BERT #transformer #deeplearing
- 머신러닝
- Machine Learning
- BERT #구글BERT #BERT의정석
- pytorch #cuda #우분투 torch #ubuntu pytorch #cuda torch #cuda pytorch
- 구름
- docker #아나콘다 #anaconda #ubuntu anaconda #docker anaconda
- 백준 #알고리즘 #골드
- pandas #folium #groupby #네이버부스트코스 #코칭스터디
- Today
- Total
바닥부터 시작하는 개발 공부
[Computer Vision]딥러닝 성능최적화(2) : Label없이 학습 할 수 있을가? 본문
[Computer Vision]딥러닝 성능최적화(2) : Label없이 학습 할 수 있을가?
Im_light.J 2023. 2. 7. 16:27자기 지도 학습은 왜 필요할까요?
1. 대량의 Data가 지속적으로 축적됨(Google, Youtube)
2.모든 데이터를 Label하는 것은 cost가 비싸거나 어려움(특히 전문적인 분야의 경우)
Overall Trends in SSL( in CV)
1.Generative Learning
Image 자체를 Label로 사용하는 경우
2. proxy task learning
proxy task를 통해 스스로 만든 label을 활용하는 경우
3.Contrastive Learning
비교(comparision)이미지를 통해 학습하는 경우
Generative Learning
가장 간단한 방법론 중 하나입니다.
Auto encoder을 통해 input data를 통해 ouput을 생성하는 모델을 만들어줍니다.
오른쪽의 context encoder는 이미지에서 masking된 부분을 그려내는 모델입니다.
그러나 decoder는 representation을 위해서 필요가 없지만 이 방법을 위해서는 decoder 부분도
같이 학습을 시켜야합니다
그렇기 때문에 computational cost가 크다는 단점을 가지고 있습니다
Proxy task learning
decoder 없이 porxy task 를 미리 설계하여 unlabled 데이터에 proxy label을 생성합니다
그러나 proxy task를 인간이 직접 설계하기 때문에 이게 효과적인지에 대한 부분이 명확하지 않습니다.
예제: discriminative unsupervised feature learning with convolutional neural networks
discriminative unsupervised feature learning with convolutional neural networks
이번 예시를 통해 proxy task에 대해 알아보겠습니다.
각각의 데이터가 하나의 class를 가지게 하여 모델을 학습시킵니다.
예를들어 Imagenet의 경우 100만장의 이미지가 있기 때문에 100만개의 class를 가지게 됩니다.
물론 1개의 class에 1장의 데이터를 넣는 것은 비효율적이기 때문에
Image auigmentation을 통해 증강을 하고 A 이미지에서 나온 데이터들은 A와 같은 class로 pseudo label을 해줍니다
pseudo labeling -> 학습과 같은 방법론을 proxy task라고 합니다
예제: Relative patch location
unsupervised visual representation learning by context prediction
임의의 random patch에 대해서 어느 위치에 존재하는지 탐색하는 문제입니다.
그러나 상대적인 위치를 학습하며 Representation을 학습하는 것이 어려운 부분입니다.
예제: Rotation
unsupervised visual representation learning by context prediction
회전한 이미지를 모델에 넣어 회전한 각도로 classification을 진행합니다
예제: Jigsaw Puzzle
Unsupervised Learning of Visual Repeesentations by Solving Jigsaw Puzzles
Proxy task learning 정리
Decoder 없이 ssl이 가능하다는 장점이 존재합니다
그러나 proxy task를 설게함에 있어 많은 heuristics가 들어가며
고차원의 representation과 task의 관계가 불분명합니다
이를 해결하기위해 contrative learning이 나왔으며 월등한 성능을 보여줍니다
'딥러닝 > 딥러닝 모델 성능 최적화(CV)' 카테고리의 다른 글
[Computer Vision]딥러닝 성능최적화(3) :SimCLR논문 리뷰(디코더 없이 스스로 학습하기) (0) | 2023.02.07 |
---|---|
[Computer Vision]딥러닝 성능최적화(1) : 자기지도학습(Self-Supervised Learning)과 설명가능한 AI(Explainable AI) (0) | 2023.02.07 |