반응형
딥러닝을 초기에 분석을 할때, 가장 힘들었던 부분이 장비 세팅 부분이었습니다. 딥러닝 코드는 kaggle이나 google교수님이 잘 공개를 해놓기 때문에 참고해서 분석하다보면 금방 배울 수 있습니다.
https://mopipe.tistory.com/183
이번 포스팅에서는 GPU를 고르는데 참고하시라고 다시 한번 내용을 정리해서 올리고자 합니다.
GPU모델 평가로 위 포스팅에 사용된 데이터를 이용했습니다(10만장짜리 patch데이터).
딥러닝을 위한 GPU를 고르기 위해서는 다룰 데이터의 크기를 알아야 합니다.
batch size에 따라, layer의 깊이에 따라 GPU 전용메모리가 달라지기 때문입니다. epochs? 은 메모리와 관련이 없습니다.
3090 24gb로 딥러닝 분석을 하는데,
batch = 128, resnet18~50까지는 어느정도 메모리가 버티는데, resnet101, resnet152에 대해서는 버티지 못했습니다.
resnet18~50의 경우 batch size가 256까지는 버티는것 같았습니다.
resnet101에서는 batch size = 64로 돌려야 가능했고, 약 15~16GB 의 전용 메모리를 잡아 먹었습니다.
resnet152에서는 batch size = 32로 돌려야 가능했고, 약 14~15GB의 전용 메모리를 잡아 먹었습니다.
다음에는 다른 모델의 경우 비교해보는 포스팅을 하도록 하겠습니다.
감사합니다.
728x90
반응형
'딥러닝\머신러닝' 카테고리의 다른 글
[딥러닝] 모델 결과가 매번 다르게 나오는 경우 (0) | 2022.12.15 |
---|---|
[유사도측정, 데이터분석] 유사도 측정의 중요성 (1) | 2022.12.02 |
[pytorch, 딥러닝] CUDA out of memory 에러 해결방법(이미지분석) (0) | 2022.08.10 |
[pytorch, 딥러닝] pin_memory 란 무엇인가? (0) | 2022.08.10 |
[딥러닝 연습문제] 딥러닝 연습용 데이터 공유 (0) | 2022.08.08 |
댓글