Cnn_modern (2) googlenet
GoogleNet
- 22 layers
- inception 모듈 : 1x1 conv 사용 (채널수 줄여 계산비용을 줄이고 복잡도 줄이기위해)
- 다층 계층을 직렬로 연결
- 초반(AlexNet과 LeNet과 유사)
- Global Avg Pool (FC layer 같은 역할)
Batch normalization
1) 장점
- 학습속도 개선 (빠른 속도로 가능)
- 가중치 초기화에 대한 민감도 감소
- 모델의 일반화(regularization)효과
2) mini-batch : 데이터를 여러개로 쪼개는 것을 의미
3) 정규화
3-1. 정규화 1 : min-max
$\hat x =$ $\frac{ x-x_{min}} { x_{max} - x_{min}}$
- 입력데이터의 학습속도 개선(변수 scale영향 없앰)
3-2. 정규화 2: z-score(normalization)
$\hat x =$ $\frac{ x-E[X]} { Var[X]}$
- 분포가 0을 중심으로 스케일 됨
4) TRAIN
5) Convariate Shift의 문제해결
- train set의 분포와 test set의 분포가 변화하는 현상
6) 미니배치 이용 -> 정규화(평균,분산) -> 노이즈 발생
- 배치 정규화 : 일반화 효과( drop out같은) , 속도, 오버피팅 방지
댓글남기기