Cnn_modern (2) googlenet

GoogleNet

  • 22 layers
  • inception 모듈 : 1x1 conv 사용 (채널수 줄여 계산비용을 줄이고 복잡도 줄이기위해)
  • 다층 계층을 직렬로 연결
  • 초반(AlexNet과 LeNet과 유사)
  • Global Avg Pool (FC layer 같은 역할)

Batch normalization

1) 장점

  • 학습속도 개선 (빠른 속도로 가능)
  • 가중치 초기화에 대한 민감도 감소
  • 모델의 일반화(regularization)효과

2) mini-batch : 데이터를 여러개로 쪼개는 것을 의미

3) 정규화

3-1. 정규화 1 : min-max

$\hat x =$ $\frac{ x-x_{min}} { x_{max} - x_{min}}$

  • 입력데이터의 학습속도 개선(변수 scale영향 없앰)

    3-2. 정규화 2: z-score(normalization)

    $\hat x =$ $\frac{ x-E[X]} { Var[X]}$

  • 분포가 0을 중심으로 스케일 됨

4) TRAIN

5) Convariate Shift의 문제해결

  • train set의 분포와 test set의 분포가 변화하는 현상

    6) 미니배치 이용 -> 정규화(평균,분산) -> 노이즈 발생

  • 배치 정규화 : 일반화 효과( drop out같은) , 속도, 오버피팅 방지

댓글남기기