[AIFFEL] 22.Mar.18, GD_ResNet_Ablation_Study_2

오늘의 학습 리스트

  • tf.assing_sub ... which combines tf.assign and tf.sub

    • 둘이 합친 함수란다.
    • 각각의 역할도 있나 보다.
  • 만약 training loop을 Tensorflow에서 직접 짠다면...

    • loop 안에 들어가서 반복될 원리는 총 4가지이다.
    • 데이터 모델에 보내주기
    • loss 값 계산
    • gradients 계산(tf.GradientTape 사용)
    • gradients 최적화(업데이트)
    • 여기에 추가로 Variable들 어떻게 업데이트 되는지 list에 모으고, print해주는 부분도 넣어주면 좋다.
  • 디렉토리 안의 파일 전부 다 파일 이름으로 가져오는 방법

    •   from pathlib import Path
      test_files = [p for p in Path(data_path + test_path).iterdir() if p.is_file()]

ResNet 구현

(오늘은 ResNet-50 구현에 시간을 많이 할애했다.)

  • 베이스 블록
    • p 6. "The three layers are 1 x 1, 3 x 3, and 1 x 1 convolutions, where the 1 x 1 layers are responsible for reducing and then increasing (restoring) dimensions, leaving the 3 x 3 layer a bottleneck with smaller input/output dimensions."
  • shortcut
    • p 7. "We use option B for increasing dimensions."

풀잎스쿨(알고리즘 - 프로그래머스 레벨 2)

좋은 웹페이지 즐겨찾기