신경망(AI)은 프라레일 신칸센을 얼마나 분류할 수 있는지 Part.3

  • 전회의 「Part2 」」에서는, 조금 어려운 화상을 1000장 정도 추가하는 것으로, 정답률이 91% 정도의 난이도에 문제를 조정했다.
  • 이번에는 네트워크에 숨겨진 계층을 추가하고 정답률이 어떻게 변화하는지 실험한다.

  • 실험 1: 숨겨진 층을 1층 추가


  • 숨겨진 층을 1층 추가하는 효과를 측정한다
  • 또한 뉴런 수의 차이가 결과에 어떻게 영향을 미치는지 측정합니다.
  • 추가하는 숨겨진 층의 뉴런 수는 32, 128, 512의 3종류

  • 결과


  • 가로축을 에포크 수, 세로축을 정답률 (1 = 100 %)로, 정답률의 추이를 비교.
  • 숨겨진 레이어 0 그래프는 이전 숨겨진 레이어가없는 실험 데이터입니다.



    고찰


  • 은닉층을 추가한 네트워크는 모두 정답률이 향상되고, 또한 수렴에 필요한 에포크수는 저하되어 있어 숨겨진 층의 효과를 볼 수 있다.
  • 단, 계측은 하지 않았지만 숨겨진 층의 뉴런 수를 늘릴수록 계산 시간은 증가하는 경향. 뉴런 수 512에서는 숨겨진 층 없음에 비해 체감으로 몇 배 느린.
  • 정답률의 관점에서 보면
  • 뉴런 수 128 및 512가 높고, 512에서는 최대 99%, 128에서는 100%에 도달했다.
  • 128 쪽이 결과가 좋기 때문에, 어쨌든 뉴런수를 늘리면 좋다는 것은 아닌 것 같다.

  • 에포크수의 관점에서 보면
  • 128과 512가 우수. 신속하게 수렴하고 있습니다.
  • 단, 실행 속도를 고려하면 128 쪽이 빠르게 수렴했다고 생각한다.

  • 이상, 정리하면
  • 숨겨진 층을 하나 추가하는 것만으로 정답률은 향상된다
  • 그러나 그 뉴런 수가 너무 많거나 너무 적을 수있는 결과를 얻을 수 없다. 적당한 수를 실험에서 파악할 필요가 있을 것 같다.
  • 뉴런 수를 늘릴수록 실행 속도가 느려지므로 가능한 한 뉴런 수가 늘어나고 싶지 않습니다.


  • 실험 2: 숨겨진 층을 2층 추가


  • 실험 1에서 가장 결과가 좋은 128 뉴런의 숨겨진 계층을 가진 네트워크에 대해 한층 더 추가하고 그 뉴런 수를 바꾸면서 인식률의 추이를 비교해 본다.

  • 결과


  • 가로축을 에포크 수, 세로축을 정답률 (1 = 100 %)로, 정답률의 추이를 비교.
  • 128-0의 그래프는 실험 1의 128 뉴런의 것



  • 고찰


  • 정답률로 보면
  • 궁극적으로 가장 좋았던 것은 128-0.
  • 레이어를 추가한 것은 모두 정답률이 떨어지고 있다.
  • 두 번째 레이어의 뉴런 수의 차이는 결과에 별로 영향을 미치지 않을 것입니다.

  • 에포크수로 보면
  • 숨겨진 층을 2층으로 한 것 쪽이 빠르지만, 극적으로 좋아졌다고 하는 것은 아닐 것 같다.
  • 제2층의 뉴런수의 차이는 별로 결과에 영향을 주지 않는 모양.

  • 이상, 정리하면
  • 단순히 층을 늘리면 결과가 좋아지는 것은 아니다. 반대로 결과가 나빠질 수 있다.


  • 숨겨진 층 1, 뉴런 수 128이 이번 문제에서는 베스트. 또한 정답률 100%에 도달!


  • 역시 숨겨진 층은 효과가 있다. 사용법은 요주의이지만.
  • CNN 등의 딥 러닝 기법이 많은 숨겨진 층을 가지고 있지 않다는 것과 이번 실험 결과는 일치한다.
  • 좋은 웹페이지 즐겨찾기