다층 퍼셉트론과 오차 역전파법을 배웠다.

문계 출신의 프로그래머이지만, 기계 학습이 유행하고 있기 때문에,
첫 단계로서 대학만에 미분 적분을 조금 공부해 보았습니다.

기계 학습이란? ?


  • 로봇이나 컴퓨터와 같은 기회가 경험 (학습)에서 행동하는 매개 변수를 자동으로 획득하는 방법
  • 데이터에서 보이는 것에서 보이지 않는 것을 예측하는 방법

  • 그렇듯이, 많은 데이터를 기계에 학습시킴으로써,
  • 향후 예측을 세우기
  • 비슷한 문제를 주었을 때 기회가 자동으로 대답을 해준다.

  • 이렇게하는 것입니다.

    음 - 지금은 모르겠다. . . . .
    자꾸 말하면,
    기계에 많은 것을 경험시키는 것으로, 기계에 마치 인간처럼 판단력을 획득하는 것 같습니다.

    딥러닝



    「딥 러닝」이란 「심층 학습」이라고도 불리는 기계 학습법의 하나로,
    입력된 데이터로부터 클래스 분류나 회귀를 하는 수법입니다.

    또 딥 러닝은 사람의 뇌에 있어서의 지식 획득에 가까운 구조를 실현할 수 있는 것을 알고 있습니다.
    이 사람에 가까운 하이 레벨의 학습 기능과 PC 본래의 강점인 계산력을 살려 인간에서도 발견하거나 예측할 수 없었던 일을 해주는 것이 딥 러닝인 것 같습니다.

    이번은 기계 학습이나 딥 러닝을 배울 때에 알아야 할, 기본적인 구조인,
    신경망에 대해 배우기 위해 근본적인 퍼셉트론과 다층 퍼셉트론에 대해
    배우고 싶습니다.

    퍼셉트론이란?


  • 시각 및 뇌 신경 세포의 기능을 모델링 한 것



  • 위 그림과 같이 여러 입력에서 하나의 출력을 수행하고 이것을 반복하여 모델을 학습하는 것 같습니다!

    다층 퍼셉트론



    퍼셉트론을 계층적으로 구성한 것입니다.



    이런 느낌 같아요 웃음
    위 그림과 같이 입력층에 준 값을 전파시켜 갑니다.

    오차 역전파법이란?



    얻어진 출력 결과로부터, 교사 데이터와의 오차를 산출해, 파라미터로서의 가중치를 조정해, 조정된 값을 바탕으로 또 뒤의 노드에 갱신을 전해 갑니다.

    갱신량 Δw는 이하의 식으로 구해진다.
    △w = −η\frac{δE}{δw}
    
    

    오차가 크면 갱신량을 크게, 오차가 작으면 갱신량을 작게 하기 위해,
    위의 기울기를 찾습니다.

    중간에 있지만 오늘은 여기까지

    좋은 웹페이지 즐겨찾기