[제로부터 만드는 Deep Learning] 손실 함수 제곱합 오차를 알기 쉽게 해설해 보았다

소개



이 기사는 처음부터 만드는 딥 러닝 5장 신경망의 학습을 자신 나름대로 이해하고 알기 쉽게 출력한 것입니다.
문계의 스스로도 이해할 수 있었으므로, 기분을 편하게 읽어 주시면 다행입니다.
또, 본서를 학습할 때에 참고해 주시면 더욱 기쁩니다.

제곱 합 오차



제곱 합 오차는 회귀 문제를 해결하기 위해 신경망의 성능이 저하되고자 할 때 자주 사용되는 손실 함수입니다.

예측값에서 정답 데이터의 값을 뺀 예측값과 정답 데이터의 오차를 제곱하여 총합한 것을 ➗2 합니다.


그럼 실제로 구현해 보겠습니다.
#二乗和誤差実装
t = np.array([0,0,0,0,1])#正解データ
y = np.array([0.1,0.05,0.05,0.1,0.7])
def Sum_squared_error(t,y):
    s = ((y - t)**2).sum()
    return s * 0.5
Sum_squared_error(t,y)
0.057500000000000016

이전 기사에서도 해설했지만, 뉴럴 네트워크의 학습은 손실 함수의 최소화를 목표로 하기 때문에, 위의 예는 상당히 0에 가까운 값인 것으로 매우 좋다고 말할 수 있습니다.

좋은 웹페이지 즐겨찾기