[제로부터 만드는 Deep Learning] 손실 함수 제곱합 오차를 알기 쉽게 해설해 보았다
2532 단어 파이썬DeepLearning사랑심층 학습기계 학습
소개
이 기사는 처음부터 만드는 딥 러닝 5장 신경망의 학습을 자신 나름대로 이해하고 알기 쉽게 출력한 것입니다.
문계의 스스로도 이해할 수 있었으므로, 기분을 편하게 읽어 주시면 다행입니다.
또, 본서를 학습할 때에 참고해 주시면 더욱 기쁩니다.
제곱 합 오차
제곱 합 오차는 회귀 문제를 해결하기 위해 신경망의 성능이 저하되고자 할 때 자주 사용되는 손실 함수입니다.
예측값에서 정답 데이터의 값을 뺀 예측값과 정답 데이터의 오차를 제곱하여 총합한 것을 ➗2 합니다.
그럼 실제로 구현해 보겠습니다.
#二乗和誤差実装
t = np.array([0,0,0,0,1])#正解データ
y = np.array([0.1,0.05,0.05,0.1,0.7])
def Sum_squared_error(t,y):
s = ((y - t)**2).sum()
return s * 0.5
Sum_squared_error(t,y)
0.057500000000000016
이전 기사에서도 해설했지만, 뉴럴 네트워크의 학습은 손실 함수의 최소화를 목표로 하기 때문에, 위의 예는 상당히 0에 가까운 값인 것으로 매우 좋다고 말할 수 있습니다.
Reference
이 문제에 관하여([제로부터 만드는 Deep Learning] 손실 함수 제곱합 오차를 알기 쉽게 해설해 보았다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/SyutoHidano/items/c2d74514fd481376dff9
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
제곱 합 오차는 회귀 문제를 해결하기 위해 신경망의 성능이 저하되고자 할 때 자주 사용되는 손실 함수입니다.
예측값에서 정답 데이터의 값을 뺀 예측값과 정답 데이터의 오차를 제곱하여 총합한 것을 ➗2 합니다.
그럼 실제로 구현해 보겠습니다.
#二乗和誤差実装
t = np.array([0,0,0,0,1])#正解データ
y = np.array([0.1,0.05,0.05,0.1,0.7])
def Sum_squared_error(t,y):
s = ((y - t)**2).sum()
return s * 0.5
Sum_squared_error(t,y)
0.057500000000000016
이전 기사에서도 해설했지만, 뉴럴 네트워크의 학습은 손실 함수의 최소화를 목표로 하기 때문에, 위의 예는 상당히 0에 가까운 값인 것으로 매우 좋다고 말할 수 있습니다.
Reference
이 문제에 관하여([제로부터 만드는 Deep Learning] 손실 함수 제곱합 오차를 알기 쉽게 해설해 보았다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/SyutoHidano/items/c2d74514fd481376dff9텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)