[제로부터 만드는 Deep Learning] 손실 함수 제곱합 오차를 알기 쉽게 해설해 보았다
                                            
                                                
                                                
                                                
                                                
                                                
                                                 2532 단어  파이썬DeepLearning사랑심층 학습기계 학습
                    
소개
이 기사는 처음부터 만드는 딥 러닝 5장 신경망의 학습을 자신 나름대로 이해하고 알기 쉽게 출력한 것입니다.
문계의 스스로도 이해할 수 있었으므로, 기분을 편하게 읽어 주시면 다행입니다.
또, 본서를 학습할 때에 참고해 주시면 더욱 기쁩니다.
 제곱 합 오차
제곱 합 오차는 회귀 문제를 해결하기 위해 신경망의 성능이 저하되고자 할 때 자주 사용되는 손실 함수입니다.
 
예측값에서 정답 데이터의 값을 뺀 예측값과 정답 데이터의 오차를 제곱하여 총합한 것을 ➗2 합니다.
 
그럼 실제로 구현해 보겠습니다.
#二乗和誤差実装
t = np.array([0,0,0,0,1])#正解データ
y = np.array([0.1,0.05,0.05,0.1,0.7])
def Sum_squared_error(t,y):
    s = ((y - t)**2).sum()
    return s * 0.5
Sum_squared_error(t,y)
0.057500000000000016
이전 기사에서도 해설했지만, 뉴럴 네트워크의 학습은 손실 함수의 최소화를 목표로 하기 때문에, 위의 예는 상당히 0에 가까운 값인 것으로 매우 좋다고 말할 수 있습니다.
                
                    
        
    
    
    
    
    
                
                
                
                
                    
                        
                            
                            
                            Reference
                            
                            이 문제에 관하여([제로부터 만드는 Deep Learning] 손실 함수 제곱합 오차를 알기 쉽게 해설해 보았다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
                                
                                https://qiita.com/SyutoHidano/items/c2d74514fd481376dff9
                            
                            
                            
                                텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
                            
                            
                                
                                
                                
                                
                                
                                우수한 개발자 콘텐츠 발견에 전념
                                (Collection and Share based on the CC Protocol.)
                            
                            
                        
                    
                
                
                
            
제곱 합 오차는 회귀 문제를 해결하기 위해 신경망의 성능이 저하되고자 할 때 자주 사용되는 손실 함수입니다.

예측값에서 정답 데이터의 값을 뺀 예측값과 정답 데이터의 오차를 제곱하여 총합한 것을 ➗2 합니다.

그럼 실제로 구현해 보겠습니다.
#二乗和誤差実装
t = np.array([0,0,0,0,1])#正解データ
y = np.array([0.1,0.05,0.05,0.1,0.7])
def Sum_squared_error(t,y):
    s = ((y - t)**2).sum()
    return s * 0.5
Sum_squared_error(t,y)
0.057500000000000016
이전 기사에서도 해설했지만, 뉴럴 네트워크의 학습은 손실 함수의 최소화를 목표로 하기 때문에, 위의 예는 상당히 0에 가까운 값인 것으로 매우 좋다고 말할 수 있습니다.
Reference
이 문제에 관하여([제로부터 만드는 Deep Learning] 손실 함수 제곱합 오차를 알기 쉽게 해설해 보았다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/SyutoHidano/items/c2d74514fd481376dff9텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
                                
                                
                                
                                
                                
                                우수한 개발자 콘텐츠 발견에 전념
                                (Collection and Share based on the CC Protocol.)