심층 학습/소프트 맥스 함수
1. 소개
이번에는, 소프트 맥스 함수에 대해서 간단하게 정리합니다.
2. 소프트 맥스 함수란?
신경망의 출력을 총 1의 확률로 변환합니다.
3. 구체적인 계산
출력$y_1$~$y_3$가 이하와 같은 경우,
소프트 맥스 함수를 통한 결과는,
4. 코드
import numpy as np
def softmax(z):
y = np.exp(z) / np.sum(np.exp(z))
return y
z = np.array([1.2, 0.8, 0.3])
answer = softmax(z)
print(answer)
# 出力
# [0.48148922 0.32275187 0.19575891]
Reference
이 문제에 관하여(심층 학습/소프트 맥스 함수), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/jun40vn/items/fc805ccb273da108ad96
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
신경망의 출력을 총 1의 확률로 변환합니다.
3. 구체적인 계산
출력$y_1$~$y_3$가 이하와 같은 경우,
소프트 맥스 함수를 통한 결과는,
4. 코드
import numpy as np
def softmax(z):
y = np.exp(z) / np.sum(np.exp(z))
return y
z = np.array([1.2, 0.8, 0.3])
answer = softmax(z)
print(answer)
# 出力
# [0.48148922 0.32275187 0.19575891]
Reference
이 문제에 관하여(심층 학습/소프트 맥스 함수), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/jun40vn/items/fc805ccb273da108ad96
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
import numpy as np
def softmax(z):
y = np.exp(z) / np.sum(np.exp(z))
return y
z = np.array([1.2, 0.8, 0.3])
answer = softmax(z)
print(answer)
# 出力
# [0.48148922 0.32275187 0.19575891]
Reference
이 문제에 관하여(심층 학습/소프트 맥스 함수), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/jun40vn/items/fc805ccb273da108ad96텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)