Python의 딥 러닝 소개 - 기초
상호 작용 캡처
나이, 은행 잔고, 퇴직 상태 등과 같은 요소를 사용하여 여러 거래를 예측해야 한다고 가정합니다.
여기서 선형 회귀를 사용할 수 있습니다. 선형 회귀는 예측을 찾기 위해 데이터를 직선에 맞추는 것입니다.
그러나 뭔가 빠졌습니다! 모든 데이터 변수가 다른 변수와 독립적이라고 생각하는 것은 비현실적으로 보입니다. 평행선 보이시죠? 그들 사이에는 상호 작용이 없습니다.
이것은 뉴런이 등장하는 곳입니다. 주어진 입력 데이터(신경망)에서 상호 작용을 찾기 위해 여러 개의 뉴런이 서로 쌓입니다. 이와 같은 것.
뉴런은 내부에 약간의 마법이 있는 블랙박스와 같습니다. 데이터가 처음으로 전송되면 마법을 사용하여 무언가를 예측합니다.
처음에는 마법이 실패합니다. 그러나 뉴런이 더 많은 것을 예측함에 따라 그들은 이 주술에 능숙해집니다. 그리고 디스토피아가 여기에 있습니다. 그들은 구인 시장에서 당신을 대체할 수 있고 대체할 것입니다.
충분히 복잡한 신경망과 올바른 데이터 및 시간 리소스를 사용하면 모든 데이터 포인트 간의 복잡한 상호 작용을 말 그대로 캡처할 수 있습니다.
모든 신경망은 입력 레이어에서 시작하여 출력 레이어에서 끝납니다. 그리고 숨겨진 레이어에서 마법이 일어납니다. 그리고 지금은 숨겨져 있습니다. 딥 러닝에 깊이 들어가면 찾을 수 있습니다.
가장 복잡한 신경망은 GPT-3 입니다. 1,750억 개의 상호 작용을 캡처합니다. 하나부터 시작합시다.
순방향 전파
이제 마술을 이해합시다!
이제 마술을 이해합시다!
정방향 전파 알고리즘은 이 정보를 네트워크를 통해 전달하여 출력을 예측합니다.
각 뉴런에는 출력 예측에서 해당 뉴런 기능의 중요성을 알려주는 실제 값이 연결되어 있습니다. 이것은 가중치입니다. 가중치는 다음 레이어의 출력을 예측합니다.
출력 계산 알고리즘:
for all connections to the node:
Node_value += input * weights
주어진 이미지에서 신경망에 대해 동일한 계산을 수행하는 Python 코드
import numpy as np
input_data = np.array([2,3])
weights = {'node_0':np.array([1,1]),
'node_1':np.array([-1,1]),
'output':np.array([2,-1])
}
node_0_value = (input_data* weights['node_0']).sum()
node_0_output = np.tanh(node_0_value)
node_1_value = (input_data* weights['node_1']).sum()
node_1_output = np.tanh(node_1_value)
hidden_layer_value = np.array([node_0_output,node_1_output])
output = (hidden_layer_value*weights['output']).sum()
Reference
이 문제에 관하여(Python의 딥 러닝 소개 - 기초), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://dev.to/soujanyasatpute/introduction-to-deep-learning-in-python-basics-2hmf텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)