[재수 학습록] 0부터 DeepLearning part2 만들기 [7일째]
어머니가 공부하신 비망록.
유형적인 형태로 남아 의욕을 보이는 개인 작전이다.
다른 사람에게 보여주려고 쓴 것이 아니어서 읽기가 어렵다.
독서
데이터베이스 엔지니어 교육 독본 [DB의 활용 가능한 지식과 기술 노하우가 수록되어 있음]
0부터 만든 DeepLearning을 읽습니다.
라디오가 뭐예요?
NumPy에서 "방송 가능"은 n차원 진열에 대해 표량값 (비행렬의 간단한 수치) 의 네 가지 연산을 할 수 있다.
실제로 넘피를 통해 스칼라 값 확대를 적절한 n차원 배열로 해석해 계산할 수 있다.
np.aray에서 for문을 쓰는 방법
for row in 行列
로 기재하다.example
>>> X = np.array([[1, 2], [3, 4]],[5, 6])
>>> for row in X:
print(X)
[1 2]
[3 4]
[5 6]
NumPy 성능 정보NumPy는 Python에서 설명하고, 주로 C/C++에서 처리됩니다.
그래서 계산이 빠르다.
matplotlib은 무엇입니까?
도표를 그리는 데 사용되는 프로그램 라이브러리입니다.
아나콘다 등은 처음부터 있었어.
무엇이 통찰입니까?
신경 네트워크(심층 학습)의 기원이 된 알고리즘.
여러 개의 신호를 수신하여 입력으로 삼아 하나의 신호를 출력하다.여러 개의 신경원으로 구성되어 있다.
가속기를 통찰하는 신호는'흐름/불류(1 또는 0)'의 2값이다.
입력한 값은 모든 신경원에 가중된 후에 다음 신경원으로 발송된다.
최종 신경원이 수신한 값의 총계가 일정 수량 이상인 상황에서 점화 출력은'1'이다.
임계값(이벤트)은 무엇입니까?
발화 여부를 통찰하는 임계점의 수치를 말한다.
(발화의 한계치)
AND 문과 NAND 문의 관계.
AND 문의 매개변수에 대한 모든 기호를 반전하여 NAND 문의 매개변수를 생성할 수 있습니다.스케줄러: 뭐, 그래도)
파이톤의 가중치, 편압 걸기
간단한 입력값, 권중, 편압을 사용하여 가속기를 통찰하는 방법은 다음과 같다.
AND
def AND(x1, x2):
x = np.array([x1, x2]) #入力値
w = np.array([0.5, 0.5]) #重み
b = -0.7 #バイアス
tmp = np.sum(w*x) + b
if tmp <= 0:
return 0
else:
return 1
NANDdef NAND(x1, x2):
x = np.array([x1, x2]) #入力値
w = np.array([-0.5, -0.5]) #重み ←ここがANDと違う
b = 0.7 #バイアス ←ここがANDと違う
tmp = np.sum(w*x) + b
if tmp <= 0:
return 0
else:
return 1
ORdef OR(x1, x2):
x = np.array([x1, x2]) #入力値
w = np.array([0.5, 0.5]) #重み
b = -0.2 #バイアス ←ここがANDと違う
tmp = np.sum(w*x) + b
if tmp <= 0:
return 0
else:
return 1
np.aray를 사용하면 입력값과 가중치의 곱셈이 쉽게 표시됩니까?배꼽.
XOR문은 무엇입니까?
배타적 논리와
A와 B, 한 쪽만 1시에 1을 갚는다.
A=1 B=1 → 0
A=0 B=0 → 0
A=1 B=0 → 1
A=0 B=1 → 1
앞서 언급한 통찰가속기의 구조에서는 XOR이 실현되기 어렵다.
아까까지의 통찰가속기의 구성(함수 표시)에서는 한 번만 함수를 표현할 수 있고, XOR는 한 번 함수로 표현할 수 없기 때문이다.
이에 비해 가속기층을 중첩 통찰해 해결한다.
XOR 함수 표현식
XOR는 AND, NAND 및 OR 함수를 조합하여 나타낼 수 있습니다.
실제적인 표현 방법은 다음과 같다.
XOR
def XOR(x1, x2):
s1 = NAND(x1, x2)
s2 = OR(x1, x2)
y = AND(s1, s2)
return y
뉴런층에서 위의 XOR 함수를 고려하면 다중 레이어가 됩니다.(XOR은 2층)이렇게 여러 층이 중첩된 수체관을 다층수체라고 부른다.
통찰력의 결점
단점은 "이렇게 됐으면 좋겠다!"섹션
추진기에서 무게를 설정하는 부분은 사람의 손으로 한다.
(방금 AND, NAND, OR 함수 중
w
부분)'사람은 반드시 적당한 가중을 해야 한다'는 문제점을 해결하기 위해 신경 네트워크가 고려되었다.
단계 함수는 무엇입니까?
출력을 0에서 1로 전환하는 임계값을 경계로 하는 활성화 함수입니다.계단 함수라고도 부른다.
통찰 가속기에서 보진 함수는 활성화 함수로 사용된다
무엇이 명령 함수입니까?
신경 네트워크에서 함수를 활성화하는 함수로 쓰인다.
※ e는 네시아의 수를 말합니다(e=2.782...)
exp(-x)는 e의 -x 차원이다.
활성화 함수는 선형 함수를 사용할 수 없습니다
선형 함수가 몇 층이든 그 대신 존재하는 함수 = 다층으로 만드는 의미가 없기 때문이다.
ReLU 함수는 무엇입니까?
0을 초과하면 입력을 직접 출력합니다
0 이하에서 0을 출력하는 함수를 입력합니다.
파이톤에서 다차원 배열 처리 방법
NumPy를 사용합니다.
ndim()
>>> import numpy as np
>>> A = np.array([1, 2, 3, 4])
>>> print(A)
[1 2 3 4]
>>> np.ndim(A)
1
>>> A.shape
(4,)
>>> A.shape[0]
4
행렬 곱셈dot()
>>> import numpy as np
>>> A = np.array([[1, 2],
[3, 4]])
>>> A.shape
(2, 2)
>>> B = np.array([[5, 6],
[7, 8]])
>>> B.shape
(2, 2)
>>> np.dot(A, B)
array([[19, 22],
[43, 50]])
※ np.dot(A, B)
와np.dot(B, A)
는 다른 값일 수 있습니다.오늘 한마디
지금은 아는 부분이 많아서 필기를 잘 안 하고 순조롭게 진행되고 있습니다.
내일부터 신경 네트워크의 개념을 배워서 빨리 실천에 옮기고 싶어요.
하지만 기초가 튼튼한 것이 중요하니 날아다니지 마라.졸려!
Reference
이 문제에 관하여([재수 학습록] 0부터 DeepLearning part2 만들기 [7일째]), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/fukuda_fu/items/3b516d5dcaf421d41fef텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)