신경 망 관련 기초 개념 에 대한 설명
독립 변수/인 변수/함수
E 문 문 문 서 를 읽 을 때 이런 내용 을 접 하 는 것 이 불가피 하기 때문에 보통 영어 도 나열 하고 읽 을 때 속 도 를 크게 높 인 다 는 것 을 기억 하도록 한다.
도수
고수 의 가장 기초적인 도수 개념 으로서 여 기 는 군말 이 아니다.내용 을 간단하게 열거 하면 대체적으로 이해 할 수 있다.한 장의 도형 을 빌려 설명 한다.
기본 개념
도체/편도선/방향 도체/경사도,이 네 가지 개념 은 매우 중요 하고 이해 하기 어렵 습 니 다.간단하게 정리 하면 다음 과 같 습 니 다.예 를 들 어 BP 알고리즘 을 이해 하 는 데 어려움 이 있 을 때 이 네 가지 개념 을 중심 으로 관련 부분의 고수 내용 을 다시 공부 하 십시오.
왜 선형 분류 모델 은 다른 문제 나 문 제 를 처리 할 수 없 습 니까?
이 또는 컴퓨터 에서 매우 간단 한 조작 이지 만 감지 기 와 같은 선형 모델 은 이 또는 문제 의 분 류 를 해결 할 수 없다.엄격 한 증명 은 민 스키 의 글 을 참고 할 수 있다.
간단하게 보면 결과 에 따라 분류 하면 두 가지(0/1)로 나 눌 수 있 지만 한 평면 에 나타 나 면 한 직선 을 찾 지 못 하고 이 두 가지 결 과 를 직접 분리 할 수 없 기 때문에 선형 분류 모델 이 다른 것 이나 이런 간단 한 분류 도 해결 하지 못 한 다 는 것 을 직관 적 으로 알 수 있다.
이 슬 픈 견 해 는 1969 년 민 스키 가 유명한 퍼 셉 트 론 에서 상세 하 게 증 명 돼 인공지능 이 10 년 가량 얼 어 붙 었 다 는 것 이다.이 문 제 는 풀 리 지 않 고 두 층 의 감지 기 를 사용 하면 이런 문 제 를 해결 할 수 있 는 것 이 아니 라 민 스 카 이 는 이것 이 커 다란 계 산 량 을 가 져 올 것 이 고 효과 적 인 학습 알고리즘 이 없 을 것 이 라 고 주장 했다.예 를 들 어 BP 등 알고리즘 이 나타 날 때 까지.1986 년 에 Rumelhart,Geoffrey Hinton 과 Ronald Williams 가 발표 한 Learning representations by back-propagating errors 라 는 글 에서 BP 알고리즘 을 신경 망 모델 에 도입 하여 신경 망 에 함 축 된 층 을 추가 하 는 동시에 오 차 를 역방향 으로 전파 하여 잘못된 연산 량 을 신경 원 수 와 정비례 할 정도 로 낮 추 었 다.감지 기의 이 또는 분류 문 제 를 해결 하 는 동시에 다 층 감지 기의 모델 에 학습 알고리즘 을 제공 했다.
회귀 분석
알고리즘 이 입문 할 때 선형 회귀 와 논리 회귀 등 을 배 울 수 있 기 때문에 회귀 분석 에 대해 어느 정도 알 아야 한다.회귀 분석 연 구 는 변수 와 독립 변수 간 의 관계 로 예측 모델 에서 광범 위 하 게 응용 되 었 다.독립 변수의 개수/변수의 유형/회귀 선의 모양 은 모두 고려 해 야 한다.흔히 볼 수 있 는 회귀 분석 방식 은 다음 과 같다.
선형 회귀:선형 회귀Logistic Regression:논리 회귀다항식 회귀Lasso Regression:올가미 회귀ElasticNet 회귀:ElasticNet 회귀상세 참조 가능:
https://www.analyticsvidhya.com/blog/2015/08/comprehensive-guide-regression/
작은 매듭
현재까지 도 1986 년 제 기 된 응용 과 다 층 신경 망 의 오차 가 역 전 파 된 BP 알고리즘 이 활발 해 인공지능 이 뜨 겁 지만 찬 밥 을 뜨 겁 게 볶 았 다 는 의혹 은 여전 하 다.1969 년 에 Minsky 씨 가 손 쉽게 제기 한 선형 감지 기 모델 은 다른 것 이나 분류,다 층 모델 에 필요 한 엄 청 난 계 산 량 문 제 를 해결 하지 못 했 고 거의 50 년 동안 에 야 약간의 돌파 가 있 었 다.
총결산
이상 은 이 글 의 모든 내용 입 니 다.본 고의 내용 이 여러분 의 학습 이나 업무 에 어느 정도 참고 학습 가 치 를 가지 기 를 바 랍 니 다.여러분 의 저희 에 대한 지지 에 감 사 드 립 니 다.더 많은 내용 을 알 고 싶다 면 아래 링크 를 보 세 요.