기계 학습을 대충 이해하다
4176 단어 기계 학습
설명 변수: 예측에 사용되는 정보
모델: 변수와 의도 변수를 설명하는 상자(공식 및 프로그램)
목적 변수에 따라 문제의 종류도 다르다
-목표 변수는 수치형→회귀문제(ex.판매예측)
- 대상 변수는 ID형→분류 질문(ex.클릭 예측(클릭 또는 클릭 안함)
목적 변수에 따라 기계 학습은 다음과 같은 두 가지로 나뉜다
- 목적 변수: 교사 학습: 정답이 있으면 기계 학습 모드로 구하기
- 무목적 변수: 무교사 학습: 데이터에서 패턴을 찾으려고 합니다.
선생님은 공부가 있어요. - 컴백. -
다음 글에서 선형 회귀 분석을 제외하고 비선형 회귀 분석(nonlinear regression).
선형 회귀는 선형 매개 변수를 필요로 하지만 비선형 회귀는 필요 없다.만약 모델링과 선형 매개 변수의 관계를 적절하게 할 수 없다면 선형 회귀가 아니라 비선형 회귀를 사용한다.
모델
설명
이미지
선형 회귀 분석
'선형'은 선으로 풀었다는 뜻이다.회귀할 때 목표 변수: 변수를 설명하는 도표는 선입니다.
위키백과 인용
MARS(Multivariate adaptive regression splines)
부분적으로 선형 모형을 만드는 느낌.
위키백과 인용
벡터 회귀 지원(SVR)
벡터기를 지지하는 생각을 이용했다.
위키백과 인용
회귀 트리
나무로 분류하다.잎의 평균치는 가지의 값이다.이산치만 예측할 수 있다.데이터가 그룹화됩니다.
인용원: http://codecrafthouse.jp/wp-content/uploads/2014/09/decisiontree1.png
모델 트리
모델 나무는 회귀 나무와 유사하지만 회귀 나무는 단말기 노드의 평균치를 예측치로 하고 모델 나무는 선형 회귀 모델을 이용하여 예측치를 구한다.
유전자 프로그래밍
어떤 모형을 만들지 짐작하다.나는 진화론을 모방하고 있다.우선 적당한 랜덤수로 비구조를 구성한 다음에 계산한다.시험 횟수를 늘리지 않으면 좋은 결과를 얻을 수 없다
위키백과 인용
교사가 있어요. - 분류. -
모델
설명
이미지
2치 분류
간단한 방법.데이터를 두 가지로 분류하다.
회귀 논리
직선 회귀를 신호 곡선(S형 곡선)으로 대체하는 방법
위키백과 인용
k인접역법
학습 데이터를 벡터 공간에 그려서 알 수 없는 데이터의 임의의 K개를 거리가 가까운 순서로 얻고 다수의 표결로 데이터가 속한 클래스를 추정합니다.
위키백과 인용
벡터 머신 지원(SVM)
내핵 함수를 사용하여 선형 분리할 수 없는 물질을 특징 공간에 비추어 분리할 수 있도록 한다.내부 핵의 종류는 4가지(linear,polynomial,rbf,sigmoid)가 있다.
http://scikit-learn.org/stable/modules/svm.html https://www.youtube.com/watch?v=3liCbRZPrZA
결정 트리
나무로 분류하다.
인용원: https://ja.wikipedia.org/wiki/%E6%B1%BA%E5%AE%9A%E6%9C%A8
랜덤 숲
나무를 많이 심다.나무 모양이 산만하다.예측할 때 다수결로 한다.분류 후 정확도가 높지만, 왜 이런 결과가 나왔는지 모르겠다는 단점이 있다.
신경망
컴퓨터의 시뮬레이션을 통해 인간의 대뇌 신경회로의 특성을 표현하는 것을 목표로 하는 수학 모형.
위키백과 인용
Reference
이 문제에 관하여(기계 학습을 대충 이해하다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/t-yotsu/items/1a6bf3a4f3242eae7857
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
모델
설명
이미지
2치 분류
간단한 방법.데이터를 두 가지로 분류하다.
회귀 논리
직선 회귀를 신호 곡선(S형 곡선)으로 대체하는 방법
위키백과 인용
k인접역법
학습 데이터를 벡터 공간에 그려서 알 수 없는 데이터의 임의의 K개를 거리가 가까운 순서로 얻고 다수의 표결로 데이터가 속한 클래스를 추정합니다.
위키백과 인용
벡터 머신 지원(SVM)
내핵 함수를 사용하여 선형 분리할 수 없는 물질을 특징 공간에 비추어 분리할 수 있도록 한다.내부 핵의 종류는 4가지(linear,polynomial,rbf,sigmoid)가 있다.
http://scikit-learn.org/stable/modules/svm.html https://www.youtube.com/watch?v=3liCbRZPrZA
결정 트리
나무로 분류하다.
인용원: https://ja.wikipedia.org/wiki/%E6%B1%BA%E5%AE%9A%E6%9C%A8
랜덤 숲
나무를 많이 심다.나무 모양이 산만하다.예측할 때 다수결로 한다.분류 후 정확도가 높지만, 왜 이런 결과가 나왔는지 모르겠다는 단점이 있다.
신경망
컴퓨터의 시뮬레이션을 통해 인간의 대뇌 신경회로의 특성을 표현하는 것을 목표로 하는 수학 모형.
위키백과 인용
Reference
이 문제에 관하여(기계 학습을 대충 이해하다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/t-yotsu/items/1a6bf3a4f3242eae7857텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)