예외 감지를 위한 One Class SVM

7595 단어 svm

One Class SVM이란?


SVM: 학급 분류, 교사 학습
One Class SVM: 편차 값 체크, 교사 학습 없음
이상 검출: 이상 검출은 쉽게 말하면'다른 것보다 이상한 데이터 발견'작업입니다.
(출처: https://research.preferred.jp/2013/01/outlier/
통수연의 마루야마 부소장은 "빅데이터 주변의 문제는 대부분 검체채취와 엑셀로 해결된다"며 이상 검출 임무에서 성립하지 않는다고 자주 말했다.
(출처: https://research.preferred.jp/2013/01/outlier/
클래스 분류 문제에 사용되는 지원 벡터기는 교사와 학습이지만, 1클래스 지원 벡터기는 교사가 없는 학습이다.따라서 편차값을 측정하기 위해서는 교사 데이터가 필요하지 않다.
(출처: 참조http://sudillap.hatenablog.com/entry/2013/03/25/211257)
두 가지 판별 방법이 있어요.ν-SVM의 모든 훈련은 반에서 1에 속하고 원점은 유일하다
반 2소속의 테이블로 공부하는 거랑 똑같아요.
(출처: https://www.sk.tsukuba.ac.jp/SSE/degree/2007/thesis/200620812.pdf

SVM


SVM은 수용체 가속기에'커널 함수'와'보증금 최대화'를 넣는 물질이다.
출처: http://d.hatena.ne.jp/echizen_tm/20110627/1309188711

프로펠러


프로펠러
출처: http://www.slideshare.net/takashijozaki1/simple-perceptron-by-tjo
프로필렌글리콜 퍼셉션은 저층(Rosenblatt, 1958)이 제안한 그림1에서 보여준 3층 층별 네트워크가 인기를 끌고 있다.프로필렌글리콜은 메카로 프로필렌글리콜의 형식인 신경원을 사용하여 학습 규칙에 대충 규칙을 사용해 단순한 식별 능력을 얻을 수 있다.
출처: http://www.cis.twcu.ac.jp/~asakawa/waseda2002/perceptron.pdf

커널 함수


기계 학습에서 사용하는 기법은 입력 공간의 벡터를 감각이 좋은 특징 공간의 벡터로 전환시킨다.
출처: http://qiita.com/sergeant-wizard/items/c5f79adefe5016f4740e

소스 파일: https://www.dtreg.com/solution/view/20

내핵 함수의 선택은?


물론 데이터 집합에 따라 가장 적합한 내핵 함수는 다르지만 고스 내핵을 사용한다면 틀림없다.반드시 사전에 결정해야 하는 매개 변수의 수도 하나와 적고 변수 간의 비선형도 고려할 수 있다.
출처: http://univprof.com/archives/16-06-03-3678374.html

가장자리 최대화


SVM에서는 학습 데이터 중 다른 클래스에 가장 가까운 위치(지원 벡터라고 함)를 기준으로 유클리드에서 가장 거리가 큰 위치에 식별 경계를 설정하고반장에서 다른 반까지의 커미션을 극대화하다.
출처: http://www.neuro.sfc.keio.ac.jp/~masato/study/SVM/SVM_1.htm

One Class SVM


매개변수(1)


SVM의 편차 값 측정 방법을 사용합니다.내부 핵을 사용하여 특징 공간에 비추고 원시 공간에서 고립된 점은 특징 공간의 원점 부근에 분포한다.Kernel은 기본 rbf에서 이상 데이터의 비율을 결정하는nu(0~1의 범위, def.=0.5)를 변경해 보았다.
출처: http://qiita.com/SE96UoC5AfUt7uY/items/88006646179adf68cb95

매개변수(2)


또한 1클래스 지원 벡터기는 다음과 같은 2개의 파라미터가 있는데 사용자가 지정해야 한다.
σ : 커널에 RBF를 사용했으니까요.
ν : 클래스 1 지원 벡터 머신ν지원 벡터기 기반.ν데이터의 편차 비례의 상한선을 정의합니다.
출처: http://sudillap.hatenablog.com/entry/2013/03/25/211257

이루어지다


Pythhon(Sckit-learn)을 사용하는 경우
outliers_fraction = 0.05 # 全標本数のうち、異常データの割合
...
        clf = svm.OneClassSVM(nu=nu, kernel="rbf", gamma='auto') # 異常データの割合を決めるnu(0~1の範囲、def.= 0.5)
        clf.fit(X)
        y_pred = clf.decision_function(X).ravel() # 各データの超平面との距離、ravel()で配列を1D化
        threshold = stats.scoreatpercentile(y_pred, 100 * outliers_fraction) # パーセンタイルで異常判定の閾値設定
출처: http://qiita.com/SE96UoC5AfUt7uY/items/88006646179adf68cb95

참조, 참조, Special Thanks


One Class SVM


https://research.preferred.jp/2013/01/outlier/
http://sudillap.hatenablog.com/entry/2013/03/25/211257
http://qiita.com/SE96UoC5AfUt7uY/items/88006646179adf68cb95
https://www.sk.tsukuba.ac.jp/SSE/degree/2007/thesis/200620812.pdf
http://www.outlier-analytics.org/odd13kdd/papers/slides_amer,goldstein,abdennadher.pdf
http://univprof.com/archives/16-06-03-3678374.html
http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.39.9421&rep=rep1&type=pdf
(최초 OCSVM 제출 논문)

SVM


http://www.slideshare.net/ShinyaShimizu/ss-11623505
http://www.neuro.sfc.keio.ac.jp/~masato/study/SVM/SVM_3_2.htm
http://d.hatena.ne.jp/echizen_tm/20110627/1309188711
http://www.neuro.sfc.keio.ac.jp/~masato/study/SVM/SVM_1.htm

기계 학습 이외에도 포함된 편차값 검측의 개요


https://sites.google.com/site/scriptofbioinformatics/mian-qiangmemo/waire-zhi-jian-chu-zhi-shi

기타


http://www.slideshare.net/takashijozaki1/simple-perceptron-by-tjo
http://www.cis.twcu.ac.jp/~asakawa/waseda2002/perceptron.pdf

좋은 웹페이지 즐겨찾기