하루 10시간 주가 예측 AI를 계속 만드는 3개월째
마지막 기사: 2개월째
3개월째
2개월째까지 꽤 많은 문제에 직면해 왔습니다.
하나의 AI의 예측 정밀도를 극대화하는 것은 한계가 있을 것 같습니다.
거기서, 거기로부터 한층 더 예측 정밀도를 올릴 수 있을지도 모르는 방법을 생각해 왔으므로 여기에 기입합니다.
AI 다수 결리론
그 방법은 간단하고, 우선 몇 가지 좋은 AI를 만듭니다, AI의 수는 홀수가 바람직합니다. 그 후 모은 AI로 다수결을 취하고 최종 결정을 내립니다. 원래 하나의 AI 중에서도 많은 경우 다수결로 예측을 결정하고 있다는 측면이 있어 실제로 복수의 AI를 모아 판단시키는 것으로 효과가 있는지는 의문입니다만 어쨌든 해 봅시다.
문제점은, 모아진 AI가 아마 다양성이 풍부하고 있을 필요가 있어 덧붙여 어느 정도의 수가 필요하다고 하는 것입니다.
이번 달의 목표는 다양한 데이터를 사용하여 고성능 예측 AI를 몇 가지 만드는 것이었습니다.
학습에 있어서의 문제점
데이터를 학습시키는 데 있어서 문제점이 두 가지 있습니다.
하나는 과학, 또 다른 문제는 예측의 편향입니다. 예를 들어 0을 오르는, 1을 내린다고 정의했을 경우, 지금까지의 모델에서는 0을 많이 출력하는(모든 예측 중 0이 70~100%를 차지한다) 문제가 빈발했습니다.
이러한 문제의 어려운 점은 과학습 문제를 해결하려고 하면 예측의 편향이 생겨 반대도 역시라는 것입니다.
이 문제에는 주로 다음의 3개의 변수가 관여하고 있었습니다. 1. Normalization Layers(정규화 레이어)의 설정의 강도나 레이어의 수. 2. 에포크 수. 3. 선택하는 Optimizer
또한 학습 과정 이외에 결과에 영향을 미치는 요소는 4. 데이터의 구조나 질 등. 그리고 5. 모델의 구조를 들 수 있습니다.
AI 연구에 대해서
드물게 좋은 위의 변수 조합을 우연히 발견하고 결과적으로 나쁘지 않거나 아주 좋은 AI를 얻을 수 있습니다.
심층학습은 단지 데이터를 배우면 된다는 뿐만 아니라 그 과정에서 다양한 조정이나 시행착오가 필요하고, 여기에 연구 여지나 AI를 만드는 라이브러리 측의 향상 여지가 있는 것이라고 알았습니다.
지금까지 3종류의 AI를 만들었습니다만 1번째 AI에 비해 2번째 3번째로 만든 AI의 성능이 빠져 좋고, 1번째 AI를 의회에서 추방하는 것을 검토중입니다.
AI_No.2
두 번째로 만든 AI의 성능입니다.
미국의 주요 기업 500기업의 2000년부터 전체 주가 데이터(43707개)에 대해 65.6%의 예측 정밀도를 갖고, 또 0(주가가 오른다고 하는 예측)의 출력 비율은 57%이며 특히 문제가 없습니다. 그리고 예측이 완전히 랜덤이었을 경우에 기대되는 정밀도가 51.56%인 것에서도 상당히 강력하게 예측이 가능한 것이 시사되고 있습니다.
향후 정책
세 가지면 다수결은 성립하기 때문에 현실의 주식시장에서 검증을 하기 위한 코드를 쓰려고 합니다.
Reference
이 문제에 관하여(하루 10시간 주가 예측 AI를 계속 만드는 3개월째), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/Lulu_die_Zweite/items/fae42823aaa12d7f869f
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여(하루 10시간 주가 예측 AI를 계속 만드는 3개월째), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/Lulu_die_Zweite/items/fae42823aaa12d7f869f텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)