딥 러닝으로 드래곤 퀘스트 라이벌스의 AI를 만드는 【0일째】
2355 단어 드래곤 퀘스트 라이벌스딥러닝기계 학습
딥 러닝을 사용하여 나름대로 강한 AI를 만드는 것이 목적입니다.
(8/27 업데이트)
※본 페이지는 각 페이지의 「모쿠지」적인 사용법을 하므로,
수시로 갱신해 갑니다.
0일째는 마일스톤의 제시와 전제 조건, 골 설정 등.
드래곤 퀘스트 라이벌스란?
드래곤 퀘스트 시리즈의 몬스터를 싸우는 카드 게임입니다.
【공식 사이트】
htps //w w. d라곤쿠에 st. jp/리ゔぁls/
iOS, Android, NintendoSwitch 등에서 플레이 가능합니다.
게임의 메커니즘은 그림자 버스와 유사하며,
상당히 대략적으로 말하면 그림자 버스의 카드가 드라쿠에가 된 것 같습니다.
이정표
・1일째
「딥 러닝으로 드래곤 퀘스트 라이벌즈의 AI를 만드는 【1일째】」는 이쪽
먼저 인간이 대화형으로 플레이하는 드래곤 퀘스트 라이벌을 구현합니다.
GUI 등은 물론 콘솔에서 플레이할 수 있는 것을 만들어 갑니다.
풀 규격의 드래곤 퀘스트 라이벌즈의 실장은 당연히 무리이므로 간이판을 우선 실장합니다.
규칙이나 사용할 수 있는 카드는 꽤 한정적으로 될까.
언어는 딥 러닝과 잘 어울리는 파이썬을 사용합니다.
가지고 있지 않은 카드가 많이 부끄럽지만, 다음의 덱을 실장합니다.
・2일째
「딥 러닝으로 드래곤 퀘스트 라이벌즈의 AI를 만드는【2일째】」는 이쪽
1일째에 일단 게임을 실행할 수 있는 상태가 되므로,
최대한 간단하고 매우 약한 AI를 구현합니다.
취할 수 있는 액션을 랜덤으로 선택하는 AI(AI라고 부를 수 있거나 수상한)를 구현합니다.
여기에서는 아직 기계 학습에 의한 AI의 강화는 되어 있지 않은 상태군요.
여기서의 목적은 AI에 다량의 경기를 실시하게 하고,
다량의 경기 로그를 얻는 것입니다.
・3일째
여기서 드디어 기계 학습의 요소가 나오는데,
2 일째에 취득한 경기의 로그를 딥 러닝으로 분석하고,
승리 근육의 패턴을 분석합니다.
・4일째
3일째에 배운 승리를 바탕으로 플레이하는 AI를 구현합니다.
・5일째
강화한 AI끼리를 싸우게 하고 점점 강하게 하는 구조(강화 학습)를 실장해 갑니다.
전제 조건 및 목표
아마도 개인의 범주에서는 모든 카드의 특성을 구현하는 것은 불가능하다고 생각합니다.
그래서 많은 카드 중에서 최강의 덱을 만드는 AI를 구축하는 것은 상당히 어려울까 생각합니다.
일단은 한정된 카드 중에서, 구축이 끝난 덱을 이용해 싸우는 AI를 만듭니다.
나름대로 강한 AI끼리를 싸우게 하고, 어느 덱과 어느 덱이 싸웠을 경우의 승률을 산출하는 것이 당면의 골이 됩니다.
인간이 플레이하면 1경기 5분 정도 걸립니다만, AI에서는 머신 파워 나름으로 1000경기, 2000경기로 할 수 있으므로, 덱의 승률의 정량적인 분석을 할 수 있을까 생각합니다.
그 결과를 바탕으로 어느 카드를 추가하면 승률이 오르는지 정량적으로 분석할 수 있게 되면 꽤 유익한 툴이 될까.
© 2017-2019 ARMOR PROJECT/BIRD STUDIO/SQUARE ENIX All Rights Reserved.
© SUGIYAMA KOBO
Reference
이 문제에 관하여(딥 러닝으로 드래곤 퀘스트 라이벌스의 AI를 만드는 【0일째】), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/dqr-ml/items/e278aeb308c9d38a6011
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
・1일째
「딥 러닝으로 드래곤 퀘스트 라이벌즈의 AI를 만드는 【1일째】」는 이쪽
먼저 인간이 대화형으로 플레이하는 드래곤 퀘스트 라이벌을 구현합니다.
GUI 등은 물론 콘솔에서 플레이할 수 있는 것을 만들어 갑니다.
풀 규격의 드래곤 퀘스트 라이벌즈의 실장은 당연히 무리이므로 간이판을 우선 실장합니다.
규칙이나 사용할 수 있는 카드는 꽤 한정적으로 될까.
언어는 딥 러닝과 잘 어울리는 파이썬을 사용합니다.
가지고 있지 않은 카드가 많이 부끄럽지만, 다음의 덱을 실장합니다.
・2일째
「딥 러닝으로 드래곤 퀘스트 라이벌즈의 AI를 만드는【2일째】」는 이쪽
1일째에 일단 게임을 실행할 수 있는 상태가 되므로,
최대한 간단하고 매우 약한 AI를 구현합니다.
취할 수 있는 액션을 랜덤으로 선택하는 AI(AI라고 부를 수 있거나 수상한)를 구현합니다.
여기에서는 아직 기계 학습에 의한 AI의 강화는 되어 있지 않은 상태군요.
여기서의 목적은 AI에 다량의 경기를 실시하게 하고,
다량의 경기 로그를 얻는 것입니다.
・3일째
여기서 드디어 기계 학습의 요소가 나오는데,
2 일째에 취득한 경기의 로그를 딥 러닝으로 분석하고,
승리 근육의 패턴을 분석합니다.
・4일째
3일째에 배운 승리를 바탕으로 플레이하는 AI를 구현합니다.
・5일째
강화한 AI끼리를 싸우게 하고 점점 강하게 하는 구조(강화 학습)를 실장해 갑니다.
전제 조건 및 목표
아마도 개인의 범주에서는 모든 카드의 특성을 구현하는 것은 불가능하다고 생각합니다.
그래서 많은 카드 중에서 최강의 덱을 만드는 AI를 구축하는 것은 상당히 어려울까 생각합니다.
일단은 한정된 카드 중에서, 구축이 끝난 덱을 이용해 싸우는 AI를 만듭니다.
나름대로 강한 AI끼리를 싸우게 하고, 어느 덱과 어느 덱이 싸웠을 경우의 승률을 산출하는 것이 당면의 골이 됩니다.
인간이 플레이하면 1경기 5분 정도 걸립니다만, AI에서는 머신 파워 나름으로 1000경기, 2000경기로 할 수 있으므로, 덱의 승률의 정량적인 분석을 할 수 있을까 생각합니다.
그 결과를 바탕으로 어느 카드를 추가하면 승률이 오르는지 정량적으로 분석할 수 있게 되면 꽤 유익한 툴이 될까.
© 2017-2019 ARMOR PROJECT/BIRD STUDIO/SQUARE ENIX All Rights Reserved.
© SUGIYAMA KOBO
Reference
이 문제에 관하여(딥 러닝으로 드래곤 퀘스트 라이벌스의 AI를 만드는 【0일째】), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/dqr-ml/items/e278aeb308c9d38a6011
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여(딥 러닝으로 드래곤 퀘스트 라이벌스의 AI를 만드는 【0일째】), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/dqr-ml/items/e278aeb308c9d38a6011텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)