MIDI 데이터로 word2vec을 해 보았다 (하지만 잘 작동하는 실감을 얻을 수 없었다)

소개



MIDI 데이터에서는 드레미가 60, 62, 64 등 숫자로 되어 있으며, 그것이 시계열 순으로 줄지어 있습니다.
그래서 MIDI 데이터를 바탕으로 word2vec에서 소리를 벡터화하고 유사도를 이미지로 표현하고 싶다고 생각합니다.
word2vec에 대해서는, 이하의 기사등을 참고로 했습니다.

아래의 페이지 등을 참고로 했습니다.
* 그림으로 이해하는 Word2vec의 구조
* TensorFlow Tutorial / Vector Representations of Words
* TensorFlow Tutorial/word2vec_basic.py

사용한 데이터 세트


  • The Lakh MIDI Dataset v0.1 LMD-matched

  • 코드



    GitHub에 Jupyter Notebook을 두고 있습니다.
  • htps : // 기주 b. 이 m/타키츠바/무시c를 rd2ゔぇc/bぉb/마s r/을 rd2ゔぇc. 이 pyn b

  • 결과



    소리의 유사도를 바탕으로 이미지로 한 것이 아래와 같습니다.


    감상



    너무 이미지를 봐도 납득감을 얻을 수 없다. .
    C3, C4, G3, G4가 근처에 있는 곳은, 그럴까.
    파라미터의 조정을 더 해야 할까 생각합니다.
    또 학습 데이터는, 10만곡을 모두 1개에 연결해 버리고 있어, 곡과 곡의 접속 부분을 고려할 수 없는 것등은 수정할 수 있을 것 같습니다.

    좋은 웹페이지 즐겨찾기