기계 학습 시스템의 논문을 읽을 때 6가지 포인트

소개



최근까지라고 할까, 얼마 지나지 않아 가류로 기계 학습계의 학술 논문을 읽어 왔습니다만, 아무래도 효율이 나쁘다-라고 느끼고 있었습니다. 한편 말레이시아에 그런 것을 가르쳐 주는 사람도 없기 때문에, 유명한 Stanford의 강의 「CS230」도 봐 얻은 「기계 학습계의 논문을 읽을 때에 억제하는 포인트」를 소개합니다. (라고 할까, 이 기사의 컨셉은 더 이상 자신을 위한 메모 같은 칸지입니다)

읽기 논문 목록화



우선, 자신이 읽고 싶은 논문을 5개 리스트화합니다.

예를 들면 이런 느낌.


가로축은 성취율이 되고 100%는 "읽기 끝냈다, 이해했다."0%는 "아직 읽지 않았습니다. 손을 잡지 않았습니다"를 나타냅니다.
그리고 100%에 도달한 논문은 새로운 논문으로 갱신해 나가는 흐름입니다. (항상 논문이 5개 있는 상태를 유지한다)

왜 이런 일을 하는가 하면, 논문에 따라서는 처음 읽기 시작했을 때, 「아니, 지금의 자신의 레벨과 비추면 조금 어렵다―」라고 하는 것이 있다고 생각합니다. 그런 논문은 일단 유지해 두고, 자신의 레벨에 있던 논문을 읽는 곳에서 시작해, 그 레벨에 도달하면 유지해 둔 논문을 읽는다는 플로우를 만들기 때문입니다. (인간이므로, 읽기 전부터 이것 무즈라고 판단하는 것이 어렵고...게다가 영어 종이...)

읽는 방법


  • 읽기 흐름
  • Title, Abstract, Figures (그림) 억제
  • Introduction, Conclusion, Figure를 억제하고, 그 후 가볍게 전체를 쭉 흘려 읽는다.
  • 전체를 읽는다. (그러나 표현식과 같은 수학 부분은 날아 오거나 가볍게 읽고 OK)
  • 전체를 읽는다 (단, 뭔가 분명히 모르는 곳은 날려 OK)

    왜 전체를 읽기 전에 Introduction과 Conclusion을 억제하는가 하면, 저자는 그 논문의 포인트의 정리를 그 2개에 써 있는 경우가 많기 때문입니다.
  • 저자들이 무엇을 했는지, 시도했는지 이해
  • 그 연구 접근의 핵심 요소를 이해
  • 그 연구 내용, 결과를 자신이 무엇에 사용할 수 있을까를 생각한다
  • 그 때문에 어떤 참고문헌을 쫓고 싶은지를 생각한다

  • 수학 부분



    여기는 상당히 높은 수준이지만, 새로운 접근법이나 알고리즘을 만드는 힌트가 되는 경우가 많다.
    예를 들어, Batch Normalization의 논문을 읽고 스크래치에서 구현합니다.

    코드


  • 연구에 사용 된 오픈 소스 코드를 실행해보십시오
  • 스크래치에서 직접 구현해보십시오

  • 읽기 속도



    단기 집중이 아니라 장기적인 기간 안정적으로 읽는다. 추천의 페이스는 1주일에 2, 3논문.

    사이고에게



    이상, 어땠습니까?
    나는 이 읽는 방법을 지금부터 실천하고, 또 결과를 기사로 할까라고 생각하고 있습니다.

    참고문헌



    [Stanford CS230: Deep Learning | Autumn 2018 | Lecture 8 - Career Advice/Reading Research Papers] htps: //같다. 베/733m6qBH-지

    좋은 웹페이지 즐겨찾기