브라우저에서 자세 추정에 대한 정보를 탐색하기 (MediaPipe JavaScript 버전, TensorFolow.js, BlazePose, MoveNet)
그나저나 여기 트위터에서 봤어요.
Huge congratulations! Been following your progress for a while now and super excited to see this. Thank you for being part of the #TensorFlowJS community 🙏 really great work! PS have you tried #MoveNet with this too?— Jason Mayes (@jason_mayes) July 14, 2021
MediaPipe(JavaScript Edition)의 자세 추정
MediaPipe의 자바스크립트 버전은 다음과 같다홈페이지 내용대로 2021년 7월 14일까지 6개 처리 가능.
이번에 열거할 것은 여섯 개 중 하나MediaPipe Pose입니다.
참고로 다른 5개는 어떤 물건일까요? 사람의 얼굴, 손 등을 식별하는 물건도 있고, 배경과 분리된 물건도 있습니다.br/>
나는 실제적으로 그 상황을 애니메이션으로 만들어 본 것이 있기 때문에 이 보도의 마지막에 몇 가지를 게재해 보려고 한다p>
MediaPipe Pose에서 사용되는 Blaze Pose
MediaPipe Pose의 페이지를 보고 "Blaze Pose"는 그곳에서 사용하는 물건의 이름으로 나타났습니다.br/>
BlazePose에서 검색하면 다음과 같은 링크가 나타납니다.p>
- BlazePose: On-device Real-time Body Pose tracking
- Google AI Blog: On-device, Real-time Body Pose Tracking with MediaPipe BlazePose
첫 번째는 ARXiv 페이지에 링크돼 컴퓨터 비주얼 관련 유명 국제학회 CVPR(Computer Vision and Pattern Recongnition)에 발표된 논문에 대한 정보입니다.p>
두 번째는'디바이스에서 실시간으로 자세를 추정할 수 있는 미디어피프 블레이즈포스트'라는 제목의 구글 AI 블로크의 기사다.br/>
그리고 두 번째 글에서 어떤 식별 결과를 그림과 결합시켜 소개할 것인가br/>
문장에서도 썼는데, 몸에서 33개의 관건을 검출할 수 있다br/>
상술한 블로그 보도와 MediaPipe Pose의 공식 페이지에서 실례를 볼 수 있는데 그걸 보면 가장 이해하기 쉽다고 생각합니다.p>
MoveNet 정보
그럼, 처음에 쓴 "MoveNet"을 제가 펼친 내용을 보고 싶어요.p>
다음은 공식 자습서 페이지의 URL입니다.
● MoveNet: 초고속 정확한 자세 검측 모형. | TensorFlow Hub
https://www.tensorflow.org/hub/tutorials/movenet
의 첫머리에는 다음과 같은 기록이 있습니다:
MoveNet은 신체 17개 관건 부위를 측정하는 초고속, 정확한 모델이다.이 모델은 번개와 번개로 불리는 두 개의 변형 TF 허브를 제공한다.Lightning은 지연이 중요한 응용을 대상으로, Thunder는 고정밀이 필요한 응용을 대상으로 한다.최신 데스크탑, 노트북 및 전화는 어떤 모델이든지 대부분의 실시간(30+FPS)보다 빠르게 작동합니다.p>
BlazePose에서 몸에서 33개의 포인트를 얻었지만 17개의 포인트br/>
또한 Lightning과 Thunder는 속도를 중시하는지 정밀도를 중시하는지 두 가지가 있다.p>
다음은 공식 블로그 기사입니다
●Next-Generation Pose Detection with MoveNet and TensorFlow.js — The TensorFlow Blog
https://blog.tensorflow.org/2021/05/next-generation-pose-detection-with-movenet-and-tensorflowjs.html
보도에서 브라우저에서 실행될 때의 퍼포먼스 언급br/>
여러 장치의 데이터에서 WebGL과 WASM이 게재되었는데 대충 보니 프레임률이 좋은 수치가 나온 것 같았다br/>
재보기 기사에 콘서트 시연용 링크가 실렸다
https://storage.googleapis.com/tfjs-models/demos/pose-detection/index.html?model=movenet
그 URL의 페이지를 열면 설정을 변경할 수 있는 부분(화면 오른쪽), 식별 결과를 표시할 수 있는 부분 등의 프레젠테이션 페이지가 나타납니다
위의 이미지는 얼굴에만 비치기 때문에 포인트는 5개입니다...
아까 성능표에 적힌 바와 같이 프레임 속도가 30fps를 초과한 것 같다(※ 위 그림에 표시된 화면 왼쪽 상단).
나도 원본 코드 등을 검사하고 싶지만, 다른 기회가 있을 것 같아.p>
끝말
트위터에서 볼 수 있는 자세 추측의 모브넷에 대해 미디어피프 자바스크립트 버전의 자세 추측(BlazePose)과 차이점을 간단하게 조사하고 정보를 골랐습니다.p>
아직 원본 코드를 구하지 못했기 때문에 앞으로 계속 진행할 수 있다면p>
주제 밖의 말: 미디어피프의 자바스크립트 버전에 설치해 본 다양한 것들(일부만)
글에 적힌 자바스크립트 버전의 미디어 피프 6가지 처리 중'Hands','Selfie Segmentation'을 이용하여 HTML+자바스크립트로 실시된, 브라우저에서 실행된 시용 작품 중 일부를 소개하고 싶습니다.p>
참고로 이런 것들을 시작한 계기는 브라우저에서 실행되는 미디어피프 핸즈의 자바스크립트 버전 프레젠테이션을 한 번 시도한 적이 있다는 점입니다.br/>
그때는 두 손이 바삭바삭한 고정밀도를 잘 인식하는 모습에 놀라 "즐거운 일에 활용됐으면 좋겠다"고 생각했다.그리고 먼저 자신이 쓴 처리를 혼합하여 한번 돌려보려고 다음과 같은 내용을 손으로 썼다p>
MediaPipe Hands 및 p5.js 조합 사각형에 따라 그리기
MediaPipe Hands로 양손 인식, 각각의 손끝을 기점으로 직사각형 그리기br/>
또한 직사각형의 크기를 엄지손가락 끝과 검지손가락 끝의 거리에 따라 변화시키는 처리도 실현되었다p>
Reference
이 문제에 관하여(브라우저에서 자세 추정에 대한 정보를 탐색하기 (MediaPipe JavaScript 버전, TensorFolow.js, BlazePose, MoveNet)), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/youtoy/items/67fb8ff07ec36c7543e0텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)