AlphaPose를 ROS화 (PoseTracking을 ROS로 구현)
소개
AlphaPose는 이것 (htps : // 기주 b. 코 m/MゔぃG-SJ개/아lp는 포세)
1. AlphaPose를 ROS로 움직이고 싶다. (Pose Tracking을 ROS로 구현하고 싶습니다)
2. 일단 움직이는 코드가 생겼지만(htps : // 기주 b. 이 m/요네모토/아lp는 포세_로s. 기 t) β판이며 수정점이 많기 때문에, 그만 공개하여 코드를 개선하고 싶다.
라는 동기 부여입니다.
AlphaPose란?
이미지 or 동영상 내의 여러 사람의 자세를 추정해 주는 심층 학습의 툴입니다.
인물의 자세를 추정해 주는 심층 학습의 툴은 AlphaPose 이외에도 많이 공개되고 있습니다.
그 중에서도 가장 메이저인 OpenPose에 비해 다른 점을 들자면,
· Realtime으로 Pose Tracking을 해준다.
· Human Pose Estimation의 일종으로 OpenPose보다 AP가 우수합니다.
· Top-down 접근법입니다.
라고 이해하고 있습니다.
이번에는 Pose estimation과 Tracking을 구현하고 싶었기 때문에 AlphaPose를 선택했습니다.
환경
ubuntu16.04
ROS version kinetic
라는 곳입니다.
나머지는 AlphaPose가 움직이는 환경이다.
AlphaPose의 ROS화
기능 추가
AlphaPose에서는 api 스크립트을 공개하고 있지만 내 요청과 비교하면
· 화상 대응의 API이므로 동영상에 대응하고 있지 않다.
· 추적 구현이 없습니다.
등이 없어 추가했습니다. 코드는 여기 (Alphapose_ros.py)
움직이면 좋다는 느낌이므로 최적화되어 있지 않습니다.
파이썬 버전 문제
Kinetic은 기본적으로 python2이므로 Python3에 해당합니다. . . (빨리 ROS2가 되어 noetic으로 하고 싶다...)
그래서 ROS로 노드화하는 경우 여기 을 참고로 하여 AlphaPose로 작성한 가장 환경의 Python3에서 움직이게 했습니다.
이미지를 웹캠에서 가져올 때 python3에서 cv_brige를 사용하여 topic화를 시도했지만 아무래도 python3 시스템에 대응하려면 cv_brige의 Build를 다시 시도해야하며 가장 환경 내에서 다른 라이브러리와 공존하고 잘 가지 않았다. 이쪽을 참고로
거기서 여러가지 조사했는데 CompressedImage는 python3계에 대응하고 있다고 하는 것으로 이쪽을 사용해 webcamera로부터의 화상 topic을 python3로 받을 수 있도록 했습니다. 이쪽을 참고로
이동하는 방법
pkg가 되어 있으므로 src 바로 아래에 둔다.
catkin_ws/src/ $ git clone https://github.com/yone-moto/AlphaPose_ros.git
catkin_ws/ $ catkin_make
######準備完了・実行######
catkin_ws/src/ $ roslaunch alphapose_ros alphapose_demo.launch
(alphapose) (path to)AlphaPose_ros/scripts/$./alphapose.sh
결과
Poseestimation의 모습(Rviz로 시각화)
한 명의 동영상 만 있으면 추적을 볼 수 없습니다. . .
오른쪽 절반만 칠해진 것은 의도적이며 왼쪽 절반도 출력으로 나옵니다.
옵션
아무래도 추적을 보이고 싶었으므로 속도 벡터 (인물의 진행 방향)를 라이더와 조합하여 산출.
이런 느낌
이상입니다. 끝까지 봐 주셔서 감사합니다.
앞으로도 이 기사와 코드를 추기해 수정되고 싶습니다! ! ! !
그리고 더 세상의 도움이 되고 싶습니다.
Reference
이 문제에 관하여(AlphaPose를 ROS화 (PoseTracking을 ROS로 구현)), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/yoneyoneclub/items/38c66c947cb4376c5daf
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
이미지 or 동영상 내의 여러 사람의 자세를 추정해 주는 심층 학습의 툴입니다.
인물의 자세를 추정해 주는 심층 학습의 툴은 AlphaPose 이외에도 많이 공개되고 있습니다.
그 중에서도 가장 메이저인 OpenPose에 비해 다른 점을 들자면,
· Realtime으로 Pose Tracking을 해준다.
· Human Pose Estimation의 일종으로 OpenPose보다 AP가 우수합니다.
· Top-down 접근법입니다.
라고 이해하고 있습니다.
이번에는 Pose estimation과 Tracking을 구현하고 싶었기 때문에 AlphaPose를 선택했습니다.
환경
ubuntu16.04
ROS version kinetic
라는 곳입니다.
나머지는 AlphaPose가 움직이는 환경이다.
AlphaPose의 ROS화
기능 추가
AlphaPose에서는 api 스크립트을 공개하고 있지만 내 요청과 비교하면
· 화상 대응의 API이므로 동영상에 대응하고 있지 않다.
· 추적 구현이 없습니다.
등이 없어 추가했습니다. 코드는 여기 (Alphapose_ros.py)
움직이면 좋다는 느낌이므로 최적화되어 있지 않습니다.
파이썬 버전 문제
Kinetic은 기본적으로 python2이므로 Python3에 해당합니다. . . (빨리 ROS2가 되어 noetic으로 하고 싶다...)
그래서 ROS로 노드화하는 경우 여기 을 참고로 하여 AlphaPose로 작성한 가장 환경의 Python3에서 움직이게 했습니다.
이미지를 웹캠에서 가져올 때 python3에서 cv_brige를 사용하여 topic화를 시도했지만 아무래도 python3 시스템에 대응하려면 cv_brige의 Build를 다시 시도해야하며 가장 환경 내에서 다른 라이브러리와 공존하고 잘 가지 않았다. 이쪽을 참고로
거기서 여러가지 조사했는데 CompressedImage는 python3계에 대응하고 있다고 하는 것으로 이쪽을 사용해 webcamera로부터의 화상 topic을 python3로 받을 수 있도록 했습니다. 이쪽을 참고로
이동하는 방법
pkg가 되어 있으므로 src 바로 아래에 둔다.
catkin_ws/src/ $ git clone https://github.com/yone-moto/AlphaPose_ros.git
catkin_ws/ $ catkin_make
######準備完了・実行######
catkin_ws/src/ $ roslaunch alphapose_ros alphapose_demo.launch
(alphapose) (path to)AlphaPose_ros/scripts/$./alphapose.sh
결과
Poseestimation의 모습(Rviz로 시각화)
한 명의 동영상 만 있으면 추적을 볼 수 없습니다. . .
오른쪽 절반만 칠해진 것은 의도적이며 왼쪽 절반도 출력으로 나옵니다.
옵션
아무래도 추적을 보이고 싶었으므로 속도 벡터 (인물의 진행 방향)를 라이더와 조합하여 산출.
이런 느낌
이상입니다. 끝까지 봐 주셔서 감사합니다.
앞으로도 이 기사와 코드를 추기해 수정되고 싶습니다! ! ! !
그리고 더 세상의 도움이 되고 싶습니다.
Reference
이 문제에 관하여(AlphaPose를 ROS화 (PoseTracking을 ROS로 구현)), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/yoneyoneclub/items/38c66c947cb4376c5daf
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
기능 추가
AlphaPose에서는 api 스크립트을 공개하고 있지만 내 요청과 비교하면
· 화상 대응의 API이므로 동영상에 대응하고 있지 않다.
· 추적 구현이 없습니다.
등이 없어 추가했습니다. 코드는 여기 (Alphapose_ros.py)
움직이면 좋다는 느낌이므로 최적화되어 있지 않습니다.
파이썬 버전 문제
Kinetic은 기본적으로 python2이므로 Python3에 해당합니다. . . (빨리 ROS2가 되어 noetic으로 하고 싶다...)
그래서 ROS로 노드화하는 경우 여기 을 참고로 하여 AlphaPose로 작성한 가장 환경의 Python3에서 움직이게 했습니다.
이미지를 웹캠에서 가져올 때 python3에서 cv_brige를 사용하여 topic화를 시도했지만 아무래도 python3 시스템에 대응하려면 cv_brige의 Build를 다시 시도해야하며 가장 환경 내에서 다른 라이브러리와 공존하고 잘 가지 않았다. 이쪽을 참고로
거기서 여러가지 조사했는데 CompressedImage는 python3계에 대응하고 있다고 하는 것으로 이쪽을 사용해 webcamera로부터의 화상 topic을 python3로 받을 수 있도록 했습니다. 이쪽을 참고로
이동하는 방법
pkg가 되어 있으므로 src 바로 아래에 둔다.
catkin_ws/src/ $ git clone https://github.com/yone-moto/AlphaPose_ros.git
catkin_ws/ $ catkin_make
######準備完了・実行######
catkin_ws/src/ $ roslaunch alphapose_ros alphapose_demo.launch
(alphapose) (path to)AlphaPose_ros/scripts/$./alphapose.sh
결과
Poseestimation의 모습(Rviz로 시각화)
한 명의 동영상 만 있으면 추적을 볼 수 없습니다. . .
오른쪽 절반만 칠해진 것은 의도적이며 왼쪽 절반도 출력으로 나옵니다.
옵션
아무래도 추적을 보이고 싶었으므로 속도 벡터 (인물의 진행 방향)를 라이더와 조합하여 산출.
이런 느낌
이상입니다. 끝까지 봐 주셔서 감사합니다.
앞으로도 이 기사와 코드를 추기해 수정되고 싶습니다! ! ! !
그리고 더 세상의 도움이 되고 싶습니다.
Reference
이 문제에 관하여(AlphaPose를 ROS화 (PoseTracking을 ROS로 구현)), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/yoneyoneclub/items/38c66c947cb4376c5daf
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여(AlphaPose를 ROS화 (PoseTracking을 ROS로 구현)), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/yoneyoneclub/items/38c66c947cb4376c5daf텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)