Lobe와 Node-RED로 안경 체커를 노코딩으로 만들어 보았다
안경을 착용하고 있지 않은지 판정하는 툴을 Node-RED를 사용해 완전 노코딩으로 만들어 보았습니다.
Lobe 앱 다운로드
아래 URL을 방문하여 Lobe 앱을 다운로드합니다.
다양한 정보를 입력하고 "다운로드"버튼을 클릭하십시오.
Lobe
데모 동영상
1. 학습 데이터 등록
1-1. 프로젝트 작성
프로젝트 이름을 입력하고 오른쪽 상단의 "Import"를 클릭하고 이미지, 카메라 및 데이터 세트에서 가져올 형식을 선택합니다.
이번에는 카메라를 선택했습니다.
1-2. 학습 데이터 등록
카메라 이미지의 왼쪽 하단에 학습할 라벨 이름을 입력합니다. 입력한 후 화면 중앙의 셔터 버튼을 클릭합니다.
길게 누르면 연속해서 촬영하는 것도 가능합니다. 학습이 끝나면 오른쪽 상단의 Done을 클릭합니다.
마찬가지로 안경을 쓰고 있는 타입의 사진을 촬영하고 학습시킵니다.
1-3. 훈련
촬영한 데이터의 학습은 백그라운드에서 이루어집니다. 100%가 되면 효과음으로 알려주었습니다.
1-4. 확인하기
학습한 데이터가 제대로 되었는지 확인합니다. 왼쪽 메뉴의 'Play'에서 확인할 수 있습니다. 판정 라벨은 실시간으로 전환됩니다.
2. Node-RED에서 사용
학습한 데이터는 다양한 형태로 프로그램에 통합될 수 있습니다. 지원되는 것은 CoreML
TensorFlow
TensorFlow Lite
Local API
의 4개가 있었습니다.
이번에는 Node-RED에서 사용하므로 Local API
를 사용합니다.
2-1. 내보내기
메뉴에서 내보내기를 클릭합니다.
Local API
를 클릭합니다.
API URL이 게시되므로 메모해 둡시다.
2-2. Node-RED 설정
로컬에서 빨리 시도하고 싶었기 때문에 앱을 사용했습니다.
사전에 필요한 노드를 설치하십시오.
1. 학습 데이터 등록
1-1. 프로젝트 작성
프로젝트 이름을 입력하고 오른쪽 상단의 "Import"를 클릭하고 이미지, 카메라 및 데이터 세트에서 가져올 형식을 선택합니다.
이번에는 카메라를 선택했습니다.
1-2. 학습 데이터 등록
카메라 이미지의 왼쪽 하단에 학습할 라벨 이름을 입력합니다. 입력한 후 화면 중앙의 셔터 버튼을 클릭합니다.
길게 누르면 연속해서 촬영하는 것도 가능합니다. 학습이 끝나면 오른쪽 상단의 Done을 클릭합니다.
마찬가지로 안경을 쓰고 있는 타입의 사진을 촬영하고 학습시킵니다.
1-3. 훈련
촬영한 데이터의 학습은 백그라운드에서 이루어집니다. 100%가 되면 효과음으로 알려주었습니다.
1-4. 확인하기
학습한 데이터가 제대로 되었는지 확인합니다. 왼쪽 메뉴의 'Play'에서 확인할 수 있습니다. 판정 라벨은 실시간으로 전환됩니다.
2. Node-RED에서 사용
학습한 데이터는 다양한 형태로 프로그램에 통합될 수 있습니다. 지원되는 것은 CoreML
TensorFlow
TensorFlow Lite
Local API
의 4개가 있었습니다.
이번에는 Node-RED에서 사용하므로 Local API
를 사용합니다.
2-1. 내보내기
메뉴에서 내보내기를 클릭합니다.
Local API
를 클릭합니다.
API URL이 게시되므로 메모해 둡시다.
2-2. Node-RED 설정
로컬에서 빨리 시도하고 싶었기 때문에 앱을 사용했습니다.
사전에 필요한 노드를 설치하십시오.
학습한 데이터는 다양한 형태로 프로그램에 통합될 수 있습니다. 지원되는 것은
CoreML
TensorFlow
TensorFlow Lite
Local API
의 4개가 있었습니다.이번에는 Node-RED에서 사용하므로
Local API
를 사용합니다.2-1. 내보내기
메뉴에서 내보내기를 클릭합니다.
Local API
를 클릭합니다.API URL이 게시되므로 메모해 둡시다.
2-2. Node-RED 설정
로컬에서 빨리 시도하고 싶었기 때문에 앱을 사용했습니다.
사전에 필요한 노드를 설치하십시오.
이번에 사용한 노드는 아래와 같습니다. 가져오고 사용해보십시오. Lobe의 요청 URL을 자신의 URL로 다시 작성하세요.
[{"id":"cbddaee0.148cf","type":"tab","label":"Lobeデモ","disabled":false,"info":""},{"id":"a66e7200.6dcef","type":"camera","z":"cbddaee0.148cf","name":"","x":120,"y":160,"wires":[["3bd46f55.db5af","c5dfc04.b48214"]]},{"id":"c5dfc04.b48214","type":"image","z":"cbddaee0.148cf","name":"","width":160,"data":"payload","dataType":"msg","thumbnail":false,"active":true,"pass":false,"outputs":0,"x":300,"y":240,"wires":[]},{"id":"3bd46f55.db5af","type":"base64","z":"cbddaee0.148cf","name":"","action":"","property":"payload","x":280,"y":160,"wires":[["1c49be5.9c8a942"]]},{"id":"1c49be5.9c8a942","type":"template","z":"cbddaee0.148cf","name":"パラメータ設定","field":"payload","fieldType":"msg","format":"json","syntax":"mustache","template":"{\n \"inputs\": {\n \"Image\": \"{{{payload}}}\"\n }\n}","output":"json","x":480,"y":160,"wires":[["ccd3517.d677bb"]]},{"id":"ccd3517.d677bb","type":"http request","z":"cbddaee0.148cf","name":"Lobeリクエスト","method":"POST","ret":"obj","paytoqs":"ignore","url":"","tls":"","persist":false,"proxy":"","authType":"","x":700,"y":160,"wires":[["4756ec42.083764"]]},{"id":"4756ec42.083764","type":"debug","z":"cbddaee0.148cf","name":"結果表示","active":true,"tosidebar":true,"console":false,"tostatus":false,"complete":"payload.outputs.Prediction[0]","targetType":"msg","statusVal":"","statusType":"auto","x":900,"y":160,"wires":[]}]
카메라 왼쪽에 있는 버튼을 클릭하면 촬영이 시작됩니다. 촬영한 결과가 디버그 영역에 출력됩니다.
node-red-node-base64
요약
비슷한 서비스에 Google 도 있습니다. 둘 다 노 코딩으로 학습 할 수있어 쉽게 프로그램에 통합 할 수 있습니다.
Teachable Machine은 웹 기반이지만 Lobe는 앱이므로 로컬에서 학습할 수 있습니다.
학습하는 사진 등을 클라우드에 올리고 싶지 않다는 분에게는 좋다고 생각했습니다. 그리고, Lobe 쪽이 UI도 멋지게 만들어져 있는 인상이었습니다.
다만, Lobe는 지금의 이미지만 학습 가능했습니다. Teachable Machine은 골격과 음성을 배울 수 있습니다.
앞으로도 이와 같이 노코딩으로 다양한 툴이 출시될 것입니다. 매우 기대됩니다!
시스템화의 검토나 상담은 폐사에 문의해 주세요.
Teachable Machine
Reference
이 문제에 관하여(Lobe와 Node-RED로 안경 체커를 노코딩으로 만들어 보았다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/h-takauma/items/cd51dc1d8590538765f0
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여(Lobe와 Node-RED로 안경 체커를 노코딩으로 만들어 보았다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/h-takauma/items/cd51dc1d8590538765f0텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)