Lobe와 Node-RED로 안경 체커를 노코딩으로 만들어 보았다

14953 단어 Lobenode-red
2020년 10월 27일에 Microsoft사가 인수했다.
안경을 착용하고 있지 않은지 판정하는 툴을 Node-RED를 사용해 완전 노코딩으로 만들어 보았습니다.

Lobe 앱 다운로드



아래 URL을 방문하여 Lobe 앱을 다운로드합니다.

다양한 정보를 입력하고 "다운로드"버튼을 클릭하십시오.

Lobe

데모 동영상





1. 학습 데이터 등록



1-1. 프로젝트 작성



프로젝트 이름을 입력하고 오른쪽 상단의 "Import"를 클릭하고 이미지, 카메라 및 데이터 세트에서 가져올 형식을 선택합니다.
이번에는 카메라를 선택했습니다.

IMAGE ALT TEXT HERE

1-2. 학습 데이터 등록



카메라 이미지의 왼쪽 하단에 학습할 라벨 이름을 입력합니다. 입력한 후 화면 중앙의 셔터 버튼을 클릭합니다.
길게 누르면 연속해서 촬영하는 것도 가능합니다. 학습이 끝나면 오른쪽 상단의 Done을 ​​클릭합니다.



마찬가지로 안경을 쓰고 있는 타입의 사진을 촬영하고 학습시킵니다.

1-3. 훈련



촬영한 데이터의 학습은 백그라운드에서 이루어집니다. 100%가 되면 효과음으로 알려주었습니다.



1-4. 확인하기



학습한 데이터가 제대로 되었는지 확인합니다. 왼쪽 메뉴의 'Play'에서 확인할 수 있습니다. 판정 라벨은 실시간으로 전환됩니다.



2. Node-RED에서 사용



학습한 데이터는 다양한 형태로 프로그램에 통합될 수 있습니다. 지원되는 것은 CoreML TensorFlow TensorFlow Lite Local API 의 4개가 있었습니다.
이번에는 Node-RED에서 사용하므로 Local API를 사용합니다.

2-1. 내보내기



메뉴에서 내보내기를 클릭합니다.


Local API 를 클릭합니다.



API URL이 게시되므로 메모해 둡시다.



2-2. Node-RED 설정



로컬에서 빨리 시도하고 싶었기 때문에 앱을 사용했습니다.

사전에 필요한 노드를 설치하십시오.
  • Node-RED Desktop
  • node-red-contrib-browser-utils
  • node-red-contrib-image-output

  • 이번에 사용한 노드는 아래와 같습니다. 가져오고 사용해보십시오. Lobe의 요청 URL을 자신의 URL로 다시 작성하세요.
    [{"id":"cbddaee0.148cf","type":"tab","label":"Lobeデモ","disabled":false,"info":""},{"id":"a66e7200.6dcef","type":"camera","z":"cbddaee0.148cf","name":"","x":120,"y":160,"wires":[["3bd46f55.db5af","c5dfc04.b48214"]]},{"id":"c5dfc04.b48214","type":"image","z":"cbddaee0.148cf","name":"","width":160,"data":"payload","dataType":"msg","thumbnail":false,"active":true,"pass":false,"outputs":0,"x":300,"y":240,"wires":[]},{"id":"3bd46f55.db5af","type":"base64","z":"cbddaee0.148cf","name":"","action":"","property":"payload","x":280,"y":160,"wires":[["1c49be5.9c8a942"]]},{"id":"1c49be5.9c8a942","type":"template","z":"cbddaee0.148cf","name":"パラメータ設定","field":"payload","fieldType":"msg","format":"json","syntax":"mustache","template":"{\n  \"inputs\": {\n    \"Image\": \"{{{payload}}}\"\n  }\n}","output":"json","x":480,"y":160,"wires":[["ccd3517.d677bb"]]},{"id":"ccd3517.d677bb","type":"http request","z":"cbddaee0.148cf","name":"Lobeリクエスト","method":"POST","ret":"obj","paytoqs":"ignore","url":"","tls":"","persist":false,"proxy":"","authType":"","x":700,"y":160,"wires":[["4756ec42.083764"]]},{"id":"4756ec42.083764","type":"debug","z":"cbddaee0.148cf","name":"結果表示","active":true,"tosidebar":true,"console":false,"tostatus":false,"complete":"payload.outputs.Prediction[0]","targetType":"msg","statusVal":"","statusType":"auto","x":900,"y":160,"wires":[]}]
    

    카메라 왼쪽에 있는 버튼을 클릭하면 촬영이 시작됩니다. 촬영한 결과가 디버그 영역에 출력됩니다.

    node-red-node-base64

    요약



    비슷한 서비스에 Google 도 있습니다. 둘 다 노 코딩으로 학습 할 수있어 쉽게 프로그램에 통합 할 수 있습니다.

    Teachable Machine은 웹 기반이지만 Lobe는 앱이므로 로컬에서 학습할 수 있습니다.
    학습하는 사진 등을 클라우드에 올리고 싶지 않다는 분에게는 좋다고 생각했습니다. 그리고, Lobe 쪽이 UI도 멋지게 만들어져 있는 인상이었습니다.

    다만, Lobe는 지금의 이미지만 학습 가능했습니다. Teachable Machine은 골격과 음성을 배울 수 있습니다.
    앞으로도 이와 같이 노코딩으로 다양한 툴이 출시될 것입니다. 매우 기대됩니다!

    시스템화의 검토나 상담은 폐사에 문의해 주세요.
    Teachable Machine

    좋은 웹페이지 즐겨찾기