기계가 말하면 모퉁이가 서지 않는다.

배경



"마스크하고"라고 직접 말하면 뿔이 서
"마스크하고 AI가 말합니다."라고 말하면 그렇지 않습니다.

무엇을 하는가?


  • 가면이없는 사람 찾기
  • 잠시 동안 마스크를 찾지 못한 사람에게 "가면 가면"이라고 추천합니다

  • 실현을 위해 필요한 것


  • 얼굴 부분 인식
  • 얼굴에 마스크가 있는지 확인
  • 마스크가없는 사람이 이전과 같은 사람인지를 인식합니다
  • 일정 시간 마스크없는 사람이있는 경우 말하기

  • 어떻게 만들자


  • 1-3은 모델을 만들어야 할 것입니다
  • 4는 1-3이 가능하면 규칙 기반으로 정상적으로 개발할 수 있을 것이다
    라는 요미하에 1을 더 생각한다
  • 얼굴의 부분을 인식한다->클라우드 비전으로 faceannotation으로서 둘러싸인 부분으로 좋은 것은 아닐까?
  • 마스크가 있을지 어떨지를 인식한다->API로 돌려주는 것은 발견되지 않았다,,
  • 같은 사람인지 확인한다-> Azure의 얼굴 검증으로 할 수 있는 것은?

  • 마스크 유무의 판정은 수중에서 만들 수 밖에 없을지도 모른다고 생각하면 lobe이라는 앱을 MS가 내고 있었다.



    마스크없는 이미지 결정
    Predicted: {'predictions': [{'label': 'UnMask', 'confidence': 0.9900614023208618}, {'label': 'Mask', 'confidence': 0.0099386190995574}]}
    



    마스크 있음 이미지 결정
    Predicted: {'predictions': [{'label': 'Mask', 'confidence': 0.9465017318725586}, {'label': 'UnMask', 'confidence': 0.0534982867538929}]}
    

    노코드의 AI 모델 구축



    일단 움직이기 시작하기에 충분합니다.
    환경 정돈해 데이터 모아서 자전에서 학습할까 사전 학습을 가져오는지 검증해 생각해,,,
    라고 하는 중후한 플로우를 이미지 했는데, 이번의 이 정도이면 이미 도구는 갖추어져 있었다

    했던 일



    자신의 가면 이미지와 붙이지 않은 이미지를 각각 20건 정도 투입해 학습한다
    당연히 상기에서 판정한 인물과는 전혀 별개이며, 배경도 잡다


    좋아하는 느낌으로 내보내기
    이번에는 TensorFlow를 선택. 나오는 샘플 코드는 v1 시스템을 사용합니다.



    폴더에 있는 Readme에 있는 대로 실행하는 것만으로 위와 같은 결과를 얻을 수 있다.
    나머지는 주변 앱을 개발할 뿐
    - test-image 폴더는 스스로 작성해 판정 대상의 화상을 배치했다
    - tf-venv는 readme에 따라 조작 할 때 생성되는 가상 환경 폴더



    정밀도가 필요한가?



    연계하는 부분과 물리 가제트는 사람이 하지만, 더 이상 AI 개발이 아닌 보통 개발로 보인다. 정밀도가 7-8할로 목적을 달성할 수 있다면 주력해야 할 것은 물리 가젯이나 귀여운 목소리가 될지도 모른다.
    그것은 그것으로 만들 수있는 곳까지 만들어 보자.

    좋은 웹페이지 즐겨찾기