구글의 AutoML Vision에서는'쾌도전대 노방전대 VS 경찰전대 순찰원'의 등장인물을 탐지했다.

5414 단어 AutoML기계 학습
간단한 조작으로 머신러닝 모델을 생성하는 Google의 AutomL Vision
AutoML Vision
https://cloud.google.com/vision/automl/docs/?hl=ja
콘솔에서 파치와 이미지를 업로드하고 라벨만 붙이면 마음대로 공부할 수 있는 훌륭한 시스템이다.
고양이를 분류하고 물고기를 분류하고 이랑을 분류하는 것이 유행이지만, 딸이 매주 보는'쾌도전대 노방전대 VS 경찰전대 순찰원'의 등장인물을 AI로 분류할 수 있다면 "아빠 멋져!"그래서 이쪽으로 도전해 봤어요.
바람의 AI 도감 앱'린엔최신'출시(특허출원중) 1탄 약 4천종, 일본 아쿠아리움에 대응하는 바이오 9명
https://www.value-press.com/pressrelease/206311
AutoML Vision의 인식 성능을 테스트하기 위해 라면 브랜치와 브랜드 제품 사용
https://cloudplatform-jp.googleblog.com/2018/03/automl-vision-in-action-from-ramen-to-branded-goods.html

이미지 수집


기계 학습에서 가장 힘든 것은 영상 수집이 아닌가요?해보니 알겠다.'오토ML 비전'은 라벨 1개에 100장 이상, 수백 장의 이미지를 추천하지만, 100장 이하로도 작동할 수 있는 사례를 읽어봤기 때문에 이번에는 캐릭터 1개에 50장을 목표로 한다.
이미지 검색에서 주운 것이 기본형이기 때문에 야후와 구글의 이미지 검색에서 포키를 하나 주웠다.스크립트 자동화라는 욕을 먹고도 "50장 정도면 되겠냐"는 유혹에 밀렸다.
주운 그림의 크기와 형식이 모두 다르다.후처리 중 복수의 인물이 같은 이미지에 수납된 것은 기계 학습을 방해하는 것이 아니어서 다듬었다.
그나저나 이번 분류는 아래 7명이다.
등장인물
야노 퀘리/루팡 레드
정투진/루팡람
조견초미화/루팡황
조카규일랑/파트리 1번지
양천 사쿠라/파트리 2번지
명신사/파트리 3번지
・ 고미용 엔트/루반 액스/팔렌 액스
집주인 아저씨도 들어가게 해줬으면 좋겠다.
50장씩이어서 총 350장의 그림이 준비됐다.

AutoML Vision 설정


Google Cloud의 계정을 전제로 다음과 같이 프로젝트를 만듭니다. (기존 프로젝트도 문제가 없습니다.)
다음은 유료를 사용합니다.
AutoML Vision의 API를 활성화합니다.
위와 같이 수속이 좀 더 있는 것 같습니다.

기계를 배우다


다음 URL에서 AutoML Vision 콘솔을 엽니다.
Dataset 및 Model을 볼 수 있습니다.
· Dataset 이미지 파일에 라벨을 붙인 집합체
Model Dataset이 머신러닝에서 배울 수 있는 것
먼저 Dataset을 만들어서 기계로 하여금 그 제작 모델을 배우게 한다.프로그램 등에서 분류하고 싶은 이미지를 그 모델에게 건네주고 그 결과를 얻습니다.

데이터 세트 만들기


다음 URL에서 데이터 세트를 새로 만들 수 있습니다.

Dataset name에 원하는 이름을 입력하십시오.
이미지를 업로드하는 방법으로는 PC에서 JPG, PNG, ZIP, CSV로 업로드하는 방법 등이 있다.
Classification type에서 그림에 여러 개의 탭을 붙일지 여부를 선택하지만, 현재는 한 장의 그림에 한 장의 탭이 적혀 있는 것이 비교적 효과적입니다.
이미지 업로드가 끝나면 레이블이 붙습니다.

UI가 Google Photo와 비슷하네요.
왼쪽에는 "Add Label"이라는 링크가 있으며, 여기서부터 사용할 태그를 추가합니다.그런 다음 이미지를 클릭하여 각 이미지에 레이블을 지정합니다.레이블은 REST 등을 두드렸을 때 되돌아오는 값이기 때문에 알기 쉬운 레이블을 붙이는 것이 좋다.

모형을 만들다


데이터 세트가 준비되면 TRAIN 탭을 열고 Train New Model을 클릭합니다.창이 열리면 모델에 이름을 붙이고 "START TRAINING"을 클릭하여 학습을 시작합니다.
이번에는 360장의 이미지와 7개의 라벨을 설정해 학습을 진행했다.나는 소요 시간이 한 시간 정도라고 생각한다.완료되면 EVALUATE 태그에서 결과를 확인할 수 있습니다.

몇 가지 지표가 있다.
• 적합률
· Recall(재현율) 정확한 데이터가 양의 비율로 판단됨
• Score threshold (임계값)
Precition과 Recal 모두 고비례 모델의 정밀도가 더 높다는 것을 나타낸다.그러나 절충된 관계로 프리미엄과 리콜 모두 높은 수치를 가지고 있기 때문에 스코어 thereshold의 숫자를 찾아볼 필요가 있다(슬라이더를 움직이기만 하면 간단하게 검사할 수 있다).콘솔 또는 API에서 액세스할 때도 임계값이 설정됩니다. 여기서 확인하십시오.

겸사겸사 말씀드리지만, 이것은 모든 라벨의 결과입니다.순조롭다면 왼쪽 위에서 오른쪽 아래로 기울어진 적합률이 높은 파란색 숫자가 나올 것이다.이 결과를 보면 루팡람과 루팡훙은 상당히 어렵다는 것을 알 수 있다.

콘솔을 사용한 결과 즐기기


모형이 완성되면'PREDCT'탭에서 머신러닝 결과를 간단하게 확인할 수 있다.

여기 있는'UPLOAD IMAGES'버튼을 누르면 이미지 선택 화면이 되고 방금 제작한 모델로 분류해서 올린 이미지로 결과를 알려줍니다.

검출된 라벨과 정밀도를 나에게 돌려줄 수 있다.
파이톤의 코드도 예를 들어 설명되었는데, 물론 API에서도 두드릴 수 있다.이 방법을 다시 한 번 소개하고 싶습니다.

해보니까 아는 것 같아요.


너무 쉬워서 깜짝 놀랐어요.


거의 기계학습 데뷔, 오토ML 데뷔인데 너무 쉬워서 깜짝 놀랐어요.콘솔로 이미지를 조금씩 높여 콘솔에서 결과를 확인하면 비프로그래머도 문제가 없을 것이다.스케줄러:그 후파이토슨한테받은결과가힘들어.

중요 데이터 세트


모두들 데이터 제작이 매우 중요하다고 말하는데, 이렇게 하면 정밀도가 크게 바뀔 것이다.
이번에 가장 반성할 점은 주인공의 변신 전과 변신 후의 데이터가 뒤섞여 있다는 점이다.이번에는 데이터량이 적어'쾌도전대 노방전대 VS 경찰전대 순찰원'색깔도 비슷해 구별하기 어렵다.좋은 모델이라도 변신하기 전에는 대체로 판별할 수 있지만, 변신한 후에는 상당히 잘못된 상태가 나타난다.다음에 하면 변신 전, 변신 후 총 14개의 라벨로 해야 한다고 생각합니다.
이 근처 데이터 제작, 라벨 제작 경험도 있는 것 같아요.

어쨌든 한번 해보겠습니다.


백문이 불여일견이라는 말이 있지만, 실제 상황에서 알아보려는 경우가 많다.언어와 용어를 보면 기계학습이 어려운 것 같지만, 시도하고 체험하는 과정에서 언어의 뜻을 다소 이해할 수 있다고 생각한다.구체적인 용례는 별로 생각지 못했지만 부딪치자 다소 생각이 떠올랐다.
기대되는 주제가 하나 더 필요하다.이랑을 분류한 사람은 틀림없이 매우 기뻐할 것이다. 자신도 "아이가 정말 대단하다!"라고 느꼈다.이렇게 말하고 싶어서 다소 동력을 가지고 데이터를 만들어서 이곳이 중요하다는 것을 다시 깨달았다.
그럼
쾌도전대 노방전대 VS 경찰전대 순찰원
http://www.tv-asahi.co.jp/lvsp/

좋은 웹페이지 즐겨찾기