CreatemL로 이미지 인식 용이

2274 단어 SwiftCreateML

개시하다


안녕하세요, 며칠 전에 WWDC 2018 보고회에 다녀왔습니다.
거기서 Createml에 대한 발표가 더 재밌을 것 같아요.✨왜냐하면
해봤어요.

Createml은 일단 뭐냐면요.


Swift와 Play Ground에서CreatemL을 사용하여 머신러닝을 할 수 있는 프레임워크입니다.
데이터를 배우게 하면 이미지 식별, 문장 분류, 데이터 분류와 양의 추측 등을 할 수 있다.
이번에는 그림을 알아보도록 하겠습니다.
Xcode와 Swift만으로도 기계를 배울 수 있다니 대단하다!!!

하기 전에 준비를 해야 돼요.

  • macOS 10.14+ (mojave)
  • Xcode 10.0+
  • 이거 두 개 필요해.
    아직 베타이기 때문에 모jave를 넣을 때 미리 백업을 하는 것이 안전합니다!
    (겸사겸사 말씀드리지만 저는 그런 느낌입니다. 백업을 하지 않고 바로 회사의 맥북에 들어갔습니다.)

    해보자.


    Play Ground를 열고 target을 macOS로 설정합니다.
    MyPlayGround
    import CreateMLUI
    
    //画像を分類するでってやつ
    let buidler = MLImageClassifierBuilder()
    //AssistantEditorのLiveViewに表示するでってやつ
    buidler.showInLiveView()
    
    코드는 이것밖에 없어요!!!
    와, 대단하다!
    Run이 Assistant Buidler를 열면 바로 이런 화면입니다.
    그렇다면...
    데이터 세트를 준비하지 않았어요!
    그림을 아무거나 주워오세요.
    적어도 10장은 필요하니 힘내서 모으세요

    나는 이렇게 훈련된 데이터를 하나하나 폴더에 주입했다
    어쨌든 이렇게 하면 되겠죠.
    테스트 데이터와 트레이닝 데이터 1:9의 비율이 가장 높음(어디서 봤음)
    테스트용 데이터 3장 준비해.
    이런 느낌.
    그리고 Assistant Editor의 점선에 Drop Images To Begin Training이라고 적혀 있습니다.
    훈련용 서류철을 내려놓으시오
    이렇게 하면 공부하는 모습을 구경할 수 있어요.
    종료 후 점선 내용이 Drop Images To Begin Testing으로 변경됨
    테스트용 폴더를 내려주세요.

    결과가 나왔네요!
    다 있어 (대단해...)
    그리고 AssistantEditor라고 적힌 Image Classifier의 옆에 있는 아래쪽 화살표가 저장된 곳을 선택하세요.
    저장을 선택하면 프로젝트 등에서 이번에 완성된 ml모델을 사용할 수 있습니다.
    * 참고로 저장된 mlmodel의 사이즈는 33KB로 매우 가볍습니다...!

    끝맺다


    쉽게 만들었네요.
    Createml에서 Phots와Siri의 학습 기초를 사용하기 때문에 가볍고 빠른 학습을 할 수 있다
    이루어진 것 같아요.
    대충 적었으니까 관심 있으면 아래 URL에서 찾아보세요.
    감사합니다.자리를 기다리고 있습니다.

    좋은 웹페이지 즐겨찾기