【기계 학습】 Core ML 모델을 Xcode로 구현하여 iPhone에서 이미지 분류를 시도했습니다.

환경 메모
⭐️Mac OS Mojave 버전 10.14
⭐️Xcode11.2
⭐️iPhone7(IOS 12.2)

↓↓ 실제로 움직인 동영상입니다.
htps : // 라고 해서 r. 코m/논온카 피바라/s타츠 s/1213543031627907073

💡 기계 학습 💡📲 iPhone에서 🐧 카메라 롤에서 😺 동물의 이미지를 분류하여 어떤 동물인지 추측해 보았습니다 😍 Apple이 제공하는 학습 된 Core ML 모델을 사용해 보았습니다. #CoreML 모델 #Xcode htps // t. 코 / 온 4ゔ — non (@nonnonkapibara) 피 c. 라고 r. 이 m / 1 p586H에 D


Core ML이란?



Apple에서 제공하는 학습된 모델. 기계 학습의 "추론"을 할 수있는 프레임 워크.

iPhone 및 iPad 등 Apple 제품에서 사용할 수 있습니다.



시도한 것



iPhone에서 카메라 롤에서 동물의 이미지를 분류하여 어떤 동물인지 추측해 보았다.



January 4, 2020



카메라 롤에서 동물의 이미지 선택



포메라니안 99%



고양이

이집트 집 고양이 96%

tabby cat 3%



펭귄 99%



카피바라 씨는 학습되지 않았을지도. . ToT



Core ML 모델 얻기



Apple에서 제공하는 학습된 Core ML 모델 얻기



htps : //에서 ゔぇぺぺr. 아 ぇ. 이 m / jp / 마치 네 아 r 마인 g / 모도 ls /



이번에는 'SqueezeNet.mlmodel'을 사용해 보았습니다.







Xcode의 새로운 프로젝트





이번에는 이런 식으로 카메라 롤에서 이미지를 참조하는 프로젝트를 만들었습니다.



Xcode로 'SqueezeNet.mlmodel' 가져오기



코딩에서 모델을 정의하면 확인



var model = try! VNCoreMLModel(for: SqueezeNet().model)


※코딩의 양이 많았으므로, 할애하고 있습니다.


좋은 웹페이지 즐겨찾기