【기계 학습】 Core ML 모델을 Xcode로 구현하여 iPhone에서 이미지 분류를 시도했습니다.
⭐️Mac OS Mojave 버전 10.14
⭐️Xcode11.2
⭐️iPhone7(IOS 12.2)
↓↓ 실제로 움직인 동영상입니다.
htps : // 라고 해서 r. 코m/논온카 피바라/s타츠 s/1213543031627907073
💡 기계 학습 💡📲 iPhone에서 🐧 카메라 롤에서 😺 동물의 이미지를 분류하여 어떤 동물인지 추측해 보았습니다 😍 Apple이 제공하는 학습 된 Core ML 모델을 사용해 보았습니다. #CoreML 모델 #Xcode htps // t. 코 / 온 4ゔ — non (@nonnonkapibara) 피 c. 라고 r. 이 m / 1 p586H에 D
Core ML이란?
Apple에서 제공하는 학습된 모델. 기계 학습의 "추론"을 할 수있는 프레임 워크.
iPhone 및 iPad 등 Apple 제품에서 사용할 수 있습니다.
시도한 것
iPhone에서 카메라 롤에서 동물의 이미지를 분류하여 어떤 동물인지 추측해 보았다.
Core ML 모델 얻기
Apple에서 제공하는 학습된 Core ML 모델 얻기
htps : //에서 ゔぇぺぺr. 아 ぇ. 이 m / jp / 마치 네 아 r 마인 g / 모도 ls /
이번에는 'SqueezeNet.mlmodel'을 사용해 보았습니다.
Xcode의 새로운 프로젝트
이번에는 이런 식으로 카메라 롤에서 이미지를 참조하는 프로젝트를 만들었습니다.
Xcode로 'SqueezeNet.mlmodel' 가져오기
코딩에서 모델을 정의하면 확인
var model = try! VNCoreMLModel(for: SqueezeNet().model)
※코딩의 양이 많았으므로, 할애하고 있습니다.
Reference
이 문제에 관하여(【기계 학습】 Core ML 모델을 Xcode로 구현하여 iPhone에서 이미지 분류를 시도했습니다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/nonkapibara/items/c3ed86a125c916baadc0텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)