Google Edge TPU 추론 개요

Edge TPU는 TensorFlow Lite 모델과만 호환됩니다. 따라서 TensorFlow 모델을 교육하고 TensorFlow Lite로 변환하고 Edge TPU용으로 컴파일해야 합니다. 그런 다음 이 페이지에 설명된 옵션 중 하나를 사용하여 Edge TPU에서 모델을 실행할 수 있습니다. (Edge TPU와 호환되는 모델을 만드는 방법에 대한 자세한 내용은 Edge TPU의 TensorFlow 모델을 참조하세요.htps // 코라 l. 아이 / 도 cs / 에드게 t 푸 / 모로 ls-인 t로 /)



파이썬에서 추론 실행



Python을 사용하여 추론을 실행하는 경우 두 가지 옵션이 있습니다.

TensorFlow Lite API 사용:

이것은 TensorFlow Lite 모델을 실행하는 전통적인 접근법입니다. 데이터 입출력을 완벽하게 제어할 수 있으므로 다양한 모델 아키텍처에서 추론을 수행할 수 있습니다.
TensorFlow Lite를 이전에 사용한 적이 있다면 Interpreter 코드는 약간의 변경만으로도 에지 TPU에서 모델을 실행할 수 있습니다. (자세한 내용은 Python에서 TensorFlow Lite를 사용하여 추론 실행을 참조하세요.htps // 코라 l. 아이/도 cs/에드게 t푸/tfぃ테-py 텐/)

Edge TPU API 사용:

이것은 TensorFlow Lite C ++ API 위에 구축 된 Python 라이브러리이므로 이미지 분류 모델과 객체 감지 모델을 사용하여 더 쉽게 추론 할 수 있습니다.
이 API는 TensorFlow Lite API의 경험이 없으며 단순히 이미지 분류 또는 객체 감지를 수행하는 데 유용합니다. 입력 텐서의 준비와 결과의 해석에 필요한 코드를 추상화하기 위해서입니다. 또한 Edge TPU에서 분류 모델의 고속 전송 학습을 수행하는 고유한 API를 제공합니다. (자세한 내용은 Edge TPU Python API 개요를 참조하세요.htps // 코라 l. 아이/도 cs/에드게 t푸/아피인 t로/)

C++에서 추론 수행



C++로 코드를 작성하려면 다른 플랫폼에서 TensorFlow Lite를 실행하는 것처럼 TensorFlow Lite C ++ API를 사용해야합니다. 그러나 edgetpu.h 또는 edgetpu_c.h 파일의 API를 사용하여 코드를 몇 가지 변경해야 합니다. 기본적으로 Interpreter 객체의 외부 컨텍스트로 Edge TPU 장치를 등록하기 만하면됩니다. (자세한 내용은 C++에서 TensorFlow Lite에서 추론 실행을 참조하십시오. htps // 코라 l. 아이/도 cs/에드게 t푸/tfぃ테-cp/)

Coral Accelerator 모듈은 2020년 초에 Coral 웹 사이트에서 판매됩니다. Google Coral 제품 및 대량 판매 또는 대량 판매 (볼륨 할인)에 관심이 있다면 환영합니다 Coral 해외 대행사 Gravitylink : htps : ///s. g 등 ぃ ty k k. 코 m/gぉ바 l

좋은 웹페이지 즐겨찾기