UiPath에서 OCR 기능 사용 (GoogleVisionAPI 사용)
4439 단어 OCRUiPathGoogleVisionAPI
이 기사는 무엇입니까?
RPA 도구의
UiPath
및 GoogleVisionAPI
OCR機能
를 사용하여 이미지에 쓰여진 문자를 읽고 텍스트에 쓸 때까지하는 방법을 설명합니다.결과는 이쪽!

절차 및 이미지
거친 흐름은 다음과 같습니다.
UiPath 시퀀스의 이미지는 이런 느낌입니다.

1. Google Cloud Platform에서 GoogleVisionAPI의 API 키 가져오기
Google Cloud Platform에 로그인한 후
APIとサービス
⇒ ライブラリ
를 선택합니다.
그런 다음 열기 화면에서
vision
라고 치면 Cloud Vision API

有効にする
를 클릭합니다.
認証情報
를 클릭합니다.
認証情報を作成
⇒ APIキー
를 클릭합니다.
API 키가 생성되었습니다!

2.UiPath.GoogleVision.Activities 설치
UiPath로 이동하여
UiPath.GoogleVision.Activities
를 설치합니다.
3. GoogleVision 범위에 API 키 설정 및 기타 설정
순서로 다음과 같이 조립합니다.

각 액티비티를 각각 아래 이미지처럼 설정합니다.
이미지의 경로는 분석하고 싶은 이미지의 저장처를 지정해 주세요.
덧붙여서, URL로부터라고 잘 가지 않았으므로 이번은
画像のパス
를 선택했습니다.
텍스트를 파일에 쓰는 것은 다음과 같이 설정했습니다.
파일 저장처(파일명 포함한다)는 어떤 패스로 좋을까 생각합니다.

4. 실행!
자, 실행

결과
로손씨가 보도 기관용으로 제공한 증세시의 영수증을 사용해 읽어 보겠습니다.
오른쪽과 왼쪽을 나누어 버리고 있습니다만, 대체로 읽을 수 있는 느낌이군요.
통상의 문장이라면 전혀 괜찮을 것 같습니다.

덧붙여서 Google Keep 에도 OCR 기능이 있으므로 해 보았습니다.

응? Google Keep이 더 정확하게 보입니다.
아마 일본어로 하지 않았거나 했기 때문에 설정의 문제일까요.
소감
처음 해봤는데 생각보다 쉬웠습니다.
이미지의 간단한 문장의 텍스트화나, 잘하면 전표 관계의 처리라든지 자동화할 수 있을 것 같네요.
Reference
이 문제에 관하여(UiPath에서 OCR 기능 사용 (GoogleVisionAPI 사용)), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/takachan_coding/items/871483f2d7bf6865bae0텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)