icrosoft Computer Vision에 대한 Google Cloud Vision의 머신러닝 이미지 인식
입문
어제 저녁 2시부터 구글 I/O 노트북을 보기 시작했는데 오늘은 잠이 부족합니다.
요즘 구글의 발표도 재미있어서 실시간으로 봤어요.
나는 역시 마이크로소프트의 Build와 de:code가 더욱 사람을 설레게 한다.
실제 조작의 시범은 매우 적죠?
녹화만 하는 것 같아서 실제로 하지 않은 시위.
하면, 만약, 만약...
그 자리에서 보여주기로 했는데
그럼 그 구글 I/O를 보면서
AI 기술의 일부인 이미지 인식 API를 봤습니다.
나는 마이크로소프트의 과도한 이미지 식별보다 어떤 것이 더 센지 시험해 보고 싶다
하기 싫어서 해봤어요.
사용 서비스
・Google Cloud Vision API
https://cloud.google.com/vision/
・Microsoft Computer Vison API
https://www.microsoft.com/cognitive-services/en-us/computer-vision-api
단계 사용
・Google Cloud Vision API
구글 클라우드 서비스 저장소에 설정된 사진입니다.
번거롭지만 클라우드를 등록하고 사용하는 것을 무료로 체험할 수 있습니다.
절차는 ↓ 사이트에 있다.
https://cloud.google.com/vision/docs/quickstart
・Microsoft Computer Vision API
S가 간단하게 시도할 수 있는 데모 사이트를 준비했기 때문에 그걸 이용했습니다.
https://www.microsoft.com/cognitive-services/en-us/computer-vision-api
시험 결과
일단 다섯 개 정도 해봤어요.
● 첫 번째 ●
----Google------------
※ 스코어의 확신 정도
----Google-------------
----Microsoft----------
----Microsoft----------
● 두 번째 ●
----Google------------
----Google-------------
----Microsoft----------
----Microsoft----------
● 세 번째 ●
----Google------------
----Google-------------
----Microsoft----------
----Microsoft----------
● 네 번째
화질이 좀 떨어지는 사진.
----Google------------
----Google-------------
----Microsoft----------
----Microsoft----------
고찰
마이크로소프트 측의 Description 내의 text는 매우 대단하다.
세 번째 사진을 봤습니다. "a brown and white dog sitting in a field(바닥에 앉은 차색과 색깔의 털색 개)"!
다섯 번째 사진을 봤습니다. "a young boy sitting in front of a piano(피아노 앞에 앉아 있는 젊은 소년)"!
라벨 부분에 관해서 말하자면, 나는 박빙이라고 생각한다
나는 마이크로소프트의 Description이 압도적이라고 생각한다.
· 우선 하나의 물체를 단독으로 판단하는 것이 아니라'피아노 앞에서'등의 위치 관계를 이해하고 설명하는 것이다
・ 사람과 동물에 관하여, 앉음과 횡단보도 등의 활동 상태를 설명하였다.
사진에서 가장 눈에 띄는 것을 설명했다
사람들이 사진을 볼 때 파악하고 싶은 상황.
나는 설명이 매우 간결하다고 생각한다.
위 4장 외에도 10장 정도의 사진을 시도했지만 설명력이 좋았다.
그래서 나는 이것이 마이크로소프트 이미지 식별의 승리라고 생각한다.
상당히 편파적인 평가지만...
끝내다
icrosoft의 Description 섹션 사용
나는 즐거운 것을 좀 만들 수 있을지 생각하고 있다.
나는 로봇 장난감을 만들어 보고 싶다.
로봇의 눈에는 카메라가 있다
"지금 뭐 봤어요?"그렇다면
그 소리를 촉발해서 사진을 찍었어요.
컴퓨터 Vision API에 사진을 넣고 결과를 수신
그리고 영어를 일본어로 번역한 API를 던져서 결과를 받아보도록 하겠습니다.
야마하의 보카로 같은 기능을 음성으로 일본어를 출력하도록 하세요.
처리 시간 중 "응~응, 응~응."그에게 말하게 하다
"피아노 앞에 남자 아이가 앉았어요!"대답하라고.
하지만 로봇에게 거의 모든 사람이 할 수 있는 일을 시키더라도 비즈니스에는 수요가 없다.
그래서 눈앞의 상황을 말로 설명할 수 있는 로봇의 용도는
오락밖에 없는 것 같아요.
다들 깜짝 놀랄 것 같아. 나한테 관심 있는 거 아니야?
다음에 아들이랑 같이 하자.
※ [계속] 머신러닝 이미지 인식 Google이 Microsoft에 이어 IBM Watson
http://qiita.com/tomohiku/items/c133341653e728f73cbf
Reference
이 문제에 관하여(icrosoft Computer Vision에 대한 Google Cloud Vision의 머신러닝 이미지 인식), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/tomohiku/items/2969db0c13582c5bc4b3
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
・Google Cloud Vision API
https://cloud.google.com/vision/
・Microsoft Computer Vison API
https://www.microsoft.com/cognitive-services/en-us/computer-vision-api
단계 사용
・Google Cloud Vision API
구글 클라우드 서비스 저장소에 설정된 사진입니다.
번거롭지만 클라우드를 등록하고 사용하는 것을 무료로 체험할 수 있습니다.
절차는 ↓ 사이트에 있다.
https://cloud.google.com/vision/docs/quickstart
・Microsoft Computer Vision API
S가 간단하게 시도할 수 있는 데모 사이트를 준비했기 때문에 그걸 이용했습니다.
https://www.microsoft.com/cognitive-services/en-us/computer-vision-api
시험 결과
일단 다섯 개 정도 해봤어요.
● 첫 번째 ●
----Google------------
※ 스코어의 확신 정도
----Google-------------
----Microsoft----------
----Microsoft----------
● 두 번째 ●
----Google------------
----Google-------------
----Microsoft----------
----Microsoft----------
● 세 번째 ●
----Google------------
----Google-------------
----Microsoft----------
----Microsoft----------
● 네 번째
화질이 좀 떨어지는 사진.
----Google------------
----Google-------------
----Microsoft----------
----Microsoft----------
고찰
마이크로소프트 측의 Description 내의 text는 매우 대단하다.
세 번째 사진을 봤습니다. "a brown and white dog sitting in a field(바닥에 앉은 차색과 색깔의 털색 개)"!
다섯 번째 사진을 봤습니다. "a young boy sitting in front of a piano(피아노 앞에 앉아 있는 젊은 소년)"!
라벨 부분에 관해서 말하자면, 나는 박빙이라고 생각한다
나는 마이크로소프트의 Description이 압도적이라고 생각한다.
· 우선 하나의 물체를 단독으로 판단하는 것이 아니라'피아노 앞에서'등의 위치 관계를 이해하고 설명하는 것이다
・ 사람과 동물에 관하여, 앉음과 횡단보도 등의 활동 상태를 설명하였다.
사진에서 가장 눈에 띄는 것을 설명했다
사람들이 사진을 볼 때 파악하고 싶은 상황.
나는 설명이 매우 간결하다고 생각한다.
위 4장 외에도 10장 정도의 사진을 시도했지만 설명력이 좋았다.
그래서 나는 이것이 마이크로소프트 이미지 식별의 승리라고 생각한다.
상당히 편파적인 평가지만...
끝내다
icrosoft의 Description 섹션 사용
나는 즐거운 것을 좀 만들 수 있을지 생각하고 있다.
나는 로봇 장난감을 만들어 보고 싶다.
로봇의 눈에는 카메라가 있다
"지금 뭐 봤어요?"그렇다면
그 소리를 촉발해서 사진을 찍었어요.
컴퓨터 Vision API에 사진을 넣고 결과를 수신
그리고 영어를 일본어로 번역한 API를 던져서 결과를 받아보도록 하겠습니다.
야마하의 보카로 같은 기능을 음성으로 일본어를 출력하도록 하세요.
처리 시간 중 "응~응, 응~응."그에게 말하게 하다
"피아노 앞에 남자 아이가 앉았어요!"대답하라고.
하지만 로봇에게 거의 모든 사람이 할 수 있는 일을 시키더라도 비즈니스에는 수요가 없다.
그래서 눈앞의 상황을 말로 설명할 수 있는 로봇의 용도는
오락밖에 없는 것 같아요.
다들 깜짝 놀랄 것 같아. 나한테 관심 있는 거 아니야?
다음에 아들이랑 같이 하자.
※ [계속] 머신러닝 이미지 인식 Google이 Microsoft에 이어 IBM Watson
http://qiita.com/tomohiku/items/c133341653e728f73cbf
Reference
이 문제에 관하여(icrosoft Computer Vision에 대한 Google Cloud Vision의 머신러닝 이미지 인식), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/tomohiku/items/2969db0c13582c5bc4b3
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
일단 다섯 개 정도 해봤어요.
● 첫 번째 ●
----Google------------
※ 스코어의 확신 정도
----Google-------------
----Microsoft----------
----Microsoft----------
● 두 번째 ●
----Google------------
----Google-------------
----Microsoft----------
----Microsoft----------
● 세 번째 ●
----Google------------
----Google-------------
----Microsoft----------
----Microsoft----------
● 네 번째
화질이 좀 떨어지는 사진.
----Google------------
----Google-------------
----Microsoft----------
----Microsoft----------
고찰
마이크로소프트 측의 Description 내의 text는 매우 대단하다.
세 번째 사진을 봤습니다. "a brown and white dog sitting in a field(바닥에 앉은 차색과 색깔의 털색 개)"!
다섯 번째 사진을 봤습니다. "a young boy sitting in front of a piano(피아노 앞에 앉아 있는 젊은 소년)"!
라벨 부분에 관해서 말하자면, 나는 박빙이라고 생각한다
나는 마이크로소프트의 Description이 압도적이라고 생각한다.
· 우선 하나의 물체를 단독으로 판단하는 것이 아니라'피아노 앞에서'등의 위치 관계를 이해하고 설명하는 것이다
・ 사람과 동물에 관하여, 앉음과 횡단보도 등의 활동 상태를 설명하였다.
사진에서 가장 눈에 띄는 것을 설명했다
사람들이 사진을 볼 때 파악하고 싶은 상황.
나는 설명이 매우 간결하다고 생각한다.
위 4장 외에도 10장 정도의 사진을 시도했지만 설명력이 좋았다.
그래서 나는 이것이 마이크로소프트 이미지 식별의 승리라고 생각한다.
상당히 편파적인 평가지만...
끝내다
icrosoft의 Description 섹션 사용
나는 즐거운 것을 좀 만들 수 있을지 생각하고 있다.
나는 로봇 장난감을 만들어 보고 싶다.
로봇의 눈에는 카메라가 있다
"지금 뭐 봤어요?"그렇다면
그 소리를 촉발해서 사진을 찍었어요.
컴퓨터 Vision API에 사진을 넣고 결과를 수신
그리고 영어를 일본어로 번역한 API를 던져서 결과를 받아보도록 하겠습니다.
야마하의 보카로 같은 기능을 음성으로 일본어를 출력하도록 하세요.
처리 시간 중 "응~응, 응~응."그에게 말하게 하다
"피아노 앞에 남자 아이가 앉았어요!"대답하라고.
하지만 로봇에게 거의 모든 사람이 할 수 있는 일을 시키더라도 비즈니스에는 수요가 없다.
그래서 눈앞의 상황을 말로 설명할 수 있는 로봇의 용도는
오락밖에 없는 것 같아요.
다들 깜짝 놀랄 것 같아. 나한테 관심 있는 거 아니야?
다음에 아들이랑 같이 하자.
※ [계속] 머신러닝 이미지 인식 Google이 Microsoft에 이어 IBM Watson
http://qiita.com/tomohiku/items/c133341653e728f73cbf
Reference
이 문제에 관하여(icrosoft Computer Vision에 대한 Google Cloud Vision의 머신러닝 이미지 인식), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/tomohiku/items/2969db0c13582c5bc4b3
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
icrosoft의 Description 섹션 사용
나는 즐거운 것을 좀 만들 수 있을지 생각하고 있다.
나는 로봇 장난감을 만들어 보고 싶다.
로봇의 눈에는 카메라가 있다
"지금 뭐 봤어요?"그렇다면
그 소리를 촉발해서 사진을 찍었어요.
컴퓨터 Vision API에 사진을 넣고 결과를 수신
그리고 영어를 일본어로 번역한 API를 던져서 결과를 받아보도록 하겠습니다.
야마하의 보카로 같은 기능을 음성으로 일본어를 출력하도록 하세요.
처리 시간 중 "응~응, 응~응."그에게 말하게 하다
"피아노 앞에 남자 아이가 앉았어요!"대답하라고.
하지만 로봇에게 거의 모든 사람이 할 수 있는 일을 시키더라도 비즈니스에는 수요가 없다.
그래서 눈앞의 상황을 말로 설명할 수 있는 로봇의 용도는
오락밖에 없는 것 같아요.
다들 깜짝 놀랄 것 같아. 나한테 관심 있는 거 아니야?
다음에 아들이랑 같이 하자.
※ [계속] 머신러닝 이미지 인식 Google이 Microsoft에 이어 IBM Watson
http://qiita.com/tomohiku/items/c133341653e728f73cbf
Reference
이 문제에 관하여(icrosoft Computer Vision에 대한 Google Cloud Vision의 머신러닝 이미지 인식), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/tomohiku/items/2969db0c13582c5bc4b3텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)