【계속】 기계 학습 화상 인식의 Google 대 Microsoft에 이어, IBM Watson 해 보았다
소개
지난번 머신러닝으로 만들어진 이미지 인식 서비스의 Goolge Cloud Vision과 Microsoft Computer Vision의 인식 결과를 비교해 보았습니다.
h tp : // 쿠이타. 이 m/모두 히크/있어 ms/2969db0c13582c5bc4b3
이어 AI나 데이터 분석 관련에서는 최근 어느 기업에 있어도 검토하고 있다고 듣게 된 IBM Watson 패밀리의 이미지 인식을 시험해 보았습니다.
분명히 IBM Watson이라는 브랜드로 제공되는 이미지 인식은 AlchemyAPI 사에서 인수한 기능인 것 같습니다. 따라서 AlchemyAPI에서 제공하는 데모 사이트에서 이전과 동일한 이미지를 사용해 보았습니다.
사용한 서비스
・IBM 산하의 AlchemyAPI사 Alchemy Vision
로그인 등 없이 쉽게 시도할 수 있는 데모 사이트가 있었기 때문에, 그 쪽을 이용
h tp:///ゔぃ시온. ㅇㅇ my. 아이/
시도한 결과
● 첫 번째 ●
좋은 느낌! Google이나 Microsoft에서는 없었던 Retriver(개의 종류)까지 나오고 있다.
●2번째●
어라? Animal?
● 세 번째 ●
응?
●4번째●
···?
고찰
아마 학습 데이터가 동물(개 이외는?)에 특화하고 있는 것이 아닐까 예상됩니다.
그 때문에, 학습을 올바르게 실시하면 견종 등도 거의 정확하게 낼 수 있다는 것을 나타내고 있어,
기업 내에서 이용하는 경우는 그 내용에 맞는 학습 데이터를 사용하여 모델을 만들 필요가 있다는 것입니다.
그럼에도 불구하고, 기업 내에서 이미지 인식을 위해 학습 데이터를 만드는 것은 너무 큽니다.
서비스 제공 측에서 그것은 제공하지 않으면 서비스로서 성립되지 않는 것처럼 느낍니다.
라는 관점에서는 범용적인 사진에 폭넓게 대응하고 있는 Google이나 Microsoft의 서비스가
사용 가능한 시나리오가 많다고 느꼈습니다.
결론
MS가 올해 2월쯤에 낸 견종 판별 앱은 왓슨에 대항해 냈지 않을까 하고 이번 결과를 보고 생각했습니다. Watson이 상담에서 사용하고 있었는데 대응하기 때문일까. 어디까지나 마음대로 예상입니다만.
· Fetch! A Microsoft Garage Project
htps: //언제나 s. 아 ぇ. 이 m/jp/아 p/후 tch! - 미 c 로소 ft 가라 게 p p 로지 ct / i d1050367912
전회도 같은 일을 썼습니다만, 이 기술 대단한 것은 대단합니다만,
현재는 이용 용도가 제한될 것 같다.
예를 들어, 마이크로소프트나 페이스북이 하고 있던 시각 장애인에게
「지금, 전에 무엇이 보이고 있는지」를 음성으로 전하는 서비스 등이 최적의 솔루션이군요.
앞으로 이용이 폭발적으로 증가하는 것은
견종과 같은 다소 전문적인 지식을 폭넓게 가르쳐 준 때라고 생각됩니다.
이전에 마이크로소프트가 Future Vision이라는 이름으로 내놓았던 동영상으로,
모르는 식물을 모바일 단말기로 찍으면 그 식물의 이름을 가르쳐주는 장면이있었습니다.
・Microsoft가 Future Vision 2013년판
htps //w w. 요츠베. 이 m/와 tch? v = 오 → 아 k ぃ F 우이
이것을 보았을 때, 매우 흥분했습니다.
지금까지 텍스트로 할 수있는 것만 검색 할 수 있었지만,
영상으로 검색할 수 있다고 꽤 효율적으로 조사할 수 있지 않을까
지식을 얻을 기회가 폭발적으로 늘어나지 않을까 생각했습니다.
밖에서 모르는 꽃의 이름을 말해주거나,
모르는 도구나 기계를 보았을 때 그것이 무엇에 사용하는 것인지, 어떻게 사용하는지 가르쳐 주면,
굉장히 세계가 퍼질 것이라고 생각합니다.
앞으로의 이미지 인식은 버전 업마다
「견종에 대응했습니다」라든가 「문방구에 대응했습니다」
라고 하는 상태가 되어 가는 것이 아닐까.
재미입니다.
Reference
이 문제에 관하여(【계속】 기계 학습 화상 인식의 Google 대 Microsoft에 이어, IBM Watson 해 보았다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/tomohiku/items/c133341653e728f73cbf
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
・IBM 산하의 AlchemyAPI사 Alchemy Vision
로그인 등 없이 쉽게 시도할 수 있는 데모 사이트가 있었기 때문에, 그 쪽을 이용
h tp:///ゔぃ시온. ㅇㅇ my. 아이/
시도한 결과
● 첫 번째 ●
좋은 느낌! Google이나 Microsoft에서는 없었던 Retriver(개의 종류)까지 나오고 있다.
●2번째●
어라? Animal?
● 세 번째 ●
응?
●4번째●
···?
고찰
아마 학습 데이터가 동물(개 이외는?)에 특화하고 있는 것이 아닐까 예상됩니다.
그 때문에, 학습을 올바르게 실시하면 견종 등도 거의 정확하게 낼 수 있다는 것을 나타내고 있어,
기업 내에서 이용하는 경우는 그 내용에 맞는 학습 데이터를 사용하여 모델을 만들 필요가 있다는 것입니다.
그럼에도 불구하고, 기업 내에서 이미지 인식을 위해 학습 데이터를 만드는 것은 너무 큽니다.
서비스 제공 측에서 그것은 제공하지 않으면 서비스로서 성립되지 않는 것처럼 느낍니다.
라는 관점에서는 범용적인 사진에 폭넓게 대응하고 있는 Google이나 Microsoft의 서비스가
사용 가능한 시나리오가 많다고 느꼈습니다.
결론
MS가 올해 2월쯤에 낸 견종 판별 앱은 왓슨에 대항해 냈지 않을까 하고 이번 결과를 보고 생각했습니다. Watson이 상담에서 사용하고 있었는데 대응하기 때문일까. 어디까지나 마음대로 예상입니다만.
· Fetch! A Microsoft Garage Project
htps: //언제나 s. 아 ぇ. 이 m/jp/아 p/후 tch! - 미 c 로소 ft 가라 게 p p 로지 ct / i d1050367912
전회도 같은 일을 썼습니다만, 이 기술 대단한 것은 대단합니다만,
현재는 이용 용도가 제한될 것 같다.
예를 들어, 마이크로소프트나 페이스북이 하고 있던 시각 장애인에게
「지금, 전에 무엇이 보이고 있는지」를 음성으로 전하는 서비스 등이 최적의 솔루션이군요.
앞으로 이용이 폭발적으로 증가하는 것은
견종과 같은 다소 전문적인 지식을 폭넓게 가르쳐 준 때라고 생각됩니다.
이전에 마이크로소프트가 Future Vision이라는 이름으로 내놓았던 동영상으로,
모르는 식물을 모바일 단말기로 찍으면 그 식물의 이름을 가르쳐주는 장면이있었습니다.
・Microsoft가 Future Vision 2013년판
htps //w w. 요츠베. 이 m/와 tch? v = 오 → 아 k ぃ F 우이
이것을 보았을 때, 매우 흥분했습니다.
지금까지 텍스트로 할 수있는 것만 검색 할 수 있었지만,
영상으로 검색할 수 있다고 꽤 효율적으로 조사할 수 있지 않을까
지식을 얻을 기회가 폭발적으로 늘어나지 않을까 생각했습니다.
밖에서 모르는 꽃의 이름을 말해주거나,
모르는 도구나 기계를 보았을 때 그것이 무엇에 사용하는 것인지, 어떻게 사용하는지 가르쳐 주면,
굉장히 세계가 퍼질 것이라고 생각합니다.
앞으로의 이미지 인식은 버전 업마다
「견종에 대응했습니다」라든가 「문방구에 대응했습니다」
라고 하는 상태가 되어 가는 것이 아닐까.
재미입니다.
Reference
이 문제에 관하여(【계속】 기계 학습 화상 인식의 Google 대 Microsoft에 이어, IBM Watson 해 보았다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/tomohiku/items/c133341653e728f73cbf
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
아마 학습 데이터가 동물(개 이외는?)에 특화하고 있는 것이 아닐까 예상됩니다.
그 때문에, 학습을 올바르게 실시하면 견종 등도 거의 정확하게 낼 수 있다는 것을 나타내고 있어,
기업 내에서 이용하는 경우는 그 내용에 맞는 학습 데이터를 사용하여 모델을 만들 필요가 있다는 것입니다.
그럼에도 불구하고, 기업 내에서 이미지 인식을 위해 학습 데이터를 만드는 것은 너무 큽니다.
서비스 제공 측에서 그것은 제공하지 않으면 서비스로서 성립되지 않는 것처럼 느낍니다.
라는 관점에서는 범용적인 사진에 폭넓게 대응하고 있는 Google이나 Microsoft의 서비스가
사용 가능한 시나리오가 많다고 느꼈습니다.
결론
MS가 올해 2월쯤에 낸 견종 판별 앱은 왓슨에 대항해 냈지 않을까 하고 이번 결과를 보고 생각했습니다. Watson이 상담에서 사용하고 있었는데 대응하기 때문일까. 어디까지나 마음대로 예상입니다만.
· Fetch! A Microsoft Garage Project
htps: //언제나 s. 아 ぇ. 이 m/jp/아 p/후 tch! - 미 c 로소 ft 가라 게 p p 로지 ct / i d1050367912
전회도 같은 일을 썼습니다만, 이 기술 대단한 것은 대단합니다만,
현재는 이용 용도가 제한될 것 같다.
예를 들어, 마이크로소프트나 페이스북이 하고 있던 시각 장애인에게
「지금, 전에 무엇이 보이고 있는지」를 음성으로 전하는 서비스 등이 최적의 솔루션이군요.
앞으로 이용이 폭발적으로 증가하는 것은
견종과 같은 다소 전문적인 지식을 폭넓게 가르쳐 준 때라고 생각됩니다.
이전에 마이크로소프트가 Future Vision이라는 이름으로 내놓았던 동영상으로,
모르는 식물을 모바일 단말기로 찍으면 그 식물의 이름을 가르쳐주는 장면이있었습니다.
・Microsoft가 Future Vision 2013년판
htps //w w. 요츠베. 이 m/와 tch? v = 오 → 아 k ぃ F 우이
이것을 보았을 때, 매우 흥분했습니다.
지금까지 텍스트로 할 수있는 것만 검색 할 수 있었지만,
영상으로 검색할 수 있다고 꽤 효율적으로 조사할 수 있지 않을까
지식을 얻을 기회가 폭발적으로 늘어나지 않을까 생각했습니다.
밖에서 모르는 꽃의 이름을 말해주거나,
모르는 도구나 기계를 보았을 때 그것이 무엇에 사용하는 것인지, 어떻게 사용하는지 가르쳐 주면,
굉장히 세계가 퍼질 것이라고 생각합니다.
앞으로의 이미지 인식은 버전 업마다
「견종에 대응했습니다」라든가 「문방구에 대응했습니다」
라고 하는 상태가 되어 가는 것이 아닐까.
재미입니다.
Reference
이 문제에 관하여(【계속】 기계 학습 화상 인식의 Google 대 Microsoft에 이어, IBM Watson 해 보았다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/tomohiku/items/c133341653e728f73cbf
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
Reference
이 문제에 관하여(【계속】 기계 학습 화상 인식의 Google 대 Microsoft에 이어, IBM Watson 해 보았다), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/tomohiku/items/c133341653e728f73cbf텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)