Google Lens는 어떤 기술로 만들어졌나요? 구글 그래서 Tensorflow? GoogLeNet?
4342 단어 TensorFlowlensgoogleDNNGoogLeNet
목적
Google Lens는, 찍은 것이 무엇인가를 가르쳐 준다.
밑그림(인용)의 경우, 찍은 식물이 「츠바키」라고 Google Lens가 가르쳐 준다. 너무 굉장하다. . . . .
※Google Lens가 생각하고 있는 동안에는, 화면에, 랜덤하게? , 하얀 점 같은 것이 많이 있다. . .
화면의 특징을 포착하는 처리를 사용자에게 보여준다. . 그 자체로는 유의한 정보는 없기 때문에, 분위기 만들기입니다만,,,
(인용도: h tps : // 아 p ぃ오. 코 m / 호 w- 토우 우세 고 오 g ぇ - ぇ s )
자, 이것(Google Lens)은, 어떤 기술로 되어 있는 것일까?
구글 그래서 Tensorflow? GoogLeNet?
조사한 결과는, 이하.
Google Lens에서 사용되는 기술
전치
결론부터 먼저 말하면, 구체적으로 친절하게 설명된 정보를 찾을 수 없었다.
기업 비밀이라고 할까, 경쟁사도 있기 때문에, Google이 적극적으로는, 정보를 공개하고 있지 않다고 생각한다.
매우 눈에 띄는 기능 (서비스)이므로,
정보가 공개되면 난이도에 관계없이 씹는 것을 포함하여 널리 정보가 많이 표시되어야합니다.
일단, 이하의 3개의 기사는 참고가 된다고 생각한다.
전자 2개는, Google의 사이트에서의 기사.
알았던 것
알게 된 것을 출처에서 인용한다.
(출처: htps //w w. bぉg. 오 ぇ / ぺ rs ぺ c ゔ ぇ s / 아빠 r- ぇ ぇ 아 p 가다 / )
as you may have guessed, is machine learning and computer vision
"machine learning"뿐만 아니라 "computer vision"도.
Lens uses TensorFlow—Google’s open source machine learning framework—to connect the dog images you see above to the words “Shiba Inu” and “dog.”
「TensorFlow」라고는 쓰여지고 있지만, 「GoogLeNet」의 문언은 없다.
we connect those labels to Google's Knowledge Graph
「Google's Knowledge Graph」라고 하는 것이 있네요.
(출처: htps //w w. bぉg. 오 g / p 로즈 cts / 오 g g - s s rld-d-d-bo / )
This is only possible with state-of-the-art machine learning, using both on-device intelligence and cloud TPUs, to identify billions of words, phrases, places, and things in a split second
「on-device intelligence」와「cloud TPUs」의 both인것 같다.
어떻게 분업, 제휴하고 있는 것일까요.
다음 출처는 Google 자체가 아니므로,
정보가 올바른지 확실하지 않습니다. 추측일지도 모른다.
(출처: htps //w w. 아나 lyc c 신아 아마 g. 이 m / why-o-g ぇ- ぇ s - s- te-pe r fu ct- ansu r fu r / )
Features, can be based on attributes like colour, texture, shape etc. of an image which is extracted with popular techniques of image processing like binarizations , image transforms, etc. or by deep learning based techniques.
(그림 출처: htps //w w. 아나 lyc c 신아 아마 g. 이 m / why-o-g ぇ- ぇ s - s- te-pe r fu ct- ansu r fu r / )
이 그림은, 아는 사람에게는, 기술(의 이름)이 무엇인가 알 수 있겠지요.
알면 추기합니다.
인용을 계속하면
Both handcrafted and deep learning based feature extraction techniques follow this feature extraction step with their corresponding algorithms before performing the final step of image recognition.
그리고 'handcrafted'와 'deep learning'의 both가 되고 있다.
이것은 위의
"machine learning"뿐만 아니라 "computer vision"도. 』
같은 지적.
미래
좀 더 좋은 정보가 있으면 가필합니다.
의견이나 정보가 있으면 부탁드립니다
관련(본인)
좋은 책 "0에서 만든 Deep Learning - Python에서 배우는 딥 러닝의 이론과 구현"을 읽으십시오.
Reference
이 문제에 관하여(Google Lens는 어떤 기술로 만들어졌나요? 구글 그래서 Tensorflow? GoogLeNet?), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/872c3c6f6ad25b6180bb
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
전치
결론부터 먼저 말하면, 구체적으로 친절하게 설명된 정보를 찾을 수 없었다.
기업 비밀이라고 할까, 경쟁사도 있기 때문에, Google이 적극적으로는, 정보를 공개하고 있지 않다고 생각한다.
매우 눈에 띄는 기능 (서비스)이므로,
정보가 공개되면 난이도에 관계없이 씹는 것을 포함하여 널리 정보가 많이 표시되어야합니다.
일단, 이하의 3개의 기사는 참고가 된다고 생각한다.
전자 2개는, Google의 사이트에서의 기사.
알았던 것
알게 된 것을 출처에서 인용한다.
(출처: htps //w w. bぉg. 오 ぇ / ぺ rs ぺ c ゔ ぇ s / 아빠 r- ぇ ぇ 아 p 가다 / )
as you may have guessed, is machine learning and computer vision
"machine learning"뿐만 아니라 "computer vision"도.
Lens uses TensorFlow—Google’s open source machine learning framework—to connect the dog images you see above to the words “Shiba Inu” and “dog.”
「TensorFlow」라고는 쓰여지고 있지만, 「GoogLeNet」의 문언은 없다.
we connect those labels to Google's Knowledge Graph
「Google's Knowledge Graph」라고 하는 것이 있네요.
(출처: htps //w w. bぉg. 오 g / p 로즈 cts / 오 g g - s s rld-d-d-bo / )
This is only possible with state-of-the-art machine learning, using both on-device intelligence and cloud TPUs, to identify billions of words, phrases, places, and things in a split second
「on-device intelligence」와「cloud TPUs」의 both인것 같다.
어떻게 분업, 제휴하고 있는 것일까요.
다음 출처는 Google 자체가 아니므로,
정보가 올바른지 확실하지 않습니다. 추측일지도 모른다.
(출처: htps //w w. 아나 lyc c 신아 아마 g. 이 m / why-o-g ぇ- ぇ s - s- te-pe r fu ct- ansu r fu r / )
Features, can be based on attributes like colour, texture, shape etc. of an image which is extracted with popular techniques of image processing like binarizations , image transforms, etc. or by deep learning based techniques.
(그림 출처: htps //w w. 아나 lyc c 신아 아마 g. 이 m / why-o-g ぇ- ぇ s - s- te-pe r fu ct- ansu r fu r / )
이 그림은, 아는 사람에게는, 기술(의 이름)이 무엇인가 알 수 있겠지요.
알면 추기합니다.
인용을 계속하면
Both handcrafted and deep learning based feature extraction techniques follow this feature extraction step with their corresponding algorithms before performing the final step of image recognition.
그리고 'handcrafted'와 'deep learning'의 both가 되고 있다.
이것은 위의
"machine learning"뿐만 아니라 "computer vision"도. 』
같은 지적.
미래
좀 더 좋은 정보가 있으면 가필합니다.
의견이나 정보가 있으면 부탁드립니다
관련(본인)
좋은 책 "0에서 만든 Deep Learning - Python에서 배우는 딥 러닝의 이론과 구현"을 읽으십시오.
Reference
이 문제에 관하여(Google Lens는 어떤 기술로 만들어졌나요? 구글 그래서 Tensorflow? GoogLeNet?), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/872c3c6f6ad25b6180bb
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
좋은 책 "0에서 만든 Deep Learning - Python에서 배우는 딥 러닝의 이론과 구현"을 읽으십시오.
Reference
이 문제에 관하여(Google Lens는 어떤 기술로 만들어졌나요? 구글 그래서 Tensorflow? GoogLeNet?), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/enoughspacefor/items/872c3c6f6ad25b6180bb텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)