Transformer(심층 학습)와 Transformers(타카라토미라든지)가 융합되고 있다.
2914 단어 Transformer심층 학습DeepLearningViT
개요
예의 Attention is All xxxx(2017)의 Transformer가, 조금, 일반 명사 지나 다소 신경이 쓰인다.
CNN 같은 명칭으로 할 수 없었던 것인가.
아니면, 새로운 Vision Transformer(ViT)라든지에의 전개도 상정해, 스스로는, 짧은 이름으로 한 것인가? ? ?
이 기사의 원래 제목은 아래.
Transformer(심층 학습)는, transformer(변압기)로부터 135년 흔들어에 단어를 빼앗을 것인가? [숨 쉬기]
조사 결과
다음 어원 사전에서 transformer의 동향을 조사했다.
htps //w w. 네 tymone. 이 m / rd / t rans f r r
아래 페이지에서 결과를 인용.
c. 1600, "one who or that which transforms,"agent noun from transform (v.). Meaning "device to reduce electrical currents"is from 1882.
Google 번역(엄마)
c. 1600년, “변신하는 사람 또는 변신하는 사람”, 변신으로부터의 동작 주명사(v.). "전류를 감소시키는 장치"의 의미는 1882년부터입니다.
⇒ 1882년부터 변압기가 되어 있는 것 같다.
아래 그림은 아래 위키에서 인용.
htps // 엔.ぃきぺぢ아. 오 rg / uki / T ran s fur r
애초에 변압기가 너무 독점했다고도 할 수 있을지도.
Transformer(심층 학습)와 Transformers(타카라토미라든지)가 융합되고 있다. 추가 (2021/1/14)
이전, 「여담」으로, 예상하고 있었지만. . .
이하,
PointTransformer
에서 인용
이 논문은 아래의 AI-SCHOLAR 기사(2021/1/13)에서 소개되어 있습니다.
요약
특히 없습니다.
ViT를 포함한 Transformer는 어렵고 머리에 쉽게 들어가지 않기 때문에 잡담이었습니다.
코멘트 등이 있으면 부탁드립니다
이 기사에서 유용한 정보는 위의 어원 사이트, 여기의 정확성은 잘 모르겠지만, 정보가 상세한 것이 좋습니다.
여담
카타카나의 트랜스포머는, 여유로, 이하라고 생각하지만.
그림은 아래 위키 인용.
htps // 엔.ぃきぺぢ아. 오 rg / uki / T ran s fur rs
관련(본인)
이미지 인식, "Vision Transformer (ViT)"와 "Visual Transformers"의 비교
자기주의 Self-Attention의 해설로 알기 쉽다고 생각한 기사N선택(아직,N=5)
Reference
이 문제에 관하여(Transformer(심층 학습)와 Transformers(타카라토미라든지)가 융합되고 있다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/ee6d6ca3605336ae6aa9
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
다음 어원 사전에서 transformer의 동향을 조사했다.
htps //w w. 네 tymone. 이 m / rd / t rans f r r
아래 페이지에서 결과를 인용.
c. 1600, "one who or that which transforms,"agent noun from transform (v.). Meaning "device to reduce electrical currents"is from 1882.
Google 번역(엄마)
c. 1600년, “변신하는 사람 또는 변신하는 사람”, 변신으로부터의 동작 주명사(v.). "전류를 감소시키는 장치"의 의미는 1882년부터입니다.
⇒ 1882년부터 변압기가 되어 있는 것 같다.
아래 그림은 아래 위키에서 인용.
htps // 엔.ぃきぺぢ아. 오 rg / uki / T ran s fur r
애초에 변압기가 너무 독점했다고도 할 수 있을지도.
Transformer(심층 학습)와 Transformers(타카라토미라든지)가 융합되고 있다. 추가 (2021/1/14)
이전, 「여담」으로, 예상하고 있었지만. . .
이하,
PointTransformer
에서 인용
이 논문은 아래의 AI-SCHOLAR 기사(2021/1/13)에서 소개되어 있습니다.
요약
특히 없습니다.
ViT를 포함한 Transformer는 어렵고 머리에 쉽게 들어가지 않기 때문에 잡담이었습니다.
코멘트 등이 있으면 부탁드립니다
이 기사에서 유용한 정보는 위의 어원 사이트, 여기의 정확성은 잘 모르겠지만, 정보가 상세한 것이 좋습니다.
여담
카타카나의 트랜스포머는, 여유로, 이하라고 생각하지만.
그림은 아래 위키 인용.
htps // 엔.ぃきぺぢ아. 오 rg / uki / T ran s fur rs
관련(본인)
이미지 인식, "Vision Transformer (ViT)"와 "Visual Transformers"의 비교
자기주의 Self-Attention의 해설로 알기 쉽다고 생각한 기사N선택(아직,N=5)
Reference
이 문제에 관하여(Transformer(심층 학습)와 Transformers(타카라토미라든지)가 융합되고 있다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/ee6d6ca3605336ae6aa9
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
특히 없습니다.
ViT를 포함한 Transformer는 어렵고 머리에 쉽게 들어가지 않기 때문에 잡담이었습니다.
코멘트 등이 있으면 부탁드립니다
이 기사에서 유용한 정보는 위의 어원 사이트, 여기의 정확성은 잘 모르겠지만, 정보가 상세한 것이 좋습니다.
여담
카타카나의 트랜스포머는, 여유로, 이하라고 생각하지만.
그림은 아래 위키 인용.
htps // 엔.ぃきぺぢ아. 오 rg / uki / T ran s fur rs
관련(본인)
이미지 인식, "Vision Transformer (ViT)"와 "Visual Transformers"의 비교
자기주의 Self-Attention의 해설로 알기 쉽다고 생각한 기사N선택(아직,N=5)
Reference
이 문제에 관하여(Transformer(심층 학습)와 Transformers(타카라토미라든지)가 융합되고 있다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다
https://qiita.com/enoughspacefor/items/ee6d6ca3605336ae6aa9
텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념
(Collection and Share based on the CC Protocol.)
이미지 인식, "Vision Transformer (ViT)"와 "Visual Transformers"의 비교
자기주의 Self-Attention의 해설로 알기 쉽다고 생각한 기사N선택(아직,N=5)
Reference
이 문제에 관하여(Transformer(심층 학습)와 Transformers(타카라토미라든지)가 융합되고 있다.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://qiita.com/enoughspacefor/items/ee6d6ca3605336ae6aa9텍스트를 자유롭게 공유하거나 복사할 수 있습니다.하지만 이 문서의 URL은 참조 URL로 남겨 두십시오.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)