transformers [🤗 강좌 2.2] Pipeline 내부 실행 과정 다른 신경망(neural networks)과 마찬가지로 Transformer 모델은 원시 텍스트를 직접 처리할 수 없으므로 파이프라인의 첫번째 단계는 텍스트 입력을 모델이 이해할 수 있는 숫자로 변환하는 것입니다. 일단 위와 같이 토크나이저(tokenizer)를 생성하면, 아래의 코드에서 보는 것처럼, 이 토크나이저에 문장을 입력하여 모델에 바로 전달할 수 있는 파이썬 딕셔너리(diction... 파이프라인logitstokenizertransformerslogits [NLP] PyTorch Lightning 라이브러리를 이용한 Binary-Classification Fine-tuning. NLP에 관심이 많은 사람들이라면 다 아는 이야기이니 전이학습, Transfer-Learning에 대한 이야기는 이정도로 하고 전이학습에서 주로 사용되는 용어인 PLM, Fine-tuning 등에 대해 간략히 설명해보겠다. 많은 양의 텍스트 데이터를 활용하여 일반적인 수준의 언어 이해(language understanding)가 가능하도록 단어 시퀀스에 확률을 부여하는 모델인 LM(Langu... huggingfacetransformersNLPBERTrobertaFine TuningClass Imbalancepytorch lightningBERT [🤗 강좌 1.3] 🤗Transformers가 할 수 있는 것들... 이 섹션에서는 트랜스포머 모델이 무엇을 할 수 있는지 살펴보고, 🤗Transformers 라이브러리의 첫 번째 도구인 pipeline() 함수를 사용해볼 것입니다. 에는 누구나 다운로드하여 사용할 수 있는 수천 개의 사전 학습된 모델(pretrained models)들이 포함되어 있습니다. 누구나 원하는 모든 종류의 모델이나 데이터셋(datasets)을 공유할 수 있습니다! 트랜스포머 모델이... transformerstransformers
[🤗 강좌 2.2] Pipeline 내부 실행 과정 다른 신경망(neural networks)과 마찬가지로 Transformer 모델은 원시 텍스트를 직접 처리할 수 없으므로 파이프라인의 첫번째 단계는 텍스트 입력을 모델이 이해할 수 있는 숫자로 변환하는 것입니다. 일단 위와 같이 토크나이저(tokenizer)를 생성하면, 아래의 코드에서 보는 것처럼, 이 토크나이저에 문장을 입력하여 모델에 바로 전달할 수 있는 파이썬 딕셔너리(diction... 파이프라인logitstokenizertransformerslogits [NLP] PyTorch Lightning 라이브러리를 이용한 Binary-Classification Fine-tuning. NLP에 관심이 많은 사람들이라면 다 아는 이야기이니 전이학습, Transfer-Learning에 대한 이야기는 이정도로 하고 전이학습에서 주로 사용되는 용어인 PLM, Fine-tuning 등에 대해 간략히 설명해보겠다. 많은 양의 텍스트 데이터를 활용하여 일반적인 수준의 언어 이해(language understanding)가 가능하도록 단어 시퀀스에 확률을 부여하는 모델인 LM(Langu... huggingfacetransformersNLPBERTrobertaFine TuningClass Imbalancepytorch lightningBERT [🤗 강좌 1.3] 🤗Transformers가 할 수 있는 것들... 이 섹션에서는 트랜스포머 모델이 무엇을 할 수 있는지 살펴보고, 🤗Transformers 라이브러리의 첫 번째 도구인 pipeline() 함수를 사용해볼 것입니다. 에는 누구나 다운로드하여 사용할 수 있는 수천 개의 사전 학습된 모델(pretrained models)들이 포함되어 있습니다. 누구나 원하는 모든 종류의 모델이나 데이터셋(datasets)을 공유할 수 있습니다! 트랜스포머 모델이... transformerstransformers