[오류] AssertionError: Cannot handle batch sizes > 1 if no padding token is defined.
GPT2로 multi-classification을 하기 위해 불러온 tokenizer에 pad_token을 다음과 같이 special_token으로 넣어주었다.
if tokenizer.pad_token is None:
tokenizer.add_special_tokens({'pad_token': '[PAD]'})
model.resize_token_embeddings(num_added_token + tokenizer.vocab_size + 1)
하지만 train을 할 때 다음과 같은 오류가 발생했다.
AssertionError: Cannot handle batch sizes > 1 if no padding token is defined.
config에도 pad_token_id를 설정해줘야 했다.
if tokenizer.pad_token is None:
tokenizer.add_special_tokens({'pad_token': '[PAD]'})
model.resize_token_embeddings(num_added_token + tokenizer.vocab_size + 1)
model.config.pad_token_id = model.config.eos_token_id
위와 같이 config에 pad_token_id를 설정하는 한 줄을 추가하면 된다.
Author And Source
이 문제에 관하여([오류] AssertionError: Cannot handle batch sizes > 1 if no padding token is defined.), 우리는 이곳에서 더 많은 자료를 발견하고 링크를 클릭하여 보았다 https://velog.io/@yoonene/오류-AssertionError-Cannot-handle-batch-sizes-1-if-no-padding-token-is-defined저자 귀속: 원작자 정보가 원작자 URL에 포함되어 있으며 저작권은 원작자 소유입니다.
우수한 개발자 콘텐츠 발견에 전념 (Collection and Share based on the CC Protocol.)