자연어처리 모델의 학습 방법 트랜스퍼 러닝(Transfer Learning): 특정 태스크를 학습한 모델을 다른 태스크 수행에 재사용하는 기법 특징 기존보다 모델의 학습 속도가 빨라짐 새로운 태스크를 더 잘 수행 업스트림(Upstream) 태스크 모델이 대규모의 코퍼스를 가지고 문맥을 고려하면서 태스크 수행 대표적인 업스트림 태스크 다음 단어 맞히기 빈칸 채우기(BERT-Masked Language Model) GPT 계열 모델 다운스트림(Downstream) 태스크 자연어처리의 구체적인 태스크 성능을 올리기 위해 (업스트림 태스크로 Pre-training) 다운스트림 태스크의 본질은 Classification 자연어를 입력받아 해당 입력이 어떤 범주에 해당하는지 확률 형태로 반환 문서분류, 자연어추론,..