A Multi-task Self-attention Model Using Pre-trained Language Models on Universal Dependency Annotations

E Kim - Journal of The Korea Society of Computer and …, 2022 - koreascience.kr
In this paper, we propose a multi-task model that can simultaneously predict general-
purpose tasks such as part-of-speech tagging, lemmatization, and dependency parsing …

다국어 범용 의존관계 주석체계를 준수하는 BERT 언어 모델 기반 자가-집중을 적용한 다중 작업 모델

김유희 - 한국컴퓨터정보학회논문지, 2022 - dbpia.co.kr
본 논문에서는 UD Korean Kaist v2. 3 코퍼스를 이용하여 범용 품사 태깅, 표제어추출 그리고
의존 구문분석을 동시에 예측할 수 있는 보편적 다중 작업 모델을 제안하였다. 제안 모델은 …