本論文では日本語の法律分野に特化したBERTモデルを提案する.民事事件判決書コーパスを用い,BERTを一から事前学習するモデルと,既存の汎用日本語BERTに追加事前学習するモデルを作成した.実験より,民事事件判決書を用いたMasked Language Model,Next Sentence Prediction タスクについては既存の汎用日本語BERTに追加事前学習する手法が最も良い正解率を示すことがわかった.
Corporate researcher in Fujitsu Limited. Interested in NLP.