日本語法律分野文書に特化したBERTの構築 (main author)

Abstract

本論文では日本語の法律分野に特化したBERTモデルを提案する.民事事件判決書コーパスを用い,BERTを一から事前学習するモデルと,既存の汎用日本語BERTに追加事前学習するモデルを作成した.実験より,民事事件判決書を用いたMasked Language Model,Next Sentence Prediction タスクについては既存の汎用日本語BERTに追加事前学習する手法が最も良い正解率を示すことがわかった.

Publication
In 言語処理学会第28回年次大会
MIYAZAKI Keisuke
MIYAZAKI Keisuke
Corporate researcher

Corporate researcher in Fujitsu Limited. Interested in NLP.