本研究では判決書からの重要箇所抽出タスクにおいて,法律分野の文書のみで事前学習を行ったBERT,日本語Wikipediaで事前学習されたBERTから追加の事前学習を行なったBERTを用い,その性能を汎用日本語BERTと比較検証した.実験より,法律分野に特化したBERTモデルを用いることで,汎用日本語BERTを超える性能があることを確認した.
Corporate researcher in Fujitsu Limited. Interested in NLP.