86
86

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

Deep Learning論文紹介Advent Calendar 2019

Day 1

BERTで自動要約を行う論文「BERTSUM」を紹介する+α

Last updated at Posted at 2019-11-30

こんにちは!@MonaCatです。本稿はDeep Learning論文紹介 Advent Calendar 2019の1日目の記事です。画像は全て論文中から引用しています。

概要

本稿ではBERTを自動要約に適応させたBERTSUMについて紹介します。

また自動要約全体に関する資料をまとめているので参考にどうぞ。

自動要約とは

自動要約とは自然言語処理におけるタスクの1つです。多くはテキストを対象とした自動要約を指しますが、ここでは区別するために文章要約と呼びます。文章要約は抽出型と生成型(抽象型)に分かれますが、現在は生成型(と抽出型を組み合わせたもの)が主流となっています。

  • 抽出型:元の文章から重要文を抜き出して要約文を作成する手法
  • 生成型:文の表現を抽象化して1から要約文を作成する手法

近年では深層学習をベースに、抽出型と生成型を組み合わせた研究が主流なので、この区分も曖昧になってきているかもしれません。しかし現在でも研究背景で述べられることが多いため、事前知識として知っておくと役立つと思います。以下、自動要約全体について知りたい方向けの参考資料。

本題:BERTSUM

  • 事前学習モデルBERTを拡張し、ドキュメントレベルのEncoderを備えた自動要約のためのBertSumを提案
    • full paperはBERTを事前学習として利用した初めての抽象型文章要約手法
  • CNN / Daily MailデータセットでSOTA

提案手法

image057.jpg

  • 【Token Embedding】 BERTSUMでは本来先頭のみに挿入するトークン[CLS]を、文の区切りにも挿入する
  • 【Segment Embedding】 Tokenと同様に、奇数と偶数で異なるラベル(A, B)を振ることで区切りを学習させる
  • 生成要約モデルはEnoder-Decoderの形式を採用し、Encoderには上記の事前学習させたBERTSUMを使用し、Decoderにはランダムに初期化された6層のTransfomerを使用したものが最も精度が高かった
  • ただしEncoderは事前学習され、Decoderはゼロから訓練させる必要があるため、問題が発生する恐れがある
  • そこでoptimizerを別々に調整する方法を取り、微調整するモデルをBERTSUMEXTABSと呼ぶ(通常はBERTSUMABS)

使用するデータセット

  • CNN/DailyMail news
  • New York Times Annotated Corpus(NYT)
  • XSum

実装

nlpyang/BertSum: Code for paper Fine-tune BERT for Extractive Summarization

結果

  • 全て掲載するわけにもいかないので、CNN/DailyMailでの結果のみ提示
  • その他のデータセットや細かいパラメータについては原文を参照
image059.jpg
  • BERTSUMにTransformer層を繋げることで生成型でも高い評価結果を得られた

所感

BERTSUMに繋げるDecoder部分は多層のTransformerで、独自の機構を使用しているわけではありません。
そのため本論文の有用性は

  • 入力形式の変更
  • Encoder-Decoderのoptimizerを2段階で調整させた

の2つかと思います。とはいえ入力形式は[CLS]を各文に付与したのみですので、一見とても単純な変化に見えます。BERTの入力を微調整することが他のタスクでも有効になり得ることがわかります。

役立つ資料集:自動要約に必要な基礎知識

本稿の残りでは、前提知識をより理解するために役立つ参考資料を紹介します。

BERTは2018年10月に発表された自然言語処理の事前学習モデルです。BERTを理解するためにはTransformerの知識が必要になります。

アドベントカレンダー次回は?

86
86
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
86
86

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?