2
4

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

E試験 2024#2 シラバスメモ④-2 深層学習の応用 自然言語処理

Last updated at Posted at 2024-08-25

E試験のシラバスに沿って概要をメモしたものです。

シラバスは2024#2に準拠しています

本記事は4.深層学習の応用 のうち

  • 自然言語処理

についてとなります。
試験範囲外部分は割愛しています。

その他の章については以下の記事にリストしています。
https://qiita.com/hokutoh/items/53fbff185c17171c64b7

自然言語処理

Word Embedding

Word Embedding(単語埋め込み)とは、各単語に対して、特徴空間において固有のベク
トルを与える技術。

BoW(Bag of Words)

BoWは分や文章をそこに出現する単語の集合とみなして処理をする方法。
ひとつの単語はOne-hotベクトルで表現される。
image.png

自立語のみを抽出し、それらの出現数からベクトルを作成。
(下記画像は1しかないが「このネコはとても可愛いネコです」だとしたら[1,2,0,1,0,0,1,0,1,0]となる。)
image.png
出所:https://zero2one.jp/ai-word/bag-of-words-model/

文の順序や構造はいったん無視し、どの単語が登場するかに注視した手法。

潜在的意味インデキシング(LSI:Latent Semantic Indexing)

LSI(LSA:Latent semantic analysisとも)は検索などに用いられる次元圧縮手法で教師なし文書分類種類の一つ。
同じ意味をもつ単語をグルーピングし、1文章に1トピックのみ割り当てる。
image.png
BoWを使用して、単語と文書の関係を表すMatrix(Term Document Matrix) を生成。行は単語を表し、列は文章を表す。
LSA は、特異値分解を使用してTerm Document Matrixでマトリックス分解を実行することにより、潜在的なトピックを学習する。
image.png

Word2vec

単語の意味を表現する「単語ベクトル」を作成し、
Word2Vecのメリットは、単語同士の意味がどのくらい類似しているかを計算できること。(距離の近さはコサイン距離で計算
image.png
https://aclanthology.org/N13-1090.pdf

Word2Vecの学習方法には skip gramCBOW などがある。
skip gram:中心語から周辺語を予測する
CBOW:周辺の単語から中心語を予測する
image.png
image.png
https://ainow.ai/2021/04/08/254071/

skip gram

入力データを「基準となる単語」(のone-hot vector)、教師データを「周辺語」(のN個のone-hot vector)として、単語リストの中から周辺語が選ばれる確率が高くなるように重みを学習する。
image.png
出所:https://www.researchgate.net/publication/348580170_Identifying_Fake_News_on_Social_Networks_Based_on_Natural_Language_Processing_Trends_and_Challenges より一部編集

CBOW:Continuous Bag of Words

入力データを「周辺語」(のN個のone-hot vector) 教師データを「求めたい単語」(のone-hot vector)として、単語リストの中から周辺語が選ばれる確率が高くなるように重みを学習する。
image.png
出所:https://www.researchgate.net/publication/348580170_Identifying_Fake_News_on_Social_Networks_Based_on_Natural_Language_Processing_Trends_and_Challenges より一部編集

Negative sampling

CBOWにしてもskip-gramにしても入力出力共に語彙数の多さにより、誤差の計算のたびに計算量が非常に大きくなる。

Negative samplingは問題を、「正しく与えられたデータか」「ノイズデータが与えられたか」の2クラス分類とすることにより計算の高速化を図ったもの。
image.png
出所:https://www.alibabacloud.com/blog/understanding-negative-sampling-in-graph-representation-learning_596748
上記図の(7,8)や(8,9)は正しく周辺語が与えられたデータ(Positive Sampling)
(7,1)はノイズとして与えられた実際は周辺語ではないデータ(Negative Sampling)

出力はPositiveかNegativeの2値クラス分類問題となる。(出力層の活性化関数はsigmoidになる)

BERT

Bidirectional Encoder
Representations from Transformers(Transformerによる双方向のエンコード表現)
Transformerのエンコーダで構成されており、事前学習とファインチューニングで学習を
行う。
事前学習には

  • Masked Language Modeling(MLM)
  • Next Sentence Prediction(NSP)
    を使う

事前学習の入力には
トークン埋め込みとセグメント埋め込みとポジション埋め込みの和で行われる。

  • トークン埋め込み
    ≒単語
  • セグメント埋め込み
    複数の文章が入力された時、トークンがどの文章に属するのか、の情報(下記図の通り$E_A$か$E_B$かのような情報)
  • ポジション埋め込み
    トークンの順番を意識させて学習するための位置番号の様な情報

image.png
https://arxiv.org/pdf/1810.04805

Masked Language Modeling(MLM)

文章をラベルなしで学習データとする(教師なし学習)
特定のトークン(≒単語)をMASKし、MASKされたトークンが何かを予測する。

学習データは文章のシーケンスの何割か(上記論文では15%)のトークン(≒単語)をランダムに選び別のモノにする。
選ばれたトークンに対して以下の処理を施す。
(1)80%の確率で[MASK]トークンと置き換える
(2)10%の確率でランダムなトークンと置き換える
(3)10%の確率でそのまま
image.png
https://www.geeksforgeeks.org/understanding-bert-nlp/

Next Sentence Prediction(NSP)

文章をラベルなしで学習データとする(教師なし学習)
2つの文が与えられ、2番目の文が最初の文の後続文であるかどうかを予測する。

学習データは50%を原文の通りの連続文、50%を不連続な文として与える。
image.png
https://www.geeksforgeeks.org/understanding-bert-nlp/

ファインチューニング

事前学習で得られた重みを初期値として、特定のタスクのラベルありデータでの教師あり学習を行う。

ここで行うタスクは目的によって変える。
タスクは大きく分けて
a. 文章ペアの分類タスク
b. 単一文章の分類タスク
c. Q&Aタスク
d. 単一文章のタグづけタスク
image.png
タスクの例

  • MNLI-(m/mm):
    文ペアの自然言語推論タスクで、mはマッチング、mmはミスマッチ(異なるジャンルの文)
    入力: 2つの文ペア
    教師ラベル: 文同士の関係(entailment含意、neutral中立、contradiction矛盾)
  • QQP
    Quoraの質問ペアを使った重複質問検出タスク
    入力: 2つの質問ペア
    教師ラベル: 質問が同じ意味かどうか(duplicateかnot duplicate)
  • QNLI
    質問と文のペアに対する自然言語推論タスク
    入力: 質問と文のペア
    教師ラベル: 文が質問に対する答えかどうか(entailmentかnot entailment)
  • SST-2
    映画レビューの文を使った感情分析タスク(肯定/否定の分類)
    入力: 単一の文
    教師ラベル: 文の感情(positiveかnegative)
  • CoLA
    文の文法的な正しさを判定するタスク
    入力: 単一の文
    教師ラベル: 文が文法的に正しいかどうか(acceptableかunacceptable)
  • STS-B
    文ペアの意味的な類似度を0から5のスコアで評価するタスク
    入力: 2つの文ペア
    教師ラベル: 文ペアの意味的類似度(0から5のスコア)
  • MRPC
    ニュース文のペアを使った意味的類似文の判定タスク
    入力: 2つのニュース文ペア
    教師ラベル: 文が意味的に類似しているかどうか(equivalentかnot equivalent)
  • RTE
    文ペアに対する自然言語推論タスク(テキストの含意関係を判定)
    入力: 2つの文ペア
    教師ラベル: 片方の文がもう片方の文から導かれるかどうか(entailmentかnot entailment)

スコア
image.png

GPT-n

同じく、事前学習は教師なし学習。ファインチューニングは教師あり学習で特定タスクを行えるようにする。
image.png
(左)事前学習で使用するモデル
(右)異なるタスクでファインチューニングを行うための入力変換。すべての構造化入力をトークン列に変換し、事前に訓練したモデル(図中の"Transformer"の部分)で処理する。

  • Few Shot learning、Zero Shot learning、
    数例のデータのみを用いて学習し、新たなタスクを解く。
    データ数が1つだけの場合をone-shot learning。データ数がゼロの場合をzero-shot learningという
  • Prompt Base Learning
    モデルに特定のプロンプト(指示)を与えて、特定のタスクを実行させる手法

パラメータサイズの変遷

image.png
出所:https://neuroflash.com/blog/gpt-4-wiki/

2
4
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
2
4

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?