0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

自然言語処理について【E資格対策】

Last updated at Posted at 2024-02-21

WordEmbedding

単語を数値のベクトルとして表現する方法のこと。
代表的な手法として、Word2Vecがある。

Word2Vec

2013年にGoogleが開発した単語表現の手法で、単語の意味を表現する「単語ベクトル」を作成することができる。コサイン類似度を算出すれば、2つの単語がどれくらい近いのかが算出できる。

cosθ = (A・B) / |A|・|B|

Transformer

Transformerとは、自己注意力(Self-Attention)という機構を用いたニューラルネットワークのアーキテクチャのこと。自己注意力とは、入力された系列の各要素が他の要素とどの程度関連しているかを計算する仕組み。Transformerは、エンコーダとデコーダという二つの部分から構成され、エンコーダは入力系列をベクトルに変換し、デコーダはベクトルから出力系列を生成する。Tr機械翻訳や文章生成などの系列変換(Sequence-to-Sequence)のタスクに適している。

image.png
https://zero2one.jp/ai-word/transformer/

image.png
https://udemy.benesse.co.jp/data-science/transformer.html

BERT

BERTとは、Bidirectional Encoder Representations from Transformersの略で、Transformerのエンコーダのみを用いた言語表現モデルのこと。
BERTは、大規模なテキストコーパスから事前学習を行い、マスクされた単語の予測や文の連続性の判定という二つのタスクを解く。
この事前学習により、BERTは文脈に応じた単語や文の特徴を捉えることができる。事前学習後、BERTは出力層を追加するだけで様々な自然言語処理のタスクにファインチューニングできます。 BERTは、自然言語理解や質問応答などのタスクで高い性能を発揮したらしい。

GPT-n

GPT-nとは、Generative Pre-trained Transformerの略で、Transformerのデコーダのみを用いた言語生成モデルのこと。GPT-nは、大規模なテキストコーパスから事前学習を行い、左から右に向かって単語を予測する言語モデルを構築する。
この事前学習により、GPT-nは一般的な言語知識や文法を習得することができます。事前学習後、GPT-nは様々な自然言語処理のタスクにゼロショットファインチューニングできます。GPT-nは、文章生成やテキスト要約などのタスクで高い性能を発揮します。

image.png

参考ページ

0
1
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
1

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?