LoginSignup
39
42

More than 1 year has passed since last update.

【備忘録】Pythonで自然言語処理の学習を始めるにあたって参考にしたサイト

Last updated at Posted at 2022-06-29

こちらは個人的にGPT3とGPT2の自然言語処理について調べた際に参考にしたサイトを備忘録としてまとめたページです。

GPT2&GPT3自然言語処理の可能性や実行した際の印象

自然言語処理のスキルが今後必ず必要になると思い立ちました。
GPT3とGPT2を使ったPythonの自然言語処理を実際に行いました。
GPT3は日本語の情報がまだ少ないのですが、精度は高いことを実感できました。
GPT2でテキスト生成された文章はそのまま使うにはクオリティが低いのですが、そのクセのようなものを理解して応用すると文章作成のヒントのような使い方ができます。
GPT2は、ボキャブラリーをたくさん知っている小学3年生といった印象です。

自然言語処理の学習するにあたって参考にしたサイト

OpenAI GPT-3 APIの使い方を解説

【Pythonコード】gpt-3のAPI申請通ったので試してみたら気持ち悪いほど正確なボットができた話

tanreinama/gpt2-japanese

Public
https://github.com/tanreinama/gpt2-japanese

japanese-gpt-1b

13億パラメータ日本語GPT-2を使ってみる

GPT-2をファインチューニングしてニュース記事のタイトルを条件付きで生成してみた。

gpt2-japaneseの使い方 (1) - mediumモデルによる日本語テキスト生成

gpt2-japaneseの使い方 (2) - GPT-2のファインチューニング

gpt2-japaneseの使い方 (3) - largeモデルによる日本語テキスト生成

GPT-2をファインチューニングしてニュース記事のタイトルを条件付きで生成してみた。

Huggingface Transformers 入門 (27) - rinnaの日本語GPT-2モデルの推論

Huggingface Transformers 入門 (28) - rinnaの日本語GPT-2モデルのファインチューニング

Huggingface Transformersのモデルをオフラインで利用する

GPT-2のファインチューニング試す

rinnaの日本語GPT-2モデルを Google Colab で実行してみる

The Illustrated GPT-2 (Visualizing Transformer Language Models)

【ubuntu-20.10】rinnaの日本語GPT-2モデルを動かしてみる

[japanese-gpt-1b] りんなちゃんに自問自答をさせてみる [自然言語生成]

【Python】GPT-2で日本語文章を自動で生成する

タンテキ

AIのべりすと

39
42
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
39
42