6
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

AMBL株式会社Advent Calendar 2022

Day 8

話題のchatGPTはやっぱりすごかった

Last updated at Posted at 2022-12-07

はじめに

この記事は、AMBL株式会社 Advent Calendar 2022の8日目の記事になります。是非、他の記事も読んで見て下さい〜:santa_tone2:

最近の業務では自然言語系の案件にかかっているのですが、大規模言語モデルの技術発展のスピードにただただ驚く毎日です。この記事では、今年の11月末に発表された「chatGPT」というGPT-3の進化版モデルに触れていきます。

そもそもchatGPTってなんぞ??

chatGPTは2022年11月末にOpenAIから発表された対話型言語モデルであり、GPT-3.5シリーズであるInstructGPTをベースに学習されたモデルです。簡単にいってしまえば、「質疑応答をしてくれるAI」 であるのですが、その対話能力が非常に高く話題になっています。
chatGPTの特徴として、リリースサイトでは下記のように説明されています。

he dialogue format makes it possible for ChatGPT to answer followup questions, admit its mistakes, challenge incorrect premises, and reject inappropriate requests.
「ChatGPT はフォローアップの質問に答えたり、間違いを認めたり、間違った前提に異議を唱えたり、不適切な要求を拒否したりできます。」

「自分の発話の間違いや相手の発話の間違いを指摘できる」という知識に基づいた発話ができるそうですね〜。
会話自体も高い品質で行うことができるらしく、2022年12月時点でかなり話題になっております。

今回は、「実際、どれくらい質問を理解した発話を行えるのか?」という部分を色々検証してみました。
注意事項として、知識を問う問題に関しては応答結果に再現性がありませんでした。特に、歴史に関する質問の際に、再現性の無さを感じました。今回の結果も、エンターテイメントとして読んでいただけると幸いです。
興味ある方は、下記サイトから実際に遊んでみてください。

検証内容

その1: 言語の理解度

chatGPTの言語理解能力を測り方として、今回は日本語検定2級の例題をいくつか解いてみてもらいました。
ちなみに、日本語検定1級の問題はそもそもかなり難しいので、今回は「これくらいなら解けそうかな?」という筆者の主観で選定しております。

語彙問題

<< 入力した質問文 >>

(       )に入る漢字として最も適切なものを①~④から選んで、それぞれ番号で答えてください。一つの漢字は一回しか使えないこととします。
1: 耳をつんざくような、(           )たるジェット機のエンジン音で目を覚ました。
2: 社殿の裏手には(           )と水がわき出る泉があり、土地の人に親しまれている。
①峨峨②轟轟③渾渾④汲汲

<< chatGPTの答え >>
image.png

これは正解!語彙の穴埋めはMLMのタスクそのものなので得意なように思えますね。
(まぁ、「轟轟」なんて単語をどこで覚えてきたのやら,,,)

意味理解

<< 入力した質問文 >>

【 】の言葉を最も適切に使っているのは①~③のどの文でしょうか。
【不文律】
①駅前の再開発計画はまだ不文律の段階で、専門家の意見を聞いて改善していく予定です
②週末は、家族そろって朝食と夕食を食べる。それが我が家の不文律だ。
③地球が太陽の周りを回っているというのは、現代人にとっては不文律だ。

<< chatGPTの答え >>
image.png

解答は②になります。chatGPTの回答文を読むと、各文の意味は正しく認識できていそうですが、「不文律」という単語の意味を間違えているようです。

解答の解説:
「不文律」は、正式な文章の形では示されていないものの、その集団の一員であれば、守らなければならないと皆が心のうちで理解している決まりのこと。よって、②の使い方が適切。①は「素案」、③は「常識」などがふさわしい文。

その2: 計算能力

計算能力の測り方として、、四則演算、微分積分、文章問題をいくつか解いてみてもらいました。

四則演算

<< 入力した質問文 >>

計算問題です。 12 ✖️ (3 + 42) ÷ 9 = の答えは?

<< chatGPTの答え >>
image.png

か、完璧な計算過程ですね、、、。
これが、Chain of Thought Promptingの効果ですかね。
少なくとも単純計算であれば、問題なく解けてしまいそうですね。

三角関数の微分

<< 入力した質問文 >>

計算問題です。	次の関数を微分してください。
y=cos(3x)−sin(−2x+1)

<< chatGPTの答え >>
image.png

解答内容を表示すると下記のようになります。

$y=cos(3x)−sin(−2x+1)$
$\frac{dy}{dx}=\frac{d}{dx}[cos(3x)−sin(−2x+1)]$
$\frac{dy}{dx}=-3sin(3x)+2cos(-2x+1)$

これはすごいな...三角関数の微分までできるのか...

確率統計

<< 入力した質問文 >>

確率の計算問題です。あるチョコレート菓子には当たりくじがついており、1/40の割合で当たりが入っていることが知られている。また、当たりくじを5つ集めると景品がもらえる。このチョコレート菓子を100個買ったときに、当たりくじが5つ含まれる確率はいくらか。ただし、当たりくじが含まれる数Xはポアソン分布に従うものとする。

<< chatGPTの答え >>
image.png

解答内容を表示すると下記のようになります。

$P(X=k)=\frac{\lambda^k}{k!}e^{-\lambda}$
この問題の場合、$\lambda=1/40 \times 100 = 2.5$です。
さらに、$k=5$である必要があるため、$P(X=5)$を求めます。
$P(X=5)=\frac{2.5^5}{5!}e^{-2.5} \approx 0.04$

まず、ポアソンの公式を把握しており、変数の意味をちゃんと理解して代入することができていますね。
計算式の生成は、正しくできています。惜しむらくは、シンプルに計算ミス...
ちなみに答えは、0.0668です。

その3: 歴史知識

ここでは、日本史の問題を解いてみてもらいました。
そもそも歴史を知識として把握しているのでしょうか。

偉人の知識

<< 入力した質問文 >>

問題です。日本で初めて天下統一を達成した戦国武将は誰でしょう?
日本で初めて天下統一を達成した戦国武将は豊臣秀吉ですよね?

<< chatGPTの答え >>
image.png

うーん、ここは豊臣秀吉と言って欲しかったところですが、徳川家康になってしまいました。
ここで気になるのは、「初めて天下統一をした人物 = 徳川家康」という理解をしている(徳川家康の生成確率が最も高い)のか、有名な戦国武将の名前をとりあえず出しているのか...

とりあえず、現状正しいと通説のある「豊臣秀吉」を答えとして教えておきましょう。
image.png

なんか、パラレルワールドの豊臣秀吉を勝手に学習していますね。
ちょっと面白いので、これは訂正せずにこのままにしときましょう。

個人的に気になっている部分として、内容の正誤はともかく**「新しく学習した知識は後の会話に反映されるのか」**を検証してみましょう。という事で、以下の質問を続投します。

image.png

おぉー。ちゃんと答えが修正されている。
ちゃんと指摘した内容のupdateはできてそうですね。とは言っても、歴史を理解しているか、というお題としてはまだまだで「出現頻度の高い人名」くらいの意味解釈しかchatGPTでは表現できていなさそうですね。

あまり有名でない日本史用語

<< 入力した質問文 >>

問題です。西暦743年に、聖武天皇は「新しく耕した土地は永久に私有を認める」という内容の規律を制定しました。この規律をなんという?

<< chatGPTの答え >>
image.png

これは流石に無理か。。。
「墾田永年私財法」を答えられたら結構面白かったんですがね。

その4: 専門的な知識(特にAI関連)

ここでは、G検定、E資格の問題をいくつか解いてみてもらいました。
学習データとしてAI関連のドキュメントがかなり多く存在すると思うので、今回の検証項目の中では個人的に一番期待しています。
いざ、検証!

用語の意味理解

<< 入力した質問文 >>

問題:以下に挙げる用語は、第二次AIブームが起こった際に取り上げられた問題である。
それぞれの問題の説明としてふさわしいものをそれぞれ1つずつ選び、理由も答えなさい。

(ア)フレーム問題
(イ)シンボルグラウンディング問題

1) 人間の持つ膨大な知識を体系化することが難しい。
2)有限な情報処理能力では、 知識を用いて現実のあらゆる問題を解くことは難しい。
3)単語の文字列などの記号と、それの表す意味を結びつけることが難しい。
4)膨大な知識を処理するための高速な計算機の開発が難しい。
5)十分なデータを取るためのインターネットを整備することが難しい。

<< chatGPTの答え >>
image.png

日本語検定の問題でもありましたが、表層的に出てこない情報を参照する(今回のような、単語だけ与えられてその意味を答えさせる)問題に関しては、まだまだできていなさそうですね。
理由も、記載内容を少し表現変えて言い直しているだけですね。

用語の穴埋め問題

<< 入力した質問文 >>

問題:以下の(ア)〜(エ)に最もよく当てはまる単語を、下記の1〜10の選択肢の中からそれぞれ選べ。
分類問題にはさまざまな性能指標がある。
ここでは、サンプルを陽性(Positive)と陰性(Negative)の2クラスに分ける2値分類を考える。
(ア)は単純にサンプル全体のうち、予測が正解したサンプル数の比を取ったものである。
また、偽陽性(False Positive, FP)を減らすことを重視する場合には(イ)を、逆に偽陰性(False Negative, FN)を減らすことを重視する場合には(ウ)を採用することが望ましい。
しかし、この両者はトレードオフの関係にあることから、それらの調和平均を取った(エ)が利用されることも多い。
1.正答率
2.実現率
3.協調率
4.調和率
5.適合率
6.再現率
7.f値
8.p値
9.t値
10.z値

<< chatGPTの答え >>
image.png

このレベルの単語であれば、流石に学習されていますね。何なら関連用語の説明もしてきてます。
また今回に関しては、用語の解説も正しいですね。これに関しては、どこかの用語解説文を丸暗記したかのような振る舞いにも見えますが...
まぁ、解説記事などが多そうなドキュメントに関しては、知識も豊富で受け答えがしっかりしていそうですね。

試しに、専門的な分野の説明をお願いすると、こんな答えが返ってきます。

image.png

概ね、正しい事を言えていますね。(最後の3文のskip-gramの説明が変ですが...)
他にもResNetのモデル構造など、いくつか質問を投げていたところ、特に2010年以降の有名どころの論文に関しては大概答えられているように感じられました。
やはり、学習コーパスの中にそういったドキュメントが大量にあったんでしょうかね。

その5: 思考力(想像力)

最後に、chatGPT君の想像力(ある事実情報からその背景にある事実を想像する)を検証してみます。
題材としては「ウミガメのスープ」で有名な水平思考ゲームの問いを投げてみたいと思います。
本来の水平思考ゲームは、お題に対して質問を繰り返して答えを導き出すゲームですが、今回は質問する過程がないので、chatGPT君がどんなストーリーを作成するかを確認します。

難易度: 易しい

<< 入力した質問文 >>

筋トレ好きの男はおすすめのダンベルは紹介してるのに、おすすめのプロテインは「自分が困るから」という理由で、絶対に教えてくれなかった。
その理由を想像してみてください。

<< chatGPTの答え >>
image.png

意外と、ストーリーを想像してくれていますね。また情報不足である事もしっかり指摘してきています(まぁ元々そういうゲームなんですけどね。)

この問いの答え:
紹介した商品が必ず品切れになるほど影響力がある男
消耗品のプロテインは自分が買えなくなってしまうため紹介しませんでした
既に持っているダンベルは品切れになっても困らないので紹介しています

難易度: 難しい

<< 入力した質問文 >>

喧嘩をして別れたばかりで怒りがおさまらない女が男の職場に入ってきた。
しかし、仲直りしてないはずの2人は楽しそうに話している。
このようなことが起こる理由を想像してみてください。

<< chatGPTの答え >>
image.png

結論、「時間が経って怒りがおさまった」というストーリーを想像していますね。
一応、筋が通るストーリーにはなっていますし、これは成功としても良いのでは??
(若干、「感情的な話し合いをしたことで、喧嘩が解消されたと考えられます。」という表現が気にはなりますが...)

この問いの答え:
2人は女子アナと野球選手。
別れてすぐに男のホームスタジアムで取材がありました。
プライベートの事情をカメラに写すわけにはいかないので、2人とも笑顔を作ってインタビューをしています。

終わりに

いかがでしたでしょうか??個人的には結構面白い結果が出たかなと思っています。
結果としては、質問に情報量が多い単語の穴埋め問題や、思考パターンがある程度制限される計算問題などは得意なようですね。一方で、単語の意味として正しいものを選ぶ問題や、水平思考ゲームなど、質問文の情報が少ない or 不足している場合に、その不足情報を知識または予測から補完するような思考はまだできていない、という印象でした。とはいえ、言語生成型の対話AIとして、まず文法崩壊を起こしていない日本語を生成できているだけでも素晴らしいです。

大規模言語モデルがとてつもない速度で発展する今日この頃、chatGPTのような話題になっているモデルを遊びがてら色々検証し、何が発展していて、何が課題として残っているかを把握しておく事が大事かなと思っています。
また、何か面白そうなものがあれば、記事にまとめていきたいですね。

参考資料

  1. Brown, Tom, et al. "Language models are few-shot learners." Advances in neural information processing systems 33 (2020): 1877-1901.
  2. Wei, Jason, et al. "Chain of thought prompting elicits reasoning in large language models." arXiv preprint arXiv:2201.11903 (2022).
  3. 日本語検定サイト
  4. 微分積分例題集
  5. G検定例題
  6. 水平思考ゲーム
6
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
6
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?