はじめに
最近(少し前から)話題を聞くようになった「ChatGPT」。
それがどういったものなのか、どうすればうまく使えるのかを整理したく、表題の講演の視聴にあたった。
講演
『ChatGPTによって描かれる未来とAI開発の変遷』日本マイクロソフト株式会社 蒲生 弘郷氏(2023年4月21日)
日本MicrosoftによるChatGPTに関する講演。YouTubeで公開されており、無料で視聴できる。
概要
講演の概要を以下に記す。
GPTとは
学習データ、プロンプト、文脈を用いて次に現れる単語の確立分布を生成(予測)する。
(例)天下統一を果たした織田...
→ 「信長」「信忠」などという単語が続くだろうと予測
最も確率が高いと判断した「信長」を出力する
GPTを用いたサービスはすでに多く存在している。有名なものでは「ChatGPT」。高度なチャット応答を実現している。
Microsoftの製品でもどんどんGPTの導入を進めている。
GPTは嘘をつくのか
嘘をつくというのは不正確。
「十分な学習データや参考情報を与えなければ、正確な回答ができない」というのが正しい表現。
「嘘をつく」というイメージはChatGPTが応答する奇怪な文章からだろうが、それは学習データの中に情報がないからである。
過去問を利用
利用といってもひたすら過去問を解くだけ。基本情報技術者は過去問に類似、もしくは同じ問題が出題されることも多いため、合格を目指すのであれば過去問を解くのが最も効果のある勉強方法であるように感じる。
プロンプトのコツ
GPTから良い回答を得るためには質の高いプロンプトが必要であるという。
ではどのようにすれば良いプロンプトが組めるのか。
Prompt Processing
漠然としたプロンプトだと、回答も漠然としたものとなる。より具体的に状況を提示すれば、より精度の高い回答が得られる。
そのため、ユーザーから具体的な情報を受けるためのアイディアを組み込む必要がある。
Few-shot Learning
プロンプト例や解答例をあらかじめ提示することでよい回答が返ってくる。
Chain of Thought
「段階的に記述して」と指示するで精度があがる。
人と同じで、段階的に考えさせることで順序だてて推論するようになる性質がある。
Self Consisterncy
「仮説を3つ列挙してから」などと加えることで回答の制度が高くなる。
Chain of Thoughtと同じ原理で、上げた仮説が自らの推論の材料となるため。
Recursively Criticizes and improves
GPTにGPT自身の出力を吟味させ、修正を繰り返させる。
特にコード生成などで有効な手法。
GPTで描かれる未来
GPTの浸透はステップを踏みながら徐々にサービスを進化させていく。
0:高度な文章生成
1:ソース提示だけでなく、情報収集して回答
2:自然言語によってコンピュータと対話可能に
3:目的を示すだけで、勝手に達成
将来的に、GPTが人間とコミュニケーションを取りながら、あらゆるサービスと繋がり、自分で思考し目標を達成するように。
所感
ChatGPTの流行を受けてどのようなものなのかについて学んだ。
そもそも基盤となっているGPTという技術があり、それはどのように活用していくべきかについてを知ることができた。
今後、ChatGPTを使用したり、言語モデルを利用する場合には、今回の講演の内容は非常に参考になるものであると感じる。
また、AIの使用には人間側からの指示が大切なものとなる。AIがすべての作業を担当できるようになるのではなく人間とAIの共存する未来を描くことが大事であり、その共存の仕方を考えていく必要があると感じた。