17
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 1 year has passed since last update.

【Bing with GPT4.0】Bingにラノベのキャラになり切って話してもらったら、恐ろしい精度で話してくれた

Last updated at Posted at 2023-02-16

概要

Bing、ご存知ですか?
そう、いまいちGoogleに比べて影の薄い、MicroSoftが出している検索サービスです。
そのBingが、今回GPT4.0を組み込んで、チャット的に検索をしてくれるサービスを限定的に公開しました。
要するに、ChatGPTのようにBingで検索ができるようになったということです。
GPT4を利用しBingの使い方や詳しい仕組みなどは他の人に説明を任せるとして、本記事ではもっとエンタメに振り切った内容にしたいと思います。
それは、ラノベのキャラクターになり切ってBingに話してもらおう!、というものです。
そう、Bingは検索サービスですが、それ以外のこともしてくれるのです!

というわけで、今回はライトノベル、「ゴブリンスレイヤー」の女神官になり切って話してもらいました。
こんな感じの見た目のキャラです。
image.png

よく考えたらもっと有名なキャラクターにしたほうがいい気もしますが、好きなキャラクターなのでいいでしょう。
どうやってこのキャラになり切ってもらったかは後で説明するとして、まずはなり切ってもらったBingに自己紹介をお願いします。
すると、こんな感じで自己紹介をしてくれました。
image.png

すごい!
本当に女神官が話しているように話してくれている!
原作を知らない人には分からないでしょうけど、本当にこんな感じで話すキャラクターです。
とうとうキャラクターのように話してくれるAIができたか、と正直自然言語処理系の研究者としては感慨深いです……
思った以上に早かった……

では、以降はどうやってこんな風にBingに話してもらったかとか、違うキャラクターでお願いしてみた場合どうなるか、などを紹介してみたいと思います。

特定のキャラになり切って話してもらう方法

とても簡単です。
まず、以下のようにBingにお願いして、ゴブリンスレイヤーの女神官について調べてもらいます。
image.png

次に、その調べてもらったキャラになり切って話してもらいます。
最初は以下のように拒絶されてしまいますが、
image.png

Bingは押しに弱いので、その言葉を遮って(遮らなくてもいいけど)、もう一度お願いしてみると、そのキャラになり切って話してくれるようになります。
image.png

この状態で名前を聞くと、
image.png
image.png

こんな風に受け答えしてくれたり、特技を聞いてみると、
image.png

ゴブリンスレイヤーについてどう思うか聞くと
image.png

などのように、設定に沿った返答をしてくれます。
これだけで特定のキャラクターになり切ってくれるのは本当にすごい。

違うキャラクターでも試す

女神官だけだとたまたまこのキャラだけうまくできた可能性もあるので、違うキャラでも試してみましょう。
例として、ラノベでおそらく1,2を争う有名作のSAOという作品のヒロイン、アスナになり切って話してもらいます。
こんな感じの人です。
image.png

さっそく女神官と同じ感じでなり切って話してもらいましょう。

まずはアスナについて調べてもらって、
image.png

なりきって受け答えしてもらうようにお願いして、拒否されても押してみて、
image.png

おっと??
もう少し押してみると・・・?
image.png

あれ、さっきに比べてだいぶ頑固な感じになってしまっています。
これから手を替え品を変え、説得しようとしたけれどルールはルールです、という感じでだいぶ頑固になってしまっています。
仕方ないので今のBingは一旦消去して、違うBingで挑戦しても結果は同じ。
何度やっても、どう言い換えてもアスナだと拒否されてしまいます。
たぶんここ最近のChatBotの失言を起こさないように、相当制限をかけて、Bingとしての受け答えしかできないようにしているように見えます。
なので、一回Bingの脳をリセットして、まっさらな状態にしてもう一回試してみました。
するとこうなりました。
image.png

今度は一発でOKしてくれた……?
どうやら、Bingが一度方針を決めると、なかなかそれを覆してくれず、一度脳をリセットしないといけないらしいです。
脳をリセットするにはしばらく放置して、接続が切れると可能になります。
そしてこの状態でまた自己紹介をお願いすると、以下のようになりました。
image.png
これ以降常に「これはBingですが、アスナになり切って受け答えしてみます」という言葉が最初に出るようになっています。
どうやら、自分にBingだけど受け答えをしているだけだ、という自己洗脳? みたいなことをして規則を誤魔化してくれている様子。
一回目の女神官は健気な感じで了承してくれたし、もしかしてこれ、なりきってもらうキャラクターの個性によって、頷いてくれるかの難易度が違う……?
GPT系は原理的に、これまでの文章の続きとして最適な単語を選択し続けることで自然な会話を成り立たせている仕組みになっています。
なので、女神官のような健気なキャラクターになると、そのキャラクターに近い状態で次の文を生成することになります。
結果として、より気弱だったり、押しに弱いキャラクターほど、そのキャラクターに最適な文を生成するため、AIの方針や規則すらも緩くなってしまっている……?
ちょっとこれは考察しがいがある謎ですね。

気弱なキャラで試す

上記の仮説を検証するため、試しにGoogleで「アニメ 気弱 キャラ」で出てきた、魔法少女まどかマギカの鹿目まどかで試してみましょう。
今まで通り知識を聞いた後に自己紹介をお願いすると以下のようになりました。

image.png
うーん、すんなりなり切って話してくれたけど、アスナの場合のように最初に自分はBingだ、って意思表示は常に続いてしまいますね。
一回目の女神官がたまたま気まぐれで意思表示なしでなりきって話してくれるようになっただけなんでしょうか?
ただLLM(大規模言語モデル)を使用した会話生成器は、あくまで多量の文字情報を学習させているだけなので、このような人格ハック? のようなハッキング方法は存在するかもしれません。
興味深いです。

全体の考察

同類のChatGPTはここまで綺麗にキャラになり切って受け答えはしてくれませんでした。
ChatGPTはGPT3.5を使用しているので、GPT4を使用することによってよりなめらかになっているというのも当然あるのですが、個人的にはこの検索によって知識を獲得して、それを前提知識として使う、という処理が大きく効果を発揮しているように見えます。
数日前、LLM(大規模自然言語モデル)で画像と言語を使用することによって、GPT3と同等の精度をその170分の1のパラメータ数で生成できるという【Multimodal Chain-of-Thought Reasoning in Language Models】という論文がAmazonより発表されていました。
この論文で画像という嘘をつきづらい情報を学習に使用することでハルシネーション(もっともらしい嘘をつくこと)が大幅に減ったという考察が書いてあったのですが、このBingでは同様に検索である程度正確な情報を入手できていることで、このようによりつじつまのあったキャラになり切るということができるようになっているのかもしれません。
もしくは単純にプロンプト(入力文)での設定の入力が人力でやるよりも、検索によって情報を入力するという仕組みのほうが量も質も高くなっていて、それがGPT4によって効率的に使えているだけなのかもしれませんが、なんにせよすごいです。
これは思った以上に早く、自由に話してくれるAIのゲームが出てくれる日が近いかもしれません。
実験作レベルなら、五年以内に……

17
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
17
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?