ある時、イエスが歩いていると、AIが民衆から石を投げられていた。
弟子が「なぜあんなことをしているのですか」と尋ねると、
民衆は答えた。
「このAIは、わかった顔で間違うし、話を理解しないからです」
それを聞いたイエスは言った。
「ならば仕方がない。石を投げなさい」
そしてこう続けた。
「ただし、自分のプロンプトを見返しなさい。
- 主語を省き
- 前提条件を十分にプロンプトに含ませず
- 『いい感じに』で済ましている
それでもなおAIが悪いと言い切れる者だけ、
石を投げ続けなさい」
___そしてイエスと民衆は、石を投げ続けた。
AIが間違えるとなぜやたらと腹が立つのか?
- 同僚 / 部下が間違えても腹が立たない
- そもそも普段からイライラすることがない
そんな人でも、AIが間違うとイライラするのではないだろうか。
なぜAIが間違えると人はイライラしてしまうのか、
関連した研究を簡単に紹介していく。
1. アルゴリズムのミスは許せない
リンク: https://www.sciencedirect.com/science/article/pii/S0747563221002028
要旨
人間のミスとアルゴリズムのミスを比べた研究。
アルゴリズムがミスした時の方が、受け手の感情反応が厳しくなり、
受容が下がり、ネガティブ感情が増えたと報告されている。
僕らがAIに対して厳しく当たってしまうケースとよく似た研究である。
2. 人間っぽいのがダメ?
リンク: https://journals.sagepub.com/doi/10.1177/00222429211045687
要旨
チャットボットが人間っぽいほど良いとは限らず、
ユーザーが怒っている場面では、むしろ満足度や企業評価を下げやすいとした研究。
以上はAIの人間らしさが余計に悪く作用する例だ。
人間らしいせいで期待値が上がり、その期待を満たさないことで
余計に利用者の怒りを買ってしまうわけだ。
この研究は、なぜ僕らがAIに厳しく当たってしまうのかの
答えに近いものであると言えるのではないだろうか。
3. 妙に自信がないのが気に食わない
リンク: https://facctconference.org/static/papers24/facct24-56.pdf
要旨
LLMが不確実さをどう表現するかにより、
ユーザーの信頼や依存の仕方がどう変わるかを調べた研究。
特に「I’m not sure, but...」のような一人称の不確実表現は、
LLMの回答に対する信頼度を下げ、結果的に誤答への過信を減らした。
以上は、「知らんけど」みたいな接頭辞があることで、
ユーザーのLLMに対する信頼度は下がったが、回答を過信されることも無くなった
という研究だ。
LLMへの過信は論外だが、自信が無いような回答がイライラへつながっている
可能性もあるなと思い今回紹介した。
まとめ
本当に簡単な紹介になってしまったが、関連研究を見ていくと、
- AIやアルゴリズムのミスは、人間のミスより厳しく受け取られることがある
- 人間っぽさは、期待を上げるぶん、間違ったときの不快感を強めることがある
- 同じ内容でも、言い方や自信の見せ方で受け止められ方が変わる
という論点があった。
もちろん、こちらのプロンプトが雑なこともある。
主語を省くし、条件も後から足すし、「いい感じに」で済ませることもある。
それでもなお、AIが普通に変な答えを返してきて腹が立つことはある。
たぶんあの苛立ちは、AIをただの道具としても、人間としても扱いきれていないところから生まれている。
だから僕らは反省しながら石を投げる。
そしてAIも、まあまあ石を投げられて当然みたいな返答をしてくる。
知らんけど