1: モデルの良し悪しを把握する
-
AIモデルの能力と限界を理解することが開発者にとって重要
-
モデルのトレーニングデータに偏りがあると、モデルも偏った結果を生む
- 例えばブルーベリーの画像を認識するためにトレーニングされたモデルはストロベリーのがぞうを認識できない可能性がある。両方を期待するモデルを構築しても,期待した通りの動きはせずUXの低下につながる。
-
AIモデルは”トレーニングされたデータによっては偏見”を持つことに注意する。
- 開発者はデータの公平性を担保しなければならない。
-
プロンプトエンジニアはモデルの限界を理解し、適切なプロンプティングを行う必要がある
AIモデルは進化し続けているがユーザーが強みと弱みを理解することが重要。
2: できるだけ具体的に
- モデルは様々なプロンプトを理解する能力があるが,具体的でないプロンプト誤った解釈をする可能性がある。曖昧さを減らすには自身が望む結果が得られるよう具体的な指示を送ることが重要。
- モデルに実行してほしい具体的なタスク、目指すアウトプットの例、を述べることでモデルはリクエストをより早く理解でき、より正確で関連性の高い回答を生成できるようになる,
- 料理のレシピをモデルに生成させたいとしても,料理を食べるのが自分だけなのか・パーティーのような大人数の場合なのかといった情報が欠如すると,必要な材料のリストアップや効率的な調理を行う方法を提供することができない。
- 適せるな例
3: プロンプトとペルソナを試す
- 様々なリクエストを探求することでモデルが回答をどのように重視しているか,様々なパラメータを持つモデルが何を生成するのかの理解を深めることができる。
- キーワード・文構造・プロンプトの長さを試行錯誤し最適なプロンプトの型を探求すべし。
4: Chain-of-Thoughtをトライする
- Chain-of-ThoughtはLLMの水温能力を向上させるテクニックである。複雑な問題を小さなステップに分割し,各ステップでLLMに中間的な推論の提供を求めることでLLMが回答をよりよく理解することが可能。
- 単に「新しいビジネスプランを提案してください」と指示するのではなく,市場調査⇒ターゲット顧客⇒競合他社の分析⇒といった形でステップを踏ませることでLLMの推論プロセスが明確になり、最終的な回答の質が向上する。
おわりに
この記事ではGoogleが提唱する良いプロンプトの作り方をまとめました。検索エンジンから欲しい結果を得るためのクエリのように,プロンプトの質がLLMの応答を左右します。MIT,BCGらの研究によると生成AIを活用することでトップパフォーマーの生産性が17%, 低パフォーマーの生産性が43%も向上したそうです。よいプロンプトを学び,生成AIを効率的に活用することで日々の生産性を向上していきましょう。
参考URL
- Tips to enhance your prompt-engineering abilities