ChatGPTを「調べ物のツール」として使っている人は多いと思います。
でも、僕はChatGPTをそうは見ていません。
僕にとってChatGPTは、仕様設計やテスト定義を一緒にこなす“チームの一員” です。
要件定義書の作成、分岐条件の精査、制御条件のチェック、テストシナリオの作成……。 それらを人間ひとりで整理しようとすると、思考が詰まりがちです。
そこで僕は、ChatGPTを6時間/日くらい使って、業務設計の思考工程そのものを“分業”しています。
ChatGPTは“思考労働の外注先”として使う
ChatGPTを質問に答えるだけのツールとしてではなく
プロンプトの出し方次第で、業務仕様や設計の草案を自動生成し、整合性までチェックしてくれる「設計メンバー」 になります。
でも、それは「雑に聞いてもちゃんと返ってくる」という話ではありません。
むしろ逆で、“ちゃんと仕事を振る” ことが必要になります。
「業務を振る」ためのプロンプト設計のコツ
僕がChatGPTに仕様設計を頼むとき、こんなふうに投げています:
以下の前提条件に基づいて、UATの正常系テストシナリオをTSV形式で出力してください。
【前提】
- 商談詳細画面 > タスク管理タブにおける操作
- チェック対象項目:進捗状況、予定日、担当者
- Flow:タスク完了時に承認フローへ遷移
- バリデーション:予定日が過去日の場合はエラー
【制約】
- 各ステップは「1操作=1行」で記述すること
- チェックONとOFFは別ステップとして明記
- スケジュール入力とタスクON/OFFは分離
- 出典や備考欄にソース名は含めないこと
- 末尾に「テスト結果」「異常理由」列(空欄)を追加
出力形式:TSV(タブ区切り)/Excel貼付け可能形式
重要なのは、「やってほしいこと」だけでなく、「守ってほしいこと」まで書くこと。
これはもはや“プロンプト”というより、“業務依頼書”です。
なぜここまで細かく書くのか?
ChatGPTは“人間的な曖昧さ”には意外と弱いです。
とくに、テスト設計や仕様書のような構造化されたアウトプットを求める場合、出力形式・粒度・順序を明示してあげる必要があります。
例えば、こういう曖昧さはNGです:
- 「この操作をテストしてください」→ 何行で?どの粒度で?
- 「ON/OFFを切り替えて」→ 同一ステップ?別ステップ?
- 「正しく動作すること」→ 何をもって“正しい”とする?
逆に、出力条件を“コード化”するように指定すれば、GPTは極めて論理的に応えてくれます。
僕はこのスタイルを「プロンプト=業務命令書」と呼んでいます。
プロンプト幻想からの脱却:「ちゃんと書けば答えてくれる」はもう古い
昔は「プロンプト職人になるのが最強」みたいな空気がありました。
でも、GPT-4oになってからは、プロンプトを“構文”として書く必要すらなくなってきていると感じます。
最近の僕は、基本的にはチャットの口調で自然に投げることが多いです。
むしろ“構文っぽい指示”を書いてしまうと、GPTがそれを説明し返してきたりしてテンポが悪くなることすらある。
たとえば、こういう感じ:
このフローって、S05の時と同じ分岐条件ですよね?
ただ、今回は承認対象が別だから、UIとバリデーション側だけ変わってると思ってます。
この理解で正しければ、UATの正常系定義をその前提で再設計してもらえますか?
このレベルの自然言語で通る。
むしろそのほうがGPTの「ノイズ除去能力」や「指示文脈の保持力」が活きます。
ですがさっきみたいに何かを定義するとき(要求条件をまとめてあるとき)とかは依然としてプロンプト形式のほうがGPTの理解がいいですね。
データはなるだけ渡したほうがいい:自由に考えさせたいなら材料を与えるべき
「GPTに自由に発想してもらいたい」と思ったとき、データがないと自由ではなくなるんですよね。
むしろ何も与えないと、GPTは「それっぽいけど薄い」ものを生成しがちになります。
なので僕は、自由なタスクほどデータソースを渡すようにしています。
たとえば、Salesforceのオブジェクト構成をベースに受入テスト仕様を作るときは:
- オブジェクト名・項目名・役割が一覧化された定義書
- サンプルのMashmatrix画面構成(画像スクショ)
- 正常系シナリオ(テキスト)
これを全部投げておくことで、GPT側の“認識のベースライン”が整い、解像度が高くブレにくい設計出力が返ってくるようになります。
スレッドとメモリは“破綻したらリセット”が基本
ChatGPTと長くやり取りしていると、急にハルシネーションが出てくることがあります。
- なんか変な用語を使い出した
- 条件を勝手に書き換え始めた
- 途中までのルールを無視するようになった
こうなったら、潔くスレッドを新しく立て直すのが鉄則です。
メモリが壊れてるケースもある
「スレッドだけじゃなく、GPTの“記憶そのもの”がズレてきてる」ってケースもあります。
これは僕自身何度も経験しました。
そういうときは、[設定] → [パーソナライズ] → [メモリ] から中身を確認して、間違って記憶された“思い込み”を削除します。
(例:プロンプトでうっかり誤ったルールを書いてしまったときとか仕様変更があったときに、古いメモリが参照されてしまうことがちょいちょいあります)
ChatGPTとの設計は「コラボ」ではなく「運用」になっていく
ここまでくると、ChatGPTとの関係性は「壁打ち」や「アシスタント」ではなくなります。
むしろ、ルールを守らせて、誤解を防ぎ、定期的に環境を整備する“運用対象” になってきます。
でも、逆に言えばそれだけ設計・実装・レビューの工程をAIに任せられる時代が来たということでもあります。
抽象課題の構造化や、ロジックの文章化などを得意とするGPTの良さを生かして、仕事効率上げていきましょう