0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

PEP検定まとめ②|第2章 プロンプトエンジニアリングの基本概念と技術(日本語 / 中文)

0
Last updated at Posted at 2026-03-04

PEP検定の公式資料(全6章)を整理するシリーズです。
本記事では「第2章 プロンプトエンジニアリングの基本概念と技術」の内容をまとめています。

本系列文章对 PEP检定 官方资料(共6章)进行整理总结。
本文主要整理「第2章 提示词工程的基本概念与技术」的内容。

1. 効果的なプロンプト設計 / 有效的提示词设计

1-1. プロンプトの基本構成要素 / 提示词的基本构成要素

💡 ポイント / 重点:必須は「指示」のみ。他の要素を組み合わせることで精度が上がる / 只有"指示"是必填项,其他要素按需组合以提升精度

要素 / 要素 説明 / 说明 例 / 例子
Instruction(指示) ※必須 実行してほしいタスク / 希望执行的任务 「要約して」「翻訳して」「分類して」
Context(文脈) 回答に必要な背景情報 / 回答所需的背景信息 「小学生でもわかるように」「日本での状況を踏まえて」
Input Data(入力データ) 処理対象となる情報 / 需要处理的信息 要約・翻訳したい文章、分類したいデータ
Output Indicator(出力形式) 出力のタイプや形式 / 输出的类型和格式 「箇条書きで」「200文字程度で」「JSON形式で」

1-2. プロンプト設計の4原則 / 提示词设计的4个原则

① 具体的な指示をする / 给出具体的指示

日本語:曖昧な指示はAIの誤解を招く。「挨拶文を作成して」ではなく「メールの文頭に添える8月の時候の挨拶を作成して」のように具体的に。

中文:模糊的指示会导致AI误解。不要说"写一段问候语",而要说"写一段适合放在8月邮件开头的时令问候语"。


② 目的を明確にする / 明确目的

日本語:「〇〇について教えて」より「〇〇の中で特に△△を知りたい」のように、何を求めているかを明示する。

中文:比起"告诉我关于〇〇的内容",更好的方式是明确说出"我想了解〇〇中关于△△的部分"。


③ コンテキストを提供する / 提供上下文

日本語:分野・年代・地域・対象などの背景情報を加えることで、AIが状況に応じた応答を生成しやすくなる。

中文:加入领域、年代、地区、目标受众等背景信息,让AI能够生成更符合场景的回答。

:「医療分野において〜」「1980年代の〜」「専門知識を持たない初心者向けに〜」


④ 段階的にアプローチする / 分步骤推进

日本語:複雑な指示は一度に求めず、段階ごとに整理して取得する。最初に一部を尋ね、その後に次の要素を問うアプローチが有効。

中文:复杂的指示不要一次性全部提出,而是分阶段逐步获取信息,先问一部分,再问下一部分。


2. 様々なプロンプト形式 / 多种提示词形式

💡 ポイント / 重点:目的や状況に応じて使い分けることが重要 / 根据目的和场景灵活切换使用

形式 / 形式 概要 / 概要 活用場面 / 应用场景
ロールプレイング AIに特定の役割を与えて応答させる / 给AI指定角色 専門的な視点・複数視点の比較 / 专业视角・多视角对比
比較 複数の項目を比較・対照させる / 对多个项目进行比较 メリット・デメリットの整理 / 优缺点梳理
文章補完 提示した文章の続きを書かせる / 续写提供的文章 創作・レポート補完 / 创作・报告续写
ファクトベース 事実のみに基づいた回答を求める / 要求只基于事实回答 正確性が重要な情報収集 / 需要准确性的信息收集
ステップバイステップ 段階的に思考・プロセスを進めさせる / 让AI逐步思考推进 複雑な手順の説明 / 复杂步骤说明
反復改善 フィードバックしながら回答を改善させる / 通过反馈逐步改善回答 試行錯誤で最適解を探す場面 / 需要反复优化的场景

3. トーン・スタイル・フォーマットの設定 / 语气・风格・格式的设定

3-1. トーン / 语气

分類 / 分类 説明 / 说明 プロンプト例 / 提示词示例
フォーマル vs カジュアル ビジネス用語・砕けた表現 / 商务用语・口语表达 「フォーマルなトーンで」「カジュアルなトーンで」
専門的 vs 一般的 専門用語使用・初心者向け / 使用专业术语・面向初学者 「専門的に詳しく」「専門用語は少なく」
感情的 vs 論理的 共感・物語重視 vs データ・論理重視 / 情感共鸣 vs 数据逻辑 「心に響くように」「理路整然と」
創造的 vs 事実ベース 独創的アイデア vs 正確な情報 / 创意想法 vs 准确信息 「創造的なアプローチで」「データに基づいて」

3-2. スタイル / 文体风格

分類 / 分类 説明 / 说明 プロンプト例 / 提示词示例
視点の取り方 一人称・三人称など / 第一人称・第三人称等 「三人称視点で」「一人称(私)で」
文末表現 ですます調・体言止めなど / 敬体・体言止め等 「体言止めで」「だ・である調で」
文の長さ 詳細 or 簡潔、字数指定 / 详细或简洁,指定字数 「150字程度で」「簡潔にまとめて」

3-3. フォーマット / 输出格式

分類 / 分类 プロンプト例 / 提示词示例
形式 「箇条書きで」「表形式で」
ファイル形式 「CSV形式で」「JSON形式で」

4. 応答の評価と改善 / 回答的评估与改善

4-1. 品質評価の4基準 / 质量评估的4个标准

基準 / 标准 内容 / 内容
関連性 / 相关性 プロンプトに対して応答が適切か / 回答是否与提示词相关
正確性 / 准确性 事実に基づいているか / 是否基于事实
明瞭さ / 清晰度 分かりやすく表現されているか / 表达是否清晰易懂
一貫性 / 一致性 論理的に整合しているか / 逻辑上是否前后一致

4-2. エラー・不正確な応答への対処法 / 错误和不准确回答的应对方法

① 情報源を明示させる / 要求标注信息来源:情報源を含めて回答するよう指示することで精度改善を促す / 指示AI在回答中附上信息来源,有助于提升准确性

② プロンプトを追加・修正する / 追加或修改提示词:「もう少し具体的な例を挙げて」など追加情報を与えて再設定。選択肢から回答させる制約も有効 / 添加"请举更具体的例子"等补充信息重新设置。限制AI从选项中选择回答也有效果

⚠️ 注意 / 注意:選択肢を提示した場合、適した選択肢がなくてもAIはいずれかを選ぶことがある / 提供选项时,即使没有合适的选项,AI也可能强行选择其中一个

③ 具体的なフィードバックを提供する / 提供具体的反馈:「この部分が間違っている」「もっと詳しく」など具体的に指摘する / 具体指出"这部分有误""请再详细说明"等

4-3. 継続的改善のヒント / 持续改善的技巧

  • A/Bテスト:2つのプロンプトを比較して、より良い方を特定する / 对比两个提示词,找出效果更好的
  • プロンプトのテスト:複数の言い回しを試して効果的な表現を探す / 尝试多种表达方式找到最有效的
  • エッジケースの考慮:極端なケースや予期せぬ入力でもテストする / 测试极端情况和意外输入
  • 定期的な見直し:新しい知見や技術の進展を取り入れてプロンプトを更新する / 引入新知识和技术进展,定期更新提示词

5. 高度なプロンプト技術 / 高级提示词技术

💡 ポイント / 重点:これらの技術を理解・使い分けることがPEP検定の核心 / 理解并灵活运用这些技术是PEP检定的核心


5-1. Zero-Shot プロンプティング / 零样本提示

日本語:事前の例示なしに直接モデルに質問・指示する手法。LLMは大量データで事前学習されているため、多くのタスクで例がなくても回答できる。

中文:不提供任何示例,直接向模型提问或下达指示的方法。由于LLM经过大量数据预训练,很多任务无需示例也能回答。

日本語 / 日文 中文
利点 簡潔・速い・トークン効率が良い 简洁、快速、节省token
課題 複雑な推論や専門性の高いタスクでは誤答リスクあり 复杂推理或高专业性任务中误答风险较高
適用場面 まず最初に試す手法。品質確認後に他手法へ移行 最先尝试的方法,确认质量后再转向其他技术

5-2. Few-Shot プロンプティング / 少样本提示

日本語:プロンプト内に少数の例(入力・出力ペア)を示し、モデルにパターンを学習させて精度を高める手法。GPT-3の論文で注目された。

中文:在提示词中提供少量示例(输入输出对),让模型学习规律以提升精度的方法。因GPT-3论文而广受关注。

例 / 例子

Q: '犬' → '動物'
Q: 'バラ' → '植物'
Q: 'トマト' → ?
A: '野菜'
日本語 / 日文 中文
利点 追加学習不要でモデルの出力を制御・調整できる 无需额外训练即可控制和调整模型输出
課題 トークン数を圧迫する。例の選び方が品質に大きく影響する 占用大量token。示例的选择对质量影响很大

5-3. Role Prompting / 角色提示

日本語:「あなたは〇〇です」とAIに特定の役割や人格を与え、応答のスタイル・視点・口調を制御する手法。

中文:通过"你是〇〇"的方式给AI指定特定角色或人格,从而控制回答的风格、视角和语气的方法。

例 / 例子:「あなたは有能なソフトウェアエンジニアです。以下のコードに専門的なフィードバックを返してください。」

日本語 / 日文 中文
利点 一貫したトーン・専門視点を維持できる 能保持一致的语气和专业视角
課題 専門家ロールでも誤情報を回答する可能性がある 即使是专家角色也可能给出错误信息

5-4. Chain-of-Thought(CoT)プロンプティング / 思维链提示

💡 ポイント / 重点:複雑な推論タスクに最も効果的な手法 / 对复杂推理任务最有效的方法

日本語:モデルに中間の思考過程を逐次出力させることで、複雑な推論の精度を高める手法。数理・論理的思考を要する問題で特に有効。

中文:让模型逐步输出中间思考过程,从而提升复杂推理精度的方法。对需要数学计算和逻辑思维的问题尤为有效。

使い方 / 使用方式:「ステップバイステップで考えてください」と指示するだけでCoTが働く

日本語 / 日文 中文
利点 推論プロセスが透明化され信頼性が増す 推理过程透明化,可信度提升
課題 トークン消費増大・簡単なタスクでは冗長になる token消耗增加,简单任务中显得冗余

5-5. Self-Consistency(自己一貫性)/ 自我一致性

日本語:同じ質問を複数回投げかけて複数の回答を収集し、最も多く一致した答えを最終回答とする手法。CoTの弱点(1回の推論ミス)を補完。

中文:对同一问题多次提问,收集多个回答,以出现频率最高的答案作为最终答案的方法。弥补了CoT的弱点(单次推理出错)。

日本語 / 日文 中文
利点 偶発的な誤りを低減し正答率が向上する 降低偶发性错误,提升正确率
課題 複数回の実行が必要で計算コストが増大する 需要多次运行,计算成本增加
適用場面 明確な正解があるタスク(数値計算・事実問答)に相性が良い 适合有明确正确答案的任务(数值计算・事实问答)

5-6. Tree of Thoughts(ToT)/ 思维树

日本語:CoTの発展形。木の枝のように複数の思考パスを分岐・探索・評価しながら最適解を導く手法。

中文:CoT的进阶版。像树枝一样分支探索和评估多条思维路径,从而得出最优解的方法。

問題
├─ 思考パスA → 評価 → 展開
├─ 思考パスB → 評価 → 展開(最適)
└─ 思考パスC → 評価 → 枝刈り
日本語 / 日文 中文
利点 複雑な問題でも複数経路を探索して解決策を見つけやすい 即使是复杂问题也能通过多路径探索找到解决方案
課題 計算負荷が大きく処理時間・メモリ消費が増大する 计算负荷大,处理时间和内存消耗增加
適用場面 数独・論理問題・戦略計画・医療診断など 数独・逻辑问题・战略规划・医疗诊断等

5-7. Generated Knowledge Prompting / 知识生成提示

日本語:最終回答の前に関連知識をモデル自身に生成させてから回答させる手法。モデル内部の知識を効果的に引き出す。

中文:在给出最终答案之前,先让模型自己生成相关知识,再基于该知识作答的方法。有效激活模型内部知识。

流れ / 流程

Step1: 「このタスクに関連する知識を挙げてください」(知識生成)
Step2: 「上記の知識をもとに回答してください」(知識活用)
日本語 / 日文 中文
利点 一度に答えるより正確性・一貫性が向上しやすい 比直接回答更容易提升准确性和一致性
課題 生成された知識が必ずしも正確とは限らない 生成的知识不一定准确,需要验证

5-8. Reflection(リフレクション)/ 反思提示

日本語:モデルに一度回答させた後、「自分の回答を検証し誤りや改善点を指摘してください」と自己評価・修正させる手法。

中文:让模型先给出回答,再要求其"验证自己的回答,指出错误或改善点"进行自我评估和修正的方法。

例 / 例子:「この回答の内容をもう一度検証し、不明瞭な点や誤りを指摘してください。」

日本語 / 日文 中文
利点 自己検証で精度・完成度が向上する 自我验证提升精度和完成度
課題 誤った反省でさらに悪化するケースもある 错误的反思可能导致回答进一步变差

5-9. Meta-Prompting(メタプロンプティング)/ 元提示

日本語:プロンプト自体をLLMに生成・改善させる高度な手法。人間が最適なプロンプトを書くのが難しい場合に、モデルに「より良いプロンプト」を考えさせる。

中文:让LLM自己生成和改善提示词的高级技术。当人类难以写出最优提示词时,让模型思考"更好的提示词"。

日本語 / 日文 中文
利点 人間が思いつかない視点からプロンプトを設計できる 能从人类想不到的角度设计提示词
課題 モデルが提案したプロンプトが最良とは限らず、人間の評価・調整が必要 模型提出的提示词不一定最优,仍需人类评估调整

5-10. Prompt Chaining(プロンプト・チェイニング)/ 提示链

日本語:複雑なタスクを論理的なサブタスクに分割し、各ステップの出力を次のプロンプトに組み込む連鎖プロセスを構築する手法。

中文:将复杂任务分解为多个子任务,将每个步骤的输出作为下一个提示词的输入,构建链式处理流程的方法。

流れ / 流程

プロンプト1(情報抽出) → 出力1
→ プロンプト2(出力1を使って分析) → 出力2
→ プロンプト3(出力2を使って文章生成) → 最終出力
日本語 / 日文 中文
利点 各ステップに集中させることで精度・信頼性が向上する / 中間出力の確認・修正が可能 专注于每个步骤提升精度和可靠性 / 可以确认和修正中间输出
課題 設計が複雑になる / ステップ間のインタフェース設計が重要 设计变得复杂 / 步骤间的接口设计至关重要

高度な技術まとめ / 高级技术对比总结

技術 / 技术 一言要約 / 一句话总结 得意なタスク / 擅长的任务
Zero-Shot 例なし・直接質問 / 无示例直接提问 一般的な知識問題 / 通用知识问答
Few-Shot 例示でパターン学習 / 通过示例学习规律 特定スタイル・形式の出力 / 特定风格格式的输出
Role Prompting 役割を与えてトーン制御 / 指定角色控制语气 専門的・一貫した応答 / 专业且一致的回答
CoT 思考過程を見せて推論 / 展示思考过程进行推理 数学・論理・複雑推論 / 数学逻辑复杂推理
Self-Consistency 多数決で最終回答 / 多数投票决定最终答案 正解が明確なタスク / 有明确答案的任务
Tree of Thoughts 思考を木状に分岐探索 / 树状分支探索思维路径 複雑問題・戦略計画 / 复杂问题・战略规划
Generated Knowledge 先に知識生成してから回答 / 先生成知识再作答 専門知識QA・コード生成 / 专业知识QA・代码生成
Reflection 自己検証して修正 / 自我验证后修正 コード修正・文章改善 / 代码修正・文章改善
Meta-Prompting AIにプロンプトを作らせる / 让AI生成提示词 プロンプト自動設計 / 提示词自动设计
Prompt Chaining タスクを連鎖分割 / 任务链式分解 マルチステップ処理 / 多步骤处理

6. 片假名用語まとめ / 片假名术语汇总

📌 試験頻出カタカナ用語 / 考试高频片假名术语

カタカナ 読み方 中文解释
プロンプト prompt 提示词:给AI的指示或问题
プロンプトエンジニアリング prompt engineering 提示词工程:设计有效提示词的技术与方法
コンテキスト context 上下文/背景信息:提供给AI的背景和环境信息
インプット input 输入:提供给AI处理的数据或文字
アウトプット output 输出:AI生成的结果
トーン tone 语气/语调:文章的情感倾向和表达方式
フォーマット format 格式:输出内容的排列和呈现形式
ロールプレイング role playing 角色扮演:让AI扮演特定角色进行对话
ファクトベース fact-based 基于事实:仅使用经过验证的事实信息进行回答
ステップバイステップ step-by-step 逐步进行:按照步骤一步一步推进思考或操作
フィードバック feedback 反馈:对AI回答的评价和改进意见
ゼロショット(Zero-Shot) zero-shot 零样本:不提供示例直接让AI完成任务
フューショット(Few-Shot) few-shot 少样本:提供少量示例帮助AI理解任务模式
ロールプロンプティング role prompting 角色提示:通过指定角色控制AI的回答风格
エモーションプロンプティング emotion prompting 情感提示:在提示词中加入情感表达以影响AI回答质量
チェイン・オブ・ソート(CoT) chain-of-thought 思维链:让AI逐步展示推理过程以提升复杂推理精度
セルフコンシステンシー self-consistency 自我一致性:多次提问取最一致答案的方法
ツリー・オブ・ソーツ(ToT) tree of thoughts 思维树:树状分支探索多条推理路径的方法
ジェネレーテッドナレッジ generated knowledge 知识生成:让AI先生成相关知识再作答的方法
リフレクション reflection 反思:让AI对自己的回答进行自我验证和修正
メタプロンプティング meta-prompting 元提示:让AI生成或改善提示词本身的技术
プロンプトチェイニング prompt chaining 提示链:将复杂任务分解为多步骤链式处理的方法
エッジケース edge case 边缘案例:极端或意外情况的测试场景
A/Bテスト A/B test A/B测试:对比两种方案,找出效果更好的那个
トークン token 词元:AI处理文本的最小单位,影响输入输出的长度限制
インストラクションチューニング instruction tuning 指令微调:让模型学会遵循指令的训练方式
バックトラッキング backtracking 回溯:在探索路径中撤回错误步骤重新尝试
0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?