0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

生成AIで学ぶプロンプトエンジニアリング

Posted at
参考文献ありで用語を解説するプロンプト
【入力フォーマット】
あなたは、大学講義レベルの専門知識を持つAIリサーチャー兼教育設計者です。
以下に入力された用語リストをもとに、それぞれの用語を数理的・技術的観点から正確に解説してください。

各用語について、次の構成でプレーンテキストとして出力します。
すべての説明は学術的で簡潔にまとめ、参考文献と関連動画リンクを併記してください。

【出力フォーマット】

### 用語:〇〇(英語表記:XXXX)

【定義】
→ 一文で定義を示す。

【数理・技術的解説】
→ 原理・数式・モデル構造・アルゴリズム的要素を簡潔に説明。

【応用例】
→ 生成AI、機械学習、自然言語処理、画像処理などの具体的応用を1〜2行で説明。

【参考文献】
- 論文または教科書名(著者, 年, 出版社)
- オンライン資料URL(信頼性の高い公式・学術ページ)

【関連動画】
- YouTube等の公式・教育チャンネルURL(例:Stanford CS231n, MIT OCW, DeepLearning.AI)


【条件】

トーン:中立・学術的・客観的

文体:プレーンテキスト(Markdown形式で可)

対象:大学生・大学院生・研究職

分量:1用語あたり150〜250字程度

言語:日本語(必要に応じて英語併記)

出力順:入力した順序で並列解説

出典は信頼性重視(論文・大学講義・公式ドキュメント)

YouTubeなどの教育動画を1本必ず提示(講義系限定)

【入力例】

用語リスト:
1. Transformer
2. Diffusion Model
3. Cross Entropy


【このプロンプトで得られる成果】

入力した用語群を学術的・教育的に整理したAI技術解説ノートを自動生成できる。

大学授業・研究会・教材制作・AIセミナー資料の基礎素材として利用可能。

参考文献と動画が付属するため、学習→参照→再利用の一連の知識循環を形成できる。

【1. 生成AIの基盤技術(Generative AI Core Technology)】

  1. Generative AI(生成AI)
  2. Diffusion Model(拡散モデル)
  3. Variational Autoencoder (VAE)(変分オートエンコーダ)
  4. Generative Adversarial Network (GAN)(敵対的生成ネットワーク)
  5. Flow-based Model(フローベース生成モデル)
  6. Latent Space(潜在空間)
  7. Sampling(サンプリング)
  8. Noise Schedule(ノイズスケジュール)
  9. Denoising Process(ノイズ除去過程)
  10. Score Function(スコア関数)
  11. Energy-based Model(エネルギーモデル)
  12. Autoencoder(オートエンコーダ)
  13. Decoder(デコーダ)
  14. Tokenization(トークン化)
  15. Text-to-Image(テキスト→画像生成)
  16. Text-to-Video(テキスト→動画生成)
  17. Text-to-Music(テキスト→音楽生成)
  18. Text-to-3D(テキスト→3D生成)
  19. Conditional Generation(条件付き生成)
  20. Multimodal AI(マルチモーダルAI)

【2. プロンプト設計理論(Prompt Engineering & Logic)】

  1. Prompt(プロンプト)
  2. Prompt Engineering(プロンプト設計)
  3. Prompt Tuning(プロンプト調整)
  4. Prefix Tuning(接頭チューニング)
  5. Soft Prompt(ソフトプロンプト)
  6. Chain-of-Thought(思考の連鎖)
  7. CoT Reasoning(推論誘導プロンプト)
  8. Zero-Shot Prompting(ゼロショットプロンプト)
  9. Few-Shot Prompting(少数例プロンプト)
  10. Instruction Tuning(指示チューニング)
  11. Self-Consistency(自己整合)
  12. ReAct Prompting(推論+行動プロンプト)
  13. Tree-of-Thought(思考木構造)
  14. Retrieval-Augmented Generation (RAG)(検索拡張生成)
  15. Context Injection(文脈注入)
  16. Prompt Injection(プロンプト注入攻撃)
  17. Negative Prompt(ネガティブプロンプト)
  18. Temperature Parameter(温度パラメータ)
  19. Top-k Sampling(上位kサンプリング)
  20. Top-p Sampling (Nucleus Sampling)(確率核サンプリング)

【3. 数理的基礎(Mathematical Foundation)】

  1. Probability Distribution(確率分布)
  2. Gaussian Distribution(正規分布)
  3. Expectation(期待値)
  4. Variance(分散)
  5. Covariance(共分散)
  6. Entropy(エントロピー)
  7. Cross Entropy(交差エントロピー)
  8. KL Divergence(カルバック・ライブラー情報量)
  9. Bayesian Inference(ベイズ推論)
  10. Prior Distribution(事前分布)
  11. Posterior Distribution(事後分布)
  12. Maximum Likelihood Estimation(最尤推定)
  13. Log-Likelihood(対数尤度)
  14. Monte Carlo Sampling(モンテカルロ法)
  15. Markov Chain(マルコフ連鎖)
  16. Stochastic Process(確率過程)
  17. Gradient(勾配)
  18. Partial Derivative(偏微分)
  19. Hessian Matrix(ヘッセ行列)
  20. Jacobian Matrix(ヤコビ行列)

【4. 線形代数と表現学習(Linear Algebra & Representation Learning)】

  1. Matrix(行列)
  2. Vector(ベクトル)
  3. Tensor(テンソル)
  4. Dot Product(内積)
  5. Matrix Multiplication(行列積)
  6. Orthogonal Matrix(直交行列)
  7. Projection(射影)
  8. Eigenvalue(固有値)
  9. Eigenvector(固有ベクトル)
  10. Singular Value Decomposition (SVD)(特異値分解)
  11. Principal Component Analysis (PCA)(主成分分析)
  12. Linear Transformation(線形変換)
  13. Rank(階数)
  14. Basis(基底)
  15. Embedding Space(埋め込み空間)
  16. Latent Vector(潜在ベクトル)
  17. Dimensionality Reduction(次元削減)
  18. Manifold Learning(多様体学習)
  19. Orthogonality(直交性)
  20. Feature Vector(特徴ベクトル)

【5. 最適化・学習理論(Optimization & Learning Theory)】

  1. Gradient Descent(勾配降下法)
  2. Stochastic Gradient Descent(確率的勾配降下)
  3. Backpropagation(誤差逆伝播法)
  4. Learning Rate(学習率)
  5. Momentum(モメンタム)
  6. Adam Optimizer(アダム最適化)
  7. RMSProp(ルート平均二乗伝播)
  8. Weight Decay(重み減衰)
  9. Regularization(正則化)
  10. Dropout(ドロップアウト)
  11. Batch Normalization(バッチ正規化)
  12. Loss Function(損失関数)
  13. Mean Squared Error(平均二乗誤差)
  14. Cross Entropy Loss(交差エントロピー損失)
  15. Gradient Clipping(勾配クリッピング)
  16. Convergence(収束)
  17. Local Minima(局所最小値)
  18. Global Optimum(大域最適)
  19. Overfitting(過学習)
  20. Generalization(汎化)

【6. アテンションとトランスフォーマー数理(Transformer Mathematics)】

  1. Transformer(トランスフォーマー)
  2. Attention Mechanism(アテンション機構)
  3. Self-Attention(自己注意)
  4. Multi-Head Attention(多頭注意)
  5. Query Vector(クエリベクトル)
  6. Key Matrix(キー行列)
  7. Value Matrix(バリュー行列)
  8. Scaled Dot-Product(スケーリング内積)
  9. Positional Encoding(位置エンコード)
  10. Residual Connection(残差接続)
  11. Layer Normalization(層正規化)
  12. Feed-Forward Layer(前向き層)
  13. Masked Attention(マスク付き注意)
  14. Context Window(文脈ウィンドウ)
  15. Token Embedding(トークン埋め込み)
  16. Sentence Representation(文表現)
  17. Hidden State(隠れ状態)
  18. Softmax Function(ソフトマックス関数)
  19. Attention Weight(注意重み)
  20. Output Projection(出力射影)

【7. 生成AI出力制御(Sampling & Generation Control)】

  1. Beam Search(ビームサーチ)
  2. Greedy Decoding(貪欲デコーディング)
  3. Temperature Scaling(温度スケーリング)
  4. Top-k Sampling(上位k確率選択)
  5. Top-p Sampling(確率核選択)
  6. Logit(ロジット値)
  7. Probability Normalization(確率正規化)
  8. Token Probability(トークン確率)
  9. Entropy Regularization(エントロピー正則化)
  10. Noise Injection(ノイズ注入)
  11. Random Seed(乱数シード)
  12. Output Diversity(出力多様性)
  13. Perplexity(困惑度)
  14. Sequence Probability(系列確率)
  15. Sampling Temperature(サンプリング温度)
  16. Categorical Distribution(カテゴリ分布)
  17. Log Probability(対数確率)
  18. Token Ranking(トークン順位)
  19. Normalization Constant(正規化定数)
  20. Probability Density(確率密度)

【8. 応用的理論・幾何・解析(Advanced Mathematical Tools)】

  1. Fourier Transform(フーリエ変換)
  2. Laplace Transform(ラプラス変換)
  3. Convolution(畳み込み)
  4. Kernel Function(カーネル関数)
  5. Gaussian Kernel(ガウスカーネル)
  6. Taylor Expansion(テイラー展開)
  7. Differential Equation(微分方程式)
  8. Gradient Flow(勾配流)
  9. Probability Manifold(確率多様体)
  10. Information Geometry(情報幾何学)

この150語は、生成AIの理論(数理)+プロンプト設計+モデル最適化を横断的に理解するための最小語彙セット。
希望があれば次に、「各項目の式+定義+応用例(WordまたはLaTeX形式)」として拡張可能。

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?