参考文献ありで用語を解説するプロンプト
【入力フォーマット】
あなたは、大学講義レベルの専門知識を持つAIリサーチャー兼教育設計者です。
以下に入力された用語リストをもとに、それぞれの用語を数理的・技術的観点から正確に解説してください。
各用語について、次の構成でプレーンテキストとして出力します。
すべての説明は学術的で簡潔にまとめ、参考文献と関連動画リンクを併記してください。
【出力フォーマット】
### 用語:〇〇(英語表記:XXXX)
【定義】
→ 一文で定義を示す。
【数理・技術的解説】
→ 原理・数式・モデル構造・アルゴリズム的要素を簡潔に説明。
【応用例】
→ 生成AI、機械学習、自然言語処理、画像処理などの具体的応用を1〜2行で説明。
【参考文献】
- 論文または教科書名(著者, 年, 出版社)
- オンライン資料URL(信頼性の高い公式・学術ページ)
【関連動画】
- YouTube等の公式・教育チャンネルURL(例:Stanford CS231n, MIT OCW, DeepLearning.AI)
【条件】
トーン:中立・学術的・客観的
文体:プレーンテキスト(Markdown形式で可)
対象:大学生・大学院生・研究職
分量:1用語あたり150〜250字程度
言語:日本語(必要に応じて英語併記)
出力順:入力した順序で並列解説
出典は信頼性重視(論文・大学講義・公式ドキュメント)
YouTubeなどの教育動画を1本必ず提示(講義系限定)
【入力例】
用語リスト:
1. Transformer
2. Diffusion Model
3. Cross Entropy
【このプロンプトで得られる成果】
入力した用語群を学術的・教育的に整理したAI技術解説ノートを自動生成できる。
大学授業・研究会・教材制作・AIセミナー資料の基礎素材として利用可能。
参考文献と動画が付属するため、学習→参照→再利用の一連の知識循環を形成できる。
【1. 生成AIの基盤技術(Generative AI Core Technology)】
- Generative AI(生成AI)
- Diffusion Model(拡散モデル)
- Variational Autoencoder (VAE)(変分オートエンコーダ)
- Generative Adversarial Network (GAN)(敵対的生成ネットワーク)
- Flow-based Model(フローベース生成モデル)
- Latent Space(潜在空間)
- Sampling(サンプリング)
- Noise Schedule(ノイズスケジュール)
- Denoising Process(ノイズ除去過程)
- Score Function(スコア関数)
- Energy-based Model(エネルギーモデル)
- Autoencoder(オートエンコーダ)
- Decoder(デコーダ)
- Tokenization(トークン化)
- Text-to-Image(テキスト→画像生成)
- Text-to-Video(テキスト→動画生成)
- Text-to-Music(テキスト→音楽生成)
- Text-to-3D(テキスト→3D生成)
- Conditional Generation(条件付き生成)
- Multimodal AI(マルチモーダルAI)
【2. プロンプト設計理論(Prompt Engineering & Logic)】
- Prompt(プロンプト)
- Prompt Engineering(プロンプト設計)
- Prompt Tuning(プロンプト調整)
- Prefix Tuning(接頭チューニング)
- Soft Prompt(ソフトプロンプト)
- Chain-of-Thought(思考の連鎖)
- CoT Reasoning(推論誘導プロンプト)
- Zero-Shot Prompting(ゼロショットプロンプト)
- Few-Shot Prompting(少数例プロンプト)
- Instruction Tuning(指示チューニング)
- Self-Consistency(自己整合)
- ReAct Prompting(推論+行動プロンプト)
- Tree-of-Thought(思考木構造)
- Retrieval-Augmented Generation (RAG)(検索拡張生成)
- Context Injection(文脈注入)
- Prompt Injection(プロンプト注入攻撃)
- Negative Prompt(ネガティブプロンプト)
- Temperature Parameter(温度パラメータ)
- Top-k Sampling(上位kサンプリング)
- Top-p Sampling (Nucleus Sampling)(確率核サンプリング)
【3. 数理的基礎(Mathematical Foundation)】
- Probability Distribution(確率分布)
- Gaussian Distribution(正規分布)
- Expectation(期待値)
- Variance(分散)
- Covariance(共分散)
- Entropy(エントロピー)
- Cross Entropy(交差エントロピー)
- KL Divergence(カルバック・ライブラー情報量)
- Bayesian Inference(ベイズ推論)
- Prior Distribution(事前分布)
- Posterior Distribution(事後分布)
- Maximum Likelihood Estimation(最尤推定)
- Log-Likelihood(対数尤度)
- Monte Carlo Sampling(モンテカルロ法)
- Markov Chain(マルコフ連鎖)
- Stochastic Process(確率過程)
- Gradient(勾配)
- Partial Derivative(偏微分)
- Hessian Matrix(ヘッセ行列)
- Jacobian Matrix(ヤコビ行列)
【4. 線形代数と表現学習(Linear Algebra & Representation Learning)】
- Matrix(行列)
- Vector(ベクトル)
- Tensor(テンソル)
- Dot Product(内積)
- Matrix Multiplication(行列積)
- Orthogonal Matrix(直交行列)
- Projection(射影)
- Eigenvalue(固有値)
- Eigenvector(固有ベクトル)
- Singular Value Decomposition (SVD)(特異値分解)
- Principal Component Analysis (PCA)(主成分分析)
- Linear Transformation(線形変換)
- Rank(階数)
- Basis(基底)
- Embedding Space(埋め込み空間)
- Latent Vector(潜在ベクトル)
- Dimensionality Reduction(次元削減)
- Manifold Learning(多様体学習)
- Orthogonality(直交性)
- Feature Vector(特徴ベクトル)
【5. 最適化・学習理論(Optimization & Learning Theory)】
- Gradient Descent(勾配降下法)
- Stochastic Gradient Descent(確率的勾配降下)
- Backpropagation(誤差逆伝播法)
- Learning Rate(学習率)
- Momentum(モメンタム)
- Adam Optimizer(アダム最適化)
- RMSProp(ルート平均二乗伝播)
- Weight Decay(重み減衰)
- Regularization(正則化)
- Dropout(ドロップアウト)
- Batch Normalization(バッチ正規化)
- Loss Function(損失関数)
- Mean Squared Error(平均二乗誤差)
- Cross Entropy Loss(交差エントロピー損失)
- Gradient Clipping(勾配クリッピング)
- Convergence(収束)
- Local Minima(局所最小値)
- Global Optimum(大域最適)
- Overfitting(過学習)
- Generalization(汎化)
【6. アテンションとトランスフォーマー数理(Transformer Mathematics)】
- Transformer(トランスフォーマー)
- Attention Mechanism(アテンション機構)
- Self-Attention(自己注意)
- Multi-Head Attention(多頭注意)
- Query Vector(クエリベクトル)
- Key Matrix(キー行列)
- Value Matrix(バリュー行列)
- Scaled Dot-Product(スケーリング内積)
- Positional Encoding(位置エンコード)
- Residual Connection(残差接続)
- Layer Normalization(層正規化)
- Feed-Forward Layer(前向き層)
- Masked Attention(マスク付き注意)
- Context Window(文脈ウィンドウ)
- Token Embedding(トークン埋め込み)
- Sentence Representation(文表現)
- Hidden State(隠れ状態)
- Softmax Function(ソフトマックス関数)
- Attention Weight(注意重み)
- Output Projection(出力射影)
【7. 生成AI出力制御(Sampling & Generation Control)】
- Beam Search(ビームサーチ)
- Greedy Decoding(貪欲デコーディング)
- Temperature Scaling(温度スケーリング)
- Top-k Sampling(上位k確率選択)
- Top-p Sampling(確率核選択)
- Logit(ロジット値)
- Probability Normalization(確率正規化)
- Token Probability(トークン確率)
- Entropy Regularization(エントロピー正則化)
- Noise Injection(ノイズ注入)
- Random Seed(乱数シード)
- Output Diversity(出力多様性)
- Perplexity(困惑度)
- Sequence Probability(系列確率)
- Sampling Temperature(サンプリング温度)
- Categorical Distribution(カテゴリ分布)
- Log Probability(対数確率)
- Token Ranking(トークン順位)
- Normalization Constant(正規化定数)
- Probability Density(確率密度)
【8. 応用的理論・幾何・解析(Advanced Mathematical Tools)】
- Fourier Transform(フーリエ変換)
- Laplace Transform(ラプラス変換)
- Convolution(畳み込み)
- Kernel Function(カーネル関数)
- Gaussian Kernel(ガウスカーネル)
- Taylor Expansion(テイラー展開)
- Differential Equation(微分方程式)
- Gradient Flow(勾配流)
- Probability Manifold(確率多様体)
- Information Geometry(情報幾何学)
この150語は、生成AIの理論(数理)+プロンプト設計+モデル最適化を横断的に理解するための最小語彙セット。
希望があれば次に、「各項目の式+定義+応用例(WordまたはLaTeX形式)」として拡張可能。