0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

LLMと生成AIの理論と実践

Last updated at Posted at 2025-05-22

第1部:基礎理論と土台となる技術

目的: LLMと生成AIを理解するための自然言語処理・トランスフォーマーの基本を習得

単元 内容
1.1 自然言語処理の基礎:トークン化、形態素解析、文脈依存の意味理解
1.2 分散表現:Word2Vec, GloVe, FastText、意味空間における語の埋め込み
1.3 トランスフォーマーの基本構造:Self-Attention、残差接続、LayerNormの役割
1.4 LLMの全体像:BERT(双方向)・GPT(自己回帰)・T5(統一モデル)の構造と用途比較
1.5 言語モデルの評価指標:パープレキシティ、BLEU、ROUGE、ログ尤度とその解釈

第2部:生成AIと大規模モデルの設計

目的: LLMの学習構造と最先端の多モーダル・多言語生成技術を理解

単元 内容
2.1 自己回帰言語モデル:GPT系列におけるDecoder-Only構造の意義
2.2 事前学習とファインチューニング:マスク付き(BERT)と因果言語モデリング(GPT)
2.3 インストラクション・チューニングとRLHF:ChatGPTに代表される人間中心学習の仕組み
2.4 多言語・多モーダルモデル:LLAVA, Flamingo, Geminiなどの設計と応用分野
2.5 モデルスケーリング法則:パラメータ数・データ量・計算量の関係と性能予測

第3部:LLMの実装と応用演習

目的: 実践的にLLMを扱い、独自アプリケーションやプロトタイプを作成

単元 内容
3.1 Hugging Face Transformersでのモデルロードと推論(GPT-2, BERT, T5など)
3.2 トークナイザの理解と独自コーパスへの適用(Tokenizer Training)
3.3 軽量ファインチューニング技術:LoRA、PEFT、Adapterなどの活用
3.4 RAG(Retrieval Augmented Generation):外部知識を利用した生成モデル構築
3.5 LLMのAPI活用とUI統合:OpenAI、Claude、Cohere+GradioやStreamlitでのUI開発
3.6 プロンプトエンジニアリング:Few-shot, Zero-shot, Chain-of-Thought等の設計と評価

0
0
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
0
0

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?