はじめに
2025年は、AIを「単なるチャット」として使う段階から、自律的に動く「エージェント」と共に開発する段階へと大きく進化した年でした。
本記事では、この年末年始にAWSのAIサービスを体系的に学びたい方に向けて、最新の全体像を整理して解説します。
1. AWS AIサービスの「3層レイヤー」構造
AWSは生成AIへのアプローチを、以下の3つのレイヤーで整理しています。
【2026年版のアップデート】 AWSの生成AIスタックにおいて、従来のAmazon Q Developerを包含し、より「エージェントによる自律的な開発」に特化した 「Kiro」 は、下記の画像には含まれていませんが、載せるのであればL3(アプリケーション層) の中核を担うサービスなります。
出典:AWS公式サイト
L3: AIアプリケーション(すぐに使えるツール)
専門知識がなくても、あるいは開発を劇的に効率化するために「すぐに使える」ツール群。
-
Kiro (New!): 2025年に登場した 「AIエージェント型IDE」。Amazon Q Developerの進化系とも言える存在で、仕様書(Spec)からコードを自律的に生成・修正する「仕様駆動開発」をリードする開発のパートナーとしての位置づけ。
-
Amazon Q Business: 企業内のドキュメントを学習し、社内データに基づいた回答を生成するビジネス向けAIアシスタント。
-
SageMaker Canvas: プログラミング不要で機械学習モデルを作成。本来はL1のSageMakerの一部ですが、ノーコードで予測モデルや生成AIアプリを作れるため、L3(アプリケーション層)として機能する。
L2: 生成AI構築ツール(APIとして利用)
独自の生成AIアプリケーションを構築するための基盤。
-
Amazon Bedrock: Claude、Llama、そして最新の Amazon Nova などのモデルをAPI経由で利用できる基盤。
-
Amazon Bedrock Agents: AIにタスクを実行させる「エージェント機能」の構築。
💡 Bedrock と Agents の違い
- Bedrock単体: 「質問に答える」という回答がメイン。
- Bedrock Agents: 「在庫を確認して注文して」など、裏側のシステムと連携して アクション(実行) まで完結させる。
L1: インフラストラクチャ(独自の学習・運用)
モデルの学習や、圧倒的なコスト効率を求めるための基盤層。
- Amazon SageMaker AI: 機械学習のフルマネージド環境。AIを1から構築・学習・デプロイする
【チップ】
- AWS Trainium モデルの 「学習(Training)」に特化した専用チップ。GPUより安く・速く学習したい時の選択肢。
- Inferentia: モデルの 「推論(Inference=回答)」に特化した専用チップ。大量のリクエストを安く裁くことが可能。
- GPUs(NVIDIA製など): 汎用性が高いGPU。
2. 【注目】AIエージェント時代の旗手「Kiro」
2025年のre:Inventで大きな話題となったのが Kiro です。
従来のAIが「コードの一部を書く」ものだったのに対し、Kiroは 「仕様(Spec)を定義し、エージェントが自律的に実装する」 という「仕様駆動開発」を実現します。
Kiroの特徴:
- Vibeモード: アイデアを即座に形にする。
- Specモード: 堅牢な要件定義・設計書に基づいてコードを生成。
- マルチモデル対応: Claude 3.5/3.7 や Amazon Nova を裏側で使い分けることが可能。
3. 進化した基盤モデル「Amazon Nova」
2025年末現在、AWSの主力モデルは Amazon Nova シリーズです。
- Nova Micro: テキストのみ、超高速。
- Nova Lite / Pro: マルチモーダル(画像・動画対応)で高精度。
- Nova Forge: 企業の独自データを使って「事前学習の続き」を行える革新的な機能。
おわりに
AWSのAIサービスは非常に多岐にわたりますが、まずはこの3層構造と、最新の「Kiro」を押さえておけば、2026年のトレンドはバッチリです。
記事の内容へのご意見や応援コメントなど、いつでもお待ちしております。
Amazon、AWS、および関連するロゴは、Amazon.com, Inc.またはその関連会社の商標です。
