はじめに
AWSの基礎力をつけるためにAWS What's Newを毎日目を通す事を始めました。
最初は日本語訳されたものを見ていたのですが、1週間ほど遅れて訳されるようなので、英語の情報を訳して整理することにしました。
本情報が役立つ人もいるかなと思い公開します。
個人的な理解なので、実際の情報は原典をあたってください。
Amazon EC2 P5インスタンス(シングルGPU)が一般提供開始
投稿日: 2025年08月12日
何ができるようになったのか
NVIDIA H100 GPUを1基搭載した新しいAmazon Elastic Compute Cloud (Amazon EC2) P5インスタンスサイズが提供開始され、企業は機械学習(ML)および高性能コンピューティング(HPC)リソースをコスト効率よく適正なサイズに調整できるようになりました。
何が嬉しいのか
新しいインスタンスサイズにより、顧客は小規模から始めて段階的にスケールアップでき、インフラストラクチャコストをより柔軟に管理できます。チャットボットや専門的な言語翻訳ツールなどの小規模から中規模の大規模言語モデル(LLM)を開発する顧客は、推論タスクをより経済的に実行できるようになります。また、製薬研究、流体解析、金融モデリングなどのHPCアプリケーションを、高価で大規模なGPU展開にコミットすることなくデプロイするためにこれらのインスタンスを使用できます。
これまでとどう変わるのか
-
これまで
これまで、小規模から中規模のLLM(チャットボットや専門的な言語翻訳ツールなど)を開発する顧客は、推論タスクをより経済的に実行するために、より高価で大規模なGPU展開にコミットする必要がありました。 -
これから
新しいインスタンスサイズにより、顧客は小規模から始めて段階的にスケールアップでき、インフラストラクチャコストをより柔軟に管理できるようになりました。
具体的なユースケース
- チャットボットや専門的な言語翻訳ツールなどの小規模から中規模のLLM開発
- 製薬研究、流体解析、金融モデリングなどのHPCアプリケーションのデプロイ
AWS EC2のアクセラレーティッドコンピューティング(Accelerated Computing)インスタンス
ファミリー | 主な用途 | 特徴 |
---|---|---|
Pシリーズ | 機械学習トレーニング、高性能計算(HPC) | 高性能NVIDIA GPU搭載、深層学習や科学計算向け |
Gシリーズ | 機械学習推論、グラフィックス処理 | NVIDIA GPU搭載、推論や3Dレンダリング、VDI用途 |
Infシリーズ | 機械学習推論 | AWS Inferentiaチップ搭載、高スループット・低レイテンシ推論 |
Trnシリーズ | 機械学習トレーニング | AWS Trainiumチップ搭載、コスト効率の高い大規模モデル学習 |
Fシリーズ | FPGAアプリケーション | ハードウェアアクセラレーションのカスタマイズが可能 |
DLシリーズ | 深層学習分散トレーニング | Habana Gaudiアクセラレーター搭載、AI学習向け |
VT1シリーズ | ビデオトランスコーディング | 高性能ビデオトランスコード専用ハードウェア搭載、ライブ配信や大量映像変換向け |
Amazon EC2 G6インスタンスがAWS GovCloud (米国東部) リージョンで利用可能に
投稿日: 2025年08月12日
何ができるようになったのか
NVIDIA L4 GPUを搭載したAmazon Elastic Compute Cloud (Amazon EC2) G6インスタンスがAWS GovCloud (米国東部) で利用可能になりました。G6インスタンスは、グラフィックスを多用する幅広い用途や機械学習のユースケースに使用できます。
何が嬉しいのか
顧客は、G6インスタンスを使用して、自然言語処理、言語翻訳、ビデオおよび画像分析、音声認識、パーソナライゼーションのためのMLモデルのデプロイや、リアルタイムで映画品質のグラフィックスの作成およびレンダリング、ゲームストリーミングなどのグラフィックスワークロードに利用できます。G6インスタンスは、GPUあたり24GBのメモリを持つ最大8基のNVIDIA L4 Tensor Core GPUと第3世代AMD EPYCプロセッサーを搭載しています。また、最大192 vCPU、最大100 Gbpsのネットワーク帯域幅、最大7.52 TBのローカルNVMe SSDストレージもサポートしています。
これまでとどう変わるのか
-
これまで
これまで、AWS GovCloud (米国東部) リージョンでは、NVIDIA L4 GPUを搭載したAmazon EC2 G6インスタンスは利用できませんでした。 -
これから
今回、これらのインスタンスが利用可能になったことで、グラフィックスを多用する用途や機械学習のワークロードにおいて、より高性能なコンピューティングリソースへのアクセスが可能になりました。
具体的なユースケース
- 自然言語処理、言語翻訳、ビデオおよび画像分析、音声認識、パーソナライゼーションのためのMLモデルのデプロイ
- リアルタイムで映画品質のグラフィックスの作成およびレンダリング、ゲームストリーミングなどのグラフィックスワークロード
AWS Deadline Cloud は、映画、テレビ、ゲームなどの分野で、レンダリング管理を簡素化するために設計されたフルマネージドサービスです.
AWS Deadline Cloudが新しいコスト削減コンピューティングオプションを導入
投稿日: 2025年08月12日
何ができるようになったのか
AWS Deadline Cloudは、映画、テレビ、放送、ウェブコンテンツ、デザイン向けのコンピュータ生成グラフィックスや視覚効果を作成するチームのレンダー管理を簡素化するフルマネージドサービスです。本日、Deadline Cloudのサービス管理フリート向けに、レンダリングコストを削減できる新しい「待機して節約」機能を発表しました。価格はvCPU時間あたり0.006ドルからとなっています。
何が嬉しいのか
この新機能は、完了時間に柔軟性のある、時間に制約されないレンダリングワークロードに最適です。この「待機して節約」アプローチを使用してジョブを送信することで、大幅なコスト削減が可能になり、次のプロジェクトでより多くの創造的なイテレーションや探求を行うことができます。この機能は、既存のAWS Deadline Cloudのサービス管理フリートにおけるコンピューティングオプションを補完し、さまざまな優先順位や予算に応じてリソース利用を最適化するための柔軟性を高めます。
これまでとどう変わるのか
-
これまで
これまで、時間に制約されないレンダリングワークロードでも、より高価なコンピューティングオプションを使用する必要がありました。 -
これから
今回、「待機して節約」機能が導入されたことで、完了時間に柔軟性のあるジョブに対して、大幅なコスト削減が可能になりました。
具体的なユースケース
- 完了時間に柔軟性のある、時間に制約されないレンダリングワークロード
Amazon SageMaker AIがP6e-GB200 UltraServersをサポート開始
投稿日: 2025年08月12日
何ができるようになったのか
Amazon SageMaker AIは、SageMaker HyperPodおよびTraining JobsでP6e-GB200 UltraServersのサポートを発表しました。P6e-GB200 UltraServersを使用すると、1つのNVLinkドメイン内で最大72基のNVIDIA Blackwell GPUを活用して、兆パラメータ規模の基盤モデルのトレーニングとデプロイを加速できます。
何が嬉しいのか
P6e-GB200 UltraServersは、P5enインスタンスと比較して、1つのNVIDIA NVLink内で20倍以上の計算能力と11倍以上のメモリを提供します。各NVLinkドメイン内で、360ペタフロップスのFP8計算能力(スパースなし)と合計13.4 TBの高帯域幅メモリ(HBM3e)を活用できます。SageMaker AIでP6e-GB200 UltraServersを使用すると、GB200の優れたパフォーマンスと、セキュリティ、組み込みのフォールトトレランス、トポロジ対応スケジューリング(SageMaker HyperPod EKS & Slurm)、統合監視機能、他のSageMaker AIおよびAWSサービスとのネイティブ統合など、SageMakerのマネージドインフラストラクチャを組み合わせることができます。
これまでとどう変わるのか
-
これまで
これまで、大規模なモデルのトレーニングにはP5enインスタンスなどが使用されていましたが、P6e-GB200 UltraServersの登場により、計算能力とメモリが大幅に向上し、兆パラメータ規模のモデルのトレーニングとデプロイが加速されます。 -
これから
今回、P6e-GB200 UltraServersが利用可能になったことで、兆パラメータ規模の基盤モデルのトレーニングとデプロイが加速されます。
具体的なユースケース
- 兆パラメータ規模の基盤モデルのトレーニングとデプロイ
AWS Marketplaceで販売するISV向けの新しいインセンティブを発表
投稿日: 2025年08月12日
何ができるようになったのか
Amazon Web Services, Inc. (AWS) は、独立系ソフトウェアベンダー (ISV) の新規顧客獲得を支援するため、AWS Partner CentralでAWS Marketplace Private Offer Promotion Program (MPOPP) を開始したことを発表しました。このプログラムは、参加ISVからの購入インセンティブとして顧客にAWSプロモーションクレジットを提供することで、AWS Marketplaceを通じた販売を加速させることを目的としています。
何が嬉しいのか
MPOPPは、AWS Marketplaceのジャーニーのさまざまな段階にあるAWSパートナーにメリットを提供します。新規のAWS Marketplaceセラーは即時の資金調達支援を受けることができ、既存のセラーはAWS Marketplaceの更新を促進するための特別なインセンティブの恩恵を受けることができます。対象となるパートナーは、AWSパートナーファンディングポータルを通じて年間を通じて資金のセルフサービスリクエストを提出でき、プライベートオファーの受諾後、翌営業日の資金提供を目標とすることができます。簡素化された資金調達テンプレートは、取引の成立を加速し、完全に自動化された承認プロセスにより市場投入までの時間を短縮します。
これまでとどう変わるのか
-
これまで
これまで、ISVがAWS Marketplaceで販売を促進するための、このようなインセンティブプログラムはありませんでした。 -
これから
今回、MPOPPが開始されたことで、ISVはAWSプロモーションクレジットを活用して新規顧客獲得を加速させることができるようになりました。
具体的なユースケース
- 新規顧客獲得の促進
- AWS Marketplaceの更新促進
Amazon SageMaker HyperPodがカスタムAMI(Amazon Machine Images)をサポート開始
投稿日: 2025年08月12日
何ができるようになったのか
Amazon SageMaker HyperPodがカスタムAMIをサポートし、顧客は特定の組織要件を満たす、事前に設定されセキュリティ強化された環境でクラスターをデプロイできるようになりました。
何が嬉しいのか
この機能により、顧客はHyperPodのパフォーマンス最適化されたベースAMIを基盤としながら、カスタマイズされたセキュリティエージェント、コンプライアンスツール、独自のライブラリ、特殊なドライバーを直接イメージに組み込むことができ、起動時間の短縮、信頼性の向上、セキュリティコンプライアンスの強化が実現します。セキュリティチームは組織のポリシーをベースイメージに直接埋め込むことができ、AI/MLチームは事前に承認された環境を使用して、企業のセキュリティ基準を満たしながらトレーニングまでの時間を短縮できます。
これまでとどう変わるのか
-
これまで
これまで、HyperPodにAI/MLワークロードをデプロイする顧客は、厳格なセキュリティ、コンプライアンス、運用要件を満たすカスタマイズされた環境を必要としながらも、デプロイを遅らせ、クラスターノード間で不整合を生じさせる複雑なライフサイクル設定スクリプトに苦労していました。 -
これから
カスタムAMIのサポートにより、顧客はカスタマイズされたセキュリティエージェントなどを直接イメージに組み込むことができ、起動時間の短縮、信頼性の向上、セキュリティコンプライアンスの強化が実現します。
具体的なユースケース
- 特定の組織要件を満たす、事前に設定されセキュリティ強化された環境でのクラスターのデプロイ
AWS Direct Connectが南アフリカのケープタウンで100Gの拡張を発表
投稿日: 2025年08月12日
何ができるようになったのか
AWSは、南アフリカのケープタウン近郊にあるTeraco CT1データセンターのAWS Direct Connectロケーションで、100 Gbpsの専用接続の拡張を発表しました。このロケーションから、中国を除くすべてのパブリックAWSリージョン、AWS GovCloudリージョン、およびAWSローカルゾーンへのプライベートな直接ネットワークアクセスを確立できるようになりました。
何が嬉しいのか
これは、南アフリカでMACsec暗号化機能を備えた100 Gbps接続を提供する2番目のAWS Direct Connectロケーションです。Direct Connectサービスを使用すると、AWSとデータセンター、オフィス、またはコロケーション環境との間にプライベートな物理ネットワーク接続を確立できます。これらのプライベート接続は、パブリックインターネット経由で行われる接続よりも一貫したネットワークエクスペリエンスを提供できます。
これまでとどう変わるのか
-
これまで
これまで、ケープタウンのTeraco CT1データセンターでは100 Gbpsの専用接続は利用できませんでした。 -
これから
今回の拡張により、このロケーションからすべてのパブリックAWSリージョンなどへの高速でプライベートなネットワークアクセスが可能になりました。
具体的なユースケース
- ケープタウンのTeraco CT1データセンターから、すべてのパブリックAWSリージョン(中国を除く)、AWS GovCloudリージョン、AWSローカルゾーンへのプライベートな直接ネットワークアクセスを確立する
クラスタープレイスメントグループ内のEC2オンデマンドキャパシティ予約における共有およびターゲティングの新機能
投稿日: 2025年08月13日
何ができるようになったのか
Amazon EC2オンデマンドキャパシティ予約(ODCR)とクラスタープレイスメントグループ(CPG)の組み合わせ(CPG-ODCR)において、以下の2つの機能強化が発表されました。
- 異なるCPGに属するODCRをリソースグループに追加し、複数のプレイスメントグループにまたがる予約グループをまとめて管理・ターゲティングできるようになりました。
- AWS Resource Access Manager(RAM)を介して、複数のAWSアカウント間でCPG-ODCRを共有できるようになりました。
何が嬉しいのか
- CPG-ODCRの利便性が向上します。
- 複数のプレイスメントグループにまたがる予約グループの管理とターゲティングが容易になります。
- キャパシティの一元的なプールを作成し、異なるアカウントのワークロード間で効率的に利用できます。
これまでとどう変わるのか
-
これまで
- これまで単一のCPGに紐付いていたODCRが、リソースグループを介して複数のCPGを横断して管理できるようになり、さらにAWS RAMを用いて複数アカウント間で共有可能になりました。
-
これから
- 複数のプレイスメントグループにまたがる予約グループの管理とターゲティングが容易になります。また、AWS Resource Access Manager(RAM)を介して、複数のAWSアカウント間でCPG-ODCRを共有できるようになりました。
具体的なユースケース
- 複数のクラスタープレイスメントグループに分散しているキャパシティ予約を、リソースグループを使って一元的に管理・ターゲティングする。
- 組織内でキャパシティを中央でプールし、異なるAWSアカウントで実行されているワークロードに効率的に割り当てる。
Amazon BedrockでAnthropicのClaude 3 Sonnetのコンテキストウィンドウが拡張
投稿日: 2025年08月13日
何ができるようになったのか
Amazon Bedrockで提供されるAnthropicのClaude 3 Sonnetのコンテキストウィンドウが、20万トークンから100万トークンへと5倍に拡張され、パブリックプレビューとして利用可能になりました。これにより、単一のリクエストで非常に大量のテキストを処理・推論できるようになります。
何が嬉しいのか
一度に大量の情報を処理できるため、包括的な分析や生成タスクにおいて新たな可能性が広がります。
これまでとどう変わるのか
-
これまで
- コンテキストウィンドウは20万トークンに制限されていました。
-
これから
- コンテキストウィンドウが100万トークンに増加し、より大規模なテキストの処理が可能になります。
- 米国西部(オレゴン)、米国東部(バージニア北部)、米国東部(オハイオ)のAWSリージョンでパブリックプレビューとして提供されます。
- 20万トークンを超えるプロンプトの場合、料金が入力で約2倍、出力で約1.5倍になります。
具体的なユースケース
- 大規模なコード分析: コードベース全体を読み込み、プロジェクトのアーキテクチャ理解、依存関係の特定、システム全体を考慮した改善提案が可能になります。
- ドキュメントの統合: 法的契約書や研究論文など、広範なドキュメント群を一度に処理し、複数の文書間の関連性を分析できます。
- 高度なコンテキスト対応エージェント: APIドキュメントや対話履歴全体をコンテキストとして維持し、数百のツール呼び出しや複数ステップのワークフローで一貫性を保つエージェントを構築できます。
Amazon OpenSearch ServerlessがkNNバイトベクトルと新しいデータ型をサポート開始
投稿日: 2025年08月13日
何ができるようになったのか
- kNN(k-nearest neighbor)バイトベクトルのサポート
- ベクトルコレクションに対する半径検索機能
- 新しいデータ型とマッピングパラメータの追加
strict_allow_templates
- ワイルドカードフィールド型
-
kuromoji_completion
アナライザー
何が嬉しいのか
- コスト削減とパフォーマンス向上: kNNバイトベクトルのサポートにより、メモリとストレージの要件が低減し、コストを削減しながらレイテンシーの改善とパフォーマンスの向上が実現します。
- 柔軟性と制御の向上: 1つのドキュメントに複数のベクトルを格納できるネストされたフィールドや、新しいマッピングパラメータにより、インフラ管理の複雑さを伴わずに検索操作をより柔軟に制御できます。
これまでとどう変わるのか
-
これまで
- kNN検索ではfloatベクトルのみがサポートされていました。
-
これから
- kNN検索で、よりメモリ効率の良いバイトベクトルがサポートされるようになりました。
- ベクトルコレクションにおいて、指定した半径内を検索する機能が追加されました。
- データマッピングの柔軟性を高めるための新しいパラメータ (
strict_allow_templates
、ワイルドカードフィールド型、kuromoji_completion
アナライザー) が導入されました。
具体的なユースケース
- 検索および分析ワークロード全般の強化。
- ベクトル類似性検索(例: 画像検索、レコメンデーションエンジン、セマンティック検索)におけるコスト効率とパフォーマンスの改善。
- ワイルドカードクエリや日本語の補完機能を利用した、より高度なテキスト検索アプリケーションの実装。
さいごに
Amazon SageMaker HyperPodがカスタムAMI(Amazon Machine Images)をサポート開始しました。
コンテナイメージをカスタムできることで助かる人は多そうですね。