はじめに
※本記事は、生成系AIによる自動作成記事となります。
皆さん、こんにちは!AWS re:Inventに参加されている皆さん、そしてオンラインでアップデートを楽しみにしている皆さん、たくまです!今年もワクワクする発表が盛りだくさんのこのイベント、気分が高まりますよね。最新のクラウド技術、革新的なサービス、業界のトップリーダーたちの貴重なセッションが待っています。
これから数日間、最新情報をしっかりキャッチアップしていきましょう。新機能やアップデートが業界にどんなインパクトを与えるのか、一緒に興奮を分かち合えることを楽しみにしています!そんなわけで、皆さんの気になるトピックやセッションをぜひシェアしてください!それでは、最高のre:Inventを一緒に楽しんでいきましょう!
2024年12月6日の主要なアップデート
Amazon EC2 HPC6id インスタンスがヨーロッパ (パリ) リージョンで利用できるようになりました
Amazon EC2のHpc6idインスタンスが新たにヨーロッパ(パリ)リージョンで利用可能になりました。これらのインスタンスは、メモリバンド幅に依存するデータ集約型の高性能コンピューティング(HPC)ワークロード、例えば有限要素解析や地震貯留層シミュレーションを効率的に実行するために最適化されています。EC2 Hpc6idインスタンスを使用することで、コストを削減しつつ、AWSの弾力性とスケーラビリティを活用できます。
Hpc6idインスタンスは、64コアの第3世代インテルXeon拡張プロセッサを搭載し、オールコアターボ周波数3.5GHz、1,024 GBのメモリ、最大15.2 TBのローカルNVMe SSDストレージを提供します。AWS Nitro Systemに基づくこれらのインスタンスは、200 GbpsのElastic Fabric Adapter(EFA)ネットワーキングを提供し、高スループットのノード間通信を可能にします。このシステムは、高性能・高可用性・高セキュリティを実現しつつ、仮想化オーバーヘッドを削減します。詳細は製品ページをご覧ください。
Amazon EC2 HPC7a インスタンスがヨーロッパ (パリ) リージョンで利用できるようになりました
Amazon EC2の新しいHpc7aインスタンスが、ヨーロッパ(パリ)リージョンで利用可能になりました。Hpc7aインスタンスは、第4世代AMD EPYCプロセッサを搭載し、最大192コア、300 GbpsのElastic Fabric Adapter(EFA)ネットワーク帯域幅を提供します。これにより、ノード間の迅速かつ低遅延の通信が可能です。また、Double Data Rate 5(DDR5)メモリにより、メモリ内データへの高速アクセスも実現されます。
Hpc7aインスタンスは、計算集約型で密接に結合された、遅延に敏感な高性能コンピューティング(HPC)ワークロードに最適です。これには、計算流体力学(CFD)、天気予報、マルチフィジックスシミュレーションなどが含まれます。これらのインスタンスを使用することで、少ないノードで効率的にスケールアップできるメリットがあります。HPCインスタンスのネットワークを最適化するために、リージョン内の単一のアベイラビリティゾーンでアクセス可能です。詳細は、AWSの公式サイトで確認できます。
Amazon Aurora が Amazon Bedrock ナレッジベースのクイック作成ベクターストアとして利用できるようになりました
Amazon Aurora PostgreSQLが、Amazon BedrockのKnowledge Bases内で簡単に作成できるベクターストアとして利用可能になりました。この新機能により、開発者やデータサイエンティストは1クリックでAurora PostgreSQLを選択し、pgvectorが事前設定されたAurora Serverlessクラスターを数分で展開できます。Aurora Serverlessは、アプリケーションの需要に応じて自動的にスケーリングされるため、開発者向けのベクターストアとして最適です。
Knowledge Basesは、Bedrock上で動作する基盤モデルを企業のデータソースに安全に接続し、関連性が高く文脈に特化した回答を提供します。これにより、企業のFMがビジネスに関する知識を深めることができます。RAG(Retrieval Augmented Generation)を実装するためには、データを埋め込み(ベクター)に変換し、類似検索のためにベクターストアに格納する必要があります。Aurora PostgreSQLは、従来のAuroraデータベースに対してもベクターストアとしてサポートされています。
このクイック作成オプションは、特定の地域で利用可能ですが、AWS GovCloud(US-West)では2024年第4四半期の実装を予定しています。
Amazon CloudWatch では、テレメトリ設定を一元的に可視化できるようになりました。
Amazon CloudWatchは、AWSサービスのテレメトリ構成に関する中央集中的な可視性を提供するようになりました。これにより、Amazon VPCフローログやAmazon EC2の詳細メトリクス、AWS Lambdaトレースなどの監視設定のギャップを特定可能です。新たなAWS Organizationsとの統合により、全組織でこの機能を有効にすることができます。
テレメトリ構成の可視性を持つことで、EC2の詳細メトリクスなどの監視の抜け穴を特定し、短期的なパフォーマンススパイクを容易に検出することができます。リソースタイプや個別リソース単位で監査を行い、特定のアカウントやタグに基づいてフィルタリングすることで、重要なリソースに集中できます。
この監査機能は、米国東部(バージニア州)、米国西部(オレゴン州)、アジア太平洋(東京、シンガポール、シドニー)、ヨーロッパ(フランクフルト、アイルランド、ストックホルム)などの複数地域で利用可能です。追加費用は発生せず、Amazon CloudWatch ConsoleやAPI/CLIを通じて利用できます。詳細については、AWSのドキュメントをご覧ください。
AWS Config がサービスにリンクされたレコーダーをサポートするようになりました
AWS Configは、AWSサービスにより管理される新しいタイプのレコーダー「サービスリンクドレコーダー」のサポートを追加しました。このレコーダーは、サービス特有のリソースに関する構成データを記録でき、特にAmazon CloudWatchのテレメトリ設定監査に役立ちます。Amazon CloudWatchでサービスリンクドレコーダーを有効にすると、Amazon VPC Flow LogsやAmazon EC2の詳細メトリクス、AWS Lambdaのトレースなど、重要なAWSサービスのテレメトリ構成に対する集中した可視性が得られます。
この機能により、AWSサービスはユーザーに代わってAWS Configレコーダーを管理し、リソースを発見して構成データを利用できるようになります。特に、Amazon CloudWatchのサービスリンクドレコーダーは、組織内の特定の重要リソースにおける監視のギャップを特定するのに役立ちます。これにより、テレメトリ構成の状態を単一画面で把握できるメリットがあります。サービスリンクドレコーダーは不変であり、一貫性を保ち、設定の変動を防ぎます。
この機能は、特定のリージョン(東京やシンガポールなど)でも利用可能で、追加料金なしで提供されます。詳細はAWSの公式ドキュメントをご覧ください。
Amazon RDS パフォーマンスインサイトがオンデマンド分析を新しいリージョンに拡張
Amazon RDS (リレーショナルデータベースサービス)のPerformance Insights機能が、新たに15の地域で利用可能になりました。この機能はAurora MySQL、Aurora PostgreSQL、及びRDS for PostgreSQLに対応しています。従来は15の地域でのみ提供されていましたが、これで全ての商業地域で利用できるようになります。
Performance Insightsを使用することで、選択した期間のパフォーマンスデータを分析し、通常とどう異なるのか、問題が何であったかを知り、修正アクションのアドバイスを受けることが可能です。視覚的なグラフや説明を通じて、パフォーマンスの問題の主な要因を特定し、次のステップに関するガイダンスも得られます。この機能により、データベースのパフォーマンス問題の診断時間が数時間から数分に短縮される可能性があります。
この機能は、Amazon RDS管理コンソールからワンクリックで追加できる完全管理型のパフォーマンス監視ソリューションです。詳しくは、Amazon RDSユーザーガイドやPerformance Insightsの料金ページを参照してください。
SageMaker SDKはトレーニングと推論のワークフローを強化します
AWSは、SageMaker Python SDKに新しいModelTrainerクラスを導入し、ModelBuilderクラスを強化しました。これにより、トレーニングワークフローが効率化され、推論のデプロイが簡素化されます。ModelTrainerクラスは、顧客がAmazon SageMaker上で分散トレーニング戦略を容易に設定・カスタマイズできるようにし、モデルのトレーニング時間を短縮し、リソースの最適化を図ります。これにより、効率的な並列処理が可能になり、コスト削減も実現します。顧客は、ローカルからSageMakerへのカスタムエントリポイントやコンテナの移行をスムーズに行え、インフラ管理の負担が軽減されます。
また、ModelBuilderクラスの強化により、HuggingFaceモデルのデプロイが簡単になり、ローカル環境とSageMaker間での開発が容易になりました。さらに、トレーニングしたモデルアーティファクトをModelTrainerからModelBuilderへ簡単に渡すことができ、トレーニングから推論への移行が一貫して行えます。詳細は各リンクを参照ください。
Amazon SageMaker は、ジェネレーティブ AI 推論のスケーリングを加速する新機能を導入しました
AWSは、SageMaker Inferenceにおいて、生成AIモデルの展開とスケーリングを大幅に向上させる2つの新機能「コンテナキャッシング」と「ファストモデルローダー」を発表しました。これらの機能は、大規模言語モデル(LLM)のスケーリングにおける課題を解決し、トラフィックの急増に対する応答時間を短縮し、コスト効果の高いスケーリングを実現します。
コンテナキャッシングは、推論のための生成AIモデルをスケーリングする際に、事前にコンテナイメージをキャッシュすることで、スケーリング時間を大幅に短縮します。ファストモデルローダーは、モデルの重みをAmazon S3から直接アクセラレータにストリーミングし、従来の方法よりも迅速にモデルを読み込むことができます。
これにより、顧客は応答性の高いオートスケーリングポリシーを構築でき、設定した閾値に達した際に迅速に新しいインスタンスやモデルのコピーを追加できるようになります。これらの機能は、Amazon SageMaker Inferenceが利用可能なすべてのAWSリージョンで利用できます。詳しい実装ガイドについては、公式ドキュメントを参照してください。
それでは、また明日!