re:Invent 2022で発表されたコンピューティング関連のアップデートをまとめました
Hardware
AWS Nitro v5 を発表
Annapruna Labsが開発したカスタムシリコン
- パフォーマンス向上
- メモリアクセス 50% 高速
- PCI Express 帯域幅 2 倍
- PPS(Packet per second) 性能 50% 向上
- レイテンシ 30% 短縮
- 帯域幅あたりの電力消費量 40% 削減
AWS Graviton3E プロセッサを発表
- HPC で一般的に必要とされる浮動小数点演算とベクトル演算のパフォーマンスに最適化
ENA Express を発表
- Scalable Reliable Datagram (SRD) プロトコルをベースに構築
- アプリケーションからは SRD であることを意識する必要は無く、通常の TCP/UDP の通信を行う
- TCP または UDP パケットが SRD 経由の送信に対応していない場合は、通常の方法で送信される
Amazon EC2
Amazon EC2 の C7gn インスタンスを発表
-
Graviton3E と Nitro v5 を積んだ新しいネットワーク最適化インスタンス
-
用途(ネットワーク要求が厳しいワークロードに最適)
- ネットワーク仮想アプライアンス
- データ分析
- 密結合な分散処理
- CPU に基づく人工知能と機械学習 (AI/ML) の推論
-
スペック
- 最大 200Gbps のネットワーク帯域
- C6gn インスタンスと比較して 50% 高いパケット処理性能
- 最大で 64vCPU 、 128GiB のメモリを搭載
-
プレビュー申込受付中
https://pages.awscloud.com/C7gn-Preview.html
Amazon EC2 の HPC7g インスタンスを発表
- Graviton3Eをう搭載したHPC向けインスタンス
- 用途
- コンピューティング処理への要求が厳しい HPC
- 分散計算の用途
- スペック
- 最大 64vCPU 、 128GiB メモリ
- 最大 200Gbps の EFA ネットワーク帯域
- 2023 年の早い時期に、更なる情報を公開予定
Amazon EC2 の Inf2 インスタンスを発表
-
AWS Inferentia2 チップを搭載
-
学習よりもコスト高になりがちな推論をコスト・電力効率よく低レイテンシで実行可能
-
PyTorch や TensorFlow などと統合された AWS
Neuron を使い、 Inf2 よる推論を実行できる。コー
ドの変更は最小限で OK -
用途
- 自然言語理解
- 言語翻訳
- ビデオと画像の生成
- 音声認識
- パーソナライゼーション
- 不正検出
-
スペック
- GPU ベースの EC2 インスタンスと比較して単位電
力あたり最大 50% 高いパフォーマンス - Inf1 インスタンスと比較して
- 3 倍のコンピューティング パフォーマンス
- 4 倍のアクセラレータ メモリ
- 最大 4 倍のスループット
- 最大 10 倍のレイテンシー
- GPU ベースの EC2 インスタンスと比較して単位電
-
プレビュー申し込みを受付中
https://pages.awscloud.com/EC2-Inf2-Preview.html
Amazon EC2 の R7iz インスタンスを発表
- 高クロック周波数のCPUを搭載したメモリ最適化
インスタンス - 第4世代Intel Xeon Scalable Processor(Sapphire Rapids)を搭載
- 用途(高いコンピューティングパフォーマンスと大きなメモリフットプリントの組み合わせが必要なワークロード)
- フロントエンドの Electronic Design Automation (EDA)
- コア単位のライセンス料が高額なリレーショナルデータベース
- 金融
- 保険統計
- データ分析シミュレーション
- スペック
- 全コアターボで最大3.9GHzで動作
- 最大128vCPU、1,024GiBのメモリ
- 最大50Gbpsのネットワーク帯域
- 最大40GbpsのEBS帯域
- プレビュー受付中
https://pages.awscloud.com/R7iz-Preview.html
Amazon EC2 の Trn1n インスタンスを発表
- AWS の機械学習向けチップ AWS Tranium を搭載した Trn1 インスタンスのネットワーク性能強化版
- 同等の GPU ベースのインスタンスと比較してトレーニングコストを最大 50% 削減
- 最大で 1.6Tbps の低レイテンシな EFA 最適化ネットワーク
- 分散学習処理では高いノード間通信性能を必要とすることがあり、この場合に威力を発揮
- 用途(NLP、コンピュータビジョン、レコメンダーモデルをトレーニング)
- 音声認識
- レコメンデーション
- 不正検出
- AWS Neuron SDKを使用することで、数行のコード変更だけで使い始めることができます
Amazon EC2 の HPC6id インスタンスを発表
- HPC ワークロード向けの新しいインスタンスタイプ
- 第三世代 Intel Xeon Scalable Processor(Ice Lake) を搭載
- スペック
- 最大 3.5GHz
- 1024GiB のメモリ
- 15.2TB の SSD
- R6i 比 4 倍の帯域である 200Gbps の EFA ネットワークに対応
- 用途
- HPC ソフトウェアのライセンスコストが発生する場合や、 Intel 固有の機能に最適化されたアプリケーションを利用する際に最適
- 衝突シミュレーションの有限要素解析 (FEA)
- 地震貯水池および構造シミュレーション
- CPU あたりの処理性能が重要なワークロードにも
- HPC ソフトウェアのライセンスコストが発生する場合や、 Intel 固有の機能に最適化されたアプリケーションを利用する際に最適
- オハイオ、 GovCloud(米国西部)で一般利用開始
Amazon EC2 の C6in インスタンスを発表
- 高クロック周波数のCPUを搭載し高いネットワー
ク性能を持つコンピュート最適化インスタンス - 第3世代Intel Xeon Scalable Processorを搭載
- スペック
- 全コアターボで最大3.5GHzで動作
- 最大128vCPU
- 256GiBのメモリ
- 最大200Gbpsのネットワーク帯域
- 最大80GbpsのEBS帯域
- 32xlargeサイズではEFAをサポート
- 用途
- ネットワーク仮想アプライアンス (ファイアウォール、仮想ルーター、ロードバランサー)
- Telco 5G User Plane Function (UPF)
- データ分析
- ハイパフォーマンスコンピューティング (HPC)
- AI/機械学習
- 米国東部 (オハイオ)、米国東部 (バージニア北部)、米国西部 (オレゴン)、欧州 (アイルランド) で利用可能
Amazon EC2 の M6in 、 M6idn 、 R6in, R6idn を発表
- 高クロック周波数のCPUを搭載し高いネットワー
ク性能を持つ汎用インスタンスとメモリ最適化イ
ンスタンス - 第3世代Intel Xeon Scalable Processorを搭載
- スペック
- 最大3.5GHzのCPU
- 最大200Gbpsのネットワーク帯域
- 最大80GbpsのEBS帯域
- M6in、M6idnは最大128vCPU、512GiBのメモリ
- R6in、R6idnは最大128vCPU、1,024GiBのメモリ
- M6idn、R6idnは7.6TB NVMe SSDを搭載
- 用途
- SQL/NoSQL データベース
- インメモリデータベース (SAP HANA)
- 電気通信アプリケーション (5G ユーザープレーン機能 (UPF))
- 高性能ファイルシステム
- ウェブ規模の分散型インメモリキャッシュ
- キャッシュフリート
- リアルタイムビッグデータ解析
Amazon EC2 で Microsoft Office 入り AMI が利用可能に
- Microsoft Office LTSC Professional Plus 2021 Amazon マシンイメージ (AMI) の、Amazon が提供する完全準拠のライセンスが AWS で利用可能に
- Officeに依存するアプリケーションの稼働が可能になった
- ライセンスはAWSから提供
- 管理者はAWS License Managerを利用して月単位
でOfficeを利用させるか否かを制御可能 - 料金
- Windows Server インスタンスを含む Amazon EC2 ライセンスで vCPU ごとに請求
- Microsoft Office and Remote Desktop Services (RDS) Subscriber Access License (SAL) のライセンスでユーザーおよび月ごとに請求(日割りにはなりません)
AWS Outposts
AWS Outposts を利用できる地域が拡大
- AWS Outposts をカタール、グアテマラ、ト
リニダード・トバゴにあるお客様のオンプレ
ミス拠点に提供可能に - 近くの AWS リージョンと連携しつつ、データや計算処理を
国内に閉じて実施することが可能 - 42U の Outposts racks 、 1U ・ 2U の Outposts servers 共に利用可能
AWS Compute Optimizer
Compute Optimizer が外部からのメトリクスに対応
-
AWS Compute Optimizer
AWS Compute Optimizer は、Amazon CloudWatchによって過去 14 日間に収集された AWS リソース使用率データを分析し(最大 3 か月のデータに対して有料オプションを利用可能)、Amazon EC2 インスタンス、 Amazon Elastic Block Store (EBS)ボリュームの最適なリソース構成を特定します
-
AWS Compute Optimizer が提供するサイジングの推奨事項を計算する際に、パートナーソリューションで取得したメトリクスを活用可能に
-
メモリメトリクスをこれまでの CloudWatch に加えてDatadog 、 Dynatrace 、 Instana 、 NewRelic から取得可能
-
CPU 等その他の要素と合わせてよりコスト最適な提案が可能に
-
東京を含む 16 のリージョンで利用可能に