1
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?

More than 3 years have passed since last update.

AWS EC2 インスタンスタイプをまとめてみた

Posted at

早見表

  汎用     コンピューティング最適化 メモリ最適化    ストレージ最適化 高速コンピューティング
A1 C4 R4 D2 G3
M4 C5 R5 H1 G4
M5 C5a R5a I3 Inf1
M5a C5ad R5ad I3en P2
M5ad C5d R5d P3
M5d C5n R5dn P3dn
M5dn C6g R5n
M5n C6gd R6g
M6g R6gd
M6gd u-xtb1
T2 X1
T3 X1e
T3a z1d

#概要
##汎用インスタンス

汎用インスタンスは、コンピューティング、メモリ、およびネットワーキングリソースをバランスよく備えており、広範囲のワークロードに使用できます。

###A1 インスタンス
これらのインスタンスは、Arm エコシステムがサポートするスケールアウト型ワークロードに最適です。

使用用途

  • ウェブサーバー

  • コンテナ化されたマイクロサービス

###M5、M5a インスタンス

これらのインスタンスは、クラウドインフラストラクチャの実現に最適で、コンピューティング、メモリ、およびネットワーキングリソースをバランスよく備えており、クラウドにデプロイされる広範なアプリケーションに使用されます。

使用用途

  • 小規模および中規模のデータベース

  • 追加のメモリを必要とするデータ処理タスク

  • キャッシュフリート

  • SAP、Microsoft SharePoint、クラスターコンピューティング、その他のエンタープライズアプリケーションなどのバックエンドサーバー

###M6g インスタンスと M6gd インスタンス

これらのインスタンスは AWS Graviton2 プロセッサを搭載しており、幅広い汎用ワークロードに対応するバランスの取れたコンピューティング、メモリ、ネットワーキングを提供します。

使用用途

  • アプリケーションサーバー

  • マイクロサービス

  • ゲームサーバー

  • 中規模のデータストア

  • キャッシュフリート

###T2、T3 インスタンス

これらのインスタンスは、ベースラインレベルの CPU パフォーマンスを維持し、ワークロードの必要に応じてより高いレベルまでバーストすることもできます。無制限インスタンスは、必要なときに、任意の期間にわたって高い CPU パフォーマンスを保持できます。

使用用途

  • ウェブサイトとウェブアプリケーション

  • コードリポジトリ

  • 開発、ビルド、テスト、およびステージング環境

  • マイクロサービス

##コンピューティング最適化インスタンス
コンピューティング最適化インスタンスは、高パフォーマンスプロセッサから恩恵を受けるコンピューティングバウンドな用途に最適です。

###C5 および C5n インスタンス

使用用途

  • 作業負荷のバッチ処理

  • メディアの変換

  • 高性能なウェブサーバー

  • ハイパフォーマンスコンピューティング (HPC)

  • 科学的なモデル

  • 専用ゲームサーバーおよび広告エンジン

  • 機械学習推論やその他の大量の演算を行うアプリケーション

###C6g インスタンスと C6gD インスタンス

これらのインスタンスは AWS Graviton2 プロセッサを搭載しており、次のような、高度なコンピューティング集約型ワークロードの実行に最適です。

使用用途

  • ハイパフォーマンスコンピューティング (HPC)

  • バッチ処理

  • 広告配信

  • 動画エンコーディング

  • ゲームサーバー

  • 科学的なモデル

  • 分散分析

  • CPU ベースの機械学習推論

##メモリ最適化インスタンス

メモリ最適化インスタンスは、メモリ内の大きいデータセットを処理するワークロードに対して高速なパフォーマンスを実現するように設計されています。

###R5、R5a、および R5n インスタンス

使用用途

  • ハイパフォーマンスリレーショナル (MySQL) および NoSQL (MongoDB、Cassandra) データベース。

  • キー値タイプのデータ (Memcached および Redis) のインメモリキャッシュを提供する分散型ウェブスケールキャッシュストア。

  • ビジネスインテリジェンス用に最適化されたデータストレージ形式と分析機能 (SAP HANA など) を使用するインメモリデータベース。

  • 巨大な非構造化データ (金融サービス、Hadoop/Spark クラスター) のリアルタイム処理を実行するアプリケーション。

  • ハイパフォーマンスコンピューティング (HPC) および電子設計オートメーション (EDA) アプリケーション。

###R6g および R6gd インスタンス

これらのインスタンスは AWS Graviton2 プロセッサを搭載しており、次のようなメモリ集約型のワークロードの実行に最適です。

使用用途

  • オープンソースデータベース (MySQL、MariaDB、PostgreSQL など)

  • インメモリキャッシュ (Memcached、Redis、KeyDB など)

##ハイメモリインスタンス

ハイメモリインスタンス (u-6tb1.metal、u-9tb1.metal、u-12tb1.metal、u-18tb1.metal、および u-24tb1.metal) は、インスタンスあたり 6 TiB、9 TiB、12 TiB、18 TiB、および 24 TiB のメモリを提供します。これらのインスタンスは大規模なインメモリデータベースを実行するよう設定されており、これにはクラウド内での SAP HANA インメモリデータベースの本番デプロイを含みます。ホストハードウェアに直接アクセスできるベアメタルパフォーマンスを提供します。

###X1 インスタンス

使用用途

  • SAP HANA などのメモリ内データベース (Business Suite S/4HANA の SAP 認定サポート、Business Suite on HANA (SoH)、Business Warehouse on HANA (BW)、および Data Mart Solutions on HANA を含む)。

  • Apache Spark や Presto などのビッグデータ処理エンジン。

  • ハイパフォーマンスコンピューティング (HPC) アプリケーション。

###X1e インスタンス

使用用途

  • 高性能データベース。

  • SAP HANA などのメモリ内データベース。

  • メモリを大量に消費するエンタープライズアプリケーション。

###z1d インスタンス

使用用途

  • 電子設計オートメーション (EDA)

  • リレーショナルデータベースワークロード

##ストレージ最適化インスタンス

ストレージ最適化インスタンスは、ローカルストレージの大規模データセットに対する高いシーケンシャル読み取りおよび書き込みアクセスを必要とするワークロード用に設計されています。ストレージ最適化インスタンスは、数万回の低レイテンシーとランダム I/O オペレーション/秒 (IOPS) をアプリケーションに提供するように最適化されています。

###D2 インスタンス

使用用途

  • 超並列処理 (MPP) データウェアハウス

  • MapReduce および Hadoop 分散コンピューティング

  • ログまたはデータ処理アプリケーション

###H1 インスタンス

使用用途

  • MapReduce および分散ファイルシステムなどのデータ集約型ワークロード

  • 直接アタッチされたインスタンスストレージにある大量データへのシーケンシャルアクセスを必要とするアプリケーション

  • 大量のデータへの高スループットアクセスを必要とするアプリケーション

###I3 および I3en インスタンス

使用用途

  • 高頻度オンライントランザクション処理 (OLTP) システム

  • リレーショナルデータベース

  • NoSQL データベース

  • メモリ内データベース (Redis など) のキャッシュ

  • データウェアハウスアプリケーション

  • 分散されたファイルシステム

##高速コンピューティングインスタンス

高速コンピューティングインスタンスは、ハードウェアアクセラレーターやコプロセッサーを使用して、浮動小数点数計算、グラフィック処理、データパターンマッチングのような機能を CPU で実行されるソフトウェア以上に効率的に実行します。これらのインスタンスでは、大量の演算を行うワークロードでさらに多くの並列処理が可能となり、より高いスループットが得られます。

高度な処理機能が必要な場合は、高速コンピューティングインスタンスを使用すると、Graphics Processing Units (GPU)、Field Programmable Gate Arrays (FPGA)、AWS Inferentia などのハードウェアベースのコンピューティングアクセラレーターにアクセスできます。

##GPU インスタンス

GPU ベースのインスタンスでは、数千のコンピューティングコアを持つ NVIDIA GPU にアクセスできます。これらのインスタンスを使用すると、CUDA または Open Computing Language (OpenCL) パラレルコンピューティングフレームワークを活用することにより、サイエンス、エンジニアリング、およびレンダリングアプリケーションを高速化できます。また、ゲームストリーミング、3D アプリケーションストリーミング、およびその他のグラフィックスワークロードを含む、グラフィックアプリケーションにも使用できます。

###G4 インスタンス

G4 インスタンスは NVIDIA Tesla GPU を使用して、汎用 GPU コンピューティング用のコスト効率とパフォーマンスに優れたプラットフォームを CUDA を通じて提供するか、グラフィックアプリケーションを備えた機械学習フレームワークを DirectX または OpenGL を通じて提供します。G4 インスタンスは、高帯域幅ネットワーキング、強力な半精度浮動小数点機能、単精度浮動小数点機能、INT8 精度、および INT4 精度を提供します。各 GPU は 16 GiB の GDDR6 メモリを備えているため、G4 インスタンスは機械学習推論、動画トランスコード、グラフィックアプリケーション (リモートグラフィックワークステーションやクラウド内のゲームストリーミングなど) に最適です。

G4 インスタンスは、NVIDIA GRID 仮想ワークステーションをサポートします。

###G3 インスタンス

G3 インスタンスは NVIDIA Tesla M60 GPU を使用し、DirectX または OpenGL を使用してグラフィックアプリケーション向けに費用対効果の高パフォーマンスのプラットフォームを提供します。また、G3 インスタンスは、最大 4096x2160 の解像度を持つ 4 つのモニターと NVIDIA GRID 仮想アプリケーションのサポートなど、NVIDIA GRID 仮想ワークステーションの機能も提供します。G3 インスタンスは、アプリケーションの例としては、3D ビジュアライゼーション、グラフィックを強化したリモートワークステーション、3D レンダリング、動画エンコード、仮想リアリティやそのほかの大規模なパラレル処理を必要とするサーバー側のグラフィックワークロードなどのアプリケーションに最適です。

G3 インスタンスは、NVIDIA GRID 仮想ワークステーションと NVIDIA GRID 仮想アプリケーションをサポートします。

###G2 インスタンス

G2 インスタンスは NVIDIA GRID K520 GPU を使用し、DirectX または OpenGL を使用してグラフィックアプリケーション向けに費用対効果の高パフォーマンスのプラットフォームを提供します。NVIDIA GRID GPU は、NVIDIA の高速キャプチャおよびエンコード API オペレーションもサポートします。アプリケーションのサンプルには、動画作成サービス、3D 仮想化、グラフィックを多用したストリーミングアプリケーションなどのサーバー側のグラフィックワークロードが含まれています。

###P3 インスタンス

P3 インスタンスは NVIDIA Tesla V100 GPU を使用し、CUDA または OpenCL プログラミングモデルを使用するか、Machine Learning フレームワークを使用する汎用 GPU コンピューティング用に設計されています。P3 インスタンスは高帯域幅ネットワーキング、強力な半精度、単精度、および倍精度浮動小数点機能、および GPU ごとに最大 32 GiB メモリを提供し、深層学習、数値流体力学、金融工学、耐震解析、分子モデリング、ゲノム解析、レンダリング、その他サーバー側 GPU コンピューティングワークロードに最適です。Tesla V100 GPU はグラフィックモードをサポートしません。

P3 インスタンスは NVIDIA NVLink のピアツーピア転送をサポートします。詳細については、NVIDIA NVLink を参照してください。

###P2 インスタンス

P2 インスタンスは NVIDIA Tesla K80 GPU を使用し、CUDA または OpenCL プログラミングモデルを使用する汎用 GPU コンピューティング用に設計されています。P2 インスタンスは高帯域幅ネットワーキング、強力な単精度および倍精度浮動小数点機能、および GPU ごとに 12 GiB メモリを提供し、ディープラーニング、グラフデータベース、高パフォーマンスデータベース、数値流体力学、金融工学、耐震解析、分子モデリング、ゲノム解析、レンダリング、その他サーバー側 GPU コンピューティングワークロードに最適です。

P2 インスタンスは NVIDIA GPUDirect のピアツーピア転送をサポートします。詳細については、NVIDIA GPUDirect を参照してください。

#引用

Amazon Elastic Compute Cloud-インスタンスタイプ
汎用インスタンス
コンピューティング最適化インスタンス
メモリ最適化インスタンス
ストレージ最適化インスタンス
高速コンピューティングインスタンス

1
2
0

Register as a new user and use Qiita more conveniently

  1. You get articles that match your needs
  2. You can efficiently read back useful information
  3. You can use dark theme
What you can do with signing up
1
2

Delete article

Deleted articles cannot be recovered.

Draft of this article would be also deleted.

Are you sure you want to delete this article?