Amazon EC2 インスタンスタイプ
インスタンスを起動するときは、指定したインスタンスタイプによって、インスタンスに使用するホストコンピュータのハードウェアが決まります。インスタンスタイプごとに、コンピューティング、メモリ、およびストレージの機能が異なっており、これらの機能に基づいたインスタンスファミリーにグループ化されています。インスタンスタイプは、インスタンス上で実行するアプリケーションやソフトウェアの要件に基づいて選択します。
Amazon EC2 では、CPU、メモリ、インスタンスストレージなどホストコンピュータの一部のリソースを、特定のインスタンス専用に割り当てます。ネットワークやディスクサブシステムなどホストコンピュータでの他のリソースは、Amazon EC2 によりインスタンス間で共有されます。ホストコンピュータの各インスタンスが、これらの共有リソースの 1 つを可能な限り利用しようとする場合、それぞれのインスタンスは、そのリソースの共有分を等しく受け取ります。ただし、リソースの使用率が低い場合は、1 つのインスタンスがそのリソースのより多くの部分を利用できます。
各インスタンスタイプは、共有リソースからからより高い、またはより低い最小性能を提供します。例えば、高速の I/O パフォーマンスを実行するインスタンスタイプは、共有リソースに対してより大きな割り当てを取得します。共有リソースをより大きく配分することによって、I/O 性能のばらつきを抑えることもできます。ほとんどのアプリケーションでは、中程度の I/O 性能があれば十分です。ただし、より高い、またはより一貫した I/O パフォーマンスを必要とするアプリケーションの場合は、より I/O パフォーマンスの高いインスタンスタイプを使用することを検討してください。
内容
- 利用可能なインスタンスタイプ
- ハードウェア仕様
- AMI 仮想化タイプ
- Amazon EC2 インスタンスタイプの検索
- EC2 インスタンスタイプファインダーからレコメンデーションを取得する
- Compute Optimizer から EC2 インスタンスの推奨事項を取得する
- Amazon EC2 インスタンスタイプの変更
- バーストパフォーマンスインスタンス
- GPU インスタンスによるパフォーマンスアクセラレーション
- Amazon EC2 Mac インスタンス
- Amazon EBS 最適化インスタンスタイプ
- Amazon EC2 インスタンスに関する CPU オプション
- Amazon EC2 インスタンスの AMD SEV-SNP
- Amazon EC2 Linux インスタンスのプロセッサのステート制御
利用可能なインスタンスタイプ
Amazon EC2 では、幅広いインスタンスタイプの選択肢があり、さまざなユースケースに合わせて最適化できます。インスタンスタイプは、CPU、メモリ、ストレージ、およびネットワーク容量のさまざまな組み合わせで構成され、アプリケーションに適したリソースの組み合わせを柔軟に選択できます。各インスタンスタイプには 1 つ以上のインスタンスサイズがあるため、ターゲットワークロードの要件に合わせてリソースをスケーリングできます。機能とユースケースの詳細については、「Amazon EC2 インスタンスタイプの詳細
インスタンスタイプの命名規則
名前は、インスタンスファミリー、世代、プロセッサファミリー、機能、サイズに基づいています。詳細については、「Amazon EC2 インスタンスタイプガイド」の「Naming conventions」を参照してください。
インスタンスタイプの検索
サポート対象のリージョン、コンピューティングリソース、ストレージリソースなどの要件を満たすインスタンスタイプを判断するには、「Amazon EC2 インスタンスタイプの検索」および「Amazon EC2 インスタンスタイプガイド」の「Amazon EC2 インスタンスタイプの仕様」を参照してください。
現行世代のインスタンス
-
汎用: M5 | M5a | M5ad | M5d | M5dn | M5n | M5zn | M6a | M6g | M6gd | M6i | M6id | M6idn | M6in | M7a | M7g | M7gd | M7i | M7i-flex | Mac1 | Mac2 | Mac2-m1ultra | Mac2-m2 | Mac2-m2pro | T2 | T3 | T3a | T4g
-
コンピューティング最適化: C5 | C5a | C5ad | C5d | C5n | C6a | C6g | C6gd | C6gn | C6i | C6id | C6in | C7a | C7g | C7gd | C7gn | C7i | C7i-flex
-
メモリ最適化: R5 | R5a | R5ad | R5b | R5d | R5dn | R5n | R6a | R6g | R6gd | R6i | R6idn | R6in | R6id | R7a | R7g | R7gd | R7i | R7iz | R8g | U-3tb1 | U-6tb1 | U-9tb1 | U-12tb1 | U-18tb1 | U-24tb1 | U7i-12tb | U7in-16tb | U7in-24tb | U7in-32tb | X1 | X2gd | X2idn | X2iedn | X2iezn | X1e | X8g | z1d
-
ストレージ最適化: D2 | D3 | D3en | H1 | I3 | I3en | I4g | I4i | Im4gn | Is4gen
-
アクセラレーテッドコンピューティング: DL1 | DL2q | F1 | G4ad | G4dn | G5 | G5g | G6 | G6e | Gr6 | Inf1 | Inf2 | P2 | P3 | P3dn | P4d | P4de | P5 | P5e | Trn1 | Trn1n | VT1
-
ハイパフォーマンスコンピューティング: Hpc6a | Hpc6id | Hpc7a | Hpc7g
旧世代のインスタンス
-
汎用: A1 | M1 | M2 | M3 | M4 | T1
-
コンピューティング最適化: C1 | C3 | C4
-
メモリ最適化: R3 | R4
-
ストレージ最適化: I2
-
高速コンピューティング: G3
ハードウェア仕様
インスタンスタイプの詳細な仕様については、「Amazon EC2 インスタンスタイプガイド」の「Specifications」を参照してください。料金については、「Amazon EC2 オンデマンド料金
お客様のニーズに最適なインスタンスタイプを決定するには、インスタンスを起動し、独自のベンチマークアプリケーションを使用することをお勧めします。支払いはインスタンス秒単位であるため、決定する前に複数のインスタンスタイプをテストすると、便利なうえ、コストを抑えることができます。決定を行った後でも、ニーズが変化したときは、インスタンスタイプを変更できます。詳細については、「Amazon EC2 インスタンスタイプの変更」を参照してください。
Intel プロセッサの機能
Intel プロセッサで実行される Amazon EC2 インスタンスには、以下の機能が含まれる場合があります。次のプロセッサ機能のすべてが、すべてのインスタンスタイプでサポートされているわけではありません。各インスタンスタイプで使用できる機能の詳細については、「Amazon EC2 インスタンスタイプ
インテルの AES New Instructions (AES-NI) — インテルの AES-NI 暗号化命令セットは、オリジナルの Advanced Encryption Standard (AES) アルゴリズムを改良し、より高速なデータ保護とより優れたセキュリティを提供します。現行世代の全 EC2 インスタンスがこのプロセッサ機能をサポートしています。
Intel Advanced Vector Extensions (Intel AVX、Intel AVX2、および Intel AVX-512) — 浮動小数点 (FP) 集約型のアプリケーション用に設計された命令セット拡張で、Intel AVX および Intel AVX2 は 256 ビット、Intel AVX-512 は 512 ビットです。Intel AVX 命令は、画像およびオーディオ/ビデオ処理、科学的シミュレーション、財務分析、および 3D モデリングと分析などのアプリケーションに対するパフォーマンスを向上させます。これらの機能は、HVM AMI で起動されたインスタンスのみで利用できます。
Intel Turbo Boost Technology — Intel Turbo Boost Technology プロセッサーは、定格の動作周波数よりも高速にコアを自動的に実行します。
Intel Deep Learning Boost (Intel DL Boost) — AI の深層学習のユースケースを高速化します。第 2 世代インテル Xeon スケーラブルプロセッサでは、新しいベクトルニューラルネットワーク命令 (VNNI/INT8) を使ってインテル AVX-512 を拡張します。これにより、画像認識/セグメント化、物体検出、音声認識、言語翻訳、レコメンデーションシステム、強化学習などにおけるディープラーニングの推論パフォーマンスは、旧世代のインテル Xeon スケーラブルプロセッサ (FP32) よりも大幅に向上します。VNNI はすべての Linux ディストリビューションと互換性があるわけではありません。
M5n
、R5n
、M5dn
、M5zn
、R5b
、R5dn
、D3
、D3en
およびC6i
インスタンスでは、VNNI をサポートしています。C5
およびC5d
インスタンスでは、12xlarge
、24xlarge
、metal
インスタンスのみ VNNI をサポートしています。
これは、64 ビット CPU の命名に関する業界の慣習の影響で、ややわかりにくいものになっています。チップ製造元の Advanced Micro Devices (AMD) は、Intel x86 命令セットをベースとして商業的に初めて成功した 64 ビットアーキテクチャを導入しました。その結果、このアーキテクチャーはチップ製造元にかかわらず AMD64 と幅広く呼ばれています。Windows および複数の Linux ディストリビューションがこの慣習に従っています。インスタンスが Intel ハードウェアで実行されているにもかかわらず、Ubuntu または Windows を実行しているインスタンスの内部システム情報に CPU アーキテクチャが AMD64 と表示されるのはこのためです。
AWS Graviton プロセッサ
AWS Graviton
詳細については、「Getting started with Graviton
AWS Trainium
AWS Trainium
AWS Inferentia
AWS Inferentia
使用を開始するには、さまざまな方法があります。
-
機械学習モデルの使用を開始する最も簡単な方法であり、フルマネージド型のサービスである SageMaker を使用します。詳細については、「Amazon SageMaker 開発者ガイド」の「SageMaker の使用開始」を参照してください。
-
深層学習 AMI を使用して Inf1 または Inf2 インスタンスを起動します。詳細については、 AWS デベロッパーガイドの 「DLAMI を使用した AWS Deep Learning AMIs Inferentia」を参照してください。
-
独自の AMI を使用して Inf1 または Inf2 インスタンスを起動し、AWS Neuron SDK
をインストールします。これにより、AWS Inferentia の深層学習モデルをコンパイル、実行、プロファイリングできます。 -
Inf1 または Inf2 インスタンスと Amazon ECS 最適化 AMI を使用してコンテナインスタンスを起動します。詳細については、Amazon Elastic Container Service Developer Guideの「Amazon Linux 2 (Inferentia) AMI」を参照してください。
-
Inf1 インスタンスを実行するノードを持つ Amazon EKS クラスターを作成します。詳細については、Amazon EKS ユーザーガイドの「Inferentia のサポート」を参照してください。
AMI 仮想化タイプ
インスタンスの仮想化タイプは、インスタンスの起動に使用する AMI によって決まります。現行世代のインスタンスタイプは、ハードウェア仮想マシン (HVM) のみをサポートしています。以前の世代のインスタンスタイプの中には、準仮想化 (PV) をサポートするものがあり、一部の AWS リージョンは PV インスタンスをサポートしています。詳細については、「仮想化タイプ」を参照してください。
最適なパフォーマンスを得るために、HVM AMI を使用することをお勧めします。さらに、拡張ネットワーキングのメリットを活用するには、HVM AMI が必要です。HVM 仮想化は、AWS プラットフォームによって提供されるハードウェアアシストテクノロジーを使用します。HVM 仮想化を使用すると、ゲスト VM はネイティブハードウェアプラットフォーム上で動作しているかのように動作します。ただし、パフォーマンスの向上のために PV ネットワークとストレージドライバは使用します。