アマゾン EC2 インスタンスタイプ - Amazon Elastic Compute Cloud

アマゾン EC2 インスタンスタイプ

インスタンスを起動するときは指定したインスタンスタイプによって、インスタンスに使用するホストコンピュータのハードウェアが決まります。インスタンスタイプごとに、コンピューティング、メモリ、およびストレージの機能が異なっており、これらの機能に基づいたインスタンスファミリーにグループ化されています。インスタンスタイプはインスタンス上で実行するアプリケーションやソフトウェアの要件に基づいて選択してください。機能とユースケースの詳細については「アマゾン EC2 インスタンスタイプの詳細」を参照してください。

アマゾン EC2 ではCPU、メモリ、インスタンスストレージなどホストコンピュータの一部のリソースを、特定のインスタンス専用に割り当てます。ネットワークやディスクサブシステムなどホストコンピュータでの他のリソースはアマゾン EC2 によりインスタンス間で共有されます。ホストコンピュータの各インスタンスが、これらの共有リソースの 1 つを可能な限り利用しようとする場合、それぞれのインスタンスはそのリソースの共有分を等しく受け取ります。ただし、リソースの使用率が低い場合は1 つのインスタンスがそのリソースのより多くの部分を利用できます。

各インスタンスタイプは共有リソースからからより高い、またはより低い最小性能を提供します。例えば、高速の I/O パフォーマンスを実行するインスタンスタイプは共有リソースに対してより大きな割り当てを取得します。共有リソースをより大きく配分することによって、I/O 性能のばらつきを抑えることもできます。ほとんどのアプリケーションでは中程度の I/O 性能があれば十分です。ただし、より高い、またはより一貫した I/O パフォーマンスを必要とするアプリケーションの場合はより I/O パフォーマンスの高いインスタンスタイプを使用することを検討してください。

利用可能なインスタンスタイプ

アマゾン EC2 では幅広いインスタンスタイプの選択肢があり、さまざなユースケースに合わせて最適化できます。インスタンスタイプはCPU、メモリ、ストレージ、およびネットワーク容量のさまざまな組み合わせで構成され、アプリケーションに適したリソースの組み合わせを柔軟に選択できます。各インスタンスタイプには 1 つ以上のインスタンスサイズが含まれているため、ターゲットワークロードの要件に合わせてリソースをスケーリングできます。

インスタンスタイプの命名規則

名前はインスタンスファミリー、世代、プロセッサファミリー、機能、サイズに基づいています。詳細については「アマゾン EC2 インスタンスタイプガイド」の「Naming conventions」を参照してください。

インスタンスタイプの検索

サポート対象のリージョン、コンピューティングリソース、ストレージリソースなどの要件を満たすインスタンスタイプを判断するには「Amazon EC2 インスタンスタイプの検索」および「アマゾン EC2 インスタンスタイプガイド」の「アマゾン EC2 インスタンスタイプの仕様」を参照してください。

ハードウェア仕様

インスタンスタイプの詳細な仕様については「アマゾン EC2 インスタンスタイプガイド」の「Specifications」を参照してください。料金については「アマゾン EC2 オンデマンド料金」をご覧ください。

お客様のニーズに最適なインスタンスタイプを決定するにはインスタンスを起動し、独自のベンチマークアプリケーションを使用することをお勧めします。支払いはインスタンス秒単位であるため、決定する前に複数のインスタンスタイプをテストすると、便利なうえ、コストを抑えることができます。決定を行った後でも、ニーズが変化したときはインスタンスタイプを変更できます。詳細については「Amazon EC2 インスタンスタイプの変更」を参照してください。

ハイパーバイザーのタイプ

アマゾン EC2 はハイパーバイザーとして Xen と Nitro をサポートしています。

Nitro ベースのインスタンス
  • 汎用: M5 | M5a | M5ad | M5d | M5dn | M5n | M5zn | M6a | M6g | M6gd | M6i | M6id | M6idn | M6in | M7a | M7g | M7gd | M7i | M7i-flex | M8g | T3 | T3a | T4g

  • コンピューティング最適化: C5 | C5a | C5ad | C5d | C5n | C6a | C6g | C6gd | C6gn | C6i | C6id | C6in | C7a | C7g | C7gd | C7gn | C7i | C7i-flex | C8g

  • メモリ最適化: R5 | R5a | R5ad | R5b | R5d | R5dn | R5n | R6a | R6g | R6gd | R6i | R6idn | R6インチ | R6id | R7a | R7g | R7gd | R7i | R7iz | R8g | U-3tb1 | U-6tb1 | U-9tb1 | U-12tb1 | U-18tb1 | U-24tb1 | U7i-6TB | U7i-8TB | U7i-12TB | U7in-16TB | U7in-24TB | U7in-32TB | U7inh-32TB | X2gd | X2ID | X2iedn | X2iezn | X8g | z1d

  • ストレージ最適化: D3 | D3en | I3en | I4g | I4i | I7ie | I8g | Im4gn | Is4gen

  • アクセラレーテッドコンピューティング: DL1、DL2q、F2、G4ad、G4dn、G5、G5g 、G6、G6e、Gr6、Inf1、Inf2、P3dn、P4d、P4de、P5、P5e、P5en、Trn1、Trn1n、Trn2、Trn2u、VT1

  • ハイパフォーマンスコンピューティング: Hpc6a | Hpc6id | Hpc7a | Hpc7g

  • 前の世代: A1

Nitro Hypervisor に対応しているバージョンの詳細については「アマゾン EC2 インスタンスタイプガイド」の「Network feature support」を参照してください。

Xen ベースのインスタンス
  • 汎用: M1 | M2 | M3 | M4 | T1 | T2

  • コンピューティング最適化: C1 | C3 | C4

  • メモリ最適化: R3 | R4 | X1 | X1e

  • ストレージ最適化: D2 | H1 | I2 | I3

  • 高速コンピューティング: F1 | G3 | P2 | P3

AMI 仮想化タイプ

インスタンスの仮想化タイプはインスタンスの起動に使用する AMI によって決まります。現行世代のインスタンスタイプはハードウェア仮想マシン (HVM) のみをサポートしています。以前の世代のインスタンスタイプの中には準仮想化 (PV) をサポートするものがあり、一部の AWS リージョンは PV インスタンスをサポートしています。詳細については仮想化タイプを参照してください。

最適なパフォーマンスを得るために、HVM AMI を使用することをお勧めします。さらに、拡張ネットワーキングのメリットを活用するにはHVM AMI が必要です。HVM 仮想化はAWS プラットフォームによって提供されるハードウェアアシストテクノロジーを使用します。HVM 仮想化を使用すると、ゲスト VM はネイティブハードウェアプラットフォーム上で動作しているかのように動作します。ただし、パフォーマンスの向上のために PV ネットワークとストレージドライバは使用します。

Processors

EC2 インスタンスはさまざまなプロセッサをサポートしています。

インテルプロセッサ

Intel プロセッサで動作する アマゾン EC2 インスタンスには以下のプロセッサ機能が含まれている可能性があります。Intel プロセッサで動作するすべてのインスタンスが、これらのプロセッサ機能をすべてサポートするとは限りません。各インスタンスタイプで使用できる機能の詳細については「アマゾン EC2 インスタンスタイプ」を参照してください。

  • インテルの AES New Instructions (AES-NI) — インテルの AES-NI 暗号化命令セットはオリジナルの Advanced Encryption Standard (AES) アルゴリズムを改良し、より高速なデータ保護とより優れたセキュリティを提供します。現行世代の全 EC2 インスタンスがこのプロセッサ機能をサポートしています。

  • Intel Advanced Vector Extensions (Intel AVX、Intel AVX2、および Intel AVX-512) — 浮動小数点 (FP) 集約型のアプリケーション用に設計された命令セット拡張で、Intel AVX および Intel AVX2 は 256 ビット、Intel AVX-512 は 512 ビットです。Intel AVX 命令は画像およびオーディオ/ビデオ処理、科学的シミュレーション、財務分析、および 3D モデリングと分析などのアプリケーションに対するパフォーマンスを向上させます。これらの機能はHVM AMI で起動されたインスタンスのみで利用できます。

  • Intel Turbo Boost Technology — Intel Turbo Boost Technology プロセッサーは定格の動作周波数よりも高速にコアを自動的に実行します。

  • Intel Deep Learning Boost (Intel DL Boost) — AI の深層学習のユースケースを高速化します。第 2 世代インテル Xeon スケーラブルプロセッサでは新しいベクトルニューラルネットワーク命令 (VNNI/INT8) を使ってインテル AVX-512 を拡張します。これにより、画像認識/セグメント化、物体検出、音声認識、言語翻訳、レコメンデーションシステム、強化学習などにおけるディープラーニングの推論パフォーマンスは旧世代のインテル Xeon スケーラブルプロセッサ (FP32) よりも大幅に向上します。VNNI はすべての Linux ディストリビューションと互換性があるわけではありません。

    M5nR5nM5dnM5znR5bR5dnD3D3en および C6i インスタンスではVNNI をサポートしています。C5 および C5d インスタンスでは12xlarge24xlargemetal インスタンスのみ VNNI をサポートしています。

これは64 ビット CPU の命名に関する業界の慣習の影響であり、ややわかりにくいものになっています。チップ製造元の Advanced Micro Devices (AMD) はIntel x86 命令セットをベースとして商業的に初めて成功した 64 ビットアーキテクチャを導入しました。その結果、このアーキテクチャーはチップ製造元にかかわらず AMD64 と幅広く呼ばれています。Windows および複数の Linux ディストリビューションがこの慣習に従っています。インスタンスがインテルハードウェアで実行されているにもかかわらず、Ubuntu または Windows で実行されているインスタンス上の内部システム情報に CPU アーキテクチャが AMD64 と表示されるのはこのためです。

AMD プロセッサ

AMD EPYC プロセッサで動作する アマゾン EC2 インスタンスはワークロードのコストとパフォーマンスのどちらも最適化できます。こうしたインスタンスでサポート可能なプロセッサ機能には次のものがあります。AMD プロセッサで動作するすべてのインスタンスが、これらのプロセッサ機能をすべてサポートするとは限りません。各インスタンスタイプで使用できる機能の詳細については「アマゾン EC2 インスタンスタイプ」を参照してください。

  • AMD Secure Memory Encryption (SME)

  • AMD Transparent Single Key Memory Encryption (TSME)

  • AMD Advanced Vector Extensions (AVX)

  • AMD Secure Encrypted Virtualization-Secure Nested Paging (SEV-SNP)

  • Vector Neural Network Instructions (VNNI)

  • BFloat16

AWS Graviton プロセッサ

AWS Graviton はアマゾン EC2 インスタンスで実行されるワークロードに最高のコストパフォーマンスを提供するように設計されたプロセッサファミリーです。

詳細については「Getting started with Graviton」を参照してください。

AWS Trainium

AWS Trainium を搭載したインスタンスは高性能で費用対効果の高い深層学習トレーニングを目的として構築されています。このインスタンスを使用すると、音声認識、レコメンデーション、不正検出、イメージや動画の分類など、幅広いアプリケーションで使用される自然言語処理、コンピュータビジョン、レコメンダーモデルをトレーニングできます。PyTorch や TensorFlow などのよく使用される ML フレームワークで、既存のワークフローを使用できます。

AWS Inferentia

AWS Inferentia を搭載したインスタンスは機械学習を高速化するように設計されており、高性能で低レイテンシーの機械学習推論を実現します。これらのインスタンスは自然言語処理、オブジェクトの検出と分類、コンテンツのパーソナライズとフィルタリング、音声認識などのアプリケーション向け深層学習 (DL) モデルをデプロイするために最適化されています。

使用を開始するにはさまざまな方法があります。

  • 機械学習モデルの使用を開始する最も簡単な方法であり、フルマネージド型のサービスである SageMaker を使用します。詳細についてはアマゾン SageMaker 開発者ガイドの「SageMaker の使用開始 を参照してください。

  • 深層学習 AMI を使用して Inf1 または Inf2 インスタンスを起動します。詳細については AWS デベロッパーガイドDLAMI を使用した AWS Deep Learning AMIs Inferentiaを参照してください。

  • 独自の AMI を使用して Inf1 または Inf2 インスタンスを起動し、AWS Neuron SDK をインストールします。これにより、AWS Inferentia の深層学習モデルをコンパイル、実行、プロファイリングできます。

  • Inf1 または Inf2 インスタンスと アマゾン ECS 最適化 AMI を使用してコンテナインスタンスを起動します。詳細についてはアマゾン Elastic Container Service Developer Guideアマゾン Linux 2 (Inferentia) AMIを参照してください。

  • Inf1 インスタンスを実行するノードを持つ アマゾン EKS クラスターを作成します。詳細についてはアマゾン EKS ユーザーガイドInferentia のサポートを参照してください。