Linux 高速コンピューティングインスタンス - Amazon Elastic Compute Cloud

Linux 高速コンピューティングインスタンス

注記

インスタンスタイプの詳細な仕様については、「Amazon EC2 Instance Types Guide」を参照してください。料金の詳細については、Amazon EC2 のインスタンスタイプのページを参照してください。

高速コンピューティングインスタンスは、ハードウェアアクセラレーターやコプロセッサーを使用して、浮動小数点数計算、グラフィック処理、データパターンマッチングのような機能を CPU で実行されるソフトウェア以上に効率的に実行します。これらのインスタンスでは、大量の演算を行うワークロードでさらに多くの並列処理が可能となり、より高いスループットが得られます。

高度な処理機能が必要な場合は、高速コンピューティングインスタンスを使用すると、Graphics Processing Units (GPU)、Field Programmable Gate Arrays (FPGA)、AWS Inferentia などのハードウェアベースのコンピューティングアクセラレーターにアクセスできます。

GPU インスタンス

GPU ベースのインスタンスでは、数千のコンピューティングコアを持つ NVIDIA GPU にアクセスできます。これらのインスタンスを使用すると、CUDA または Open Computing Language (OpenCL) パラレルコンピューティングフレームワークを活用することにより、サイエンス、エンジニアリング、およびレンダリングアプリケーションを高速化できます。また、ゲームストリーミング、3D アプリケーションストリーミング、およびその他のグラフィックスワークロードを含む、グラフィックアプリケーションにも使用できます。

G5 インスタンス

G5 インスタンスは NVIDIA A10G GPU を使用し、リモートワークステーション、ビデオレンダリング、クラウドゲームなどのグラフィックスを多用するアプリケーション、自然言語処理、コンピュータビジョン、レコメンデーションエンジンなどのアプリケーションの深層学習モデル向けに高いパフォーマンスを提供します。これらのインスタンスは、最大 8 つの NVIDIA A10G GPU、第 2 世代 AMD EPYC プロセッサ、最大 100 Gbps のネットワーク帯域幅、最大 7.6 TB のローカル NVMe SSD ストレージを備えています。

詳細については、「Amazon EC2 G5 インスタンス」を参照してください。

G5g インスタンス

G5G インスタンスは NVIDIA T4G GPU を使用し、OpenGL や Vulkan などの業界標準の API を活用したゲームストリーミングやレンダリングなど、グラフィックスを多用するアプリケーションに高いパフォーマンスを提供します。これらのインスタンスは、自然言語処理やコンピュータビジョンなどのアプリケーションのディープラーニングモデルの実行にも適しています。これらのインスタンスは、最大 2 つの NVIDIA T4G テンソルコア GPU、AWS Graviton2 プロセッサ、最大 25 Gbps のネットワーク帯域幅を備えています。

詳細については、「Amazon EC2 G5g インスタンス」を参照してください。

G4ad インスタンスと G4dn インスタンス

G4ad インスタンスは AMD Radeon Pro V520 GPU と第 2 世代 AMD EPYC プロセッサを使用し、リモートグラフィックスワークステーションなどのグラフィックスアプリケーション、ゲームストリーミング、および OpenGL、DirectX、Vulkan などの業界標準の API を活用するレンダリングに最適です。最大 4 つの AMD Radeon Pro V520 GPU、64 の vCPU、25 Gbps ネットワーキング、および 2.4 TB のローカル NVMe ベースの SSD ストレージを提供します。

G4dn インスタンスは NVIDIA Tesla GPU を使用して、汎用 GPU コンピューティング用のコスト効率とパフォーマンスに優れたプラットフォームを CUDA を通じて提供するか、グラフィックアプリケーションを備えた機械学習フレームワークを DirectX または OpenGL を通じて提供します。このようなインスタンスは、高帯域幅ネットワーキング、強力な半精度浮動小数点機能、単精度浮動小数点機能、INT8 精度、および INT4 精度を提供します。各 GPU は 16 GiB の GDDR6 メモリを備えているため、G4dn インスタンスは機械学習推論、動画トランスコード、グラフィックアプリケーション (リモートグラフィックワークステーションやクラウド内のゲームストリーミングなど) に最適です。

詳細については、「Amazon EC2 G4 インスタンス」を参照してください。

G4dn インスタンスは、NVIDIA GRID 仮想ワークステーションをサポートしています。詳細については、NVIDIA Marketplace の提供サービスを参照してください。

G3 インスタンス

このインスタンスは NVIDIA Tesla M60 GPU を使用し、DirectX または OpenGL を使用してグラフィックアプリケーション向けに費用対効果の高パフォーマンスのプラットフォームを提供します。また、G3 インスタンスは、最大 4096x2160 の解像度を持つ 4 つのモニターと NVIDIA GRID 仮想アプリケーションのサポートなど、NVIDIA GRID 仮想ワークステーションの機能も提供します。G3 インスタンスは、アプリケーションの例としては、3D ビジュアライゼーション、グラフィックを多用するリモートワークステーション、3D レンダリング、動画エンコード、仮想リアリティやそのほかの大規模なパラレル処理を必要とするサーバー側のグラフィックワークロードなどのアプリケーションに最適です。

詳細については、「Amazon EC2 G3 インスタンス」を参照してください。

G3 インスタンスは、NVIDIA GRID 仮想ワークステーションと NVIDIA GRID 仮想アプリケーションをサポートします。これらの機能のいずれかを有効にするには、「NVIDIA GRID 仮想アプリケーションの有効化」を参照してください。

G2 インスタンス

このインスタンスは NVIDIA GRID K520 GPU を使用し、DirectX または OpenGL を使用してグラフィックアプリケーション向けに費用対効果の高パフォーマンスのプラットフォームを提供します。NVIDIA GRID GPU は、NVIDIA の高速キャプチャおよびエンコード API オペレーションもサポートします。アプリケーションのサンプルには、動画作成サービス、3D 仮想化、グラフィックを多用したストリーミングアプリケーションなどのサーバー側のグラフィックワークロードが含まれています。

P5 インスタンス

P5 インスタンスは、640 GB の高帯域幅 GPU メモリを搭載した 8 つの NVIDIA H100 GPU を提供します。これらは第 3 世代の AMD EPYC プロセッサを搭載し、2 TB のシステムメモリ、30 TB のローカル NVMe インスタンスストレージ、3,200 Gps の集約ネットワーク帯域幅、および GPUDirect RDMA サポートを提供します。P5 インスタンスは Amazon EC2 UltraCluster テクノロジーもサポートしているため、EFA を使用してレイテンシーを低減し、ネットワークパフォーマンスを向上させることができます。機械学習と HPC のワークロードでは、P5 インスタンスは前世代の GPU インスタンスの最大 6 倍のパフォーマンスを発揮します。

P5 インスタンスは、GPU 対応のさまざまなワークロードを加速でき、大規模な分散機械学習や高性能コンピューティングアプリケーションに適しています。

詳細については、「Amazon EC2 P5 インスタンス」を参照してください。

P4d インスタンス

このインスタンスは、NVIDIA A100 GPU を使用し、機械学習および HPC ワークロード用の高性能プラットフォームを提供します。また、P4d インスタンスは、400 Gbps の集約ネットワーク帯域幅スループットとサポート、Elastic Fabric Adapter (EFA) を提供します。これらは、複数のネットワークカードを提供する最初の EC2 インスタンスです。

詳細については、「Amazon EC2 P4d インスタンス」を参照してください。

P4d インスタンスは NVIDIA NVSwitch GPU 相互接続と NVIDIA GPUDirect RDMA をサポートします。

P4de インスタンスは NVIDIA 80GB-A100s GPU を提供します

P3 インスタンス

このインスタンスは NVIDIA Tesla V100 GPU を使用し、CUDA または OpenCL プログラミングモデルを使用するか、機械学習フレームワークを使用する汎用 GPU コンピューティング用に設計されています。P3 インスタンスは高帯域幅ネットワーキング、強力な半精度、単精度、および倍精度浮動小数点機能、および GPU ごとに最大 32 GiB メモリを提供し、深層学習、数値流体力学、金融工学、耐震解析、分子モデリング、ゲノム解析、レンダリング、その他サーバー側 GPU コンピューティングワークロードに最適です。Tesla V100 GPU はグラフィックモードをサポートしません。

詳細については、「Amazon EC2 P3 インスタンス」を参照してください。

P3 インスタンスは NVIDIA NVLink のピアツーピア転送をサポートします。詳細については、NVIDIA NVLink を参照してください。

P2 インスタンス

P2 インスタンスは NVIDIA Tesla K80 GPU を使用し、CUDA または OpenCL プログラミングモデルを使用する汎用 GPU コンピューティング用に設計されています。P2 インスタンスは高帯域幅ネットワーキング、強力な単精度および倍精度浮動小数点機能、および GPU ごとに 12 GiB メモリを提供し、ディープラーニング、グラフデータベース、高パフォーマンスデータベース、数値流体力学、金融工学、耐震解析、分子モデリング、ゲノム解析、レンダリング、その他サーバー側 GPU コンピューティングワークロードに最適です。

P2 インスタンスは NVIDIA GPUDirect のピアツーピア転送をサポートします。詳細については、NVIDIA GPUDirect を参照してください。

AWS Trainium を含むインスタンス

AWS Trainium を搭載した Amazon EC2 Trn1 および Trn1n インスタンスは、高性能で費用対効果の高い深層学習トレーニングを目的として構築されています。Trn1 および Trn1n インスタンスを使用すると、音声認識、推奨、不正検出、イメージや動画の分類など、幅広いアプリケーションで使用される自然言語処理、コンピュータビジョン、推奨モデルをトレーニングできます。PyTorch や TensorFlow などのよく使用される ML フレームワークで、既存のワークフローを使用できます。AWSNeuron SDK はこれらのフレームワークとシームレスに統合されるため、コードを数行変更するだけで開始できます。

詳細については、「Amazon EC2 Trn1 インスタンス」を参照してください。

AWS Inferentia を持つインスタンス

これらのインスタンスは、高性能で低レイテンシーの機械学習推論を提供する Amazon のカスタム AI/ML チップである AWS Inferentia を使用して機械学習を高速化するように設計されています。これらのインスタンスは、自然言語処理、オブジェクトの検出と分類、コンテンツのパーソナライズとフィルタリング、音声認識などのアプリケーション向け深層学習 (DL) モデルをデプロイするために最適化されています。

使用を開始するには、さまざまな方法があります。

  • 機械学習モデルの使用を開始する最も簡単な方法であり、フルマネージド型のサービスである SageMaker を使用します。詳細については、「Amazon SageMaker 開発者ガイド」の「SageMaker の使用開始」を参照してください。

  • 深層学習 AMI を使用して Inf1 または Inf2 インスタンスを起動します。詳細については、 AWS デベロッパーガイドの 「DLAMI を使用した AWS Deep Learning AMI Inferentia」を参照してください。

  • 独自の AMI を使用して Inf1 または Inf2 インスタンスを起動し、AWS Neuron SDK をインストールします。これにより、AWS Inferentia の深層学習モデルをコンパイル、実行、プロファイリングできます。

  • Inf1 または Inf2 インスタンスと Amazon ECS 最適化 AMI を使用してコンテナインスタンスを起動します。詳細については、Amazon Elastic Container Service Developer Guideの「Amazon Linux 2 (Inferentia) AMI」を参照してください。

  • Inf1 インスタンスを実行するノードを持つ Amazon EKS クラスターを作成します。詳細については、Amazon EKS ユーザーガイドの「Inferentia のサポート」を参照してください。

詳細については、AWS での Machine Learningをご参照ください。

Inf1 インスタンス

Inf1 インスタンスは、AWS Inferentia 機械学習推論チップを使用します。Inferentia は、コスト効率に優れた、低レイテンシーの推論性能をあらゆる規模で実現するために開発されました。

詳細については、「Amazon EC2 Inf1 インスタンス」を参照してください。

Inf2 インスタンス

Inf2 インスタンスは、AWS Inferentia2 機械学習推論チップを使用します。これらの第 2 世代インスタンスでは、Inf1 インスタンスと比較して推論単価が最大 25% 向上し、同等の Amazon EC2 インスタンスよりも推論単価が最大 70% 向上します。これらのインスタンスは、深層学習モデルを使用する幅広いワークロードに最適です。

詳細については、「Amazon EC2 Inf2 インスタンス」を参照してください。

Habana アクセラレーターを使用したインスタンス

これらのインスタンスは、深層学習モデル (DL) のトレーニングワークロードを高速化するように設計されています。インテル社、Habana Labs のアクセラレーターを使用しています。これらのインスタンスは、画像認識、オブジェクトの検出と分類、レコメンデーションシステムなどのアプリケーションの DL モデルに最適化されています。

詳細については、AWS での Machine Learningをご参照ください。

DL1 インスタンス

DL1 インスタンスは、Habana Gaudi アクセラレーターを使用しています。最大 400 Gbps の集約ネットワーク帯域幅と、アクセラレーターあたり 32 GB の高帯域幅メモリ (HBM) を備えています。DL1 インスタンスは、深層学習モデルのトレーニングに高いパフォーマンスとコスト効率を提供するように設計されています。

使用を開始するには、さまざまな方法があります。

  • Habana Deep Learning AMI を使用して DL1 インスタンスを起動します。

  • 独自の AMI を使用して DL1 インスタンスを起動し、Habana ドライバーと Habana SynapseAI SDK をインストールします。

  • DL1 インスタンスと Amazon ECS 最適化 AMI を使用してコンテナインスタンスを起動します。

  • DL1 インスタンスを実行するノードを持つ Amazon EKS クラスターを作成します。

詳細については、「Amazon EC2 DL1 インスタンス」を参照してください。

Qualcomm アクセラレータを使用したインスタンス

DL2q

DL2q インスタンスは、第 7 世代の Qualcomm エッジ AI コアを搭載した Qualcomm AI100 推論アクセラレータを使用します。深層学習 (DL) ワークロードをコスト効率よくクラウドにデプロイしたり、Qualcomm のエッジデバイスにデプロイされる DL ワークロードのパフォーマンスと精度を検証したりするために使用できます。

DL2q インスタンスは、8 つの Qualcomm AI100 アクセラレータ、デュアル Intel Cascade Lake CPU で実現される 96 個の vCPU、768 GB のシステムメモリ、100 Gbps のネットワーク帯域幅により、最大 1.4 PFLOPS の機械学習パフォーマンスをサポートします。各 Qualcomm AI100 アクセラレータは、最大 175 TFLOP の FP16 パフォーマンスと 16 GB のアクセラレータメモリを備えています。

DL2q インスタンスは、スマートフォン、自動車、ロボット、拡張現実ヘッドセットにデプロイする前に、エッジ AI ワークロードを検証するのに最適です。また、コンテンツ生成、画像分析、テキスト要約、仮想アシスタントなど、一般的な DL アプリケーションを実行するためのクラウド推論もサポートしています。

DL2q インスタンスの使用を開始するには、Qualcomm のアプリケーションとプラットフォームの Software Development Kit (SDK) にあらかじめパッケージされている AWS 深層学習 AMI (DLAMI) と、PyTorch や TensorFlow などの一般的な機械学習フレームワークを使用することをお勧めします。

詳細については、「Amazon EC2 DL2q インスタンス」を参照してください。

ビデオトランスコードインスタンス

これらのインスタンスは、ライブブロードキャスト、ビデオ会議、ジャストインタイムトランスコードなどのビデオトランスコードのワークロードを高速化するように設計されています。

VT1 インスタンス

VT1 インスタンスは Xilinx Alveo U30 メディアアクセラレーターを備え、ライブビデオトランスコードのワークロード向けに設計されています。これらのインスタンスは、最大 8 つの Xilinx Alveo U30 アクセラレーションカードを提供し、最大 192 GB のシステムメモリ、最大 25 Gbps のネットワーク帯域幅を備えています。VT1 インスタンスは H.264/AVC および H.265/HEVC コーデックを備え、マルチストリーミングビデオトランスコーディング用に最大 4K UHD の解像度をサポートします。

使用を開始するには、さまざまな方法があります。

  • AWS Marketplace で Xilinx U30 AMI を使用して VT1 インスタンスを起動します。

  • 独自の AMI を使用して VT1 インスタンスを起動し、Xilinx U30 ドライバーと Xilinx ビデオ SDKをインストールします。

  • VT1 インスタンスと Amazon ECS 最適化 AMI を使用してコンテナインスタンスを起動します。

  • VT1 インスタンスを実行するノードを持つ Amazon EKS クラスターを作成します。

詳細については、「Amazon EC2 VT1 インスタンス」を参照してください。

FPGA インスタンス

FPGA ベースのインスタンスでは、数百万の並列システム論理セルを持つ大きな FPGA にアクセスできます。FPGA ベースの高速コンピューティングインスタンスを使用すると、カスタムハードウェアアクセラレーションを活用することにより、ゲノム解析、財務分析、リアルタイム動画処理、ビッグデータ解析、およびセキュリティワークロードなどのワークロードを高速化できます。Verilog や VHDL などのハードウェア記述言語を使用するか、または OpenCL パラレルコンピューティングフレームワークなどの高レベル言語を使用して、これらの加速度を開発できます。ハードウェアアクセラレーションコードを自身で作成することも、AWS Marketplace からハードウェアアクセラレーションを購入することもできます。

FPGA Developer AMI は、AFI を開発、テスト、および構築するためのツールを提供します。FPGA Developer AMI は、32 GB 以上のシステムメモリを備える任意の EC2 インスタンス (例: C5、M4、R4 インスタンス) で使用できます。

詳細については、「AWS FPGA Hardware Development Kit」のドキュメントを参照してください。

F1 インスタンス

F1 インスタンスは Xilinx UltraScale+ VU9P FPGA を使用し、汎用 CPU に適さないデータフローや高度な並列処理のような計算集約型のアルゴリズムを高速化するように設計されています。F1 インスタンスの各 FPGA には、約 250 万の論理要素と約 6,800 のデジタル信号処理 (DSP) エンジン、ローカルの 64 GiB DDR ECC 保護メモリが含まれ、専用の PCIe Gen3 x16 接続によってインスタンスに接続されています。F1 インスタンスは、ローカルの NVMe SSD ボリュームを提供します。

デベロッパーは FPGA Developer AMI および AWS Hardware Developer Kit を使用して、F1 インスタンスで使用するカスタムハードウェアアクセラレーションを作成できます。FPGA Developer AMI には、クラウド上の FPGA 完全サイクル開発用の開発ツールが含まれます。これらのツールを使用して、デベロッパーは F1 インスタンスの FPGA にロードできる Amazon FPGA Image (AFI) を作成し、共有できます。

詳細については、「Amazon EC2 F1 インスタンス」を参照してください。

ハードウェア仕様

以下に示しているのは、高速コンピューティングインスタンスのハードウェア仕様の要約です。仮想中央処理ユニット (vCPU) は、仮想マシン (VM) に割り当てられた物理 CPU の一部を表します。x86 インスタンスの場合、コアごとに 2 つの vCPU があります。Graviton インスタンスの場合、コアごとに 1 つの vCPU があります。

インスタンスタイプ デフォルト vCPU メモリ (GiB) アクセラレータ
dl1.24xlarge 96 768.00 GPU 8 個
dl2q.24xlarge 96 768.00 推論アクセラレーター 8 個
f1.2xlarge 8 122.00 FPGA 1 個
f1.4xlarge 16 244.00 FPGA 2 個
f1.16xlarge 64 976.00 FPGA 8 個
g2.2xlarge 8 15.00 GPU 1 個
g2.8xlarge 32 60.00 GPU 4 個
g3.4xlarge 16 122.00 GPU 1 個
g3.8xlarge 32 244.00 GPU 2 個
g3.16xlarge 64 488.00 GPU 4 個
g4ad.xlarge 4 16.00 GPU 1 個
g4ad.2xlarge 8 32.00 GPU 1 個
g4ad.4xlarge 16 64.00 GPU 1 個
g4ad.8xlarge 32 128.00 GPU 2 個
g4ad.16xlarge 64 256.00 GPU 4 個
g4dn.xlarge 4 16.00 GPU 1 個
g4dn.2xlarge 8 32.00 GPU 1 個
g4dn.4xlarge 16 64.00 GPU 1 個
g4dn.8xlarge 32 128.00 GPU 1 個
g4dn.12xlarge 48 192.00 GPU 4 個
g4dn.16xlarge 64 256.00 GPU 1 個
g4dn.metal 96 384.00 GPU 8 個
g5.xlarge 4 16.00 GPU 1 個
g5.2xlarge 8 32.00 GPU 1 個
g5.4xlarge 16 64.00 GPU 1 個
g5.8xlarge  32 128.00 GPU 1 個
g5.12xlarge 48 192.00 GPU 4 個
g5.16xlarge 64 256.00 GPU 1 個
g5.24xlarge 96 384.00 GPU 4 個
g5.48xlarge 192 768.00 GPU 8 個
g5g.xlarge 4 8.00 GPU 1 個
g5g.2xlarge 8 16.00 GPU 1 個
g5g.4xlarge 16 32.00 GPU 1 個
g5g.8xlarge 32 64.00 GPU 1 個
g5g.16xlarge 64 128.00 GPU 2 個
g5g.metal 64 128.00 GPU 2 個
inf1.xlarge 4 8.00 推論アクセラレーター 1 個
inf1.2xlarge 8 16.00 推論アクセラレーター 1 個
inf1.6xlarge 24 48.00 推論アクセラレーター 4 個
inf1.24xlarge 96 192.00 推論アクセラレーター 16 個
inf2.xlarge 4 16.00 推論アクセラレーター 1 個
inf2.8xlarge 32 128.00 推論アクセラレーター 1 個
inf2.24xlarge 96 384.00 推論アクセラレーター 6 個
inf2.48xlarge 192 768.00 推論アクセラレーター 12 個
p2.xlarge 4 61.00 GPU 1 個
p2.8xlarge 32 488.00 GPU 8 個
p2.16xlarge 64 732.00 GPU 16 個
p3.2xlarge 8 61.00 GPU 1 個
p3.8xlarge 32 244.00 GPU 4 個
p3.16xlarge 64 488.00 GPU 8 個
p3dn.24xlarge 96 768.00 GPU 8 個
p4d.24xlarge 96 1152.00 GPU 8 個
p4de.24xlarge 96 1152.00 GPU 8 個
p5.48xlarge 192 2048.00 GPU 8 個
trn1.2xlarge 8 32.00
trn1.32xlarge 128 512.00
trn1n.32xlarge 128 512.00
vt1.3xlarge 12 24.00
vt1.6xlarge 24 48.00
vt1.24xlarge 96 192.00
注記

trn1n.32xlarge インスタンスには 16 個の Trainium アクセラレータが搭載されています。

Trn1 インスタンスには、以下の数の Trainium アクセラレータが搭載されています。

  • trn1.2xlarge — 1

  • trn1.32xlarge — 16

VT1 インスタンスには、以下の数の U30 アクセラレータが搭載されています。

  • vt1.3xlarge — 1

  • vt1.6xlarge — 2

  • vt1.24xlarge — 16

高速コンピューティングインスタンスでは、次のプロセッサを使用します。

AWS Graviton プロセッサ
  • AWS Graviton2: G5g

AMD プロセッサ
  • 第 2 世代 AMD EPYC プロセッサ (AMD EPYC 7R32): G4ad、G5

  • 第 3 世代 AMD EPYC プロセッサ (AMD EPYC 7R13): P5

インテルプロセッサ
  • Intel Xeon スケーラブルプロセッサ (Broadwell E5-2686 v4): F1、G3、P2、P3

  • インテル Xeon スケーラブルプロセッサ (Skylake 8175): P3dn

  • 第 2 世代 Intel Xeon スケーラブルプロセッサ (Cascade Lake P-8275CL): DL1、P4d、P4de

  • 第 2 世代 Intel Xeon スケーラブルプロセッサ (Cascade Lake P-8259CL): DL2q、G4dn、Inf1、VT1

  • 第 3 世代 Intel Xeon スケーラブルプロセッサ (Cascade Lake 8375C): Trn1

インスタンスタイプの詳細な仕様については、「Amazon EC2 Instance Types Guide」を参照してください。料金の詳細については、Amazon EC2 のインスタンスタイプのページを参照してください。

インスタンスのパフォーマンス

インスタンスで最大のパフォーマンスを実現するための GPU 設定の最適化には、さまざまなものがあります。詳細については、GPU 設定の最適化 を参照してください。

EBS 最適化インスタンスは、インスタンスからの Amazon EBS I/O とその他のネットワークトラフィックとの競合を排除することによって、EBS ボリュームの安定した高パフォーマンスを実現できます。一部の高速コンピューティングインスタンスは、追加料金なしでデフォルトで EBS 最適化されています。詳細については、Amazon EBS 最適化インスタンスを使用する を参照してください。

一部の高速コンピューティングインスタンスタイプでは、Linux でプロセッサの C ステートと P ステートを制御できます。C ステートは非アクティブ時のコアのスリープレベルを制御し、P ステートは希望するコアからのパフォーマンス (CPU 周波数) を制御します。詳細については、EC2 インスタンスのプロセッサのステート制御 を参照してください。

ネットワークパフォーマンス

サポートされているインスタンスタイプで拡張ネットワーキングを有効にすると、レイテンシーとネットワークジッターを低減し、パケット毎秒 (PPS) のパフォーマンスを高めることができます。ほとんどのアプリケーションでは、高いレベルのネットワークパフォーマンスが一貫して必要なわけではありませんが、データの送受信時にアクセスする帯域幅を増やすことでメリットを得られます。詳細については、Linux での拡張ネットワーキング を参照してください。

以下に示しているのは、拡張ネットワーキングをサポートする高速コンピューティングインスタンスのネットワークパフォーマンスの要約です。

注記

を持つインスタンスにはベースライン帯域幅があり、ネットワーク I/O クレジットメカニズムを使用して、ベストエフォートベースでベースライン帯域幅を超えてバーストできます。詳細については、「インスタンスのネットワーク帯域幅」を参照してください。

インスタンスタイプ ネットワークパフォーマンス 拡張ネットワークの機能
dl1.24xlarge 4 x 100 ギガビット ENA | EFA
dl2q.24xlarge 100 ギガビット ENA | EFA
f1.2xlarge 最大 10 ギガビット ENA
f1.4xlarge 最大 10 ギガビット ENA
f1.16xlarge 25 ギガビット ENA
g2.2xlarge 非サポート
g2.8xlarge 高い 非サポート
g3.4xlarge 最大 10 ギガビット ENA
g3.8xlarge 10 ギガビット ENA
g3.16xlarge 25 ギガビット ENA
g4ad.xlarge 最大 10 ギガビット ENA
g4ad.2xlarge 最大 10 ギガビット ENA
g4ad.4xlarge 最大 10 ギガビット ENA
g4ad.8xlarge 15 ギガビット ENA
g4ad.16xlarge 25 ギガビット ENA
g4dn.xlarge 最大 25 ギガビット ENA
g4dn.2xlarge 最大 25 ギガビット ENA
g4dn.4xlarge 最大 25 ギガビット ENA
g4dn.8xlarge 50 ギガビット ENA | EFA
g4dn.12xlarge 50 ギガビット ENA | EFA
g4dn.16xlarge 50 ギガビット ENA | EFA
g4dn.metal 100 ギガビット ENA | EFA
g5.xlarge 最大 10 ギガビット ENA
g5.2xlarge 最大 10 ギガビット ENA
g5.4xlarge 最大 25 ギガビット ENA
g5.8xlarge 25 ギガビット ENA | EFA
g5.12xlarge 40 ギガビット ENA | EFA
g5.16xlarge 25 ギガビット ENA | EFA
g5.24xlarge 50 ギガビット ENA | EFA
g5.48xlarge 100 ギガビット ENA | EFA
g5g.xlarge 最大 10 ギガビット ENA
g5g.2xlarge 最大 10 ギガビット ENA
g5g.4xlarge 最大 10 ギガビット ENA
g5g.8xlarge 12 ギガビット ENA
g5g.16xlarge 25 ギガビット ENA
g5g.metal 25 ギガビット ENA
inf1.xlarge 最大 25 ギガビット ENA
inf1.2xlarge 最大 25 ギガビット ENA
inf1.6xlarge 25 ギガビット ENA
inf1.24xlarge 100 ギガビット ENA | EFA
inf2.xlarge 最大 15 ギガビット ENA
inf2.8xlarge 最大 25 ギガビット ENA
inf2.24xlarge 50 ギガビット ENA
inf2.48xlarge 100 ギガビット ENA
p2.xlarge 高い ENA
p2.8xlarge 10 ギガビット ENA
p2.16xlarge 25 ギガビット ENA
p3.2xlarge 最大 10 ギガビット ENA
p3.8xlarge 10 ギガビット ENA
p3.16xlarge 25 ギガビット ENA
p3dn.24xlarge 100 ギガビット ENA | EFA
p4d.24xlarge 4 x 100 ギガビット ENA | EFA
p4de.24xlarge 4 x 100 ギガビット ENA | EFA
p5.48xlarge 3200 ギガビット ENA | EFA
trn1.2xlarge 最大 12.5 ギガビット ENA
trn1.32xlarge 8 x 100 ギガビット ENA | EFA
trn1n.32xlarge 16x 100 ギガビット ENA | EFA
vt1.3xlarge 3.12 ギガビット ENA
vt1.6xlarge 6.25 ギガビット ENA
vt1.24xlarge 25 ギガビット ENA | EFA

次の表には、ネットワーク I/O クレジットメカニズムを使用して、ベースライン帯域幅を超えてバーストするインスタンスタイプのベースライン帯域幅とバースト帯域幅を示しています。

インスタンスタイプ ベースライン帯域幅 (Gbps) バースト帯域幅 (Gbps)
f1.2xlarge 2.5 10
f1.4xlarge 5 10
g3.4xlarge 5 10
g4ad.xlarge 2.0 10.0
g4ad.2xlarge 4.167 10.0
g4ad.4xlarge 8.333 10.0
g4dn.xlarge 5.0 25.0
g4dn.2xlarge 10.0 25.0
g4dn.4xlarge 20.0 25.0
g5.xlarge 2.5 10.0
g5.2xlarge 5.0 10.0
g5.4xlarge 10.0 25.0
g5g.xlarge 1.25 10.0
g5g.2xlarge 2.5 10.0
g5g.4xlarge 5.0 10.0
inf1.xlarge 5.0 25.0
inf1.2xlarge 5.0 25.0
inf2.xlarge 2.083 15.0
inf2.8xlarge 16.667 25.0
trn1.2xlarge 3.125 12.5

Amazon EBS I/O パフォーマンス

Amazon EBS 最適化インスタンスは、最適化された設定スタックを使用し、Amazon EBS I/O 用に専用のキャパシティを追加で提供します。このように最適化することで、Amazon EBS I/O と、インスタンスからのその他のトラフィックとの間の競合を最小に抑え、Amazon EBS ボリュームの最高のパフォーマンスを実現します。

詳細については、「Amazon EBS 最適化インスタンスを使用する」を参照してください。

SSD ベースのインスタンスストアボリュームの I/O パフォーマンス

カーネルバージョン 4.4 以降の Linux AMI を使用し、インスタンスで利用可能なすべての SSD ベースのインスタンスストアボリュームを使用する場合は、以下の表に示されている IOPS (4,096 バイトブロックサイズ) のパフォーマンスを得ることができます (キューの深さの飽和度において)。それ以外の場合、IOPS パフォーマンスは低下します。

インスタンスサイズ 100% のランダム読み取り時 IOPS 書き込み IOPS
dl1.24xlarge 1000000 800000
g4ad.xlarge 10417 8333
g4ad.2xlarge 20833 16667
g4ad.4xlarge 41667 33333
g4ad.8xlarge 83333 66667
g4ad.16xlarge 166666 133332
g4dn.xlarge 42500 32500
g4dn.2xlarge 42500 32500
g4dn.4xlarge 85000 65000
g4dn.8xlarge 250000 200000
g4dn.12xlarge 250000 200000
g4dn.16xlarge 250000 200000
g4dn.metal 500000 400000
g5.xlarge 40625 20313
g5.2xlarge 40625 20313
g5.4xlarge 125000 62500
g5.8xlarge 250000 125000
g5.12xlarge 312500 156250
g5.16xlarge 250000 125000
g5.24xlarge 312500 156250
g5.48xlarge 625000 312500
p3dn.24xlarge 700000 340000
p4d.24xlarge 2000000 1600000
p4de.24xlarge 2000000 1600000
p5.48xlarge 4400000 2200000
trn1.2xlarge 107500 45000
trn1.32xlarge 1720000 720000
trn1n.32xlarge 1720000 720000

インスタンスに SSD ベースのインスタンスストアボリュームを使用するほど、アーカイブできる書き込み IOPS の数は減少します。これは、SSD コントローラーが実行する必要がある追加の作業が原因です。SSD コントローラーは、利用可能な領域を見つけ、既存のデータを再書き込みし、未使用の領域を消去して、再書き込みができるようにします。このガベージコレクションというプロセスにより、SSD への内部的な書き込み増幅が発生し、ユーザーの書き込み操作に対する SSD 書き込み操作の割合として表示されます。書き込み操作が 4,096 バイトの倍数でないか、4,096 バイトの境界に整合していない場合、パフォーマンスの低下はさらに大きくなります。少量のバイト数または整合していないバイト数で書き込む場合、SSD コントローラーは周辺のデータを読み取り、その結果を新しい場所に保存する必要があります。このパターンにより、書き込み増幅が大幅に増え、レイテンシーが増加し、I/O パフォーマンスが大きく低下します。

SSD コントローラーは、複数の方法を利用すると、書き込み増幅の影響を減らすことができます。このような方法の 1 つには、SSD インスタンスストレージに領域を予約し、コントローラーが書き込み操作に利用できる領域をより効率的に管理できるようにすることです。これをオーバープロビジョニングと呼びます。インスタンスに提供された SSD ベースのインスタンスストアボリュームには、オーバープロビジョニングに対して予約された領域がありません。書き込み増幅を減らすには、ボリュームの 10% を未使用の状態のままにし、SSD コントローラーがこれをオーバープロビジョニングに使用できるようにすることをお勧めします これにより、使用できるストレージは減りますが、ディスクが総容量に近づいた場合でもパフォーマンスを向上させることができます。

TRIM をサポートするインスタンスストアボリュームの場合、TRIM コマンドを使用して、書き込んだデータが不要になったときはいつでも SSD コントローラーに通知することができます。これにより、より多くの空き領域がコントローラーに与えられ、その結果書き込み増幅が減り、パフォーマンスが向上します。詳細については、「インスタンスストアボリュームの TRIM のサポート」を参照してください。

リリースノート

  • P5 インスタンスでの最高のパフォーマンスを得るには、次のことを行うことをお勧めします。

  • インスタンスは、HVM AMI を使用して起動する必要があります。

  • Nitro System 上に構築されたインスタンスには、次の要件があります。

    以下の Linux AMI はこれらの要件を満たしています。

    • AL2023

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03 以降

    • linux-aws カーネルを搭載した Ubuntu 14.04 以降

      注記

      AWS Graviton ベースのインスタンスタイプには、linux-aws カーネル搭載の Ubuntu 18.04 以降が必要です

    • Red Hat Enterprise Linux 7.4 以降

    • SUSE Linux Enterprise Server 12 SP2 以降

    • CentOS 7.4.1708 以降

    • FreeBSD 11.1 以降

    • Debian GNU/Linux 9 以降

  • NVIDIA ドライバーがインストールされていない限り、GPU ベースのインスタンスは GPU にアクセスできません。詳細については、Linux インスタンスへの NVIDIA ドライバーのインストール を参照してください。

  • ベアメタルインスタンスを起動すると、基盤となるサーバーが起動します。これには、すべてのハードウェアやファームウェアコンポーネントの確認が含まれます。つまり、インスタンスが実行状態になってからネットワーク経由で使用できるようになるまでに 20 分かかることがあります。

  • EBS ボリュームまたはセカンダリネットワークインターフェイスを、ベアメタルインスタンスにアタッチ (または、そこからデタッチ) するには、PCIe のネイティブホットプラグがサポートされている必要があります。PCIe のネイティブホットプラグは、Amazon Linux 2 および最新バージョンの Amazon Linux AMI でサポートされています。それ以前のバージョンではサポートされていません。次の Linux カーネル設定オプションを有効にする必要があります。

    CONFIG_HOTPLUG_PCI_PCIE=y CONFIG_PCIEASPM=y
  • ベアメタルインスタンスでは、I/O ポートベースのシリアルデバイスではなく、PCI ベースのシリアルデバイスを使用しています。アップストリームの Linux カーネルと最新の Amazon Linux AMI は、このデバイスをサポートしています。また、ベアメタルインスタンスでは、システムが PCI ベースのシリアルデバイスを自動的に使用できるようにする ACPI SPCR テーブルも使用できます。最新の Windows AMI では、自動的に PCI ベースのシリアルデバイスが使用されます。

  • リージョンごとに 100 AFI という制限があります。

  • リージョンで起動できるインスタンスの合計数には制限があります。また、一部のインスタンスタイプにはその他の制限もあります。詳細については、Amazon EC2 の「よくある質問」の「Amazon EC2 で実行できるインスタンス数の上限は」を参照してください。