Amazon Elastic Compute Cloud
Windows インスタンス用ユーザーガイド

Windows 高速コンピューティングインスタンス

高度な処理機能が必要な場合は、高速コンピューティングインスタンスを使用すると、Graphics Processing Units (GPUs) や Field Programmable Gate Arrays (FPGAs) などのハードウェアベースのコンピューティングアクセラレーターにアクセスできます。高速コンピューティングインスタンスでは、大量の演算を行うワークロードでさらに多くの並列処理が可能となり、より高いスループットが得られます。

GPU ベースのインスタンスでは、数千のコンピューティングコアを持つ NVIDIA GPU にアクセスできます。GPU ベースの高速コンピューティングインスタンスを使用すると、CUDA または Open Computing Language (OpenCL) パラレルコンピューティングフレームワークを活用することにより、サイエンス、エンジニアリング、およびレンダリングアプリケーションを高速化できます。また、ゲームストリーミング、3D アプリケーションストリーミング、およびその他のグラフィックスワークロードを含む、グラフィックアプリケーションにも使用できます。

アプリケーションがグラフィックアセレレーション用にわずかなグラフィックスアクセラレーションの追加を必要とするが、別のコンピューティング、メモリ、あるいはストレージ仕様のインスタンスタイプにより適する場合には、Elastic Graphics アクセラレーターを代わりに使用します。詳細については、「Amazon Elastic Graphics」を参照してください。

FPGA ベースのインスタンスでは、数百万の並列システム論理セルを持つ大きな FPGA にアクセスできます。FPGA ベースの高速コンピューティングインスタンスを使用すると、カスタムハードウェアアクセラレーションを活用することにより、ゲノム解析、財務分析、リアルタイム動画処理、ビッグデータ解析、およびセキュリティワークロードなどのワークロードを高速化できます。Verilog や VHDL などのハードウェア記述言語を使用するか、または OpenCL パラレルコンピューティングフレームワークなどの高レベル言語を使用して、これらの加速度を開発できます。ハードウェアアクセラレーションコードを自身で作成することも、AWS Marketplace からハードウェアアクセラレーションを購入することもできます。

重要

FPGA ベースのインスタンスは、Microsoft Windows をサポートしていません。

高速コンピューティングインスタンスをクラスタープレイスメントグループにクラスター化できます。クラスタープレイスメントグループは、1 つのアベイラビリティーゾーン内で、インスタンス間の低レイテンシーで高帯域幅の接続を提供します。詳細については、「プレイスメントグループ」を参照してください。

Linux 高速コンピューティングインスタンスについては、「Linux 高速コンピューティングインスタンス」 (Linux インスタンス用 Amazon EC2 ユーザーガイド) を参照してください。

高速コンピューティングインスタンスファミリー

高速コンピューティングインスタンスファミリーは、ハードウェアアクセラレーターやコプロセッサーを使用して、浮動小数点数計算、グラフィック処理、データパターンマッチングのような機能を CPU で実行されるソフトウェア以上に効率的に実行します。次の高速コンピューティングインスタンスファミリーを Amazon EC2 で起動できます。

P3 インスタンス

P3 インスタンスは NVIDIA Tesla V100 GPU を使用し、CUDA または OpenCL プログラミングモデルを使用するか、Machine Learning フレームワークを使用する汎用 GPU コンピューティング用に設計されています。P3 インスタンスは高帯域幅ネットワーキング、強力な半精度、単精度、および倍精度浮動小数点機能、および GPU ごとに最大 32 GiB メモリを提供し、深層学習、数値流体力学、金融工学、耐震解析、分子モデリング、ゲノム解析、レンダリング、その他サーバー側 GPU コンピューティングワークロードに最適です。Tesla V100 GPU はグラフィックモードをサポートしません。詳細については、「Amazon EC2 P3 インスタンス」を参照してください。

P3 インスタンスは NVIDIA NVLink のピアツーピア転送をサポートします。

システムのトポロジ情報を表示するには、以下のコマンドを実行します。

nvidia-smi topo -m

詳細については、NVIDIA NVLink を参照してください。

P2 インスタンス

P2 インスタンスは NVIDIA Tesla K80 GPU を使用し、CUDA または OpenCL プログラミングモデルを使用する汎用 GPU コンピューティング用に設計されています。P2 インスタンスは高帯域幅ネットワーキング、強力な単精度および倍精度浮動小数点機能、および GPU ごとに 12 GiB メモリを提供し、ディープラーニング、グラフデータベース、高パフォーマンスデータベース、数値流体力学、金融工学、耐震解析、分子モデリング、ゲノム解析、レンダリング、その他サーバー側 GPU コンピューティングワークロードに最適です。

P2 インスタンスは NVIDIA GPUDirect のピアツーピア転送をサポートします。

システムのトポロジ情報を表示するには、以下のコマンドを実行します。

nvidia-smi topo -m

詳細については、NVIDIA GPUDirect を参照してください。

G4 インスタンス

G4 インスタンスは NVIDIA Tesla GPU を使用して、汎用 GPU コンピューティング用のコスト効率とパフォーマンスに優れたプラットフォームを CUDA を通じて提供するか、グラフィックアプリケーションを備えた機械学習フレームワークを DirectX または OpenGL を通じて提供します。G4 インスタンスは、高帯域幅ネットワーキング、強力な半精度浮動小数点機能、単精度浮動小数点機能、INT8 精度、および INT4 精度を提供します。各 GPU は 16 GiB の GDDR6 メモリを備えているため、G4 インスタンスは機械学習推論、動画トランスコード、グラフィックアプリケーション (リモートグラフィックワークステーションやクラウド内のゲームストリーミングなど) に最適です。

G4 インスタンスは、NVIDIA GRID 仮想ワークステーションをサポートします。詳細については、NVIDIA Marketplace の提供サービスを参照してください。

G3 インスタンス

G3 インスタンスは NVIDIA Tesla M60 GPU を使用し、DirectX または OpenGL を使用してグラフィックアプリケーション向けに費用対効果の高パフォーマンスのプラットフォームを提供します。また、G3 インスタンスは、最大 4096x2160 の解像度を持つ 4 つのモニターと NVIDIA GRID 仮想アプリケーションのサポートなど、NVIDIA GRID 仮想ワークステーションの機能も提供します。G3 インスタンスは、アプリケーションの例としては、3D ビジュアライゼーション、グラフィックを強化したリモートワークステーション、3D レンダリング、動画エンコード、仮想リアリティやそのほかの大規模なパラレル処理を必要とするサーバー側のグラフィックワークロードなどのアプリケーションに最適です。

G3 インスタンスは、NVIDIA GRID 仮想ワークステーションと NVIDIA GRID 仮想アプリケーションをサポートします。これらの機能のいずれかを有効にするには、「G3 インスタンスで NVIDIA GRID 仮想アプリケーションを有効にする」を参照してください。

G2 インスタンス

G2 インスタンスは NVIDIA GRID K520 GPU を使用し、DirectX または OpenGL を使用してグラフィックアプリケーション向けに費用対効果の高パフォーマンスのプラットフォームを提供します。NVIDIA GRID GPU は、NVIDIA の高速キャプチャおよびエンコード API オペレーションもサポートします。アプリケーションのサンプルには、動画作成サービス、3D 仮想化、グラフィックを多用したストリーミングアプリケーションなどのサーバー側のグラフィックワークロードが含まれています。

ハードウェア仕様

以下に示しているのは、高速コンピューティングインスタンスのハードウェア仕様の要約です。

インスタンスタイプ デフォルト vCPU メモリ (GiB) アクセラレータ
p2.xlarge 4 61 1
p2.8xlarge 32 488 8
p2.16xlarge 64 732 16
p3.2xlarge 8 61 1
p3.8xlarge 32 244 4
p3.16xlarge 64 488 8
p3dn.24xlarge 96 768 8
g2.2xlarge 8 15 1
g2.8xlarge 32 60 4
g3s.xlarge 4 30.5 1
g3.4xlarge 16 122 1
g3.8xlarge 32 244 2
g3.16xlarge 64 488 4
g4dn.xlarge 4 16 1
g4dn.2xlarge 8 32 1
g4dn.4xlarge 16 64 1
g4dn.8xlarge 32 128 1
g4dn.12xlarge 48 192 4
g4dn.16xlarge 64 256 1
f1.2xlarge 8 122 1
f1.4xlarge 16 244 2
f1.16xlarge 64 976 8

各 Amazon EC2 インスタンスタイプのハードウェア仕様については、「Amazon EC2 インスタンスタイプ」を参照してください。

CPU オプションの指定についての詳細は、「CPU オプションの最適化」を参照してください。

インスタンスのパフォーマンス

EBS 最適化インスタンスは、インスタンスからの Amazon EBS I/O とその他のネットワークトラフィックとの競合を排除することによって、EBS ボリュームの安定した高パフォーマンスを実現できます。一部の高速コンピューティングインスタンスは、追加料金なしでデフォルトで EBS 最適化されています。詳細については、「Amazon EBS – 最適化インスタンス」を参照してください。

ネットワークパフォーマンス

サポート対象のインスタンスタイプで、拡張されたネットワーキング機能を有効にすることができます。拡張ネットワーキングでは、パケット毎秒 (PPS) が非常に大きく、ネットワークのストレスが少なく、レイテンシーが低くなります。詳細については、「Windows の拡張ネットワーキング」を参照してください。

拡張されたネットワーキングのための Elastic Network Adapter (ENA) を使用するインスタンスタイプは、高いパケット/秒パフォーマンスと一貫して低いレイテンシーを同時に実現します。ほとんどのアプリケーションでは、高いレベルのネットワークパフォーマンスが一貫して必要なわけではありませんが、データの送受信時にアクセスする帯域幅を増やすことでメリットを得られます。ENA を使用し、「最大 10 Gbps」または「最大 25 Gbps」のネットワークパフォーマンスをサポートするインスタンスサイズでは、ネットワーク I/O クレジットメカニズムを使用して、平均帯域幅使用率に基づいてインスタンスにネットワーク帯域幅を割り当てます。これらのインスタンスでは、ネットワーク帯域幅がベースライン制限を下回るとクレジットを獲得し、これらのクレジットをネットワークデータ転送を実行するときに使用できます。

以下に示しているのは、拡張ネットワーキングをサポートする高速コンピューティングインスタンスのネットワークパフォーマンスの要約です。

インスタンスタイプ ネットワークパフォーマンス 拡張ネットワーキング

f1.2xlarge | f1.4xlarge | g3.4xlarge | p3.2xlarge

最大 10 Gbps

ENA

g3s.xlarge | g3.8xlarge | p2.8xlarge | p3.8xlarge

10 Gbps

ENA

g4dn.xlarge | g4dn.2xlarge | g4dn.4xlarge

最大 25 Gbps

ENA

f1.16xlarge | g3.16.xlarge | g3.16.xlarge | p2.16xlarge | p3.16xlarge

25 Gbps

ENA

g4dn.8xlarge | g4dn.12xlarge | g4dn.16xlarge

50 Gbps

ENA

p3dn.24xlarge

100 Gbps

ENA

インスタンスの機能

以下に示しているのは、高速コンピューティングインスタンスの機能の要約です。

EBS のみ NVMe EBS インスタンスストア 配置グループ

G2

なし

いいえ

SSD

あり

G3

はい

いいえ

いいえ

はい

G4

いいえ

はい

NVMe *

はい

P2

はい

いいえ

いいえ

はい

P3

p3dn.24xlarge: なし

他のすべてのサイズ: あり

p3dn.24xlarge: あり

他のすべてのサイズ: なし

p3dn.24xlarge: NVMe *

はい

F1

いいえ

いいえ

NVMe *

はい

* ルートデバイスボリュームは、Amazon EBS ボリュームにする必要があります。

詳細については、以下を参照してください。

リリースノート

  • インスタンスは、HVM AMI を使用して起動する必要があります。

  • G4 インスタンスの要件を以下に示します。

    • NVMe ドライバーがインストールされている必要があります。EBS ボリュームは NVMe ブロックデバイスとして公開されます。

    • Elastic Network Adapter (ENA) ドライバーがインストールされている必要があります。

    以下の AMI はこれらの要件を満たしています。

    • Amazon Linux 2

    • Amazon Linux AMI 2018.03

    • Ubuntu 14.04 (linux-aws カーネル) 以降

    • Red Hat Enterprise Linux 7.4 以降

    • SUSE Linux Enterprise Server 12 SP2 以降

    • CentOS 7.4.1708 以降

    • FreeBSD 11.1 以降

  • NVIDIA ドライバーがインストールされていない限り、GPU ベースのインスタンスは GPU にアクセスできません。詳細については、「Windows での NVIDIA ドライバーのインストール」を参照してください。

  • リージョンごとに 100 AFI という制限があります。

  • 実行できるインスタンス数は制限されています。詳細については、Amazon EC2 のよくある質問で「How many instances can I run in Amazon EC2?」を参照してください。これらの制限の引き上げを申請するには、Request to Increase Amazon EC2 Instance Limit というフォームを使用してください。

  • マルチ GPU インスタンスを単一 GPU インスタンスで作成した Windows AMI で起動すると、Windows ですべての GPU の NVIDIA ドライバーが自動的にインストールされません。新しい GPU ハードウェアのドライバーのインストールを許可する必要があります。これは、デバイス マネージャーで [その他] のデバイスカテゴリを開き、手動で修正できます (非アクティブな GPU は [ディスプレイ アダプター] に表示されません)。非アクティブな GPU のそれぞれでコンテキストメニュー (右クリック) を開き、[Update Driver Software] を選択して、デフォルトの [Automatic Update] オプションを選択します。

  • Microsoft リモートデスクトッププロトコル (RDP) を使用すると、WDDM ドライバーモデルを使用している GPU は、高速化されていないリモートデスクトップディスプレイドライバーに置き換えられます。GPU ハードウェアにアクセスするには、Teradici Cloud Access SoftwareNICE Desktop Cloud Visualization (DCV)、VNC などの別のリモートアクセスツールを使用する必要があります。また、AWS Marketplace からいずれかの GPU AMI を使用することもできます。それらの AMI には、3D 高速化をサポートするリモートアクセスツールが用意されているためです。

GPU ベースの高速コンピューティングインスタンス用の AMI

すぐに作業を開始できるように、NVIDIA などから GPU ベースの高速コンピューティングインスタンス用の AMI が提供されています。これらのリファレンス AMI には、NVIDIA GPU の完全な機能とパフォーマンスを有効にする NVIDIA ドライバーが含まれています。

NVIDIA ドライバーがある AMI の一覧については、次のように AWS Marketplace を検索してください。

HVM AMI を使用して高速コンピューティングインスタンスを起動できます。

重要

これらの AMI には、ドライバ、ソフトウェアやツールキット (NVIDIA Corporation によって開発、所有あるいは提供) が含まれています。これらの AMI を使用することで、これらの NVIDIA ドライバ、ソフトウェア、ツールキットは、NVIDIA ハードウェアが含まれている Amazon EC2 インスタンスでのみ使用することにユーザーが同意するものとします。

NVIDIA ドライバーをインストールすることもできます。詳細については、Windows での NVIDIA ドライバーのインストールを参照してください。