翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
DLAMI インスタンスタイプの選択
より一般的には、 のインスタンスタイプを選択するときは、次の点を考慮してくださいDLAMI。
深層学習を初めて使用する場合は、1 つのインスタンスがニーズに合っているGPU可能性があります。
予算を重視している場合は、 CPUのみのインスタンスを使用できます。
深層学習モデルの推論に高いパフォーマンスとコスト効率を最適化する場合は、 AWS Inferentia チップでインスタンスを使用できます。
Arm64-basedCPUアーキテクチャを備えた高性能GPUインスタンスをお探しの場合は、G5g インスタンスタイプを使用できます。
推論と予測のために事前トレーニングされたモデルの実行に関心がある場合は、Amazon Elastic Inference を Amazon EC2インスタンスにアタッチできます。Amazon Elastic Inference では、 の一部を持つアクセラレータにアクセスできますGPU。
-
大量の推論サービスの場合、メモリが豊富な単一のCPUインスタンス、またはそのようなインスタンスのクラスターがより良いソリューションになる可能性があります。
大量のデータまたは大きなバッチサイズを持つ大規模なモデルを使用している場合は、より多くのメモリを持つより大きなインスタンスが必要になります。モデルのクラスターに分散することもできますGPUs。バッチサイズを小さくした場合、メモリの少ないインスタンスを使用すると改善されることがあります。これは、精度とトレーニング速度に影響を与える可能性があります。
大規模な高レベルのノード間通信を必要とする NVIDIA Collective Communications Library (NCCL) を使用して機械学習アプリケーションを実行する場合は、Elastic Fabric Adapter (EFA) を使用することをお勧めします。
インスタンスの詳細については、EC2インスタンスタイプ
次のトピックでは、インスタンスタイプに関する考慮事項について説明します。
重要
Deep Learning AMIsには、 NVIDIA Corporation によって開発、所有、または提供されるドライバー、ソフトウェア、またはツールキットが含まれます。お客様は、これらのNVIDIAドライバー、ソフトウェア、またはツールキットを、NVIDIAハードウェアを含む Amazon EC2インスタンスでのみ使用することに同意します。
DLAMI の料金表
に含まれる深層学習フレームワークDLAMIは無料であり、それぞれに独自のオープンソースライセンスがあります。に含まれるソフトウェアDLAMIは無料ですが、基盤となる Amazon EC2インスタンスハードウェアに対して料金を支払わなければなりません。
一部の Amazon EC2インスタンスタイプは無料とラベル付けされています。これらの無料インスタンスのいずれかDLAMIで を実行できます。つまり、そのインスタンスの容量のみを使用する場合、 の使用は完全に無料DLAMIです。より多くのCPUコア、より多くのディスク容量、より多くの RAM、または 1 つ以上の を持つより強力なインスタンスが必要な場合はGPUs、フリーティアインスタンスクラスにないインスタンスが必要です。
インスタンスの選択と料金の詳細については、「Amazon EC2の料金
DLAMI リージョンの可用性
各リージョンでサポートされるインスタンスタイプの範囲はそれぞれ異なり、多くの場合、インスタンスタイプのコストもリージョンごとにわずかに違います。DLAMIs はすべてのリージョンで利用できるわけではありませんが、選択したリージョンDLAMIsにコピーすることは可能です。詳細については、「 のコピーAMI」を参照してください。リージョンの選択リストを確認し、必ず自社または自社の顧客に近いリージョンを選択してください。複数の を使用しDLAMI、クラスターを作成する予定がある場合は、クラスター内のすべてのノードに必ず同じリージョンを使用してください。
リージョンの詳細については、「リージョン Amazon EC2サービスエンドポイント」を参照してください。