推奨 GPU インスタンス - Deep Learning AMI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

推奨 GPU インスタンス

GPU インスタンスは、ディープラーニングの大半の目的に推奨されます。新しいモデルのトレーニングは CPU インスタンス上よりも GPU インスタンス上の方が高速で実行でき、複数の GPU インスタンスがある場合や、トレーニングを複数の GPU インスタンスに分散した場合は、ほぼ直線的な拡張性を得ることができます。分散トレーニングを設定するには、「」を参照してください。分散トレーニング

次のインスタンスタイプは、DLAMI をサポートします。GPU インスタンスタイプのオプションとその使用方法の詳細については、EC2 インスタンスタイプを選択し、選択高速コンピューティング

注記

モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。

DLAMI インスタンスは、GPU プロセスを監視および最適化するためのツールを提供します。GPU プロセスのモニタリングの詳細については、「」を参照してください。GPU のモニタリングおよび最適化

次回の予定

推奨 CPU インスタンス