推奨 GPU インスタンス - Deep Learning AMI

「翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。」

推奨 GPU インスタンス

GPU インスタンスは、ディープラーニングの大半の目的に推奨されます。新しいモデルのトレーニングは CPU インスタンス上よりも GPU インスタンス上の方が高速で実行でき、複数の GPU インスタンスがある場合や、トレーニングを複数の GPU インスタンスに分散した場合は、ほぼ直線的な拡張性を得ることができます。分散型トレーニングを設定するには、以下を参照してください。 分散トレーニング.

注記

モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。

DLAMI インスタンスは、GPU プロセスを監視および最適化するためのツールを提供します。GPU プロセスの監視の詳細については、以下を参照してください。 GPU のモニタリングおよび最適化.

次回の予定

推奨 CPU インスタンス