推奨 Inferentia インスタンス - Deep Learning AMI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

推奨 Inferentia インスタンス

AWS Inferentia インスタンスは、深層学習モデルの推論のワークロードに高いパフォーマンスとコスト効率を提供するように設計されています。具体的には、Inf2 インスタンスタイプは、AWS Inferentia チップと AWS Neuron SDK (TensorFlow や PyTorch などの一般的な機械学習フレームワークと統合されている) を使用します。

お客様は Inf2 インスタンスを使用して、検索、レコメンデーションエンジン、コンピュータビジョン、音声認識、自然言語処理、パーソナライゼーション、不正検出などの大規模な機械学習推論アプリケーションをクラウド内で低コストで実行できます。

注記

モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。

AWS Inferentia DLAMI の使用開始方法の詳細については、AWS Inferentia チップと DLAMIを参照してください。

次回の予定

推奨 Trainium インスタンス