推奨 CPU インスタンス - Deep Learning AMI

推奨 CPU インスタンス

予算に制約がある場合、ディープラーニングを学習する目的の場合、または予測サービスの実行が唯一の目的である場合は、CPU のカテゴリに数多くの低価格な選択肢があります。一部のフレームワークは、C5 (一部のリージョンでのみ使用可)、C4 および C3 CPU インスタンスタイプにおけるトレーニングと推定を高速化する Intel の MKL DNN を活用しています。GPU インスタンスタイプでの推論も高速化されます。

  • Amazon EC2 C5 インスタンス には最大 72 個の Intel vCPU が搭載されています。

  • Amazon EC2 C4 インスタンスには最大 36 個のインテル vCPU があります。

  • CPU インスタンスのさまざまなオプションについては、「 EC2 インスタンスタイプ」を参照し、「コンピューティング最適化」を検索してください。

注記

C5 インスタンス (使用できないリージョンがあります) は、科学モデリング、バッチ処理、分散分析、高性能コンピューティング (HPC)、機械学習/ディープラーニングによる推論などに優れています。

注記

モデルのサイズは、インスタンスを選択する際の要因となります。モデルがインスタンスの使用可能な RAM を超えている場合は、アプリケーション用に十分なメモリを持つ別のインスタンスタイプを選択します。

重要

Caffe を使用する予定がある場合は、代わりに GPU インスタンスを選択する必要があります。DLAMI では、Caffe は GPU サポートでのみ作動し、CPU モードで実行することはできません。

次回の予定

DLAMI の料金表