翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon SageMaker Inference Recommender
Amazon SageMaker Inference Recommender は Amazon の一機能です SageMaker。ML インスタンス間で SageMaker負荷テストとモデルチューニングを自動化することで、機械学習 (ML) モデルを本番環境に導入するために必要な時間を短縮します。Inference Recommender を使用して、リアルタイムまたはサーバーレスの推論エンドポイントにモデルをデプロイすれば、最小のコストでベストパフォーマンスを実現できます。Inference Recommender は、ML モデルとワークロードに最適なインスタンスタイプと設定を選択するのに役立ちます。インスタンス数、コンテナパラメータ、モデルの最適化、最大同時実行数、メモリサイズなどの要素を考慮します。
Amazon SageMaker Inference Recommender は、ジョブの実行中に使用されたインスタンスに対してのみ課金します。
仕組み
Amazon SageMaker Inference Recommender を使用するには、 SageMaker モデルを作成するか、モデルアーティファクトを使用して SageMaker モデルレジストリにモデルを登録します。 AWS SDK for Python (Boto3) または SageMaker コンソールを使用して、さまざまな SageMaker エンドポイント設定のベンチマークジョブを実行します。推論レコメンダージョブは、パフォーマンスとリソース使用率に関するメトリクスを収集して視覚化し、どのエンドポイントタイプと構成を選択するかを決定するのに役立ちます。
開始方法
Amazon SageMaker Inference Recommender を初めて使用する場合は、次の操作を行うことをお勧めします。
-
前提条件 セクションを読んで、Amazon SageMaker Inference Recommender を使用するための要件を満たしていることを確認します。
-
「レコメンデーションジョブ」セクションを参照し、最初の推論レコメンダーのレコメンデーションジョブを開始します。
-
Amazon SageMaker Inference Recommender Jupyter Notebook
の入門例を参照するか、次のセクションでサンプルノートブックを確認してください。
サンプルノートブックの例
以下の Jupyter Notebook の例は、Inference Recommender の複数のユースケースのワークフローに役立ちます。
-
TensorFlow モデルをベンチマークする入門ノートブックが必要な場合は、SageMaker Inference Recommender TensorFlow
ノートブックを参照してください。 -
HuggingFace モデルをベンチマークする場合は、SageMaker 「Inference Recommender for HuggingFace
notebook」を参照してください。 -
XGBoost モデルをベンチマークする場合は、SageMaker Inference Recommender XGBoost
ノートブックを参照してください。 -
Inference Recommender ジョブの CloudWatch メトリクスを確認する場合は、SageMaker Inference Recommender CloudWatch メトリクス
ノートブックを参照してください。