翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
Amazon SageMaker Inference レコメンダー
Amazon SageMaker Inference Recommender は、機械学習 (ML) インスタンス間で SageMaker負荷テストとモデルチューニングを自動化することで、本番環境で機械学習 (ML) モデルを取得するのに必要な時間を短縮 SageMaker する Amazon の機能です。Inference Recommender を使用して、リアルタイムまたはサーバーレスの推論エンドポイントにモデルをデプロイすれば、最小のコストでベストパフォーマンスを実現できます。Inference Recommender は、機械学習モデルとワークロードに最適なインスタンスタイプと設定 (インスタンス数、コンテナパラメータ、モデルの最適化など) または機械学習モデルおよびワークフローロードのサーバーレス構成 (最大同時実行数、メモリサイズなど) を選択するのに役立ちます。
Amazon SageMaker Inference Recommender は、ジョブの実行中に使用されたインスタンスに対してのみ課金します。
仕組み
Amazon SageMaker Inference Recommender を使用するには、 SageMaker モデルを作成するか、モデルアーティファクトを使用して SageMaker モデルをモデルレジストリに登録します。または AWS SDK for Python (Boto3) SageMaker コンソールを使用して、さまざまな SageMakerエンドポイント設定のベンチマークジョブを実行します。推論レコメンダージョブは、パフォーマンスとリソース使用率に関するメトリクスを収集して視覚化し、どのエンドポイントタイプと構成を選択するかを決定するのに役立ちます。
開始方法
Amazon SageMaker Inference Recommender を初めて使用する場合は、以下を実行することをお勧めします。
-
前提条件 セクションを読んで、Amazon SageMaker Inference Recommender を使用するための要件を満たしていることを確認します。
-
「レコメンデーションジョブ」セクションを参照し、最初の推論レコメンダーのレコメンデーションジョブを開始します。
-
Amazon SageMaker Inference Recommender Jupyter Notebook
の入門サンプルを確認するか、次のセクションのサンプルノートブックを確認してください。
サンプルノートブックの例
以下の Jupyter Notebook の例は、Inference Recommender の複数のユースケースのワークフローに役立ちます。
TensorFlow モデルをベンチマークする入門ノートブックが必要な場合は、SageMaker Inference Recommender TensorFlow
ノートブックを参照してください。 HuggingFace モデルをベンチマークする場合は、SageMaker 「Inference Recommender for HuggingFace
notebook」を参照してください。 XGBoost モデルをベンチマークする場合は、SageMaker Inference Recommender XGBoost
ノートブックを参照してください。 Inference Recommender ジョブの CloudWatch メトリクスを確認する場合は、SageMaker Inference Recommender CloudWatch メトリクス
ノートブックを参照してください。