推論のためのモデルをデプロイする - アマゾン SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

推論のためのモデルをデプロイする

モデルを構築し、トレーニングしたら、以下の 2 つのいずれかの方法でそれらのモデルをデプロイして、予測を取得することができます。

  • モデルから予測を取得する永続的なエンドポイントを設定するには、Amazon を使用してください SageMakerホスティングサービス。モデルをデプロイする方法の例として、 SageMaker ホスティングサービス、「」を参照してくださいエンドポイントを作成してモデルをデプロイする

    または、必要に応じて、次の動画チュートリアルをご覧ください。

  • データセット全体の予測を取得するには、 SageMaker バッチ変換。を使用してモデルをデプロイする方法の概要については SageMaker バッチ変換、「」を参照バッチ変換の使用

    バッチ変換でモデルをデプロイする方法の例については、「(オプション) バッチ変換を使用して予測を行う」を参照してください。

    または、必要に応じて、次の動画チュートリアルをご覧ください。

前提条件

これらのトピックは、1 つ以上の機械学習モデルを構築およびトレーニングし、それらのモデルをデプロイする準備ができていることを前提としています。初めての場合 SageMaker これらの前提条件となるタスクを完了していない場合は、に記載されている手順を実行してくださいAmazon の使用を開始する SageMaker方法の例に慣れるためのチュートリアル SageMaker データサイエンスプロセスと、それがモデル展開をどのように処理するかを管理します。モデルトレーニングの詳細については、「モデルのトレーニング」を参照してください。

何をしたいですか?

SageMaker には、機械学習モデルを導入する際にリソースを管理し、推論性能を最適化する機能があります。推論パイプラインの使用、Neo、Elastic Inference、およびモデルの自動スケーリングを使用したモデルのコンパイルとデプロイのガイダンスについては、次のトピックを参照してください。

モデルのデプロイの管理

モニタリング、トラブルシューティング、ベストプラクティスを含むモデルデプロイの管理に関するガイダンス、および推論ホスティングインスタンスに関連付けられたストレージに関する情報については、以下を参照してください。

独自の推論コードのデプロイ

独自の推論コードの実行方法に関する高度なガイダンスが必要な開発者向け: