推論用のモデルをデプロイ - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

推論用のモデルをデプロイ

モデルを構築し、トレーニングしたら、以下の 2 つのいずれかの方法でそれらのモデルをデプロイして、予測を取得することができます。

Prerequisites

これらのトピックは、1 つ以上の機械学習モデルを構築およびトレーニングし、それらのモデルをデプロイする準備ができていることを前提としています。SageMaker を初めて使用していて、これらの前提条件タスクを完了していない場合は、Amazon SageMaker の使用開始チュートリアルでは、SageMaker がデータサイエンスプロセスを管理し、モデルのデプロイを処理する方法の例を詳細に確認します。モデルをトレーニングする方法については、「」を参照してください。モデルのトレーニング

何をしたいですか?

SageMaker は、Machine Learning モデルを導入する際にリソースを管理し、推論性能を最適化する機能を提供します。推論パイプラインの使用、Neo、Elastic Inference、およびモデルの自動スケーリングを使用したモデルのコンパイルとデプロイのガイダンスについては、次のトピックを参照してください。

モデルのデプロイの管理

モニタリング、トラブルシューティング、ベストプラクティスを含むモデルデプロイの管理に関するガイダンス、および推論ホスティングインスタンスに関連付けられたストレージに関する情報については、以下を参照してください。

独自の推論コードのデプロイ

独自の推論コードの実行方法に関する高度なガイダンスが必要な開発者向け:

SageMaker へのガイド

Amazon SageMaker とは

トピック