翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
デプロイの有効化
共有するモデルを追加する場合、組織内の共同作業者が推論用に共有モデルをデプロイできる推論環境をオプションで用意することができます。
機械学習モデルをトレーニングしたら、推論のために Amazon SageMaker エンドポイントにデプロイする必要があります。これには、コンテナ環境、推論スクリプト、トレーニング中に生成されたモデルアーティファクトの提供、適切なコンピューティングインスタンスタイプの選択が含まれます。これらの設定を適切に設定することは、デプロイされたモデルが正確な予測を行い、推論リクエストを効率的に処理できるようにするために不可欠です。モデルを推論用にセットアップするには、次の手順に従います。
-
推論に使用するコンテナを追加します。Amazon に独自のコンテナを持ち込むECRか、Amazon SageMaker Deep Learning Container を使用できます。
-
Amazon S3 を推論スクリプトURIに提供します。カスタム推論スクリプトは選択したコンテナ内で実行されます。推論スクリプトには、モデルロード用の関数、およびオプションで予測を生成する関数、入出力処理を行う関数を含める必要があります。選択したフレームワークの推論スクリプトの作成の詳細については、 SageMaker Python SDKドキュメントの「フレームワーク
」を参照してください。例えば、 については TensorFlow、「前処理ハンドラーおよび/または後処理ハンドラーの実装方法 (複数可) 」を参照してください。 -
モデルアーティファクトURIに Amazon S3 を提供します。モデルアーティファクトはモデルをトレーニングした結果の出力で、通常はトレーニング済みのパラメータ、推論の計算方法を記述するモデル定義、およびその他のメタデータで構成されます。でモデルをトレーニングした場合 SageMaker、モデルアーティファクトは Amazon S3 に 1 つの圧縮TARファイルとして保存されます。の外部でモデルをトレーニングした場合は SageMaker、この単一の圧縮TARファイルを作成し、Amazon S3 の場所に保存する必要があります。
-
インスタンスタイプの選択 バッチサイズが大きいトレーニングには、メモリが豊富なGPUインスタンスをお勧めします。リージョン間の SageMaker AWS トレーニングインスタンスの包括的なリストについては、「Amazon 料金」の「オンデマンド料金表」を参照してください。 SageMaker