Amazon SageMaker でモデルをデプロイする - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon SageMaker でモデルをデプロイする

機械学習モデルをトレーニングした後、Amazon SageMaker を使用してデプロイして、ユースケースに応じて、次のいずれかの方法で予測を取得できます。

  • 一度に 1 つの予測を行う永続リアルタイムエンドポイントの場合は、SageMaker リアルタイムホスティングサービスを使用します。「リアルタイム推論」を参照してください。

  • トラフィックのスパートの間にアイドル期間があり、コールドスタートを許容できるワークロードの場合は、サーバーレス推論を使用します。「」を参照してください。

  • 1 GB までの大きなペイロードサイズ、長い処理時間、ほぼリアルタイムのレイテンシー要件を持つリクエストでは、Amazon SageMaker 非同期推論を使用します。「非同期推論」を参照してください。

  • データセット全体の予測を取得するには、SageMaker のバッチ変換を使用します。「バッチ変換の使用」を参照してください。

SageMaker は、Machine Learning モデルを導入する際にリソースを管理し、推論性能を最適化する機能も提供します。

  • スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスのフリートで機械学習モデルを最適化、保護、監視、保守できるようにエッジデバイス上のモデルを管理するには、を参照してください。エッジでのモデルのデプロイ SageMaker Edge Manager

  • Ambarella、ARM、Intel、Nvidia、NXP、Qualcomm、Texas Instruments、Xilinx のプロセッサをベースとする Android、Linux、Windows マシンで推論を行うために、Gluon、Keras、MXNet、PyTorch、TensorFlow-Lite、ONNX モデルを最適化するには、Neo を使用してモデルのパフォーマンスを最適化する

すべてのデプロイオプションの詳細については、「」を参照してください。推論のためのモデルをデプロイする