Amazon でモデルをデプロイする SageMaker - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon でモデルをデプロイする SageMaker

機械学習モデルをトレーニングしたら、ユースケースに応じて、Amazon を使用してモデルをデプロイ SageMaker し、次のいずれかの方法で予測を取得できます。

  • 一度に 1 つの予測を行う永続的なリアルタイムエンドポイントの場合は、リアルタイムホスティングサービスを使用します SageMaker。リアルタイム推論 を参照してください。

  • トラフィックのスパート間にアイドル期間があり、コールドスタートを許容できるワークロードは、サーバーレス推論を使用します。サーバーレス推論 を参照してください。

  • 最大 1GB の大きなペイロードサイズ、長い処理時間、ほぼリアルタイムのレイテンシー要件を持つリクエストには、Amazon SageMaker Asynchronous Inference を使用します。非同期推論 を参照してください。

  • データセット全体の予測を取得するには、 SageMaker バッチ変換を使用します。バッチ変換の使用 を参照してください。

SageMaker には、機械学習モデルのデプロイ時に リソースを管理し、推論パフォーマンスを最適化する機能も用意されています。

  • スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、保守できるようにエッジデバイス上のモデルを管理するには、「 SageMaker Edge Manager を使用してエッジにモデルをデプロイする」を参照してください。

  • Ambarella、ARM、Intel、Nvidia、NXP PyTorch、Qualcomm TensorFlow、Tex Instruments、Xilinx のプロセッサに基づいて、Android、Linux、および Windows マシンでの推論用に Gluon、Keras、MXNet、、、 TensorFlowLite、ONNX モデルを最適化するには、「」を参照してくださいNeo を使用してモデルのパフォーマンスを最適化する

これらすべてのデプロイオプションの詳細については、「推論のためのモデルをデプロイする」を参照してください。