Amazon でモデルをデプロイする SageMaker - アマゾン SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

Amazon でモデルをデプロイする SageMaker

機械学習モデルをトレーニングしたら、Amazon を使用してそれをデプロイできます SageMaker ユースケースに応じて、次のいずれかの方法で予測を取得できます。

  • 一度に 1 つの予測を取得できる、永続的でリアルタイムのエンドポイントの場合は、 SageMakerリアルタイムホスティングサービス。リアルタイム推論 を参照してください。

  • トラフィックのスパート間にアイドル期間があり、コールドスタートを許容できるワークロードは、サーバーレス推論を使用します。サーバーレス推論 を参照してください。

  • ペイロードサイズが大きく (最大 1 GB)、処理時間が長い、ほぼリアルタイムのレイテンシー要件があるリクエストには、Amazon を使用します SageMaker 非同期推論。非同期推論 を参照してください。

  • データセット全体の予測を取得するには、 SageMaker バッチ変換。バッチ変換の使用 を参照してください。

SageMaker 機械学習モデルを導入する際にリソースを管理し、推論性能を最適化する機能も用意されています。

  • エッジデバイスでモデルを管理し、スマートカメラ、ロボット、パーソナルコンピュータ、モバイルデバイスなどのエッジデバイスのフリートで機械学習モデルを最適化、保護、モニタリング、および保守するには、「を使ってエッジにモデルをデプロイできます SageMaker エッジマネージャー

  • グルーオン、ケラス、MXNet を最適化するには、 PyTorch, TensorFlow, TensorFlow-Ambarella、ARM、インテル、Nvidia、NXP、クアルコム、テキサス・インスツルメンツ、ザイリンクスのプロセッサをベースにしたAndroid、Linux、およびWindowsマシンでの推論用のLiteおよびONNXモデル、Neo を使用してモデルのパフォーマンスを最適化

すべてのデプロイパラメータの詳細については、「」を参照してください。推論用モデルのデプロイ