クラウドインスタンス - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

クラウドインスタンス

Amazon SageMaker Neo は、 TensorFlow、、 PyTorchMXNet などの一般的な機械学習フレームワークのコンパイルサポートを提供します。コンパイルしたモデルをクラウドインスタンスと Inferentia AWS インスタンスにデプロイできます。サポートされているフレームワークとインスタンスタイプの完全なリストについては、「サポートされるインスタンスタイプとフレームワーク」を参照してください。

モデルをコンパイルするには、、 SageMaker コンソール AWS CLI、または SageMaker SDK for Python の 3 つの方法があります。詳細については、「Neo を使ってモデルをコンパイル」を参照してください。コンパイル後、モデルアーティファクトは、コンパイルジョブ中に指定した Amazon S3 バケット URI に保存されます。 SageMaker SDK for Python、、またはコンソールを使用して AWS SDK for Python (Boto3) AWS CLI、コンパイルしたモデルをクラウドインスタンスと AWS Inferentia インスタンスにデプロイできます AWS 。

AWS CLI、コンソール、または Boto3 を使用してモデルをデプロイする場合は、プライマリコンテナの Docker イメージ Amazon ECR URI を選択する必要があります。Amazon ECR URI のリストについては、「Neo の推論コンテナイメージ」を参照してください。