Cookie の設定を選択する

当社は、当社のサイトおよびサービスを提供するために必要な必須 Cookie および類似のツールを使用しています。当社は、パフォーマンス Cookie を使用して匿名の統計情報を収集することで、お客様が当社のサイトをどのように利用しているかを把握し、改善に役立てています。必須 Cookie は無効化できませんが、[カスタマイズ] または [拒否] をクリックしてパフォーマンス Cookie を拒否することはできます。

お客様が同意した場合、AWS および承認された第三者は、Cookie を使用して便利なサイト機能を提供したり、お客様の選択を記憶したり、関連する広告を含む関連コンテンツを表示したりします。すべての必須ではない Cookie を受け入れるか拒否するには、[受け入れる] または [拒否] をクリックしてください。より詳細な選択を行うには、[カスタマイズ] をクリックしてください。

コンソールを使ってコンパイル済みモデルをデプロイする

フォーカスモード
コンソールを使ってコンパイル済みモデルをデプロイする - Amazon SageMaker AI

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

モデルが AWS SDK for Python (Boto3)、、または Amazon SageMaker AI コンソールを使用してコンパイルされている場合は AWS CLI、前提条件セクションを満たす必要があります。SageMaker AI コンソール「SageMaker AI」を使用して SageMaker AI Neo コンパイルモデルを作成およびデプロイするには、以下のステップに従います。https://console.aws.amazon.com/ SageMaker

モデルをデプロイする

前提条件を満たしたら、次のステップに従い、Neo を使ってコンパイルしたモデルをデプロイします。

  1. [Models] (モデル) を選択し、[Inference] (推論) グループから [Create models] (モデルの作成) を選択します。[Create model] (モデルの作成) ページで、[Model name] (モデル名)、[IAM role] (IAM ロール)、および必要に応じて [VPC] フィールドに値を入力します。

    推論用の Neo モデルを作成する
  2. モデルのデプロイに使われたコンテナに関する情報を追加するには、[Add container] (コンテナの追加) を選択して [Next] (次へ) を選択します。[Container input options] (コンテナ入力オプション)、[Location of inference code image] (推論コードイメージの場所)、[Location of model artifacts] (モデルアーティファクトの場所)、およびオプションで [Container host name] (コンテナのホスト名)、[Environmental variables] (環境変数) の各フィールドに入力します。

    推論用の Neo モデルを作成する
  3. Neo コンパイル済みモデルをデプロイするには、以下を選択してください。

    • Container input options (コンテナ入力オプション): [Provide model artifacts and inference image] (モデルアーティファクトと推論イメージを指定します。) を選択します。

    • [Location of inference code image] (推論コードイメージの場所): [Neo Inference Container Images] (Neo の推論コンテナイメージ) から、 AWS リージョンとアプリケーションの種類に応じて、推論イメージの URI を選択します。

    • [Location of model artifact] (モデルアーティファクトの場所): Neo のコンパイル API によって生成されたコンパイル済みモデルアーティファクトの Amazon S3 バケット の完全な URI を入力します。

    • 環境変数:

      • SageMaker XGBoost の場合は、このフィールドは空白のままにします。

      • SageMaker AI を使用してモデルをトレーニングした場合は、トレーニングスクリプトを含む Amazon S3 バケット URI SAGEMAKER_SUBMIT_DIRECTORYとして環境変数を指定します。

      • SageMaker AI を使用してモデルをトレーニングしなかった場合は、次の環境変数を指定します。

        キー MXNet と PyTorch の値 TensorFlow の値
        SAGEMAKER_PROGRAM inference.py inference.py
        SAGEMAKER_SUBMIT_DIRECTORY /opt/ml/model/code /opt/ml/model/code
        SAGEMAKER_CONTAINER_LOG_LEVEL 20 20
        SAGEMAKER_REGION <ご利用のリージョン> <ご利用のリージョン>
        MMS_DEFAULT_RESPONSE_TIMEOUT 500 TF の場合は、このフィールドは空白のままにします。
  4. コンテナの情報が正確であることを確認し、 [モデルの作成] を選択します。[Create model landing page] (モデルランディングページを作成) で [Create endpoint] (エンドポイントの作成) を選択します。

    モデルランディングページを作成する
  5. [エンドポイントを作成および設定] ダイアグラムで、[エンドポイント名] を指定します。[Attach endpoint configuration] (エンドポイント設定のアタッチ) で [Create a new endpoint configuration] (新しいエンドポイント設定の作成) を選択します。

    Neo コンソールのエンドポイントの作成および設定 UI。
  6. [新しいエンドポイント設定] ページで、[エンドポイント設定名] を指定します。

    Neo コンソールの新しいエンドポイント設定 UI。
  7. モデルの名前の横にある [Edit] (編集) を選択し、[Edit Production Variant] (本番稼働用バリアントの編集) ページで正しい [Instance type] (インスタンスタイプ) を指定します。[インスタンスタイプ] の値が、コンパイルジョブで指定されたものと一致することが必須です。

    Neo コンソールの新しいエンドポイント設定 UI。
  8. [保存] を選択します。

  9. [New endpoint configuration] (新しいエンドポイント設定) ページで [Create endpoint configuration] (エンドポイント設定の作成) を選択してから、[Create endpoint] (エンドポイントの作成) を選択します。

プライバシーサイト規約Cookie の設定
© 2025, Amazon Web Services, Inc. or its affiliates.All rights reserved.