使用主控台部署編譯的模型 - Amazon SageMaker

本文為英文版的機器翻譯版本,如內容有任何歧義或不一致之處,概以英文版為準。

使用主控台部署編譯的模型

如果模型是使用 AWS SDK for Python (Boto3)、或 Amazon SageMaker 主控台編譯,則必須滿足決條件部分。 AWS CLI請遵循以下步驟,使用 SageMaker主控台 https://console.aws.amazon.com/ 建立和部署 SageMaker新編譯的模型。 SageMaker

部署模型

符合先決條件之後,請使用下列步驟部署使用 Neo 編譯的模型:

  1. 選擇模型,然後從推論 群組中選擇 建立模型。在 Create model (建立模型) 頁面上,填寫 Model name (模型名稱)IAM role (IAM 角色)VPC (選用) 欄位 (如有需要)。

    為推論建立 Neo 模型
  2. 若要針對部署模型用的容器新增相關資訊,請選擇新增容器,然後選擇下一步。填寫 Container input options (容器輸入選項)Location of inference code image (推論程式碼映像的位置)Location of model artifacts (模型成品的位置),以及選用的 Container host name (容器主機名稱)Environmental variables (環境變數) 欄位。

    為推論建立 Neo 模型
  3. 若要部署 Neo 編譯模型,請選擇下列項目:

    • 容器輸入選項:選擇提供模型成品和推論影像

    • 推論程式碼映像的位置:根據 AWS 區域和應用程式類型,從 Neo 推論容器映像中選擇推論映像 URI。

    • Location of model artifact (模型成品的位置):輸入 Neo 編譯 API 所產生之編譯模型成品的 Amazon S3 儲存貯體 URI。

    • 環境變數

      • 請將此欄位保留空白,以便使用SageMaker此欄位。

      • 如果您使用訓練模型 SageMaker,請將環境變數指定SAGEMAKER_SUBMIT_DIRECTORY為包含訓練指令碼的 Amazon S3 儲存貯體 URI。

      • 如果您沒有使用訓練模型 SageMaker,請指定下列環境變數:

        金錀 MXNet 和的值 PyTorch 價值觀 TensorFlow
        SAGEMAKER_PROGRAM inference.py inference.py
        SAGEMAKER_SUBMIT_DIRECTORY /opt/ml/model/code /opt/ml/model/code
        SAGEMAKER_CONTAINER_LOG_LEVEL 20 20
        SAGEMAKER_REGION <your region> <your region>
        MMS_DEFAULT_RESPONSE_TIMEOUT 500 請為 TF 將此欄位留白
  4. 確認容器的資訊正確,然後選擇 Create model (建立模型)。在建立模型登陸頁面上,選擇建立端點

    建立模型的登陸頁面
  5. Create and configure endpoint (建立與設定端點) 圖表中,指定 Endpoint name (端點名稱)。針對附加端點組態,選擇建立新端點組態

    Neo 主控台建立與設定端點 UI。
  6. New endpoint configuration (新端點組態) 頁面中,指定 Endpoint configuration name (端點組態名稱)

    Neo 主控台的新端點組態 UI。
  7. 選擇模型名稱旁邊的編輯,然後在編輯生產變體頁面上指定正確的執行個體類型Instance type (執行個體類型) 值一定要符合編譯任務中指定的值。

    Neo 主控台的新端點組態 UI。
  8. 選擇儲存

  9. 新端點組態頁面上,選擇建立端點組態,然後選擇建立端點