Neo 推論エラーのトラブルシューティング - Amazon SageMaker

「翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。」

Neo 推論エラーのトラブルシューティング

このセクションでは、エンドポイントのデプロイ時やエンドポイントの呼び出し時に発生する可能性のある一般的なエラーのいくつかを防いで解決する方法について説明します。このセクションは、PyTorch 1.4.0 以降および v1.7.0 以降MXNetに適用されます。

  • 有効な入力データに対する最初の推論 (ウォームアップ推論) が model_fn() で実行されていることを確認します。そうしないと、predict API が呼び出されたときに、ターミナルに次のエラーメッセージが表示されることがあります。

    An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (0) from <users-sagemaker-endpoint> with message "Your invocation timed out while waiting for a response from container model. Review the latency metrics for each container in Amazon CloudWatch, resolve the issue, and try again."
  • 以下の表に示す環境変数が設定されていることを確認します。設定されていない場合は、次のエラーメッセージが表示されることがあります。

    ターミナルの場合:

    An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (503) from <users-sagemaker-endpoint> with message "{ "code": 503, "type": "InternalServerException", "message": "Prediction failed" } ".

    Eclipse CloudWatch:

    W-9001-model-stdout com.amazonaws.ml.mms.wlm.WorkerLifeCycle - AttributeError: 'NoneType' object has no attribute 'transform'
    キー
    SAGEMAKER_PROGRAM inference.py
    SAGEMAKER_SUBMIT_DIRECTORY /opt/ml/モデル/コード
    SAGEMAKER_CONTAINER_LOG_LEVEL 20
    SAGEMAKER_REGION <your region>
  • モデルの作成時に MMS_DEFAULT_RESPONSE_TIMEOUT 環境変数が 500 以上に設定されていることを確認してください。設定されていない場合、ターミナルに次のエラーメッセージが表示されることがあります。Amazon SageMaker

    An error occurred (ModelError) when calling the InvokeEndpoint operation: Received server error (0) from <users-sagemaker-endpoint> with message "Your invocation timed out while waiting for a response from container model. Review the latency metrics for each container in Amazon CloudWatch, resolve the issue, and try again."