EI をノートブックインスタンスにアタッチする - Amazon SageMaker

翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。

EI をノートブックインスタンスにアタッチする

EI を使用して推論パフォーマンスをテストおよび評価するには、ノートブックインスタンスを作成または更新するときに EI をノートブックインスタンスにアタッチします。これにより、ローカルモードで EI を使用して、ノートブックインスタンスでホストされているエンドポイントでモデルをホストできます。ユースケースに最適な設定を評価するためには、さまざまなサイズのノートブックインスタンスと EI アクセラレーターをテストする必要があります。

EI を使用するように設定する

ノートブックインスタンスで EI をローカルに使用するには、EI インスタンスを使用してノートブックインスタンスを作成します。

EI インスタンスを使用してノートブックインスタンスを作成するには

  1. https://console.aws.amazon.com/sagemaker/ で Amazon SageMaker コンソールを開きます。

  2. ナビゲーションペインで [ノートブックインスタンス] を選択します。

  3. ノートブックインスタンスの作成を選択します。

  4. [ノートブックインスタンス名] に、ノートブックインスタンスの一意の名前を入力します。

  5. [ノートブックインスタンスのタイプ] で、ml.t2.medium などの CPU インスタンスを選択します。

  6. [Elastic Inference (EI)] で、リストからインスタンス (ml.eia2.medium など) を選択します。

  7. を使用する場合IAM ロールで、SageMaker および EI を使用するために必要なアクセス権限を持つ IAM ロールを選択します。

  8. (オプション) [VPC - Optional (VPC - オプション)] で、ノートブックインスタンスに VPC を使用させる場合は、表示されているリストから 1 つを選択します。それ以外の場合は、[No VPC (VPC なし)] のままにします。VPC を使用する場合は、カスタム VPC を使用して EI に接続するの手順に従ってください。

  9. (オプション) [ライフサイクル設定 - optional (オプション)] で、[設定なし] のままにするか、ライフサイクル設定を選択します。詳細については、「ライフサイクル設定スクリプトを使用したノートブックインスタンスをカスタマイズします。」を参照してください。

  10. (オプション) の暗号化キー-オプション(オプション) SageMaker でAWS Key Management Service(AWS KMS) キーを使用して、ノートブックインスタンスにアタッチされた ML ストレージボリューム内のデータを暗号化するには、キーを指定します。

  11. (オプション) [Volume Size In GB (ボリュームサイズ (GB)) - optional (オプション)] はデフォルト値の 5 のままにします。

  12. (オプション) [Tags (タグ)] で、ノートブックインスタンスにタグを追加します。タグは、ノートブックインスタンスを管理しやすくするために割り当てるラベルです。タグは、1 つのキーと 1 つの値で構成されており、どちらもお客様側が定義します。

  13. [ノートブックインスタンスの作成] を選択します。

EI がアタッチされたノートブックインスタンスを作成したら、Jupyter ノートブックを作成し、そのノートブックインスタンスでローカルにホストされる EI エンドポイントを設定することができます。

SageMaker でローカルモードで EI を使用する

ノートブックインスタンスでホストされているエンドポイントで EI をローカルで使用するには、Amazon SageMaker Python SDKバージョンの TensorFlow、MXNet、PyTorch 推定器あるいはモデルのいずれかのバージョンです。SageMaker Python SDK のローカルモードサポートの詳細については、https://github.com/aws/sagemaker-python-sdk#sagemaker-python-sdk-overview

ローカルモードで SageMaker TensorFlow 推定器およびモデルとともに EI を使用する

ローカルモードで TensorFlow とともに EI を使用するには、推定器またはモデルオブジェクトの deploy メソッドを呼び出すときに、instance_typelocal を、accelerator_typelocal_sagemaker_notebook を指定します。の詳細Amazon SageMaker Python SDKTensorFlow 推定器とモデルの詳細については、https://sagemaker.readthedocs.io/en/stable/frameworks/tensorflow/index.html

次のコードは、推定器オブジェクトとともにローカルモードを使用する方法を示しています。deploy メソッドを呼び出すには、あらかじめ次のいずれかが必要です。

  • 推定器の fit メソッドを呼び出してモデルをトレーニングしておく。

  • モデルオブジェクトを初期化するときにモデルアーティファクトを渡す。

# Deploys the model to a local endpoint tf_predictor = tf_model.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')

ローカルモードで Apache MXNet 推定器およびモデルとともに SageMaker I を使用する

ローカルモードで MXNet とともに EI を使用するには、推定器またはモデルオブジェクトの deploy メソッドを呼び出すときに、instance_typelocal を、accelerator_typelocal_sagemaker_notebook を指定します。の詳細Amazon SageMaker Python SDKMXNet 推定器とモデルの詳細については、https://sagemaker.readthedocs.io/en/stable/frameworks/mxnet/index.html

次のコードは、推定器オブジェクトとともにローカルモードを使用する方法を示しています。モデルをトレーニングするためには、あらかじめ推定器の fit メソッドを呼び出しておく必要があります。

# Deploys the model to a local endpoint mxnet_predictor = mxnet_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')

ローカルモードで MXNet とともに EI を使用する完全な例については、のサンプルノートブックを参照してください。https://sagemaker-examples.readthedocs.io/en/latest/sagemaker-python-sdk/mxnet_mnist/mxnet_mnist_elastic_inference_local.html

ローカルモードで PyTorch 推定器およびモデルとともに SageMaker I を使用する

ローカルモードで PyTorch とともに EI を使用するには、推定器またはモデルオブジェクトの deploy メソッドを呼び出すときに、instance_typelocal を、accelerator_typelocal_sagemaker_notebook を指定します。の詳細Amazon SageMaker Python SDKPyTorchの推定とモデルについては、SageMaker PyTorch Estimators およびモデル

次のコードは、推定器オブジェクトとともにローカルモードを使用する方法を示しています。モデルをトレーニングするためには、あらかじめ推定器の fit メソッドを呼び出しておく必要があります。

# Deploys the model to a local endpoint pytorch_predictor = pytorch_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')