Anfügen von EI an eine Notebook-Instance - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Anfügen von EI an eine Notebook-Instance

Um die Inferenzleistung mithilfe von EI zu testen und auszuwerten, können Sie EI an eine Notebook-Instance anfügen, wenn Sie eine Notebook-Instance erstellen oder aktualisieren. Anschließend können Sie EI im lokalen Modus verwenden, um ein Modell an einem Endpunkt, der auf der Notebook-Instance gehostet wird, zu hosten. Testen Sie verschiedene Größen von Notebook-Instances und EI-Accelerators, um die Konfiguration zu ermitteln, die sich am besten für Ihren Anwendungsfall eignet.

Einrichtung für die Verwendung von EI

Um EI lokal in einer Notebook-Instance zu verwenden, erstellen Sie eine Notebook-Instance mit einer EI-Instance.

So erstellen Sie eine Notebook-Instance mit einer EI-Instance

  1. Öffnen Sie die Amazon SageMaker-Konsole unter https://console.aws.amazon.com/sagemaker/.

  2. Klicken im Navigationsbereich auf Notebook instances (Notebook-Instances).

  3. Wählen Sie Create notebook instance (Notebook-Instance erstellen) aus.

  4. Geben Sie als Notebook instance name (Notebook-Instance-Name) einen eindeutigen Namen für Ihre Notebook-Instance an.

  5. Wählen Sie als notebook instance type (Notebook-Instance-Typ) eine CPU-Instance wie z. B. ml.t2.medium.

  6. Wählen Sie für Elastic Inference (EI) eine Instance aus der Liste aus, z. B. ml.eia2.medium.

  7. FürIAM-Rolle, wählen Sie eine IAM-Rolle, die über die erforderlichen Berechtigungen zur Verwendung von SageMaker und EI verfügt.

  8. (Optional) Wenn Sie möchten, dass die Notebook-Instance eine VPC verwendet, wählen Sie für VPC – Optional eine VPC aus der Liste der zur Verfügung stehenden aus. Andernfalls lassen Sie den Wert auf No VPC (Keine VPC). Wenn Sie eine VPC verwenden, befolgen Sie die Anweisungen unter Verwenden einer benutzerdefinierten VPC zum Herstellen einer Verbindung mit EI.

  9. (Optional) Für die Option Lifecycle configuration - optional (Lebenszykluskonfiguration – optional) können Sie entweder die Option No configuration (Keine Konfiguration) beibehalten oder eine Lebenszykluskonfiguration auswählen. Weitere Informationen finden Sie unter Anpassen einer Notebook-Instances mithilfe eines Lifecycle-Konfigurationsskripts .

  10. (Optional) FürVerschlüsselungsschlüssel - optional, Optional) Wenn Sie möchten, dass SageMaker einAWS Key Management Service(AWS KMS) Um Daten auf dem ML-Speichervolume zu verschlüsseln, das an die Notebook-Instance angefügt ist, geben Sie den Schlüssel an.

  11. (Optional) Belassen Sie den Standardwert für Volume Size In GB - optional (Volume-Größe in GB – optional) bei 5.

  12. (Optional) Für Tags können Sie Tags zur Notebook-Instance hinzufügen. Ein Tag ist eine Markierung, die Sie zuweisen, um die Verwaltung Ihrer Notebook-Instances zu erleichtern. Ein Tag besteht aus einem Schlüssel und einem Wert, die Sie beide selbst definieren können.

  13. Wählen Sie Create Notebook Instance (Notebook-Instance erstellen) aus.

Nachdem Sie Ihre Notebook-Instance mit angefügtem EI erstellt haben, können Sie ein Jupyter-Notebook erstellen und einen EI-Endpunkt einrichten, der lokal auf der Notebook-Instance gehostet wird.

Verwenden von EI im lokalen Modus in SageMaker

Um EI lokal in einem Endpunkt zu verwenden, der auf einer Notebook-Instance gehostet wird, verwenden Sie den lokalen Modus mit derAmazon SageMaker Python SDK-Versionen der TensorFlow-, MXNet- oder PyTorch-Schätzfunktionen oder -Modelle. Weitere Informationen zur Unterstützung des lokalen Modus im SageMaker -Python-SDK finden Sie unterhttps://github.com/aws/sagemaker-python-sdk#sagemaker-python-sdk-overviewaus.

Verwenden von EI im lokalen Modus mit SageMaker TensorFlow-Schätzfunktionen und -Modellen

Um EI mit TensorFlow im lokalen Modus zu verwenden, geben Sie local für instance_type und local_sagemaker_notebook für accelerator_type an, wenn Sie die Methode deploy eines Schätzfunktion- oder Modell-Objekts aufrufen. Weitere Informationen zuAmazon SageMaker Python SDKTensorFlow-Schätzfunktionen und -Modelle finden Sie unter.https://sagemaker.readthedocs.io/en/stable/frameworks/tensorflow/index.htmlaus.

Der folgende Code veranschaulicht, wie Sie den lokalen Modus mit einem Schätzfunktion-Objekt nutzen. Um die Methode deploy aufzurufen, muss eine der folgenden Voraussetzung erfüllt sein:

  • Sie haben das Modell durch Aufrufen der Methode fit einer Schätzfunktion geschult.

  • Sie übergeben ein Modellartefakt, wenn Sie das Modellobjekt initialisieren.

# Deploys the model to a local endpoint tf_predictor = tf_model.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')

Verwenden von EI im lokalen Modus mit SageMaker Apache MXNet-Schätzfunktionen und -Modellen

Um EI mit MXNet im lokalen Modus zu verwenden, geben Sie local für instance_type und local_sagemaker_notebook für accelerator_type an, wenn Sie die Methode deploy eines Schätzfunktion- oder Modell-Objekts aufrufen. Weitere Informationen zuAmazon SageMaker Python SDKWeitere MXNet-Schätzfunktionen und -Modelle finden Sie unterhttps://sagemaker.readthedocs.io/en/stable/frameworks/mxnet/index.htmlaus.

Der folgende Code veranschaulicht, wie Sie den lokalen Modus mit einem Schätzfunktion-Objekt nutzen. Sie müssen zuvor die Methode fit der Schätzfunktion aufgerufen haben, um das Modell zu schulen.

# Deploys the model to a local endpoint mxnet_predictor = mxnet_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')

Ein umfassendes Beispiel für die Verwendung von EI im lokalen Modus mit MXNet finden Sie im Beispiel-Notebook unterhttps://sagemaker-examples.readthedocs.io/en/latest/sagemaker-python-sdk/mxnet_mnist/mxnet_mnist_elastic_inference_local.htmlaus.

Verwenden von EI im lokalen Modus mit SageMaker PyTorch-Schätzfunktionen und -Modellen

Um EI mit PyTorch im lokalen Modus zu verwenden, wenn Sie die Methode deploy eines Schätzfunktion- oder Modell-Objekts aufrufen, geben Sie local für instance_type und local_sagemaker_notebook für accelerator_type an. Weitere Informationen zuAmazon SageMaker Python SDKPyTorch-Schätzer und Modelle sieheSageMaker PyTorch Estimators and Modelsaus.

Der folgende Code veranschaulicht, wie Sie den lokalen Modus mit einem Schätzfunktion-Objekt nutzen. Sie müssen zuvor die Methode fit der Schätzfunktion aufgerufen haben, um das Modell zu schulen.

# Deploys the model to a local endpoint pytorch_predictor = pytorch_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')