Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Anfügen von EI an eine Notebook-Instance
Um die Inferenzleistung mithilfe von EI zu testen und auszuwerten, können Sie EI an eine Notebook-Instance anfügen, wenn Sie eine Notebook-Instance erstellen oder aktualisieren. Anschließend können Sie EI im lokalen Modus verwenden, um ein Modell an einem Endpunkt, der auf der Notebook-Instance gehostet wird, zu hosten. Testen Sie verschiedene Größen von Notebook-Instances und EI-Accelerators, um die Konfiguration zu ermitteln, die sich am besten für Ihren Anwendungsfall eignet.
Einrichtung für die Verwendung von EI
Um EI lokal in einer Notebook-Instance zu verwenden, erstellen Sie eine Notebook-Instance mit einer EI-Instance.
So erstellen Sie eine Notebook-Instance mit einer EI-Instance
-
Öffnen Sie die Amazon SageMaker-Konsole unter https://console.aws.amazon.com/sagemaker/
. -
Klicken im Navigationsbereich auf Notebook instances (Notebook-Instances).
-
Wählen Sie Create notebook instance (Notebook-Instance erstellen) aus.
-
Geben Sie als Notebook instance name (Notebook-Instance-Name) einen eindeutigen Namen für Ihre Notebook-Instance an.
-
Wählen Sie als notebook instance type (Notebook-Instance-Typ) eine CPU-Instance wie z. B. ml.t2.medium.
-
Wählen Sie für Elastic Inference (EI) eine Instance aus der Liste aus, z. B. ml.eia2.medium.
-
FürIAM-Rolle, wählen Sie eine IAM-Rolle, die über die erforderlichen Berechtigungen zur Verwendung von SageMaker und EI verfügt.
-
(Optional) Wenn Sie möchten, dass die Notebook-Instance eine VPC verwendet, wählen Sie für VPC – Optional eine VPC aus der Liste der zur Verfügung stehenden aus. Andernfalls lassen Sie den Wert auf No VPC (Keine VPC). Wenn Sie eine VPC verwenden, befolgen Sie die Anweisungen unter Verwenden einer benutzerdefinierten VPC zum Herstellen einer Verbindung mit EI.
-
(Optional) Für die Option Lifecycle configuration - optional (Lebenszykluskonfiguration – optional) können Sie entweder die Option No configuration (Keine Konfiguration) beibehalten oder eine Lebenszykluskonfiguration auswählen. Weitere Informationen finden Sie unter Anpassen einer Notebook-Instances mithilfe eines Lifecycle-Konfigurationsskripts .
-
(Optional) FürVerschlüsselungsschlüssel - optional, Optional) Wenn Sie möchten, dass SageMaker einAWS Key Management Service(AWS KMS) Um Daten auf dem ML-Speichervolume zu verschlüsseln, das an die Notebook-Instance angefügt ist, geben Sie den Schlüssel an.
-
(Optional) Belassen Sie den Standardwert für Volume Size In GB - optional (Volume-Größe in GB – optional) bei 5.
-
(Optional) Für Tags können Sie Tags zur Notebook-Instance hinzufügen. Ein Tag ist eine Markierung, die Sie zuweisen, um die Verwaltung Ihrer Notebook-Instances zu erleichtern. Ein Tag besteht aus einem Schlüssel und einem Wert, die Sie beide selbst definieren können.
-
Wählen Sie Create Notebook Instance (Notebook-Instance erstellen) aus.
Nachdem Sie Ihre Notebook-Instance mit angefügtem EI erstellt haben, können Sie ein Jupyter-Notebook erstellen und einen EI-Endpunkt einrichten, der lokal auf der Notebook-Instance gehostet wird.
Verwenden von EI im lokalen Modus in SageMaker
Um EI lokal in einem Endpunkt zu verwenden, der auf einer Notebook-Instance gehostet wird, verwenden Sie den lokalen Modus mit derAmazon SageMaker Python SDK
Themen
Verwenden von EI im lokalen Modus mit SageMaker TensorFlow-Schätzfunktionen und -Modellen
Um EI mit TensorFlow im lokalen Modus zu verwenden, geben Sie local
für instance_type
und local_sagemaker_notebook
für accelerator_type
an, wenn Sie die Methode deploy
eines Schätzfunktion- oder Modell-Objekts aufrufen. Weitere Informationen zuAmazon SageMaker Python SDK
Der folgende Code veranschaulicht, wie Sie den lokalen Modus mit einem Schätzfunktion-Objekt nutzen. Um die Methode deploy
aufzurufen, muss eine der folgenden Voraussetzung erfüllt sein:
-
Sie haben das Modell durch Aufrufen der Methode
fit
einer Schätzfunktion geschult. -
Sie übergeben ein Modellartefakt, wenn Sie das Modellobjekt initialisieren.
# Deploys the model to a local endpoint tf_predictor = tf_model.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')
Verwenden von EI im lokalen Modus mit SageMaker Apache MXNet-Schätzfunktionen und -Modellen
Um EI mit MXNet im lokalen Modus zu verwenden, geben Sie local
für instance_type
und local_sagemaker_notebook
für accelerator_type
an, wenn Sie die Methode deploy
eines Schätzfunktion- oder Modell-Objekts aufrufen. Weitere Informationen zuAmazon SageMaker Python SDK
Der folgende Code veranschaulicht, wie Sie den lokalen Modus mit einem Schätzfunktion-Objekt nutzen. Sie müssen zuvor die Methode fit
der Schätzfunktion aufgerufen haben, um das Modell zu schulen.
# Deploys the model to a local endpoint mxnet_predictor = mxnet_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')
Ein umfassendes Beispiel für die Verwendung von EI im lokalen Modus mit MXNet finden Sie im Beispiel-Notebook unterhttps://sagemaker-examples.readthedocs.io/en/latest/sagemaker-python-sdk/mxnet_mnist/mxnet_mnist_elastic_inference_local.html
Verwenden von EI im lokalen Modus mit SageMaker PyTorch-Schätzfunktionen und -Modellen
Um EI mit PyTorch im lokalen Modus zu verwenden, wenn Sie die Methode deploy
eines Schätzfunktion- oder Modell-Objekts aufrufen, geben Sie local
für instance_type
und local_sagemaker_notebook
für accelerator_type
an. Weitere Informationen zuAmazon SageMaker Python SDK
Der folgende Code veranschaulicht, wie Sie den lokalen Modus mit einem Schätzfunktion-Objekt nutzen. Sie müssen zuvor die Methode fit
der Schätzfunktion aufgerufen haben, um das Modell zu schulen.
# Deploys the model to a local endpoint pytorch_predictor = pytorch_estimator.deploy(initial_instance_count=1, instance_type='local', accelerator_type='local_sagemaker_notebook')