Host-Modelle zusammen mit Vorverarbeitungslogik als serielle Inferenzpipeline hinter einem Endpunkt - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Host-Modelle zusammen mit Vorverarbeitungslogik als serielle Inferenzpipeline hinter einem Endpunkt

Importieren in &S3;Inferenz-Pipelineist ein Amazon SageMaker -Modell, das aus einer linearen Folge von zwei bis fünfzehn Containern besteht, die Anfragen für Rückschlüsse auf Daten verarbeiten. Inferenz-Pipelines ermöglichen die Definition und Bereitstellung beliebiger Kombinationen aus vorgeschulten, in SageMaker integrierten Algorithmen sowie eigenen benutzerdefinierten Algorithmen, die in Docker-Container gepackt sind. Sie können eine Inferenz-Pipeline verwenden, um Vorverarbeitungs-, Prognose- und Post-Processing-Data Science-Aufgaben zu kombinieren. Inferenz-Pipelines sind vollständig verwaltet.

Sie können SageMaker Spark ML Serving- und scikit-learn-Container, die die für die Schulung von Modellen entwickelten Datentransformationen wiederverwenden. Die gesamte zusammengebaute Inferenzpipeline kann als SageMaker -Modell, mit dem Sie entweder Echtzeitprognosen erstellen oder Stapeltransformationen ohne externe Vorverarbeitung direkt verarbeiten können.

Innerhalb eines Inferenz-Pipeline-Modells SageMaker behandelt Aufrufe als eine Abfolge von HTTP-Anfragen. Der erste Container in der Pipeline verarbeitet die erste Anforderung, dann wird die Zwischenantwort als Anforderung an den zweiten Container gesendet und so weiter für jeden Container in der Pipeline. SageMaker gibt die endgültige Antwort an den Client zurück:

Wenn Sie das Pipeline-Modell bereitstellen, SageMaker installiert alle Container und führt alle Container auf jeder Amazon Elastic Compute Cloud (Amazon EC2) -Instance im Endpunkt- oder Transform-Auftrag aus. Die Merkmalverarbeitung und Inferenzen geschehen mit geringer Latenz, da sich die Container auf denselben EC2-Instances befinden. Sie definieren die Container für ein Pipeline-Modell mithilfe der CreateModel-Operation oder über die Konsole. Anstatt eins zu setzenPrimaryContainerVerwenden Sie die ContainersEinstellung. Um die Container einzurichten, aus denen die Pipeline besteht, geben Sie auch die Reihenfolge an, in der die Container ausgeführt werden.

Ein Pipeline-Modell ist unveränderbar, aber Sie können eine Inferenz-Pipeline aktualisieren, indem SieBereitstellen eines neuen mit demUpdateEndpointverwenden. Diese Modularität unterstützt eine größere Flexibilität beim Experimentieren.

Weitere Informationen darüber, wie Sie eine Inferenz-Pipeline mit SageMaker Modellregistrierung sieheRegistrieren und Bereitstellen von Modellen mit Modellregistrierungaus.

Für diese Funktion fallen keine zusätzlichen Gebühren an. Sie zahlen nur für die Instances, die auf einem Endpunkt ausgeführt werden.

Beispiel-Notebooks für Inferenz-Pipelines

Ein Beispiel, das die Erstellung und Bereitstellung von Inferenz-Pipelines zeigt, finden Sie in derSchulung mit SparkML auf EMR und Hosting auf SageMakerBeispiel-Notizbuch. Anweisungen zum Erstellen und Zugreifen auf Jupyter-Notebook-Instances, mit denen Sie das Beispiel in SageMaker ausführen können, finden Sie unterVerwenden von Amazon SageMaker Notebook-Instancesaus.

Um eine Liste aller SageMaker Nach dem Erstellen und Öffnen einer Notebook-Instance wählen Sie dieSageMaker-Beispiele-Tab. Es gibt drei Inferenz Pipeline-Notebooks. Die ersten beiden Inferenz-Pipeline-Notebooks befinden sich im Ordner advanced_functionality und das dritte Notebook befindet sich im Ordner sagemaker-python-sdk. Zum Öffnen eines Notebooks wählen Sie die Registerkarte Use (Verwenden) und dann Create copy (Kopie erstellen).