Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Host-Modelle zusammen mit Vorverarbeitungslogik als serielle Inferenzpipeline hinter einem Endpunkt
Importieren in &S3;Inferenz-Pipelineist ein Amazon SageMaker -Modell, das aus einer linearen Folge von zwei bis fünfzehn Containern besteht, die Anfragen für Rückschlüsse auf Daten verarbeiten. Inferenz-Pipelines ermöglichen die Definition und Bereitstellung beliebiger Kombinationen aus vorgeschulten, in SageMaker integrierten Algorithmen sowie eigenen benutzerdefinierten Algorithmen, die in Docker-Container gepackt sind. Sie können eine Inferenz-Pipeline verwenden, um Vorverarbeitungs-, Prognose- und Post-Processing-Data Science-Aufgaben zu kombinieren. Inferenz-Pipelines sind vollständig verwaltet.
Sie können SageMaker Spark ML Serving- und scikit-learn-Container, die die für die Schulung von Modellen entwickelten Datentransformationen wiederverwenden. Die gesamte zusammengebaute Inferenzpipeline kann als SageMaker -Modell, mit dem Sie entweder Echtzeitprognosen erstellen oder Stapeltransformationen ohne externe Vorverarbeitung direkt verarbeiten können.
Innerhalb eines Inferenz-Pipeline-Modells SageMaker behandelt Aufrufe als eine Abfolge von HTTP-Anfragen. Der erste Container in der Pipeline verarbeitet die erste Anforderung, dann wird die Zwischenantwort als Anforderung an den zweiten Container gesendet und so weiter für jeden Container in der Pipeline. SageMaker gibt die endgültige Antwort an den Client zurück:
Wenn Sie das Pipeline-Modell bereitstellen, SageMaker installiert alle Container und führt alle Container auf jeder Amazon Elastic Compute Cloud (Amazon EC2) -Instance im Endpunkt- oder Transform-Auftrag aus. Die Merkmalverarbeitung und Inferenzen geschehen mit geringer Latenz, da sich die Container auf denselben EC2-Instances befinden. Sie definieren die Container für ein Pipeline-Modell mithilfe der CreateModel
-Operation oder über die Konsole. Anstatt eins zu setzenPrimaryContainer
Verwenden Sie die Containers
Einstellung. Um die Container einzurichten, aus denen die Pipeline besteht, geben Sie auch die Reihenfolge an, in der die Container ausgeführt werden.
Ein Pipeline-Modell ist unveränderbar, aber Sie können eine Inferenz-Pipeline aktualisieren, indem SieBereitstellen eines neuen mit demUpdateEndpoint
verwenden. Diese Modularität unterstützt eine größere Flexibilität beim Experimentieren.
Weitere Informationen darüber, wie Sie eine Inferenz-Pipeline mit SageMaker Modellregistrierung sieheRegistrieren und Bereitstellen von Modellen mit Modellregistrierungaus.
Für diese Funktion fallen keine zusätzlichen Gebühren an. Sie zahlen nur für die Instances, die auf einem Endpunkt ausgeführt werden.
Themen
- Beispiel-Notebooks für Inferenz-Pipelines
- Funktionsverarbeitung mit SparkML und Scikit-learn
- Erstellen eines Pipeline-Modells
- Führen Sie Folgendes aus:Echtzeitvoraussagen with eine Inferenz-Pipeline
- Führen Sie Folgendes aus:Stapeltransformationen mit Inferenz-Pipelines
- Inferenz-Pipeline-Protokolle und -Metriken
- Beheben von Problemen mit Inferenz-Pipelines
Beispiel-Notebooks für Inferenz-Pipelines
Ein Beispiel, das die Erstellung und Bereitstellung von Inferenz-Pipelines zeigt, finden Sie in derSchulung mit SparkML auf EMR und Hosting auf SageMaker
Um eine Liste aller SageMaker Nach dem Erstellen und Öffnen einer Notebook-Instance wählen Sie dieSageMaker-Beispiele-Tab. Es gibt drei Inferenz Pipeline-Notebooks. Die ersten beiden Inferenz-Pipeline-Notebooks befinden sich im Ordner advanced_functionality
und das dritte Notebook befindet sich im Ordner sagemaker-python-sdk
. Zum Öffnen eines Notebooks wählen Sie die Registerkarte Use (Verwenden) und dann Create copy (Kopie erstellen).