Hostmodelle zusammen mit Vorverarbeitungslogik als serielle Inferenz-Pipeline hinter einem Endpunkt - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Hostmodelle zusammen mit Vorverarbeitungslogik als serielle Inferenz-Pipeline hinter einem Endpunkt

Eine Inferenz-Pipeline ist ein SageMaker Amazon-Modell, das aus einer linearen Abfolge von zwei bis fünfzehn Containern besteht, die Anfragen für Rückschlüsse auf Daten verarbeiten. Sie verwenden eine Inferenz-Pipeline, um eine beliebige Kombination aus vortrainierten SageMaker integrierten Algorithmen und Ihren eigenen benutzerdefinierten Algorithmen, die in Docker-Containern verpackt sind, zu definieren und bereitzustellen. Sie können eine Inferenz-Pipeline verwenden, um Vorverarbeitungs-, Prognose- und Post-Processing-Data Science-Aufgaben zu kombinieren. Inferenz-Pipelines sind vollständig verwaltet.

Sie können SageMaker Spark ML Serving- und Scikit-Learn-Container hinzufügen, die die für Trainingsmodelle entwickelten Datentransformatoren wiederverwenden. Die gesamte zusammengestellte Inferenz-Pipeline kann als SageMaker Modell betrachtet werden, mit dem Sie entweder Vorhersagen in Echtzeit treffen oder Batch-Transformationen direkt ohne externe Vorverarbeitung verarbeiten können.

SageMaker Verarbeitet Aufrufe innerhalb eines Inferenz-Pipeline-Modells als eine Folge von HTTP-Anfragen. Der erste Container in der Pipeline verarbeitet die erste Anfrage, dann wird die Zwischenantwort als Anfrage an den zweiten Container gesendet usw. für jeden Container in der Pipeline. SageMaker gibt die endgültige Antwort an den Client zurück.

Wenn Sie das Pipeline-Modell bereitstellen, werden alle Container auf jeder Amazon Elastic Compute Cloud (Amazon EC2) -Instance im Endpunkt oder Transformationsjob SageMaker installiert und ausgeführt. Die Merkmalverarbeitung und Inferenzen geschehen mit geringer Latenz, da sich die Container auf denselben EC2-Instances befinden. Sie definieren die Container für ein Pipeline-Modell mithilfe der CreateModel-Operation oder über die Konsole. Anstatt einen festzulegenPrimaryContainer, verwenden Sie den Containers Parameter, um die Container festzulegen, aus denen die Pipeline besteht. Sie geben auch die Reihenfolge an, in der die Container ausgeführt werden.

Ein Pipeline-Modell ist unveränderbar, aber Sie können eine Inferenz-Pipeline aktualisieren, indem Sie mit der UpdateEndpoint-Operation eine neue bereitstellen. Diese Modularität unterstützt eine größere Flexibilität beim Experimentieren.

Hinweise zum Erstellen einer Inferenzpipeline mit der SageMaker Modellregistrierung finden Sie unterModelle mit Model Registry registrieren und bereitstellen.

Für diese Funktion fallen keine zusätzlichen Gebühren an. Sie zahlen nur für die Instances, die auf einem Endpunkt ausgeführt werden.

Beispiel-Notebooks für Inferenz-Pipelines

Ein Beispiel, das zeigt, wie Inferenz-Pipelines erstellt und bereitgestellt werden, finden Sie im Beispiel-Notebook Inference Pipeline with Scikit-Learn und Linear Learner. Anweisungen zum Erstellen und Zugreifen auf Jupyter-Notebook-Instanzen, in denen Sie das Beispiel ausführen können, finden Sie unter. SageMaker Amazon SageMaker Notebook-Instances

Um eine Liste aller SageMaker Beispiele zu sehen, wählen Sie nach dem Erstellen und Öffnen einer Notebook-Instanz die SageMaker Registerkarte Beispiele. Es gibt drei Inferenz Pipeline-Notebooks. Die ersten beiden Inferenz-Pipeline-Notebooks befinden sich im Ordner advanced_functionality und das dritte Notebook befindet sich im Ordner sagemaker-python-sdk. Zum Öffnen eines Notebooks wählen Sie die Registerkarte Use (Verwenden) und dann Create copy (Kopie erstellen).