Führen Sie Folgendes aus:Stapeltransformationen mit Inferenz-Pipelines - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Führen Sie Folgendes aus:Stapeltransformationen mit Inferenz-Pipelines

Um Inferenzen für ein gesamtes Dataset zu erhalten, führen Sie eine Batch-Transformation für ein trainiertes Modell aus. Zur Ausführung von Inferenzen für ein vollständiges Dataset können Sie dasselbe Inferenz-Pipeline-Modell verwenden, das für einen Endpunkt zur Echtzeitverarbeitung in einem Stapeltransformationsauftrag erstellt und bereitgestellt wurde. Zum Ausführen eines Stapeltransformationsauftrags in einer Pipeline laden Sie die Eingabedaten von Amazon S3 herunter und senden sie in einer oder mehreren HTTP-Anfragen an das Inferenz-Pipeline-Modell. Ein Beispiel, das die Vorbereitung von Daten für eine Stapeltransformation zeigt, vgl. „Abschnitt 2 - Vorverarbeiten der Roh-Gehäuse-Daten mit Scikit Learn“ desAmazon SageMaker Multimodell-Endpunkte mit Linear Learner -Beispiel-Notebookaus. Für Informationen über Amazon SageMaker Stapeltransformationen finden Sie unterVerwenden der Stapeltransformationaus.

Anmerkung

So verwenden Sie benutzerdefinierte Docker-Abbilder in einer Pipeline mitAmazon SageMaker integrierte -Algorithmen, benötigen Sie eineAmazon Elastic Container Registry (ECR) -Richtlinieaus. Ihr Amazon ECR-Repository muss gewähren SageMaker Die Berechtigung zum Abrufen des Bildes. Weitere Informationen finden Sie unter Beheben von Problemen mit Amazon ECR-Berechtigungen für Inferenz-Pipelines.

Das folgende Beispiel zeigt, wie ein Transformationsauftrag mittels ausgeführt wirddieAmazon SageMaker Python SDKaus. In diesem Beispiel ist model_name die Inferenz-Pipeline, die (in früheren Beispielen erstellte) SparkML- und XGBoost-Modelle kombiniert. Der Amazon-S3-Speicherort, der von angegeben istinput_data_pathenthält die Eingabedaten im CSV-Format zum Herunterladen und Senden an das Spark ML-Modell. Nach Abschluss des Transformationsauftrags wird der von angegebene Amazon S3 S3-Standort vonoutput_data_pathenthält die vom XGBoost-Modell zurückgegebenen Ausgabedaten im CSV-Format.

import sagemaker input_data_path = 's3://{}/{}/{}'.format(default_bucket, 'key', 'file_name') output_data_path = 's3://{}/{}'.format(default_bucket, 'key') transform_job = sagemaker.transformer.Transformer( model_name = model_name, instance_count = 1, instance_type = 'ml.m4.xlarge', strategy = 'SingleRecord', assemble_with = 'Line', output_path = output_data_path, base_transform_job_name='inference-pipelines-batch', sagemaker_session=sagemaker.Session(), accept = CONTENT_TYPE_CSV) transform_job.transform(data = input_data_path, content_type = CONTENT_TYPE_CSV, split_type = 'Line')