Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Erstellen Sie eine Inferenzempfehlung

Fokusmodus
Erstellen Sie eine Inferenzempfehlung - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erstellen Sie eine Inferenzempfehlung programmgesteuert mit dem AWS SDK for Python (Boto3) oder dem AWS CLI oder interaktiv mit Studio Classic oder der AI-Konsole. SageMaker Geben Sie im Abschnitt Voraussetzungen einen Jobnamen für Ihre Inferenzempfehlung, einen AWS IAM-Rollen-ARN, eine Eingabekonfiguration und entweder einen Modellpaket-ARN an, als Sie Ihr Modell bei der Modellregistrierung registriert haben, oder Ihren Modellnamen und ein ContainerConfig Wörterbuch von der Erstellung Ihres Modells.

AWS SDK for Python (Boto3)

Verwenden Sie die CreateInferenceRecommendationsJob-API, um einen Job mit Inferenzempfehlungen zu starten. Stellen Sie das JobType Feld auf 'Default' ehlungen ein. Darüber hinaus sind folgende Angaben zu machen:

  • Der Amazon-Ressourcenname (ARN) einer IAM-Rolle, die es Inference Recommender ermöglicht, Aufgaben in Ihrem Namen durchzuführen. Definieren Sie dies für das RoleArn Feld.

  • Ein Modellpaket-ARN oder ein Modellname. Inference Recommender unterstützt entweder einen Modellpaket-ARN oder einen Modellnamen als Eingabe. Geben Sie eines der folgenden Elemente an:

    • Der ARN des versionierten Modellpakets, das Sie erstellt haben, als Sie Ihr Modell bei der SageMaker AI-Modellregistrierung registriert haben. Definieren Sie dies für ModelPackageVersionArn in dem InputConfig Feld.

    • Den Namen des Modells, welches Sie erstellt haben. Definieren Sie dies für ModelName im InputConfig Feld. Geben Sie außerdem das ContainerConfig Wörterbuch an, das die erforderlichen Felder enthält, die mit dem Modellnamen versehen werden müssen. Definieren Sie dies für ContainerConfig in dem InputConfig Feld. In dem ContainerConfig können Sie das SupportedEndpointType Feld auch optional als entweder RealTime oder Serverless angeben. Wenn Sie dieses Feld angeben, gibt Inference Recommender nur Empfehlungen für diesen Endpunkttyp zurück. Wenn Sie dieses Feld nicht angeben, gibt Inference Recommender Empfehlungen für beide Endpunkttypen zurück.

  • Ein Name für Ihren Inference Recommender-Empfehlungsjob für das JobName Feld. Der Inference Recommender-Jobname muss innerhalb der AWS Region und in Ihrem Konto eindeutig sein. AWS

Importieren Sie das AWS SDK for Python (Boto3) Paket und erstellen Sie mithilfe der Client-Klasse ein SageMaker AI-Client-Objekt. Wenn Sie die Schritte im Abschnitt Voraussetzungen befolgt haben, geben Sie nur eine der folgenden Optionen an:

  • Option 1: Wenn Sie einen Job mit Inferenzempfehlungen mit einem Modellpaket-ARN erstellen möchten, speichern Sie den ARN der Modellpaketgruppe in einer Variablen namens model_package_arn.

  • Option 2: Wenn Sie einen Job mit Inferenzempfehlungen mit einem Modellnamen und ContainerConfig erstellen möchten, speichern Sie den Modellnamen in einer Variablen mit dem Namen model_name und das ContainerConfig Wörterbuch in einer Variablen mit dem Namen container_config.

# Create a low-level SageMaker service client. import boto3 aws_region = '<INSERT>' sagemaker_client = boto3.client('sagemaker', region_name=aws_region) # Provide only one of model package ARN or model name, not both. # Provide your model package ARN that was created when you registered your # model with Model Registry model_package_arn = '<INSERT>' ## Uncomment if you would like to create an inference recommendations job with a ## model name instead of a model package ARN, and comment out model_package_arn above ## Provide your model name # model_name = '<INSERT>' ## Provide your container config # container_config = '<INSERT>' # Provide a unique job name for SageMaker Inference Recommender job job_name = '<INSERT>' # Inference Recommender job type. Set to Default to get an initial recommendation job_type = 'Default' # Provide an IAM Role that gives SageMaker Inference Recommender permission to # access AWS services role_arn = 'arn:aws:iam::<account>:role/*' sagemaker_client.create_inference_recommendations_job( JobName = job_name, JobType = job_type, RoleArn = role_arn, # Provide only one of model package ARN or model name, not both. # If you would like to create an inference recommendations job with a model name, # uncomment ModelName and ContainerConfig, and comment out ModelPackageVersionArn. InputConfig = { 'ModelPackageVersionArn': model_package_arn # 'ModelName': model_name, # 'ContainerConfig': container_config } )

Eine vollständige Liste der optionalen und erforderlichen Argumente, an die Sie übergeben können, finden Sie im Amazon SageMaker API-Referenzhandbuch CreateInferenceRecommendationsJob.

AWS CLI

Verwenden Sie die create-inference-recommendations-job-API, um einen Job mit Inferenzempfehlungen zu starten. Stellen Sie das job-type Feld auf 'Default' ehlungen ein. Darüber hinaus sind folgende Angaben zu machen:

  • Der Amazon-Ressourcenname (ARN) einer IAM-Rolle, die es Amazon SageMaker Inference Recommender ermöglicht, Aufgaben in Ihrem Namen auszuführen. Definieren Sie dies für das role-arn Feld.

  • Ein Modellpaket-ARN oder ein Modellname. Inference Recommender unterstützt entweder einen Modellpaket-ARN oder einen Modellnamen als Eingabe. Geben Sie eine der folgenden Möglichkeiten an

    • Der ARN des versionierten Modellpakets, das Sie bei der Registrierung Ihres Modells bei Model Registry erstellt haben. Definieren Sie dies für ModelPackageVersionArn in dem input-config Feld.

    • Den Namen des Modells, welches Sie erstellt haben. Definieren Sie dies für ModelName im input-config Feld. Geben Sie außerdem das ContainerConfig Wörterbuch an, das die erforderlichen Felder enthält, die mit dem Modellnamen versehen werden müssen. Definieren Sie dies für ContainerConfig in dem input-config Feld. In dem ContainerConfig können Sie das SupportedEndpointType Feld auch optional als entweder RealTime oder Serverless angeben. Wenn Sie dieses Feld angeben, gibt Inference Recommender nur Empfehlungen für diesen Endpunkttyp zurück. Wenn Sie dieses Feld nicht angeben, gibt Inference Recommender Empfehlungen für beide Endpunkttypen zurück.

  • Ein Name für Ihren Inference Recommender-Empfehlungsjob für das job-name Feld. Der Inference Recommender-Jobname muss innerhalb der AWS Region und innerhalb Ihres Kontos eindeutig sein. AWS

Verwenden Sie das folgende Beispiel, um Jobs für Inferenzempfehlungen mit einem Modellpaket-ARN zu erstellen:

aws sagemaker create-inference-recommendations-job --region <region>\ --job-name <job_name>\ --job-type Default\ --role-arn arn:aws:iam::<account:role/*>\ --input-config "{ \"ModelPackageVersionArn\": \"arn:aws:sagemaker:<region:account:role/*>\", }"

Verwenden Sie das folgende Beispiel, um Jobs mit einem Modellnamen und ContainerConfig einer Inferenzempfehlung zu erstellen. Das Beispiel verwendet das SupportedEndpointType Feld, um anzugeben, dass wir nur Inferenzempfehlungen in Echtzeit zurückgeben möchten:

aws sagemaker create-inference-recommendations-job --region <region>\ --job-name <job_name>\ --job-type Default\ --role-arn arn:aws:iam::<account:role/*>\ --input-config "{ \"ModelName\": \"model-name\", \"ContainerConfig\" : { \"Domain\": \"COMPUTER_VISION\", \"Framework\": \"PYTORCH\", \"FrameworkVersion\": \"1.7.1\", \"NearestModelName\": \"resnet18\", \"PayloadConfig\": { \"SamplePayloadUrl\": \"s3://{bucket}/{payload_s3_key}\", \"SupportedContentTypes\": [\"image/jpeg\"] }, \"SupportedEndpointType\": \"RealTime\", \"DataInputConfig\": \"[[1,3,256,256]]\", \"Task\": \"IMAGE_CLASSIFICATION\", }, }"
Amazon SageMaker Studio Classic

Erstellen Sie einen Job mit Inferenzempfehlungen in Studio Classic.

  1. Wählen Sie in Ihrer Studio Classic-Anwendung das Home-Symbol ( Black square icon representing a placeholder or empty image. ).

  2. Wählen Sie in der linken Seitenleiste von Studio Classic Modelle aus.

  3. Wählen Sie in der Dropdown-Liste die Option Modellregistrierung aus, um die Modelle anzuzeigen, die Sie in der Modellregistrierung registriert haben.

    Im linken Bereich wird eine Liste von Modellgruppen angezeigt. Die Liste enthält alle Modellgruppen, die bei der Model-Registrierung in Ihrem Konto registriert sind, einschließlich Modelle, die außerhalb von Studio Classic registriert sind.

  4. Wählen Sie den Namen der Modellgruppe aus. Wenn Sie Ihre Modellgruppe auswählen, werden im rechten Bereich von Studio Classic Spaltenüberschriften wie Versionen und Einstellungen angezeigt.

    Wenn Sie ein oder mehrere Modellpakete in Ihrer Modellgruppe haben, wird in der Spalte Versionen eine Liste dieser Modellpakete angezeigt.

  5. Wählen Sie die Spalte Inference Recommender aus.

  6. Wählen Sie eine IAM-Rolle, die Inference Recommender die Berechtigung zum Zugriff auf Dienste gewährt. AWS Sie können dafür eine Rolle erstellen und die von AmazonSageMakerFullAccess IAM verwaltete Richtlinie anfügen. Oder Sie können Studio Classic eine Rolle für Sie erstellen lassen.

  7. Wählen Sie Get recommendations (Empfehlungen erhalten).

    Die Inferenzempfehlung kann bis zu 45 Minuten dauern.

    Warnung

    Schließen Sie diese Registerkarte nicht. Wenn Sie diese Registerkarte schließen, brechen Sie den Job mit der Instance-Empfehlung ab.

SageMaker AI console

Erstellen Sie einen Job mit Instanzempfehlungen über die SageMaker AI-Konsole, indem Sie wie folgt vorgehen:

  1. Gehen Sie zur SageMaker AI-Konsole unter https://console.aws.amazon.com/sagemaker/.

  2. Wählen Sie in der linken Navigationsleiste Inferenz und wählen Sie dann Inferenzempfehlung.

  3. Wählen Sie auf der Seite Inferenz Empfehlungsgeber Aufträge die Option Job erstellen aus.

  4. Für Schritt 1: Modellkonfiguration gehen Sie wie folgt vor:

    1. Wählen Sie als Jobtyp die Option Standard-Empfehlungsjob aus.

    2. Wenn Sie ein Modell verwenden, das in der SageMaker AI-Modellregistrierung registriert ist, aktivieren Sie die Option Modell aus der Modellregistrierung auswählen und gehen Sie wie folgt vor:

      1. Wählen Sie aus der Dropdownliste Modellgruppe die Modellgruppe in der SageMaker AI-Modellregistrierung aus, in der sich Ihr Modell befindet.

      2. Wählen Sie aus der Dropdown-Liste Modellversion die gewünschte Version Ihres Modells aus.

    3. Wenn Sie ein Modell verwenden, das Sie in SageMaker AI erstellt haben, deaktivieren Sie die Option Modell aus der Modellregistrierung auswählen und gehen Sie wie folgt vor:

      1. Geben Sie in das Feld Modellname den Namen Ihres SageMaker KI-Modells ein.

    4. Aus der Dropdownliste für die IAM-Rolle können Sie eine bestehende AWS IAM-Rolle auswählen, die über die erforderlichen Berechtigungen verfügt, um einen Instanzempfehlungsjob zu erstellen. Wenn Sie noch keine Rolle haben, können Sie alternativ Neue Rolle erstellen wählen, um das Pop-up zur Rollenerstellung zu öffnen. SageMaker AI fügt dann der neuen Rolle, die Sie erstellen, die erforderlichen Berechtigungen hinzu.

    5. Geben Sie für S3-Bucket for Benchmarking Payload den Amazon S3-Pfad zu Ihrem Beispiel-Payload-Archiv ein, das Beispiel-Payload-Dateien enthalten sollte, die Inference Recommender verwendet, um Ihr Modell auf verschiedenen Instance-Typen zu vergleichen.

    6. Geben Sie als Payload-Inhaltstyp die MIME-Typen Ihrer Beispiel-Payload-Daten ein.

    7. (Optional) Wenn Sie die Option Modell aus der Modellregistrierung auswählen deaktiviert und ein SageMaker KI-Modell angegeben haben, gehen Sie für die Container-Konfiguration wie folgt vor:

      1. Wählen Sie in der Dropdown-Liste Domain die Domain für Machine Learning des Modells aus, z. B. Computer Vision, Verarbeitung natürlicher Sprache oder Machine Learning.

      2. Wählen Sie in der Dropdownliste Framework das Framework Ihres Containers aus, z. B. TensorFlow oder. XGBoost

      3. Geben Sie als Framework-Version die Framework-Version Ihres Container-Images ein.

      4. Wählen Sie in der Dropdown-Liste Nächster Modellname das vortrainierte Modell aus, das Ihrem Modell am ehesten entspricht.

      5. Wählen Sie in der Dropdown-Liste Aufgabe die maschinelle Lernaufgabe aus, die das Modell erfüllt, z. B. Bildklassifizierung oder Regression.

    8. (Optional) Für die Modellkompilierung mit SageMaker Neo können Sie den Empfehlungsjob für ein Modell konfigurieren, das Sie mit SageMaker Neo kompiliert haben. Geben Sie für die Konfiguration der Dateneingabe die richtige Form der Eingabedaten für Ihr Modell in einem Format ein, das dem {'input':[1,1024,1024,3]} ähnelt.

    9. Wählen Sie Weiter.

  5. Bei Schritt 2: Instances und Umgebungsparameter gehen Sie wie folgt vor:

    1. (Optional) Für Select Instances for Benchmarking können Sie bis zu 8 Instance-Typen auswählen, die Sie benchmarken möchten. Wenn Sie keine Instances auswählen, berücksichtigt Inference Recommender alle Instance-Typen.

    2. Wählen Sie Weiter.

  6. Für Schritt 3: Auftragsparameter gehen Sie wie folgt vor:

    1. (Optional) Geben Sie für das Feld Jobname einen Namen für Ihren Instance-Empfehlungsjob ein. Wenn Sie den Job erstellen, hängt SageMaker KI einen Zeitstempel an das Ende dieses Namens an.

    2. (Optional) Geben Sie in das Feld Auftragsbeschreibung eine Beschreibung für den Auftrag ein.

    3. (Optional) Wählen Sie in der Dropdownliste Verschlüsselungsschlüssel einen AWS KMS Schlüssel nach Namen aus oder geben Sie seinen ARN ein, um Ihre Daten zu verschlüsseln.

    4. (Optional) Geben Sie unter Max. Testdauer (s) die maximale Anzahl von Sekunden ein, für die jeder Test ausgeführt werden soll.

    5. (Optional) Geben Sie für Max. Aufrufe pro Minute die maximale Anzahl von Anfragen pro Minute ein, die der Endpunkt erreichen kann, bevor der Empfehlungsjob beendet wird. Nach Erreichen dieses Grenzwerts beendet SageMaker KI den Job.

    6. (Optional) Geben Sie für den Latenzschwellenwert (ms) des Modells P99 den Latenzwert des Modells in Millisekunden ein.

    7. Wählen Sie Weiter.

  7. Überprüfen Sie für Schritt 4: Job überprüfen Ihre Konfigurationen und wählen Sie dann Senden aus.

Verwenden Sie die CreateInferenceRecommendationsJob-API, um einen Job mit Inferenzempfehlungen zu starten. Stellen Sie das JobType Feld auf 'Default' ehlungen ein. Darüber hinaus sind folgende Angaben zu machen:

  • Der Amazon-Ressourcenname (ARN) einer IAM-Rolle, die es Inference Recommender ermöglicht, Aufgaben in Ihrem Namen durchzuführen. Definieren Sie dies für das RoleArn Feld.

  • Ein Modellpaket-ARN oder ein Modellname. Inference Recommender unterstützt entweder einen Modellpaket-ARN oder einen Modellnamen als Eingabe. Geben Sie eines der folgenden Elemente an:

    • Der ARN des versionierten Modellpakets, das Sie erstellt haben, als Sie Ihr Modell bei der SageMaker AI-Modellregistrierung registriert haben. Definieren Sie dies für ModelPackageVersionArn in dem InputConfig Feld.

    • Den Namen des Modells, welches Sie erstellt haben. Definieren Sie dies für ModelName im InputConfig Feld. Geben Sie außerdem das ContainerConfig Wörterbuch an, das die erforderlichen Felder enthält, die mit dem Modellnamen versehen werden müssen. Definieren Sie dies für ContainerConfig in dem InputConfig Feld. In dem ContainerConfig können Sie das SupportedEndpointType Feld auch optional als entweder RealTime oder Serverless angeben. Wenn Sie dieses Feld angeben, gibt Inference Recommender nur Empfehlungen für diesen Endpunkttyp zurück. Wenn Sie dieses Feld nicht angeben, gibt Inference Recommender Empfehlungen für beide Endpunkttypen zurück.

  • Ein Name für Ihren Inference Recommender-Empfehlungsjob für das JobName Feld. Der Inference Recommender-Jobname muss innerhalb der AWS Region und in Ihrem Konto eindeutig sein. AWS

Importieren Sie das AWS SDK for Python (Boto3) Paket und erstellen Sie mithilfe der Client-Klasse ein SageMaker AI-Client-Objekt. Wenn Sie die Schritte im Abschnitt Voraussetzungen befolgt haben, geben Sie nur eine der folgenden Optionen an:

  • Option 1: Wenn Sie einen Job mit Inferenzempfehlungen mit einem Modellpaket-ARN erstellen möchten, speichern Sie den ARN der Modellpaketgruppe in einer Variablen namens model_package_arn.

  • Option 2: Wenn Sie einen Job mit Inferenzempfehlungen mit einem Modellnamen und ContainerConfig erstellen möchten, speichern Sie den Modellnamen in einer Variablen mit dem Namen model_name und das ContainerConfig Wörterbuch in einer Variablen mit dem Namen container_config.

# Create a low-level SageMaker service client. import boto3 aws_region = '<INSERT>' sagemaker_client = boto3.client('sagemaker', region_name=aws_region) # Provide only one of model package ARN or model name, not both. # Provide your model package ARN that was created when you registered your # model with Model Registry model_package_arn = '<INSERT>' ## Uncomment if you would like to create an inference recommendations job with a ## model name instead of a model package ARN, and comment out model_package_arn above ## Provide your model name # model_name = '<INSERT>' ## Provide your container config # container_config = '<INSERT>' # Provide a unique job name for SageMaker Inference Recommender job job_name = '<INSERT>' # Inference Recommender job type. Set to Default to get an initial recommendation job_type = 'Default' # Provide an IAM Role that gives SageMaker Inference Recommender permission to # access AWS services role_arn = 'arn:aws:iam::<account>:role/*' sagemaker_client.create_inference_recommendations_job( JobName = job_name, JobType = job_type, RoleArn = role_arn, # Provide only one of model package ARN or model name, not both. # If you would like to create an inference recommendations job with a model name, # uncomment ModelName and ContainerConfig, and comment out ModelPackageVersionArn. InputConfig = { 'ModelPackageVersionArn': model_package_arn # 'ModelName': model_name, # 'ContainerConfig': container_config } )

Eine vollständige Liste der optionalen und erforderlichen Argumente, an die Sie übergeben können, finden Sie im Amazon SageMaker API-Referenzhandbuch CreateInferenceRecommendationsJob.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.