CreateDatasetImportJob - Amazon Personalize

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

CreateDatasetImportJob

Erstellt einen Job, der Trainingsdaten aus Ihrer Datenquelle (einem Amazon S3 S3-Bucket) in einen Amazon Personalize importiert. Damit Amazon Personalize die Trainingsdaten importieren kann, müssen Sie eine IAM-Servicerolle angeben, die berechtigt ist, aus der Datenquelle zu lesen, da Amazon Personalize eine Kopie Ihrer Daten erstellt und diese intern verarbeitet. Informationen zur Gewährung des Zugriffs auf Ihren Amazon S3 S3-Bucket finden Sie unter Amazon Personalize Access to Amazon S3 S3-Ressourcen gewähren.

Wenn Sie bereits eine Empfehlung erstellt oder eine benutzerdefinierte Lösungsversion mit einer Kampagne bereitgestellt haben, hängt die Art und Weise, wie sich neue Sammeleinträge auf Empfehlungen auswirken, vom verwendeten Domain-Anwendungsfall oder Rezept ab. Weitere Informationen finden Sie unter Wie neue Daten Empfehlungen in Echtzeit beeinflussen.

Wichtig

Standardmäßig ersetzt ein Datensatz-Importjob alle vorhandenen Daten in dem Datensatz, den Sie in großen Mengen importiert haben. Um neue Datensätze hinzuzufügen, ohne vorhandene Daten zu ersetzen, geben Sie INCREMENTAL für den Importmodus im CreateDatasetImportJob Vorgang an.

Status

Ein Import-Auftrag für Datensätze kann sich in einem der folgenden Zustände befinden:

  • CREATE PENDING > CREATE IN_PROGRESS > ACTIVE -oder- CREATE FAILED

Rufen Sie an, um den Status des Importjobs abzurufen DescribeDatasetImportJob, und geben Sie dabei den Amazon-Ressourcennamen (ARN) des Datensatz-Importjobs an. Der Dataset-Importvorgang ist abgeschlossen, wenn der Status als AKTIV angezeigt wird. Wenn der Status CREATE FAILED lautet, enthält die Antwort einen failureReason Schlüssel, der beschreibt, warum der Job fehlgeschlagen ist.

Anmerkung

Das Importieren ist zeitaufwändig. Sie müssen warten, bis der Status als AKTIV angezeigt wird, bevor Sie ein Modell mit dem Datensatz trainieren.

Anforderungssyntax

{ "datasetArn": "string", "dataSource": { "dataLocation": "string" }, "importMode": "string", "jobName": "string", "publishAttributionMetricsToS3": boolean, "roleArn": "string", "tags": [ { "tagKey": "string", "tagValue": "string" } ] }

Anforderungsparameter

Die Anforderung akzeptiert die folgenden Daten im JSON-Format.

datasetArn

Der ARN des Datensatzes, der die importierten Daten empfängt.

Typ: Zeichenfolge

Längenbeschränkungen: Maximale Länge beträgt 256 Zeichen.

Pattern: arn:([a-z\d-]+):personalize:.*:.*:.+

Erforderlich: Ja

dataSource

Der Amazon-S3-Bucket mit den zu importierenden Trainingsdaten.

Typ: DataSource Objekt

Erforderlich: Ja

importMode

Geben Sie an, wie die neuen Datensätze zu einem vorhandenen Datensatz hinzugefügt werden sollen. Der Standard-Importmodus istFULL. Wenn Sie zuvor keine Massendatensätze in den Datensatz importiert haben, können Sie nur Folgendes angebenFULL.

  • Geben Sie FULL an, dass alle vorhandenen Massendaten in Ihrem Datensatz überschrieben werden sollen. Daten, die Sie einzeln importiert haben, werden nicht ersetzt.

  • Geben Sie INCREMENTAL an, dass die neuen Datensätze an die vorhandenen Daten in Ihrem Datensatz angehängt werden sollen. Amazon Personalize ersetzt jeden Datensatz mit derselben ID durch den neuen.

Typ: Zeichenfolge

Zulässige Werte: FULL | INCREMENTAL

Erforderlich: Nein

jobName

Der Name für den Datensatz-Importjob.

Typ: Zeichenfolge

Längenbeschränkungen: Minimale Länge beträgt 1 Zeichen. Maximale Länge beträgt 63 Zeichen.

Pattern: ^[a-zA-Z0-9][a-zA-Z0-9\-_]*

Erforderlich: Ja

publishAttributionMetricsToS3

Wenn Sie eine Metrik-Attribution erstellt haben, geben Sie an, ob Metriken für diesen Importauftrag in Amazon S3 veröffentlicht werden sollen

Typ: Boolesch

Erforderlich: Nein

roleArn

Der ARN der IAM-Rolle, die für das Lesen aus der Amazon-S3-Datenquelle berechtigt ist.

Typ: Zeichenfolge

Längenbeschränkungen: Maximale Länge beträgt 256 Zeichen.

Pattern: arn:([a-z\d-]+):iam::\d{12}:role/?[a-zA-Z_0-9+=,.@\-_/]+

Erforderlich: Ja

tags

Eine Liste von Tags, die auf den Datensatz-Importjob angewendet werden sollen.

Typ: Array von Tag-Objekten

Array-Mitglieder: Die Mindestanzahl beträgt 0 Elemente. Die maximale Anzahl beträgt 200 Elemente.

Erforderlich: Nein

Antwortsyntax

{ "datasetImportJobArn": "string" }

Antwortelemente

Wenn die Aktion erfolgreich ist, sendet der Service eine HTTP 200-Antwort zurück.

Die folgenden Daten werden vom Service im JSON-Format zurückgegeben.

datasetImportJobArn

Der ARN des Datensatz-Import-Auftrags.

Typ: Zeichenfolge

Längenbeschränkungen: Maximale Länge beträgt 256 Zeichen.

Pattern: arn:([a-z\d-]+):personalize:.*:.*:.+

Fehler

InvalidInputException

Geben Sie einen gültigen Wert für das Feld oder den Parameter an.

HTTP Status Code: 400

LimitExceededException

Das Limit für die Anzahl der Anfragen pro Sekunde wurde überschritten.

HTTP Status Code: 400

ResourceAlreadyExistsException

Die angegebene Ressource ist bereits vorhanden.

HTTP Status Code: 400

ResourceInUseException

Die angegebene Ressource wird verwendet.

HTTP Status Code: 400

ResourceNotFoundException

Die angegebene Ressource konnte nicht gefunden werden.

HTTP Status Code: 400

TooManyTagsException

Sie haben die maximale Anzahl von Tags überschritten, die Sie auf diese Ressource anwenden können.

HTTP Status Code: 400

Weitere Informationen finden Sie unter:

Weitere Informationen zur Verwendung dieser API in einem der sprachspezifischen AWS SDKs finden Sie im Folgenden: