Allgemeine Fehlermeldungen - Amazon Personalize

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Allgemeine Fehlermeldungen

In den folgenden Abschnitten werden einige der Meldungen aufgeführt und erklärt, die bei der Verwendung von Amazon Personalize auftreten können.

Datenimport und -verwaltung

Fehlermeldung: Ungültiger Datenspeicherort.

Stellen Sie sicher, dass Sie die richtige Syntax für Ihren Amazon S3 S3-Bucket-Standort verwendet haben. Verwenden Sie für Datensatz-Importaufträge die folgende Syntax für den Speicherort Ihrer Daten in Amazon S3:

s3://amzn-s3-demo-bucket/<folder path>/<CSVfilename>

Wenn sich Ihre CSV Dateien in einem Ordner befinden und Sie mehrere Dateien mit einem Datensatz-Importauftrag hochladen möchten, verwenden Sie diese Syntax ohne den CSV Dateinamen.

Fehlermeldung: Beim Aufrufen des CreateDatasetImportJob Vorgangs ist ein Fehler aufgetreten (LimitExceededException): Mehr als 5 Ressourcen mit dem PROGRESS Status PENDING oder IN_.

Sie können pro Region insgesamt 5 ausstehende oder in Bearbeitung befindliche Datenimportaufträge haben. Dieses Kontingent ist nicht anpassbar. Eine vollständige Liste der Kontingente für Amazon Personalize finden Sie unterEndpunkte und Kontingente von Amazon Personalize.

Fehlermeldung: Fehler beim Erstellen eines Datenimportauftrags für den Datensatz... Unzureichende Rechte für den Zugriff auf Daten in Amazon S3. <dataset type>

Gewähren Sie Amazon Personalize Zugriff auf Ihre Amazon S3 S3-Ressourcen, indem Sie Ihrem Amazon S3-Bucket und Ihrer Amazon Personalize-Servicerolle Zugriffsrichtlinien zuordnen. Siehe Amazon Personalize Zugriff auf Amazon S3 S3-Ressourcen gewähren.

Wenn Sie AWS Key Management Service (AWS KMS) für die Verschlüsselung verwenden, müssen Sie Amazon Personalize und Ihrer Amazon IAM Personalize-Servicerolle die Erlaubnis zur Verwendung Ihres Schlüssels erteilen. Weitere Informationen finden Sie unter Amazon Personalize die Erlaubnis geben, Ihren AWS KMS Schlüssel zu verwenden.

Fehlermeldung: Datenimport-Job-Datensatz konnte nicht erstellt werden... In der Eingabe CSV fehlen die folgenden Spalten: [COLUMN_NAME, COLUMN _NAME]<dataset type>.

Die Daten, die Sie in Amazon Personalize importieren, einschließlich Attributnamen und Datentypen, müssen dem Schema des Ziel-Datasets entsprechen. Weitere Informationen finden Sie unter Schemata.

Fehlermeldung: Die Länge darf nicht mehr als Zeichen für < COLLUMN _ NAME > betragen<character limit>. Wenn keine Werte die Zeichenbeschränkung überschreiten, stellen Sie sicher, dass Ihre Daten den unter aufgeführten Formatierungsrichtlinien entsprechen https://docs.aws.amazon.com/personalize/latest/dg/data-prep-formatting.html.

Stellen Sie sicher, dass alle Werte in dieser Spalte die Zeichenbeschränkung nicht überschreiten. Wenn keine Werte die Zeichenbeschränkung überschreiten, überprüfen Sie alle vorangegangenen Textfelder auf Folgendes:

  • Stellen Sie sicher, dass alle Textdaten in doppelte Anführungszeichen gesetzt sind. Verwenden Sie das \ Zeichen, um doppelte Anführungszeichen oder \ Zeichen in Ihren Daten zu maskieren.

  • Stellt sicher, dass sich jeder Datensatz in Ihrer CSV Datei in einer einzigen Zeile befindet.

Eine Lösung und eine Lösungsversion erstellen (benutzerdefinierte Ressourcen)

Fehlermeldung: Die Erstellung ist fehlgeschlagen. Der Datensatz hat weniger als 25 Benutzer mit jeweils mindestens 2 Interaktionen.

Sie müssen mehr Daten importieren, bevor Sie das Modell trainieren können. Die minimalen Datenanforderungen zum Schulen eines Modells sind:

  • Mindestens 1000 Datensätze über Artikelinteraktionen von Benutzern, die mit Artikeln in Ihrem Katalog interagieren. Diese Interaktionen können aus Massenimporten, gestreamten Ereignissen oder beidem stammen.

  • Mindestens 25 eindeutige Benutzer IDs mit jeweils mindestens zwei Artikelinteraktionen.

Um Empfehlungen in Echtzeit zu erhalten, importieren Sie mehr Daten mit einem Job zum Importieren von Datensätzen oder zeichnen Sie mit einem Event-Tracker und dem PutEvents Vorgang mehr Interaktionsereignisse für Ihre Benutzer auf. Weitere Informationen zur Aufzeichnung von Ereignissen in Echtzeit finden Sie unterAufzeichnung von Ereignissen in Echtzeit zur Beeinflussung von Empfehlungen.

Batch-Empfehlungen erhalten Sie, indem Sie Ihre Daten mit einem Datensatz-Importjob importieren, wenn Sie mehr Daten haben. Weitere Informationen zum Importieren von Massendaten finden Sie unterSchritt 2: Daten vorbereiten und importieren.

Modellbereitstellung (benutzerdefinierte Kampagnen)

Fehler: Es kann keine Kampagne erstellt werden. Mehr als 5 Ressourcen im ACTIVE Bundesstaat. Bitte löschen Sie einige und versuchen Sie es erneut.

Sie können insgesamt 5 aktive Amazon Personalize-Kampagnen pro Datensatzgruppe haben. Dieses Kontingent ist anpassbar und Sie können über die Service Quotas-Konsole eine Erhöhung des Kontingents beantragen. Eine vollständige Liste der Limits und Kontingente für Amazon Personalize finden Sie unterEndpunkte und Kontingente von Amazon Personalize.

Empfehlungsgeber (Domain-Datensatzgruppen)

Fehler: Der Datensatz hat nach dem Filtern nach Ereignistyp weniger als 1000 Interaktionen: <event type>

Verschiedene Anwendungsfälle erfordern unterschiedliche Ereignistypen. Ihre Daten müssen mindestens 1000 Ereignisse mit dem für Ihren Anwendungsfall erforderlichen Typ enthalten. Weitere Informationen finden Sie unter Auswahl eines Anwendungsfalls

Empfehlungen

Fehlermeldung beim Batch-Inferenzjob: Ungültiger S3-Eingabepfad oder Ungültiger S3-Ausgabepfad

Stellen Sie sicher, dass Sie die richtige Syntax für Ihre Amazon S3 S3-Eingabe- oder -Ausgabespeicherorte verwenden. Stellen Sie außerdem sicher, dass sich Ihr Ausgabeort von Ihren Eingabedaten unterscheidet. Es sollte sich um einen Ordner im selben Amazon S3 S3-Bucket oder in einem anderen Bucket handeln.

Verwenden Sie die folgende Syntax für den Speicherort der Eingabedatei in Amazon S3: s3://amzn-s3-demo-bucket/<folder name>/<input JSON file name>

Verwenden Sie die folgende Syntax für den Ausgabeordner in Amazon S3: s3://amzn-s3-demo-bucket/<output folder name>/

Empfehlungen zum Filtern

Fehlermeldung: Filter konnte nicht erstellt werden. Ungültiges Eingabesymbol: $parameterName. Platzhalter sind mit dem Operator NOT _IN nicht zulässig.

Sie können keine Platzhalterparameter in einem Filterausdruck verwenden, der den NOT _IN-Operator verwendet. Verwenden Sie stattdessen den IN-Operator und die entgegengesetzte Aktion: Verwenden Sie Include statt Exclude (oder umgekehrt).

Wenn Sie beispielsweise verwenden möchtenINCLUDE ItemID WHERE Items.GENRE NOT IN ($GENRE), können Sie dieselben Ergebnisse verwenden EXCLUDE ItemID WHERE Items.GENRE IN ($GENRE) und erhalten dieselben Ergebnisse.

Weitere Informationen zu Filtern finden Sie unter Ausdruckselemente filtern.

Fehlermeldung: Filter konnte nicht erstellt werden. Ungültiger Ausdruck... beim Filtern nach Feldern vom Typ Boolean

Sie können in Ihrem Schema keine Filterausdrücke erstellen, die mithilfe von Werten vom Typ Boolean filtern. Um auf der Grundlage boolescher Werte zu filtern, verwenden Sie ein Schema mit einem Feld vom Typ String und verwenden Sie die Werte True und False in Ihren Daten. Oder Sie können den Typ int oder long und die Werte 0 und verwenden. 1

Weitere Informationen zu Filtern finden Sie unter Ausdruckselemente filtern.