Wählen Sie Ihre Cookie-Einstellungen aus

Wir verwenden essentielle Cookies und ähnliche Tools, die für die Bereitstellung unserer Website und Services erforderlich sind. Wir verwenden Performance-Cookies, um anonyme Statistiken zu sammeln, damit wir verstehen können, wie Kunden unsere Website nutzen, und Verbesserungen vornehmen können. Essentielle Cookies können nicht deaktiviert werden, aber Sie können auf „Anpassen“ oder „Ablehnen“ klicken, um Performance-Cookies abzulehnen.

Wenn Sie damit einverstanden sind, verwenden AWS und zugelassene Drittanbieter auch Cookies, um nützliche Features der Website bereitzustellen, Ihre Präferenzen zu speichern und relevante Inhalte, einschließlich relevanter Werbung, anzuzeigen. Um alle nicht notwendigen Cookies zu akzeptieren oder abzulehnen, klicken Sie auf „Akzeptieren“ oder „Ablehnen“. Um detailliertere Entscheidungen zu treffen, klicken Sie auf „Anpassen“.

Sequence-to-Sequence Algorithmus

Fokusmodus
Sequence-to-Sequence Algorithmus - Amazon SageMaker KI

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Amazon SageMaker AI Sequence to Sequence ist ein überwachter Lernalgorithmus, bei dem die Eingabe eine Sequenz von Tokens (z. B. Text, Audio) und die generierte Ausgabe eine weitere Token-Sequenz ist. Zu den Anwendungsbeispielen gehören: maschinelle Übersetzung (Eingabe eines Satzes aus einer Sprache und Vorhersage, wie dieser Satz in einer anderen Sprache lauten würde), Textzusammenfassung (Eingabe einer längeren Wortfolge und Vorhersage einer kürzeren Wortfolge, die eine Zusammenfassung ist), speech-to-text (Audioclips, die in Ausgabesätze in Tokens umgewandelt werden). Kürzlich konnten Probleme in diesem Bereich erfolgreich mit tiefen neuronalen Netzwerken modelliert werden, die eine erhebliche Leistungssteigerung im Vergleich zu früheren Methoden bieten. Amazon SageMaker AI seq2seq verwendet Recurrent Neural Networks (RNNs) und Convolutional Neural Network (CNN) -Modelle mit besonderer Aufmerksamkeit als Encoder-Decoder-Architekturen.

Sequence-to-SequenceEingabe-/Ausgabeschnittstelle für den Algorithmus

Training

SageMaker AI seq2seq erwartet Daten im Recordio-ProtoBUF-Format. Die Token werden jedoch als Ganzzahlen und nicht als Gleitkommazahlen erwartet, wie es normalerweise der Fall ist.

Ein Skript zum Konvertieren von Daten aus Token-Textdateien in das "protobuf"-Format ist im Beispiel-Notebook für seq2seq enthalten. Das Skript packt die Daten in Tensoren (32 Bit, Ganzzahl) und generiert die für Metrikberechnung und Inferenz erforderlichen Vokabeldateien.

Nachdem die Vorverarbeitung abgeschlossen ist, kann der Algorithmus für Trainings aufgerufen werden. Der Algorithmus erwartet drei Kanäle:

  • train: Dieser Kanal enthält das Trainingsdaten (z. B. die vom Vorverarbeitungsskript generierte train.rec-Datei).

  • validation: Dieser Kanal enthält die Validierungsdaten (z. B. die vom Vorverarbeitungsskript generierte val.rec-Datei).

  • vocab: Dieser Kanal enthält die beiden Vokabeldateien (vocab.src.json und vocab.trg.json).

Falls der Algorithmus in einem dieser drei Kanäle keine Daten findet, verläuft das Training fehlerhaft.

Inferenz

Für gehostete Endpunkte werden für die Inferenz zwei Datenformate unterstützt. Für die Inferenzausführung mit durch Leerzeichen getrennte Text-Token verwenden Sie das Format application/json. Andernfalls verwenden Sie das Format recordio-protobuf, um die codierten Ganzzahldaten zu nutzen. Beide Modi unterstützen ein Batching der Eingabedaten. Das application/json-Format ermöglicht außerdem eine Visualisierung der Attention-Matrix.

  • application/json: Für Ein- und Ausgabe wird das JSON-Format verwendet. Sowohl die Inhalts- als auch die Annahmetypen sollten das Format application/json aufweisen. Jede Sequenz muss eine Zeichenfolge mit durch Leerzeichen getrennte Token sein. Dieses Format wird empfohlen, wenn im Stapel nur eine geringe Anzahl an Quellsequenzen vorhanden ist. Außerdem werden folgende zusätzliche Konfigurationsoptionen unterstützt:

    configuration: {attention_matrix: true}: Gibt die Attention-Matrix für eine bestimmte Eingabesequenz zurück.

  • application/x-recordio-protobuf: Die Eingabe muss im recordio-protobuf-Format erfolgen, für die Ausgabe wird ebenfalls das recordio-protobuf format-Format verwendet. Sowohl die Inhalts- als auch die Annahmetypen sollten das Format applications/x-recordio-protobuf aufweisen. Bei diesem Format müssen die Quellsequenzen für die nachfolgende "protobuf"-Codierung in eine Liste mit Ganzzahlen konvertiert werden. Dieses Format wird für die Masseninferenz empfohlen.

Für die Stapeltransformation unterstützt die Inferenz das JSON Lines-Format. Für Stapeltransformationen wird für die Eingabe das JSON Lines-Format verwendet und die Ausgabe wird ebenfalls im JSON Lines-Format zurückgegeben. Sowohl die Inhalts- als auch die Annahmetypen sollten das Format application/jsonlines aufweisen. Das Format für die Eingabe lautet folgendermaßen:

content-type: application/jsonlines {"source": "source_sequence_0"} {"source": "source_sequence_1"}

Das Format für die Antwort lautet folgendermaßen:

accept: application/jsonlines {"target": "predicted_sequence_0"} {"target": "predicted_sequence_1"}

Weitere Informationen zur Serialisierung und Deserialisierung der Ein- und Ausgaben in bestimmte Formate für Inferenzzwecke finden Sie unter Sequence-to-Sequence Beispiel-Notizbücher.

EC2 Sequence-to-SequenceInstanzempfehlung für den Algorithmus

Der Amazon SageMaker AI seq2seq-Algorithmus unterstützt nur GPU-Instance-Typen und kann nur auf einem einzigen Computer trainiert werden. Sie können jedoch Instances mit mehreren verwenden. GPUs Der seq2seq-Algorithmus unterstützt die GPU-Instancefamilien P2, P3, G4dn und G5.

Sequence-to-Sequence Beispiel-Notizbücher

Ein Beispielnotizbuch, das zeigt, wie der Algorithmus SageMaker AI Sequence to Sequence verwendet wird, um ein Englisch-Deutsch-Übersetzungsmodell zu trainieren, finden Sie unter Beispiel für maschinelle Übersetzung Englisch-Deutsch mit AI Seq2Seq. SageMaker Anweisungen zum Erstellen und Zugreifen auf Jupyter-Notebook-Instanzen, mit denen Sie das Beispiel in KI ausführen können, finden Sie unter. SageMaker Amazon SageMaker Notebook-Instances Nachdem Sie eine Notebook-Instanz erstellt und geöffnet haben, wählen Sie den Tab SageMaker KI-Beispiele aus, um eine Liste aller KI-Beispiele zu sehen. SageMaker Die Beispiel-Notebooks zur Themenmodellierung unter Verwendung der NTM-Algorithmen finden Sie im Abschnitt Einführung in die Amazon-Algorithmen. Zum Öffnen eines Notebooks klicken Sie auf die Registerkarte Use (Verwenden) und wählen Sie Create copy (Kopie erstellen) aus.

DatenschutzNutzungsbedingungen für die WebsiteCookie-Einstellungen
© 2025, Amazon Web Services, Inc. oder Tochtergesellschaften. Alle Rechte vorbehalten.