Erweiterte Generierung beim Abrufen - Amazon SageMaker

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Erweiterte Generierung beim Abrufen

Grundlagenmodelle werden normalerweise offline trainiert, wodurch das Modell unabhängig von allen Daten ist, die nach dem Training des Modells erstellt wurden. Darüber hinaus werden Grundlagenmodelle mit sehr allgemeinen Domaindatensätzen trainiert, wodurch sie für domainspezifische Aufgaben weniger effektiv sind. Sie können Retrieval Augmented Generation (RAG) verwenden, um Daten von außerhalb eines Foundation-Modells abzurufen und Ihre Eingabeaufforderungen zu erweitern, indem Sie die relevanten abgerufenen Daten im Kontext hinzufügen. Weitere Informationen zu RAG Modellarchitekturen finden Sie unter Retrieval-Augmented Generation für wissensintensive Aufgaben. NLP

Dabei können die externen DatenRAG, die zur Erweiterung Ihrer Eingabeaufforderungen verwendet werden, aus mehreren Datenquellen stammen, z. B. aus Dokumentablagen, Datenbanken oder. APIs Der erste Schritt besteht darin, Ihre Dokumente und alle Benutzerabfragen in ein kompatibles Format zu konvertieren, um eine Relevanzsuche durchzuführen. Um die Formate kompatibel zu machen, werden eine Dokumentensammlung oder Wissensbibliothek und von Benutzern eingereichte Abfragen mithilfe von eingebetteten Sprachmodellen in numerische Darstellungen konvertiert. Beim Einbetten wird Text in einem Vektorraum numerisch dargestellt. RAGModellarchitekturen vergleichen die Einbettungen von Benutzeranfragen innerhalb des Vektors der Wissensbibliothek. Die ursprüngliche Eingabeaufforderung wird dann mit relevantem Kontext aus ähnlichen Dokumenten in der Wissensbibliothek angehängt. Diese erweiterte Eingabeaufforderung wird dann an das Grundlagenmodell gesendet. Sie können Wissensbibliotheken und ihre relevanten Einbettungen asynchron aktualisieren.

A model architecture diagram of Retrieval Augmented Generation (RAG).

Das abgerufene Dokument sollte groß genug sein, um nützlichen Kontext zur Erweiterung der Eingabeaufforderung zu enthalten, aber klein genug, um in die maximale Sequenzlänge der Eingabeaufforderung zu passen. Sie können aufgabenspezifische JumpStart Modelle verwenden, z. B. das Modell General Text Embeddings (GTE) von, um die Einbettungen für Ihre Hugging Face Eingabeaufforderungen und Wissensbibliotheksdokumente bereitzustellen. Nachdem Sie die Eingabeaufforderung mit den eingebetteten Dokumenten verglichen haben, um die relevantesten Dokumente zu finden, erstellen Sie eine neue Eingabeaufforderung mit dem ergänzenden Kontext. Übergeben Sie dann die erweiterte Eingabeaufforderung an ein Textgenerierungsmodell Ihrer Wahl.

Beispiel-Notebooks

Weitere Informationen zu RAG Foundation-Model-Lösungen finden Sie in den folgenden Beispiel-Notebooks:

Sie können das SageMaker Amazon-Beispiel-Repository klonen, um die verfügbaren JumpStart Foundation-Model-Beispiele in der Jupyter-Umgebung Ihrer Wahl in Studio auszuführen. Weitere Informationen zu Anwendungen, mit denen Sie Jupyter erstellen und in denen Sie darauf zugreifen können, finden Sie unter. SageMaker In Amazon SageMaker Studio unterstützte Anwendungen