Generative KI-Optionen für die Abfrage benutzerdefinierter Dokumente - AWS Präskriptive Leitlinien

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Generative KI-Optionen für die Abfrage benutzerdefinierter Dokumente

Organizations verfügen häufig über verschiedene Quellen für strukturierte und unstrukturierte Daten. Dieser Leitfaden konzentriert sich darauf, wie Sie generative KI verwenden können, um Fragen aus unstrukturierten Daten zu beantworten.

Unstrukturierte Daten in Ihrem Unternehmen können aus verschiedenen Quellen stammen. Dies können Textdateien PDFs, interne Wikis, technische Dokumente, öffentlich zugängliche Websites, Wissensdatenbanken oder andere sein. Wenn Sie ein Basismodell benötigen, das Fragen zu unstrukturierten Daten beantworten kann, sind die folgenden Optionen verfügbar:

  • Trainieren Sie ein neues Basismodell, indem Sie Ihre benutzerdefinierten Dokumente und andere Trainingsdaten verwenden

  • Optimieren Sie ein vorhandenes Basismodell, indem Sie Daten aus Ihren benutzerdefinierten Dokumenten verwenden

  • Verwenden Sie kontextbezogenes Lernen, um ein Dokument an das Foundation-Modell weiterzugeben, wenn Sie eine Frage stellen

  • Verwenden Sie einen RAG-Ansatz (Retrieval Augmented Generation)

Es ist ein ehrgeiziges Unterfangen, ein neues Basismodell von Grund auf neu zu entwickeln, das Ihre benutzerdefinierten Daten enthält. Einige Unternehmen haben es erfolgreich gemacht, wie zum Beispiel Bloomberg mit ihren BloombergGPTModell. Ein anderes Beispiel ist das multimodale EXAONEModell von LG AI Research, das anhand von 600 Milliarden Kunstwerken und 250 Millionen hochauflösenden Bildern, begleitet von Text, trainiert wurde. Laut The Cost of AI: Sollten Sie Ihr Fundamentmodell bauen oder kaufen (LinkedIn), ein Modell ähnlich wie Meta Llama 2 Die Ausbildung kostet rund 4,8 Millionen US-Dollar. Es gibt zwei Hauptvoraussetzungen, um ein Modell von Grund auf zu trainieren: Zugang zu Ressourcen (finanzielle, technische, zeitliche) und eine klare Investitionsrendite. Wenn dies nicht die richtige Lösung zu sein scheint, besteht die nächste Option darin, ein vorhandenes Basismodell zu verfeinern.

Bei der Feinabstimmung eines vorhandenen Modells wird ein Modell, z. B. ein Amazon Titan-, Mistral- oder Lama-Modell, verwendet und das Modell anschließend an Ihre benutzerdefinierten Daten angepasst. Es gibt verschiedene Techniken zur Feinabstimmung, von denen die meisten nur die Änderung einiger weniger Parameter beinhalten, anstatt alle Parameter im Modell zu ändern. Dies wird als parametereffiziente Feinabstimmung bezeichnet. Es gibt zwei Hauptmethoden für die Feinabstimmung:

  • Die überwachte Feinabstimmung verwendet beschriftete Daten und hilft Ihnen, das Modell für eine neue Art von Aufgabe zu trainieren. Wenn Sie beispielsweise einen Bericht auf der Grundlage eines PDF-Formulars erstellen möchten, müssen Sie dem Modell möglicherweise anhand von ausreichend Beispielen beibringen, wie das geht.

  • Die unbeaufsichtigte Feinabstimmung ist aufgabenunabhängig und passt das Basismodell an Ihre eigenen Daten an. Es trainiert das Modell, den Kontext Ihrer Dokumente zu verstehen. Das fein abgestimmte Modell erstellt dann Inhalte, z. B. einen Bericht, und verwendet dabei einen Stil, der besser an Ihre Organisation angepasst ist.

Eine Feinabstimmung ist jedoch möglicherweise nicht ideal für Anwendungsfälle mit Fragen und Antworten. Weitere Informationen finden Sie unter Vergleich von RAG und Feinabstimmung in diesem Handbuch.

Wenn Sie eine Frage stellen, können Sie einem Dokument das Grundlagenmodell übergeben und das kontextbezogene Lernen des Modells nutzen, um Antworten aus dem Dokument zurückzugeben. Diese Option eignet sich für die Ad-hoc-Abfrage eines einzelnen Dokuments. Diese Lösung eignet sich jedoch nicht gut für die Abfrage mehrerer Dokumente oder für die Abfrage von Systemen und Anwendungen wie Microsoft SharePoint oder Atlassian Confluence.

Die letzte Option ist die Verwendung von RAG. Bei RAG referenziert das Foundation-Modell Ihre benutzerdefinierten Dokumente, bevor eine Antwort generiert wird. RAG erweitert die Funktionen des Modells auf die interne Wissensdatenbank Ihres Unternehmens, ohne dass das Modell neu trainiert werden muss. Es ist ein kostengünstiger Ansatz zur Verbesserung der Modellergebnisse, sodass sie in verschiedenen Kontexten relevant, genau und nützlich bleiben.