Was ist Prompt-Engineering? - Amazon Bedrock

Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.

Was ist Prompt-Engineering?

Prompt-Engineering bezieht sich auf die Praxis, Eingabeaufforderungen zu erstellen und zu optimieren, indem geeignete Wörter, Ausdrücke, Sätze, Satzzeichen und Trennzeichen ausgewählt werden, um LLMs für eine Vielzahl von Anwendungen effektiv einzusetzen. Mit anderen Worten, Prompt-Engineering ist die Kunst, mit einem LLM zu kommunizieren. Qualitativ hochwertige Eingabeaufforderungen bereiten das LLM darauf vor, die gewünschten oder bessere Antworten zu generieren. Die detaillierten Anleitungen in diesem Dokument gelten für alle LLMs innerhalb von Amazon Bedrock.

Welcher Prompt-Engineering-Ansatz für Ihren Anwendungsfall am besten geeignet ist, hängt sowohl von der Aufgabe als auch von den Daten ab. Zu den gängigen Aufgaben, die von LLMs in Amazon Bedrock unterstützt werden, gehören:

  • Klassifizierung: Die Aufforderung enthält eine Frage mit mehreren Antwortmöglichkeiten und das Modell muss mit der richtigen Antwort antworten. Ein Beispiel für einen Anwendungsfall der Klassifizierung ist die Stimmungsanalyse: Die Eingabe ist eine Textpassage und das Modell muss die Stimmung des Textes klassifizieren, z. B. ob er positiv oder negativ, harmlos oder toxisch ist.

  • Frage-Antwort, ohne Kontext: Das Modell muss die Frage mit seinem internen Wissen ohne Kontext oder Dokument beantworten.

  • Frage-Antwort, mit Kontext: Der Benutzer stellt einen Eingabetext mit einer Frage zur Verfügung und das Modell muss die Frage auf der Grundlage der im Eingabetext bereitgestellten Informationen beantworten.

  • Zusammenfassung: Die Eingabeaufforderung ist eine Textpassage und das Modell muss mit einer kürzeren Passage antworten, die die wichtigsten Punkte der Eingabe erfasst.

  • Textgenerierung mit offenem Ende: Auf eine Eingabeaufforderung muss das Modell mit einer Passage des Ursprungstexts antworten, die der Beschreibung entspricht. Dazu gehört auch die Generierung von kreativem Text wie Geschichten, Gedichte oder Drehbücher.

  • Codegenerierung: Das Modell muss Code auf der Grundlage von Benutzerspezifikationen generieren. Eine Eingabeaufforderung könnte beispielsweise die Generierung von Text-to-SQL- oder Python-Code anfordern.

  • Mathematik: Die Eingabe beschreibt ein Problem, das in gewissem Maße mathematische Überlegungen erfordert, die numerischer, logischer, geometrischer oder anderer Natur sein können.

  • Argumentation oder logisches Denken: Das Modell muss eine Reihe logischer Schlussfolgerungen ziehen.

  • Extraktion von Entitäten: Durch die Extraktion von Entitäten können Entitäten auf der Grundlage einer bereitgestellten Eingabefrage extrahiert werden. Sie können basierend auf Ihrer Aufforderung bestimmte Entitäten aus Text oder Eingabe extrahieren.

  • hain-of-thought Argumentation in C: step-by-step Begründen Sie, wie eine Antwort auf der Grundlage Ihrer Aufforderung abgeleitet wird.