Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Amazon Bedrock Guardrails kann Schutzmaßnahmen für Ihre generativen KI-Anwendungen implementieren, die auf Ihren Anwendungsfällen und verantwortungsvollen KI-Richtlinien basieren. Sie können mehrere Guardrails erstellen, die auf unterschiedliche Anwendungsfälle zugeschnitten sind, und sie auf mehrere Foundation-Modelle (FM) anwenden, um eine konsistente Benutzererfahrung zu gewährleisten und die Sicherheits- und Datenschutzkontrollen für generative KI-Anwendungen zu standardisieren. Sie können Leitplanken sowohl für Benutzereingaben als auch für Modellierungen in natürlicher Sprache verwenden.
Guardrails können auf vielfältige Weise zum Schutz generativer KI-Anwendungen eingesetzt werden. Zum Beispiel:
Eine Chatbot-Anwendung kann Leitplanken verwenden, um schädliche Benutzereingaben und toxische Modellantworten herauszufiltern.
Eine Bankanwendung kann Leitplanken verwenden, um Benutzeranfragen zu blockieren oder Antworten im Zusammenhang mit der Suche oder Bereitstellung von Anlageberatung zu modellieren.
Eine Callcenter-Anwendung zur Zusammenfassung von Gesprächsprotokollen zwischen Benutzern und Agenten kann Leitplanken verwenden, um die personenbezogenen Daten (PII) der Benutzer zu unkenntlich zu machen, um die Privatsphäre der Benutzer zu schützen.
Amazon Bedrock Guardrails unterstützt die folgenden Richtlinien:
-
Inhaltsfilter — Passen Sie die Filterstärke an, um Eingabeaufforderungen zu blockieren oder Antworten mit schädlichen Inhalten zu modellieren. Die Filterung erfolgt auf der Grundlage der Erkennung bestimmter vordefinierter Kategorien schädlicher Inhalte — Hass, Beleidigungen, Sexualität, Gewalt, Fehlverhalten und Sofortiger Angriff.
-
Abgelehnte Themen — Definieren Sie eine Reihe von Themen, die im Kontext Ihrer Anwendung unerwünscht sind. Der Filter hilft dabei, sie zu blockieren, wenn sie in Benutzeranfragen oder Modellantworten entdeckt werden.
-
Wortfilter — Konfigurieren Sie Filter, um unerwünschte Wörter, Ausdrücke und Schimpfwörter (exakte Übereinstimmung) zu blockieren. Solche Wörter können beleidigende Begriffe, Namen von Wettbewerbern usw. enthalten.
-
Filter für vertrauliche Informationen — Konfigurieren Sie Filter, um vertrauliche Informationen wie personenbezogene Daten (PII) oder benutzerdefinierte reguläre Ausdrücke in Benutzereingaben und Modellantworten zu blockieren oder zu maskieren. Das Blockieren oder Maskieren erfolgt auf der Grundlage der probabilistischen Erkennung vertraulicher Informationen in Standardformaten in Entitäten wie SSN-Nummer, Geburtsdatum, Adresse usw. Dies ermöglicht auch die Konfiguration der Erkennung von Mustern für Identifikatoren, die auf regulären Ausdrücken basieren.
-
Prüfung der kontextuellen Erdung — Hilft dabei, Halluzinationen in Modellantworten zu erkennen und zu filtern, basierend auf der Grundierung in einer Quelle und der Relevanz für die Benutzerabfrage.
-
Bildinhaltsfilter — Hilft dabei, unangemessene oder giftige Bildinhalte zu erkennen und zu filtern. Benutzer können Filter für bestimmte Kategorien festlegen und die Filterstärke festlegen.
Zusätzlich zu den oben genannten Richtlinien können Sie die Nachrichten auch so konfigurieren, dass sie an den Benutzer zurückgesendet werden, wenn eine Benutzereingabe oder eine Musterantwort gegen die in der Guardrail definierten Richtlinien verstößt.
Experimentieren und vergleichen Sie mit verschiedenen Konfigurationen und stellen Sie mithilfe des integrierten Testfensters sicher, dass die Ergebnisse Ihren Anwendungsanforderungen entsprechen. Wenn Sie eine Leitplanke erstellen, steht Ihnen automatisch ein Arbeitsentwurf zur Verfügung, den Sie iterativ ändern können. Experimentieren Sie mit verschiedenen Konfigurationen und verwenden Sie das integrierte Testfenster, um zu sehen, ob sie für Ihren Anwendungsfall geeignet sind. Wenn Sie mit einer Reihe von Konfigurationen zufrieden sind, können Sie eine Version der Leitplanke erstellen und sie mit unterstützten Foundation-Modellen verwenden.
Guardrails können FMs während des Aufrufs der Inferenz-API direkt mit verwendet werden, indem die Guardrail-ID und die Version angegeben werden. Guardrails können auch direkt über die API verwendet werden, ohne dass die Foundation-Modelle aufgerufen werden müssen. ApplyGuardrail Wenn ein Guardrail verwendet wird, werden die Eingabeaufforderungen und die FM-Abschlüsse anhand der definierten Richtlinien bewertet.
Bei RAG-Anwendungen (Retrieval Augmented Generation) oder Konversationsanwendungen müssen Sie möglicherweise nur die Benutzereingaben in der Eingabeaufforderung auswerten und gleichzeitig Systemanweisungen, Suchergebnisse, den Konversationsverlauf oder einige kurze Beispiele verwerfen. Informationen zur selektiven Auswertung eines Abschnitts der Eingabeaufforderung finden Sie unter. Wenden Sie Tags auf Benutzereingaben an, um Inhalte zu filtern
Wichtig
-
Amazon Bedrock Guardrails unterstützt Englisch, Französisch und Spanisch in natürlicher Sprache. Guardrails ist in jeder anderen Sprache unwirksam.