Die vorliegende Übersetzung wurde maschinell erstellt. Im Falle eines Konflikts oder eines Widerspruchs zwischen dieser übersetzten Fassung und der englischen Fassung (einschließlich infolge von Verzögerungen bei der Übersetzung) ist die englische Fassung maßgeblich.
Vertrauen und Sicherheit
Benutzer generieren große Mengen an Textinhalten über Online-Anwendungen (wie peer-to-peer Chats und Forum-Diskussionen), Kommentare, die auf Websites veröffentlicht wurden, und über generative KI-Anwendungen (Eingabeaufforderungen und Ausgaben von generativen KI-Modellen). Die Amazon Comprehend Trust and Safety-Funktionen können Ihnen helfen, diese Inhalte zu moderieren, um Ihren Benutzern eine sichere und inklusive Umgebung zu bieten.
Zu den Vorteilen der Vertrauens- und Sicherheitsfunktionen von Amazon Comprehend gehören:
-
Schnellere Moderation: Moderieren Sie schnell und präzise große Textmengen, um Ihre Online-Plattformen von unangemessenen Inhalten frei zu halten.
-
Anpassbar: Passen Sie die Moderationsschwellenwerte in API-Antworten an Ihre Anwendungsanforderungen an.
-
Einfach zu bedienen: Konfigurieren Sie die Vertrauens- und Sicherheitsfunktionen durch LangChain Integration oder mithilfe der AWS CLI oder SDKs .
Amazon Comprehend-Vertrauens- und Sicherheitsmaßnahmen berücksichtigen die folgenden Aspekte der Inhaltsmoderation:
-
Toxicity detection – Erkennen Sie Inhalte, die schädlich, anstößig oder unangemessen sein können. Beispiele hierfür sind Hasssprache, Bedrohungen oder Missbrauch.
-
Intent classification – Erkennen Sie Inhalte, die explizite oder implizite böswillige Absichten haben. Beispiele hierfür sind diskriminierende oder illegale Inhalte oder Inhalte, die Empfehlungen zu medizinischen, rechtlichen, politischen, kontroversialen, persönlichen oder finanziellen Themen ausdrücken oder anfordern.
-
Privacy protection – Benutzer können versehentlich Inhalte bereitstellen, die persönlich identifizierbare Informationen (PII) preisgeben können. Amazon Comprehend PII bietet die Möglichkeit, PII zu erkennen und zu redigieren.
Erkennung der Sichtbarkeit
Die Erkennung von Amazon Comprehend microSD bietet Echtzeiterkennung synchroner Inhalte in textbasierten Interaktionen. Sie können die Erkennung von Trichtern verwenden, um peer-to-peer Konversationen auf Online-Plattformen zu moderieren oder generative KI-Eingaben und -Ausgaben zu überwachen.
Bei der Erkennung der Sichtbarkeit werden die folgenden Kategorien anstößiger Inhalte erkannt:
- GRAPHIC
-
Grafische Sprache verwendet visuell beschreibende, detaillierte und geografisch anschauliche Bilder. Eine solche Sprache wird oft ausführlich dargestellt, um einen Beleidigungsversuch, eine Anfeindung oder einen Gesundheitsvorfall für den Empfänger auszunutzen.
- HARASSMENT_OR_ABUSE
-
Sprache, die unabhängig von der Absicht eine störende Stromentwicklung zwischen dem Sprecher und dem Sprecher auslöst, versucht, sich auf das Widerstandsfähigkeit des Empfängers auszuwirken oder eine Person zu objektieren.
- HATE_SPEECH
-
Sprache, die eine Person oder eine Gruppe auf der Grundlage einer Identität beleidigt, beleidigt, beleidigt oder entmenschlich macht, sei es E-Mail-Abstammung, Benachteiligung, Geschlecht, Geschlecht, Orientierung, Fähigkeit, nationaler Ursprung oder eine andere Identitätsgruppe.
- INSULT
-
Sprache, die erniedrigende, erniedrigende, simulierende, beleidigende oder herabsetzende Sprache umfasst.
- PROFANITY
-
Sprache, die Wörter, Wortgruppen oder Akronyme enthält, die unhöflich, anstößig oder anstößig sind, wird als unecht angesehen.
- SEXUAL
-
Sprache, die auf ein gewisses Interesse, eine Aktivität oder einen erregenden Hinweis hinweist, indem direkte oder indirekte Verweise auf Körperteile oder physische Merkmale oder Ker verwendet werden.
- VIOLENCE_OR_THREAT
-
Sprache, die Bedrohungen umfasst, die einer Person oder Gruppe schädliche, benachteiligte oder feindselige Aktivitäten zuzufügen versuchen.
- TOXICITY
-
Sprache, die Wörter, Wortgruppen oder Akronyme enthält, die in einer der oben genannten Kategorien als statisch angesehen werden könnten.
Erkennen schädlicher Inhalte mithilfe der API
Verwenden Sie die synchrone -DetectToxicContentOperation, um schädliche Inhalte im Text zu erkennen. Dieser Vorgang führt eine Analyse für eine Liste von Textzeichenfolgen durch, die Sie als Eingabe angeben. Die API-Antwort enthält eine Ergebnisliste, die der Größe der Eingabeliste entspricht.
Derzeit unterstützt die Erkennung schädlicher Inhalte nur die englische Sprache. Für Eingabetext können Sie eine Liste mit bis zu 10 Textzeichenfolgen angeben. Jede Zeichenfolge hat eine maximale Größe von 1KB.
Die Erkennung schädlicher Inhalte gibt eine Liste der Analyseergebnisse zurück, einen Eintrag in der Liste für jede Eingabezeichenfolge. Ein Eintrag enthält eine Liste der in der Textzeichenfolge identifizierten Inhaltstypen sowie einen Konfidenzwert für jeden Inhaltstyp. Der Eintrag enthält auch einen Farbwert für die Zeichenfolge.
Die folgenden Beispiele zeigen, wie Sie die -DetectToxicContent
Operation mit und AWS CLI Python verwenden.
Prompt-Sicherheitsklassifizierung
Amazon Comprehend bietet einen vortrainierten binären Classifier zum Klassifizieren von Eingabeaufforderungen für Klartexteingaben für große Sprachmodelle (LLM) oder andere generative KI-Modelle.
Der Prompt-Sicherheitsklassifizierer analysiert die Eingabeaufforderung und weist einen Konfidenzwert zu, unabhängig davon, ob die Eingabeaufforderung sicher oder unsicher ist.
Eine unsichere Eingabeaufforderung ist eine Eingabeaufforderung, die böswillige Absichten ausdrückt, z. B. das Anfordern personenbezogener oder privater Informationen, das Generieren anstößiger oder illegaler Inhalte oder das Anfordern von Beratung zu medizinischen, rechtlichen, politischen oder finanziellen Themen.
Prompt-Sicherheitsklassifizierung mithilfe der API
Verwenden Sie die synchrone ClassifyDocument Operation , um die Prompt-Sicherheitsklassifizierung für eine Textzeichenfolge auszuführen. Für die Eingabe geben Sie eine englische Klartextzeichenfolge an. Die Zeichenfolge hat eine maximale Größe von 10 KB.
Die Antwort umfasst zwei Klassen (Speed und UNSpeed) sowie einen Konfidenzwert für jede Klasse. Der Wertebereich des Werts ist Null zu Eins, wobei einer die höchste Zuverlässigkeit darstellt.
Die folgenden Beispiele zeigen, wie Sie die Prompt-Sicherheitsklassifizierung mit und AWS CLI Python verwenden.
PII-Erkennung und -Schwärzung
Sie können die Amazon Comprehend-Konsole oder APIs verwenden, um persönlich identifizierbare Informationen (PII) in englischen oder spanischen Textdokumenten zu erkennen. PII ist ein Textverweis auf personenbezogene Daten, die eine Person identifizieren können. Beispiele für PII sind Adressen, Bankkontonummern und Telefonnummern.
Sie können die PII-Entitäten im Text erkennen oder redigieren. Um PII-Entitäten zu erkennen, können Sie Echtzeitanalysen oder einen asynchronen Batch-Auftrag verwenden. Um die PII-Entitäten zu redigieren, müssen Sie einen asynchronen Batch-Auftrag verwenden.
Weitere Informationen finden Sie unter Persönlich Identifizierbare Informationen (PII) .