Blocca i contenuti dannosi nei modelli che utilizzano Amazon Bedrock Guardrails - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Blocca i contenuti dannosi nei modelli che utilizzano Amazon Bedrock Guardrails

Amazon Bedrock Guardrails ti consente di implementare protezioni per le tue applicazioni di intelligenza artificiale generativa in base ai tuoi casi d'uso e alle politiche di intelligenza artificiale responsabili. Puoi creare più barriere su misura per diversi casi d'uso e applicarle a più modelli di base (FM), offrendo un'esperienza utente coerente e standardizzando i controlli di sicurezza e privacy nelle applicazioni di intelligenza artificiale generativa. È possibile utilizzare i guardrail con input utente basati su testo e risposte basate su modelli.

I guardrail possono essere utilizzati in diversi modi per salvaguardare le applicazioni di intelligenza artificiale generativa. Per esempio:

  • Un'applicazione chatbot può utilizzare guardrail per filtrare gli input dannosi degli utenti e le risposte tossiche dei modelli.

  • Un'applicazione bancaria può utilizzare i guardrail per bloccare le domande degli utenti o le risposte modello associate alla ricerca o alla fornitura di consulenza in materia di investimenti.

  • Un'applicazione di call center per riepilogare le trascrizioni delle conversazioni tra utenti e agenti può utilizzare i guardrail per oscurare le informazioni di identificazione personale degli utenti () per proteggere la privacy degli utenti. PII

È possibile configurare le seguenti politiche in un guardrail per evitare contenuti indesiderati e dannosi e rimuovere le informazioni sensibili per la protezione della privacy.

  • Filtri per i contenuti: regola la potenza dei filtri per bloccare le richieste di input o modellare le risposte contenenti contenuti dannosi.

  • Argomenti negati: definisci una serie di argomenti indesiderati nel contesto della tua applicazione. Questi argomenti verranno bloccati se rilevati nelle domande degli utenti o nelle risposte dei modelli.

  • Filtri di parole: configura i filtri per bloccare parole, frasi e parolacce indesiderate. Tali parole possono includere termini offensivi, nomi di concorrenti, ecc.

  • Filtri per informazioni sensibili: bloccano o mascherano informazioni sensibili come le informazioni di identificazione personale (PII) o espressioni regolari personalizzate negli input degli utenti e nelle risposte del modello.

  • Controllo contestuale del grounding: rileva e filtra le allucinazioni nelle risposte del modello in base alla provenienza e alla pertinenza della richiesta dell'utente.

Oltre alle politiche di cui sopra, puoi anche configurare i messaggi da restituire all'utente se l'input dell'utente o la risposta del modello violano le politiche definite nel guardrail.

Puoi creare più versioni di guardrail per il tuo guardrail. Quando create un guardrail, una bozza di lavoro è automaticamente disponibile da modificare in modo iterativo. Sperimentate diverse configurazioni e utilizzate la finestra di test integrata per vedere se sono adatte al vostro caso d'uso. Se sei soddisfatto di un set di configurazioni, puoi creare una versione del guardrail e utilizzarla con i modelli di base supportati.

I guardrail possono essere utilizzati direttamente FMs durante l'APIinvocazione dell'inferenza specificando l'ID del guardrail e la versione. Se viene utilizzato un guardrail, valuterà i prompt di input e i completamenti FM rispetto alle politiche definite.

Per le applicazioni di retrieval augmented generation (RAG) o conversazionali, potrebbe essere necessario valutare solo l'input dell'utente nel prompt di input, ignorando le istruzioni di sistema, i risultati della ricerca, la cronologia delle conversazioni o alcuni brevi esempi. Per valutare selettivamente una sezione del prompt di input, vedere. Applica tag all'input dell'utente per filtrare i contenuti

Importante

Amazon Bedrock Guardrails supporta solo la lingua inglese. La valutazione del contenuto di testo in altre lingue può portare a risultati inaffidabili.