Componenti di un guardrail - Amazon Bedrock

Le traduzioni sono generate tramite traduzione automatica. In caso di conflitto tra il contenuto di una traduzione e la versione originale in Inglese, quest'ultima prevarrà.

Componenti di un guardrail

Guardrails for Amazon Bedrock consiste in una raccolta di diverse politiche di filtraggio che puoi configurare per evitare contenuti indesiderati e dannosi e rimuovere o mascherare informazioni sensibili per la protezione della privacy.

Puoi configurare le seguenti politiche in un guardrail:

  • Filtri di contenuto: puoi configurare delle soglie per bloccare i prompt di input o modellare le risposte contenenti contenuti dannosi come odio, insulti, atti sessuali, violenti, scorretti (comprese le attività criminali) e attacchi immediati (iniezione immediata e jailbreak). Ad esempio, un sito di e-commerce può progettare il proprio assistente online in modo da evitare l'uso di un linguaggio inappropriato, come incitamento all'odio o insulti.

  • Argomenti negati: puoi definire una serie di argomenti da evitare all'interno della tua applicazione di intelligenza artificiale generativa. Ad esempio, un'applicazione di assistente bancario può essere progettata per evitare argomenti relativi alla consulenza illegale in materia di investimenti.

  • Filtri di parole: puoi configurare un set di parole o frasi personalizzate che desideri rilevare e bloccare nell'interazione tra gli utenti e le applicazioni di intelligenza artificiale generativa. Ad esempio, puoi rilevare e bloccare parolacce, nonché parole personalizzate specifiche come i nomi dei concorrenti o altre parole offensive.

  • Filtri per informazioni sensibili: è possibile rilevare contenuti sensibili come informazioni di identificazione personale (PII) o entità regex personalizzate negli input degli utenti e nelle risposte FM. In base al caso d'uso, è possibile rifiutare gli input contenenti informazioni sensibili o oscurarli nelle risposte FM. Ad esempio, puoi oscurare le informazioni personali degli utenti generando riepiloghi dalle trascrizioni delle conversazioni con clienti e agenti.

  • Controllo contestuale del fondamento: è possibile rilevare e filtrare le allucinazioni nelle risposte del modello se non sono fondate (di fatto imprecise o aggiungono nuove informazioni) nelle informazioni di origine o sono irrilevanti rispetto alla richiesta dell'utente. Ad esempio, è possibile bloccare o contrassegnare le risposte nelle applicazioni RAG (generazione aumentata di recupero), se le risposte del modello si discostano dalle informazioni nei passaggi recuperati o non rispondono alla domanda dell'utente.