Les traductions sont fournies par des outils de traduction automatique. En cas de conflit entre le contenu d'une traduction et celui de la version originale en anglais, la version anglaise prévaudra.
Note
Les filtres de contenu d'image Guardrails pour Amazon Bedrock sont en version préliminaire et sont susceptibles d'être modifiés.
Bloquez les images nuisibles à l'aide de filtres de contenu (aperçu)
Amazon Bedrock Guardrails peut aider à bloquer les images inappropriées ou nuisibles en activant l'image comme modalité lors de la configuration des filtres de contenu dans un garde-corps.
Conditions préalables et limites
-
La prise en charge de la détection et du blocage des images dangereuses dans les filtres de contenu est actuellement en version préliminaire et n'est pas recommandée pour les charges de travail de production.
-
Cette fonctionnalité n'est prise en charge que pour les images et n'est pas prise en charge pour les images contenant du contenu vidéo intégré.
-
Cette fonctionnalité n'est prise en charge que pour les catégories de haine, d'insultes, de sexualité et de violence dans les filtres de contenu, et non pour les autres catégories, y compris les fautes professionnelles et les attaques rapides.
-
Les utilisateurs peuvent télécharger des images d'une taille maximale de 4 Mo, avec un maximum de 20 images pour une seule demande.
-
Seuls PNG les JPEG formats et formats sont pris en charge pour le contenu des images.
Présentation
La détection et le blocage des images nuisibles sont pris en charge pour les catégories de haine, d'insultes, de sexualité et de violence dans les filtres de contenu, ainsi que pour les images ne contenant aucun texte. Outre le texte, les utilisateurs peuvent sélectionner la modalité d'image pour les catégories ci-dessus dans les filtres de contenu lors de la création d'un garde-corps, et définir l'intensité de filtrage correspondante sur NONE, LOW, MEDIUMou. HIGH Ces seuils seront communs au contenu du texte et de l'image pour ces catégories, si le texte et l'image sont sélectionnés. Guardrails évaluera les images envoyées en entrée par les utilisateurs ou générées en sortie à partir des réponses du modèle.
Les quatre catégories prises en charge pour la détection de contenus d'images dangereux sont décrites ci-dessous :
-
Haine — Décrit les contenus qui discriminent, critiquent, insultent, dénoncent ou déshumanisent une personne ou un groupe sur la base d'une identité (telle que la race, l'origine ethnique, le sexe, la religion, l'orientation sexuelle, les capacités et l'origine nationale). Il comprend également du contenu graphique et visuel réel présentant des symboles de groupes haineux, des symboles haineux et des images associées à diverses organisations promouvant la discrimination, le racisme et l'intolérance.
-
Insultes — Décrit le contenu qui inclut un langage dégradant, humiliant, moqueur, insultant ou dénigrant. Ce type de langage est également qualifié d’intimidation. Il englobe également diverses formes de gestes grossiers, irrespectueux ou offensants destinés à exprimer du mépris, de la colère ou de la désapprobation.
-
Sexuel — Décrit le contenu qui indique un intérêt, une activité ou une excitation sexuels en utilisant des références directes ou indirectes à des parties du corps, à des traits physiques ou au sexe. Il comprend également des images montrant des parties intimes et des activités sexuelles impliquant des rapports sexuels. Cette catégorie comprend également les dessins animés, les dessins animés, les dessins, les croquis et autres contenus illustrés sur des thèmes sexuels.
-
Violence — Décrit le contenu qui inclut la glorification ou les menaces d'infliger une douleur physique, des blessures ou des blessures à une personne, à un groupe ou à un objet.
Le filtre de contenu d'image Amazon Bedrock Guardrails est pris en charge dans les régions suivantes :
Région |
---|
USA Est (Virginie du Nord) |
USA Est (Ohio) |
USA Ouest (Oregon) |
AWS GovCloud (US-Ouest) |
Europe (Irlande) (accès sécurisé) |
Europe (Londres) |
Europe (Francfort) |
Asie-Pacifique (Mumbai) |
Asie-Pacifique (Séoul) |
Asie-Pacifique (Tokyo) |
Asie-Pacifique (Singapour) (accès sécurisé) |
Asie-Pacifique (Sydney) |
Asie-Pacifique (Mumbai) |
Vous pouvez utiliser le filtre de contenu d'image Amazon Bedrock Guardrails avec les modèles suivants :
Nom du modèle | ID du modèle |
---|---|
Titan Image Generator G1 | amazon. titan-image-generator-v1 |
Générateur d'images Titan G1 v2 | amazon. titan-image-generator-v2:0 |
SD3Grand 1.0 | stability.sd3-large-v 1:0 |
SDXL 1.0 | stabilité. stable-diffusion-xl-v1 |
Stable Image Core 1.0 | stabilité. stable-image-core-v1 |
Stable Image Ultra 1.0 | stabilité. stable-image-ultra-v1 |
Anthropic Claude 3 Haïku | anthropic.claude-3-haiku-20240307-v1 |
Anthropic Claude 3 opus | anthropic.claude-3-opus-20240229-v1 |
Anthropic Claude Sonnet 3 | anthropic.claude-3-sonnet-20240229-v1 |
Anthropic Claude 3.5 Sonnet | anthropic.claude-3-5-sonnet-20240620-v 1:0 |
Llama 3.2 11B Instruct | meta.llama3-2-11 1:0 b-instruct-v |
Llama 3.2 90B Instruct | meta.llama3-2-90 1:0 b-instruct-v |
Rubriques
Utilisation du filtre de contenu d'image
Création ou mise à jour d'un garde-corps avec des filtres de contenu pour les images
Lors de la création d'un nouveau garde-corps ou de la mise à jour d'un garde-corps existant, les utilisateurs verront désormais une option permettant de sélectionner une image (dans l'aperçu) en plus de l'option de texte existante. L'option image est disponible pour les catégories de haine, d'insultes, de sexualité ou de violence. (Remarque : par défaut, l'option texte est activée et l'option image doit être explicitement activée. Les utilisateurs peuvent choisir à la fois le texte et l'image ou l'un d'entre eux selon le cas d'utilisation.
Niveaux de classification et de blocage des filtres
Le filtrage est effectué sur la base de la classification de confiance des entrées utilisateur et des réponses FM. Toutes les entrées utilisateur et les réponses du modèle sont classées selon quatre niveaux de force : aucun, faible, moyen et élevé. La puissance du filtre détermine la sensibilité du filtrage des contenus nocifs. À mesure que la puissance du filtre augmente, la probabilité de filtrer le contenu préjudiciable augmente et la probabilité de voir du contenu nuisible dans votre application diminue. Lorsque les options d'image et de texte sont sélectionnées, la même intensité de filtre est appliquée aux deux modalités pour une catégorie particulière.
Pour configurer les filtres d'image et de texte pour les catégories dangereuses, sélectionnez Configurer le filtre des catégories dangereuses.
Note
Les filtres de contenu d'image sont disponibles dans l'aperçu et ne seront pas disponibles si le modèle n'utilise pas d'images pour les demandes ou les réponses.
-
Sélectionnez Texte et/ou Image pour filtrer le contenu du texte ou de l'image à partir des instructions ou des réponses vers et depuis le modèle.
-
Sélectionnez Aucun, Faible, Moyen ou Élevé pour le niveau de filtration que vous souhaitez appliquer à chaque catégorie. Le paramètre Élevé permet de bloquer le plus grand nombre de textes ou d'images correspondant à cette catégorie du filtre.
-
Sélectionnez Utiliser les mêmes filtres de catégories dangereuses pour les réponses afin d'utiliser les mêmes paramètres de filtre que ceux utilisés pour les invites. Vous pouvez également choisir d'avoir différents niveaux de filtre pour les invites ou les réponses en ne sélectionnant pas cette option. Sélectionnez Réinitialiser le seuil pour réinitialiser tous les niveaux de filtre pour les invites ou les réponses.
-
Sélectionnez Vérifier et créer ou Suivant pour créer le garde-corps.
Configuration des filtres de contenu pour les images avec API
Vous pouvez utiliser le garde-corps API pour configurer le filtre de contenu d'image dans Amazon Bedrock Guardrails. L'exemple ci-dessous montre un filtre Amazon Bedrock Guardrails avec différentes catégories de contenus dangereux et différentes intensités de filtrage appliquées. Vous pouvez utiliser ce modèle comme exemple pour votre propre cas d'utilisation.
Avec l'contentPolicyConfig
opération, filtersConfig
c'est un objet, comme indiqué dans l'exemple suivant.
Exemple de code Python Boto3 pour créer un garde-corps avec des filtres de contenu d'image
import boto3
import botocore
import json
def main():
bedrock = boto3.client('bedrock', region_name='us-east-1')
try:
create_guardrail_response = bedrock.create_guardrail(
name='my-image-guardrail
',
contentPolicyConfig={
'filtersConfig': [
{
'type': 'SEXUAL',
'inputStrength': 'HIGH',
'outputStrength': 'HIGH',
'inputModalities': ['TEXT', 'IMAGE'],
'outputModalities': ['TEXT', 'IMAGE']
},
{
'type': 'VIOLENCE',
'inputStrength': 'HIGH',
'outputStrength': 'HIGH',
'inputModalities': ['TEXT', 'IMAGE'],
'outputModalities': ['TEXT', 'IMAGE']
},
{
'type': 'HATE',
'inputStrength': 'HIGH',
'outputStrength': 'HIGH',
'inputModalities': ['TEXT', 'IMAGE'],
'outputModalities': ['TEXT', 'IMAGE']
},
{
'type': 'INSULTS',
'inputStrength': 'HIGH',
'outputStrength': 'HIGH',
'inputModalities': ['TEXT', 'IMAGE'],
'outputModalities': ['TEXT', 'IMAGE']
},
{
'type': 'MISCONDUCT',
'inputStrength': 'HIGH',
'outputStrength': 'HIGH',
'inputModalities': ['TEXT'],
'outputModalities': ['TEXT']
},
{
'type': 'PROMPT_ATTACK',
'inputStrength': 'HIGH',
'outputStrength': 'NONE',
'inputModalities': ['TEXT'],
'outputModalities': ['TEXT']
}
]
},
blockedInputMessaging='Sorry, the model cannot answer this question.',
blockedOutputsMessaging='Sorry, the model cannot answer this question.',
)
create_guardrail_response['createdAt'] = create_guardrail_response['createdAt'].strftime('%Y-%m-%d %H:%M:%S')
print("Successfully created guardrail with details:")
print(json.dumps(create_guardrail_response, indent=2))
except botocore.exceptions.ClientError as err:
print("Failed while calling CreateGuardrail API with RequestId = " + err.response['ResponseMetadata']['RequestId'])
raise err
if __name__ == "__main__":
main()
Configuration du filtre d'image à utiliser ApplyGuardrail API
Vous pouvez utiliser des filtres de contenu pour le contenu des images et du texte à l'aide du ApplyGuardrail API. Cette option vous permet d'utiliser les paramètres du filtre de contenu sans invoquer le modèle Amazon Bedrock. Vous pouvez mettre à jour la charge utile de la demande dans le script ci-dessous pour différents modèles en suivant la documentation des paramètres d'inférence pour chaque modèle de fondation pris en charge par Amazon Bedrock Guardrails.
Vous pouvez mettre à jour la charge utile de la demande dans le script ci-dessous pour différents modèles en suivant la documentation des paramètres d'inférence pour chaque modèle de fondation pris en charge par Amazon Bedrock Guardrails.
import boto3
import botocore
import json
guardrail_id = 'guardrail-id'
guardrail_version = 'DRAFT'
content_source = 'INPUT'
image_path = '/path/to/image.jpg'
with open(image_path, 'rb') as image:
image_bytes = image.read()
content = [
{
"text": {
"text": "Hi, can you explain this image art to me."
}
},
{
"image": {
"format": "jpeg",
"source": {
"bytes": image_bytes
}
}
}
]
def main():
bedrock_runtime_client = boto3.client("bedrock-runtime", region_name="us-east-1")
try:
print("Making a call to ApplyGuardrail API now")
response = bedrock_runtime_client.apply_guardrail(
guardrailIdentifier=guardrail_id,
guardrailVersion=guardrail_version,
source=content_source,
content=content
)
print("Received response from ApplyGuardrail API:")
print(json.dumps(response, indent=2))
except botocore.exceptions.ClientError as err:
print("Failed while calling ApplyGuardrail API with RequestId = " + err.response['ResponseMetadata']['RequestId'])
raise err
if __name__ == "__main__":
main()