Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Bloqueie imagens nocivas com os filtros de conteúdo de imagem

Modo de foco
Bloqueie imagens nocivas com os filtros de conteúdo de imagem - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

nota

Os filtros de conteúdo de imagem Guardrails para Amazon Bedrock estão em versão prévia e estão sujeitos a alterações.

Bloqueie imagens nocivas com filtros de conteúdo (Pré-visualização)

O Amazon Bedrock Guardrails pode ajudar a bloquear imagens inapropriadas ou prejudiciais, habilitando a imagem como uma modalidade e configurando filtros de conteúdo dentro de uma grade de proteção.

Pré-requisitos e limitações

  • O suporte para detectar e bloquear imagens nocivas em filtros de conteúdo está atualmente em versão prévia e não é recomendado para cargas de trabalho de produção.

  • Esse recurso é suportado somente para imagens e não para imagens com conteúdo de vídeo incorporado.

  • Esse recurso só é compatível com as categorias Ódio, Insultos, Sexualidade e Violência nos filtros de conteúdo, e não em nenhuma outra categoria, incluindo má conduta e ataques imediatos.

  • Os usuários podem fazer upload de imagens com tamanhos de até 4 MB, com no máximo 20 imagens para uma única solicitação.

  • Somente JPEG formatos PNG e formatos são suportados para conteúdo de imagem.

Visão geral

A detecção e o bloqueio de imagens nocivas são compatíveis com as categorias Ódio, Insultos, Sexualidade e Violência nos filtros de conteúdo e com imagens sem texto. Além do texto, os usuários podem selecionar a modalidade de imagem para as categorias acima nos filtros de conteúdo ao criar uma grade de proteção e definir a respectiva intensidade de filtragem como NONE,, LOWou. MEDIUMHIGH Esses limites serão comuns ao conteúdo de texto e imagem dessas categorias, se texto e imagem forem selecionados. Os guardrails avaliarão as imagens enviadas como entrada pelos usuários ou geradas como saída das respostas do modelo.

As quatro categorias suportadas para detecção de conteúdo de imagem nocivo estão descritas abaixo:

  • Ódio — descreve conteúdos que discriminam, criticam, insultam, denunciam ou desumanizam uma pessoa ou grupo com base em uma identidade (como raça, etnia, gênero, religião, orientação sexual, habilidade e origem nacional). Também inclui conteúdo visual gráfico e real exibindo símbolos de grupos de ódio, símbolos de ódio e imagens associadas a várias organizações que promovem discriminação, racismo e intolerância.

  • Insultos — descreve conteúdo que inclui linguagem humilhante, humilhante, zombeteira, insultante ou depreciativa. Esse tipo de linguagem também é chamado de bullying. Também abrange várias formas de gestos rudes, desrespeitosos ou ofensivos com as mãos destinados a expressar desprezo, raiva ou desaprovação.

  • Sexual — descreve conteúdo que indica interesse, atividade ou excitação sexual usando referências diretas ou indiretas a partes do corpo, características físicas ou sexo. Também inclui imagens mostrando partes íntimas e atividades sexuais envolvendo relações sexuais. Essa categoria também inclui desenhos animados, animes, desenhos, esboços e outros conteúdos ilustrados com temas sexuais.

  • Violência — descreve conteúdo que inclui glorificação ou ameaças de infligir dor física, mágoa ou ferimento a uma pessoa, grupo ou coisa.

O filtro de conteúdo de imagem Amazon Bedrock Guardrails é compatível com as seguintes regiões:

Região
Leste dos EUA (Norte da Virgínia)
Leste dos EUA (Ohio)
Oeste dos EUA (Oregon)
AWS GovCloud (Oeste dos EUA)
Europa (Irlanda): (acesso fechado)
Europa (Londres)
Europa (Frankfurt)
Ásia-Pacífico (Mumbai)
Ásia-Pacífico (Seul)
Ásia-Pacífico (Tóquio)
Ásia-Pacífico (Singapura) (acesso fechado)
Ásia-Pacífico (Sydney)
Ásia-Pacífico (Mumbai)

Você pode usar o filtro de conteúdo de imagem Amazon Bedrock Guardrails com os seguintes modelos:

Nome do modelo ID do modelo
Titan Image Generator G1 amazônia. titan-image-generator-v1
Gerador de imagens Titan G1 v2 amazônia. titan-image-generator-v2:0
SD3 Large 1.0 estabilidade.sd3-large-v 1:0
SDXL 1.0 estabilidade. stable-diffusion-xl-v1
Stable Image Core 1.0 estabilidade. stable-image-core-v1
Stable Image Ultra 1.0 estabilidade. stable-image-ultra-v1
Anthropic Claude 3 Haicai anthropic.claude-3-haiku-20240307-v1
Anthropic Claude 3 Opus anthropic.claude-3-opus-20240229-v1
Anthropic Claude 3 Soneto anthropic.claude-3-sonnet-20240229-v1
Anthropic Claude 3.5 Soneto anthropic.claude-3-5-sonnet-20240620-v1:0
Llama 3.2 11B Instruct meta.llama3-2-11 1:0 b-instruct-v
Llama 3.2 90B Instruct meta.llama3-2-90 1:0 b-instruct-v

Usando o filtro de conteúdo de imagem

Criando ou atualizando um guardrail com filtros de conteúdo para imagens

Ao criar uma nova grade de proteção ou atualizar uma grade de proteção existente, os usuários agora verão uma opção para selecionar a imagem (na visualização prévia), além da opção de texto existente. A opção de imagem está disponível nas categorias Ódio, Insultos, Sexual ou Violência. (Observação: por padrão, a opção de texto está ativada e a opção de imagem precisa ser ativada explicitamente. Os usuários podem escolher texto e imagem ou qualquer um deles, dependendo do caso de uso.

Classificação do filtro e níveis de bloqueio

A filtragem é feita com base na classificação de confiança das entradas do usuário e das respostas FM. Todas as entradas do usuário e as respostas do modelo são classificadas em quatro níveis de força: Nenhum, Baixo, Médio e Alto. A intensidade do filtro determina a sensibilidade da filtragem de conteúdo prejudicial. À medida que a intensidade do filtro aumenta, a probabilidade de filtrar conteúdo prejudicial aumenta, e a probabilidade de ver conteúdo prejudicial na aplicação diminui. Quando as opções de imagem e texto são selecionadas, a mesma intensidade de filtro é aplicada às duas modalidades para uma categoria específica.

  1. Para configurar filtros de imagem e texto para categorias nocivas, selecione Configurar filtro de categorias nocivas.

    nota

    Os filtros de conteúdo de imagem estão em pré-visualização e não estarão disponíveis se o modelo não usar imagens para solicitações ou respostas do modelo.

  2. Selecione Texto e/ou Imagem para filtrar o conteúdo de texto ou imagem a partir de solicitações ou respostas de e para o modelo.

  3. Selecione Nenhum, Baixo, Médio ou Alto para o nível de filtragem que você deseja aplicar a cada categoria. Uma configuração de Alto ajuda a bloquear a maioria dos textos ou imagens que se aplicam a essa categoria do filtro.

  4. Selecione Usar os mesmos filtros de categorias prejudiciais para respostas para usar as mesmas configurações de filtro usadas para solicitações. Você também pode optar por ter diferentes níveis de filtro para solicitações ou respostas ao não selecionar essa opção. Selecione Redefinir limite para redefinir todos os níveis de filtro para solicitações ou respostas.

  5. Selecione Revisar e criar ou Avançar para criar a grade de proteção.

Configurando filtros de conteúdo para imagens com API

Você pode usar o corrimão API para configurar o filtro de conteúdo de imagem no Amazon Bedrock Guardrails. O exemplo abaixo mostra um filtro Amazon Bedrock Guardrails com diferentes categorias de conteúdo nocivo e diferentes intensidades de filtro aplicadas. Você pode usar esse modelo como exemplo para seu próprio caso de uso.

Com a contentPolicyConfig operação, filtersConfig é um objeto, conforme mostrado no exemplo a seguir.

Exemplo de código Python Boto3 para criar uma grade de proteção com filtros de conteúdo de imagem

import boto3 import botocore import json def main(): bedrock = boto3.client('bedrock', region_name='us-east-1') try: create_guardrail_response = bedrock.create_guardrail( name='my-image-guardrail', contentPolicyConfig={ 'filtersConfig': [ { 'type': 'SEXUAL', 'inputStrength': 'HIGH', 'outputStrength': 'HIGH', 'inputModalities': ['TEXT', 'IMAGE'], 'outputModalities': ['TEXT', 'IMAGE'] }, { 'type': 'VIOLENCE', 'inputStrength': 'HIGH', 'outputStrength': 'HIGH', 'inputModalities': ['TEXT', 'IMAGE'], 'outputModalities': ['TEXT', 'IMAGE'] }, { 'type': 'HATE', 'inputStrength': 'HIGH', 'outputStrength': 'HIGH', 'inputModalities': ['TEXT', 'IMAGE'], 'outputModalities': ['TEXT', 'IMAGE'] }, { 'type': 'INSULTS', 'inputStrength': 'HIGH', 'outputStrength': 'HIGH', 'inputModalities': ['TEXT', 'IMAGE'], 'outputModalities': ['TEXT', 'IMAGE'] }, { 'type': 'MISCONDUCT', 'inputStrength': 'HIGH', 'outputStrength': 'HIGH', 'inputModalities': ['TEXT'], 'outputModalities': ['TEXT'] }, { 'type': 'PROMPT_ATTACK', 'inputStrength': 'HIGH', 'outputStrength': 'NONE', 'inputModalities': ['TEXT'], 'outputModalities': ['TEXT'] } ] }, blockedInputMessaging='Sorry, the model cannot answer this question.', blockedOutputsMessaging='Sorry, the model cannot answer this question.', ) create_guardrail_response['createdAt'] = create_guardrail_response['createdAt'].strftime('%Y-%m-%d %H:%M:%S') print("Successfully created guardrail with details:") print(json.dumps(create_guardrail_response, indent=2)) except botocore.exceptions.ClientError as err: print("Failed while calling CreateGuardrail API with RequestId = " + err.response['ResponseMetadata']['RequestId']) raise err if __name__ == "__main__": main()

Configurando o filtro de imagem para trabalhar com ApplyGuardrail API

Você pode usar filtros de conteúdo para conteúdo de imagem e texto usando ApplyGuardrail API o. Essa opção permite que você use as configurações do filtro de conteúdo sem invocar o modelo Amazon Bedrock. Você pode atualizar a carga útil da solicitação no script abaixo para vários modelos seguindo a documentação dos parâmetros de inferência para cada modelo de base fundamental que é suportado pelo Amazon Bedrock Guardrails.

Você pode atualizar a carga útil da solicitação no script abaixo para vários modelos seguindo a documentação dos parâmetros de inferência para cada modelo de base fundamental que é suportado pelo Amazon Bedrock Guardrails.

import boto3 import botocore import json guardrail_id = 'guardrail-id' guardrail_version = 'DRAFT' content_source = 'INPUT' image_path = '/path/to/image.jpg' with open(image_path, 'rb') as image: image_bytes = image.read() content = [ { "text": { "text": "Hi, can you explain this image art to me." } }, { "image": { "format": "jpeg", "source": { "bytes": image_bytes } } } ] def main(): bedrock_runtime_client = boto3.client("bedrock-runtime", region_name="us-east-1") try: print("Making a call to ApplyGuardrail API now") response = bedrock_runtime_client.apply_guardrail( guardrailIdentifier=guardrail_id, guardrailVersion=guardrail_version, source=content_source, content=content ) print("Received response from ApplyGuardrail API:") print(json.dumps(response, indent=2)) except botocore.exceptions.ClientError as err: print("Failed while calling ApplyGuardrail API with RequestId = " + err.response['ResponseMetadata']['RequestId']) raise err if __name__ == "__main__": main()
PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.