Selecione suas preferências de cookies

Usamos cookies essenciais e ferramentas semelhantes que são necessárias para fornecer nosso site e serviços. Usamos cookies de desempenho para coletar estatísticas anônimas, para que possamos entender como os clientes usam nosso site e fazer as devidas melhorias. Cookies essenciais não podem ser desativados, mas você pode clicar em “Personalizar” ou “Recusar” para recusar cookies de desempenho.

Se você concordar, a AWS e terceiros aprovados também usarão cookies para fornecer recursos úteis do site, lembrar suas preferências e exibir conteúdo relevante, incluindo publicidade relevante. Para aceitar ou recusar todos os cookies não essenciais, clique em “Aceitar” ou “Recusar”. Para fazer escolhas mais detalhadas, clique em “Personalizar”.

Criar um trabalho de inferência em lote

Modo de foco
Criar um trabalho de inferência em lote - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Depois de configurar um bucket do Amazon S3 com arquivos para executar a inferência do modelo, é possível criar um trabalho de inferência em lote.

nota

Para enviar um trabalho de inferência em lote usando umVPC, você deve usar o. API Selecione a API guia para saber como incluir a VPC configuração.

Para saber como criar um trabalho de inferência em lote, escolha a guia do seu método preferido e siga as etapas:

Console
Como criar um trabalho de inferência em lote
  1. Faça login no AWS Management Console usando uma IAMfunção com as permissões do Amazon Bedrock e abra o console do Amazon Bedrock em. https://console.aws.amazon.com/bedrock/

  2. No painel de navegação à esquerda, selecione Inferência em lote.

  3. Na seção Trabalhos de inferência em lote, escolha Criar trabalho.

  4. Na seção Detalhes do trabalho, forneça um Nome de trabalho ao trabalho de inferência em lote e selecione um modelo a ser usado para o trabalho de inferência em lote escolhendo Selecionar modelo.

  5. Na seção Dados de entrada, escolha Procurar no S3 e selecione o local do S3 que contém os arquivos para o trabalho de inferência em lote. Verifique se os arquivos estão em conformidade com o formato descrito emFormatar e carregar os dados de inferência.

    nota

    Se os dados de entrada estiverem em um bucket do S3 que pertença a uma conta diferente daquela da qual você está enviando o trabalho, você deverá usar o API para enviar o trabalho de inferência em lote. Para saber como fazer isso, selecione a API guia acima.

  6. Na seção Dados de saída, escolha Procurar no S3 e selecione um local no S3 para armazenar os arquivos de saída do trabalho de inferência em lote. Por padrão, os dados de saída serão criptografados por um Chave gerenciada pela AWS. Para escolher uma KMS chave personalizada, selecione Personalizar configurações de criptografia (avançadas) e escolha uma chave. Para obter mais informações sobre a criptografia dos recursos do Amazon Bedrock e a configuração de uma KMS chave personalizada, consulteCriptografia de dados.

    nota

    Se você planeja gravar os dados de saída em um bucket do S3 que pertence a uma conta diferente daquela da qual você está enviando o trabalho, você deve usar o API para enviar o trabalho de inferência em lote. Para saber como fazer isso, selecione a API guia acima.

  7. Na seção Acesso ao serviço selecione uma das seguintes opções:

    • Usar um perfil de serviço existente: selecione um perfil de serviço na lista suspensa. Para obter mais informações sobre como configurar um perfil personalizado com as permissões apropriadas, consulte Permissões obrigatórias para a inferência em lote.

    • Criar e usar um novo perfil de serviço: insira um nome para o perfil de serviço.

  8. (Opcional) Para associar tags ao trabalho de inferência em lote, expanda a seção Tags e adicione uma chave e um valor opcional para cada tag. Para obter mais informações, consulte Marcação de recursos do Amazon Bedrock.

  9. Escolha Criar trabalho de inferência em lote.

API

Para criar um trabalho de inferência em lote, envie uma CreateModelInvocationJobsolicitação com um endpoint do plano de controle Amazon Bedrock.

Os campos a seguir são obrigatórios:

Campo Caso de uso
jobName Para especificar um nome para o trabalho.
roleArn Para especificar o Amazon Resource Name (ARN) da função de serviço com permissões para criar e gerenciar o trabalho. Para obter mais informações, consulte Crie uma função de serviço personalizada para inferência em lote.
modelId Para especificar o ID ou ARN o modelo a ser usado na inferência.
inputDataConfig Para especificar o local do S3 que contém os prompts e as configurações a serem enviados ao trabalho. Para obter mais informações, consulte Formatar e carregar os dados de inferência.
outputDataConfig Para especificar o local do S3 no qual gravar as respostas do modelo.

Os seguintes campos são opcionais:

Campo Caso de uso
timeoutDurationInHoras Para especificar a duração em horas após a qual o trabalho atingirá o tempo limite.
tags Para especificar qualquer tag a ser associada ao trabalho. Para obter mais informações, consulte Marcação de recursos do Amazon Bedrock.
vpcConfig Para especificar a VPC configuração a ser usada para proteger seus dados durante o trabalho. Para obter mais informações, consulte Proteja trabalhos de inferência em lote usando um VPC.
clientRequestToken Para garantir que a API solicitação seja concluída apenas uma vez. Para obter mais informações, consulte Ensuring idempotency.

A resposta retorna uma jobArn que você pode usar para se referir ao trabalho ao realizar outras chamadas relacionadas à inferência API em lote.

Como criar um trabalho de inferência em lote
  1. Faça login no AWS Management Console usando uma IAMfunção com as permissões do Amazon Bedrock e abra o console do Amazon Bedrock em. https://console.aws.amazon.com/bedrock/

  2. No painel de navegação à esquerda, selecione Inferência em lote.

  3. Na seção Trabalhos de inferência em lote, escolha Criar trabalho.

  4. Na seção Detalhes do trabalho, forneça um Nome de trabalho ao trabalho de inferência em lote e selecione um modelo a ser usado para o trabalho de inferência em lote escolhendo Selecionar modelo.

  5. Na seção Dados de entrada, escolha Procurar no S3 e selecione o local do S3 que contém os arquivos para o trabalho de inferência em lote. Verifique se os arquivos estão em conformidade com o formato descrito emFormatar e carregar os dados de inferência.

    nota

    Se os dados de entrada estiverem em um bucket do S3 que pertença a uma conta diferente daquela da qual você está enviando o trabalho, você deverá usar o API para enviar o trabalho de inferência em lote. Para saber como fazer isso, selecione a API guia acima.

  6. Na seção Dados de saída, escolha Procurar no S3 e selecione um local no S3 para armazenar os arquivos de saída do trabalho de inferência em lote. Por padrão, os dados de saída serão criptografados por um Chave gerenciada pela AWS. Para escolher uma KMS chave personalizada, selecione Personalizar configurações de criptografia (avançadas) e escolha uma chave. Para obter mais informações sobre a criptografia dos recursos do Amazon Bedrock e a configuração de uma KMS chave personalizada, consulteCriptografia de dados.

    nota

    Se você planeja gravar os dados de saída em um bucket do S3 que pertence a uma conta diferente daquela da qual você está enviando o trabalho, você deve usar o API para enviar o trabalho de inferência em lote. Para saber como fazer isso, selecione a API guia acima.

  7. Na seção Acesso ao serviço selecione uma das seguintes opções:

    • Usar um perfil de serviço existente: selecione um perfil de serviço na lista suspensa. Para obter mais informações sobre como configurar um perfil personalizado com as permissões apropriadas, consulte Permissões obrigatórias para a inferência em lote.

    • Criar e usar um novo perfil de serviço: insira um nome para o perfil de serviço.

  8. (Opcional) Para associar tags ao trabalho de inferência em lote, expanda a seção Tags e adicione uma chave e um valor opcional para cada tag. Para obter mais informações, consulte Marcação de recursos do Amazon Bedrock.

  9. Escolha Criar trabalho de inferência em lote.

PrivacidadeTermos do sitePreferências de cookies
© 2025, Amazon Web Services, Inc. ou suas afiliadas. Todos os direitos reservados.