As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.
Depois de configurar um bucket do Amazon S3 com arquivos para executar a inferência do modelo, é possível criar um trabalho de inferência em lote. Antes de começar, verifique se você configurou os arquivos de acordo com as instruções descritas emFormatar e carregar os dados de inferência.
nota
Para enviar um trabalho de inferência em lote usando uma VPC, use a API. Selecione a guia API para saber como incluir a configuração da VPC.
Para saber como criar um trabalho de inferência em lote, escolha a guia do seu método preferido e siga as etapas:
Como criar um trabalho de inferência em lote
-
Faça login na função AWS Management Console usando uma função do IAM com as permissões do Amazon Bedrock e abra o console do Amazon Bedrock em. https://console.aws.amazon.com/bedrock/
-
No painel de navegação à esquerda, selecione Inferência em lote.
-
Na seção Trabalhos de inferência em lote, escolha Criar trabalho.
-
Na seção Detalhes do trabalho, forneça um Nome de trabalho ao trabalho de inferência em lote e selecione um modelo a ser usado para o trabalho de inferência em lote escolhendo Selecionar modelo.
-
Na seção Dados de entrada, escolha Procurar no S3 e selecione um local no S3 para seu trabalho de inferência em lote. A inferência em lote processa todo o JSONL e os arquivos de conteúdo que os acompanham nesse local do S3, seja o local uma pasta do S3 ou um único arquivo JSONL.
nota
Se os dados de entrada estiverem em um bucket do S3 que pertença a uma conta diferente daquela da qual você está enviando o trabalho, use a API para enviar o trabalho de inferência em lote. Para saber como fazer isso, selecione a guia API acima.
-
Na seção Dados de saída, escolha Procurar no S3 e selecione um local no S3 para armazenar os arquivos de saída do trabalho de inferência em lote. Por padrão, os dados de saída serão criptografados por um Chave gerenciada pela AWS. Para escolher uma chave do KMS personalizada, selecione Personalizar configurações de criptografia (avançado) e escolha uma chave. Para obter mais informações sobre a criptografia dos recursos do Amazon Bedrock e a configuração de uma chave do KMS personalizada, consulte Criptografia de dados.
nota
Se planejar gravar dados de saída em um bucket do S3 que pertença a uma conta diferente daquela da qual você está enviando o trabalho, use a API para enviar o trabalho de inferência em lote. Para saber como fazer isso, selecione a guia API acima.
-
Na seção Acesso ao serviço selecione uma das seguintes opções:
-
Usar um perfil de serviço existente: selecione um perfil de serviço na lista suspensa. Para obter mais informações sobre como configurar um perfil personalizado com as permissões apropriadas, consulte Permissões obrigatórias para a inferência em lote.
-
Criar e usar um novo perfil de serviço: insira um nome para o perfil de serviço.
-
-
(Opcional) Para associar tags ao trabalho de inferência em lote, expanda a seção Tags e adicione uma chave e um valor opcional para cada tag. Para obter mais informações, consulte Marcação de recursos do Amazon Bedrock.
-
Escolha Criar trabalho de inferência em lote.