Exemplo de código para inferência em lote - Amazon Bedrock

As traduções são geradas por tradução automática. Em caso de conflito entre o conteúdo da tradução e da versão original em inglês, a versão em inglês prevalecerá.

Exemplo de código para inferência em lote

O exemplo de código neste capítulo mostra como criar um trabalho de inferência em lote, visualizar informações sobre ele e interrompê-lo.

Selecione uma linguagem para ver um exemplo de código dela:

Python

Crie um arquivo JSONL chamado abc.jsonl e inclua um objeto JSON para cada registro que contenha pelo menos o número mínimo de registros (consulte o número mínimo de registros por trabalho de inferência em lote para ver). {Model} Cotas do Amazon Bedrock Neste exemplo, você usará o Anthropic Claude 3 Haiku modelo. O exemplo a seguir mostra a primeira entrada JSON no arquivo:

{ "recordId": "CALL0000001", "modelInput": { "anthropic_version": "bedrock-2023-05-31", "max_tokens": 1024, "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Summarize the following call transcript: ..." } ] } ] } } ... # Add records until you hit the minimum

Crie um bucket do S3 chamado amzn-s3-demo-bucket-input e faça o upload do arquivo nele. Em seguida, crie um bucket S3 chamado amzn-s3-demo-bucket-output para gravar seus arquivos de saída. Execute o seguinte trecho de código para enviar um trabalho e obter jobArn a resposta:

import boto3 bedrock = boto3.client(service_name="bedrock") inputDataConfig=({ "s3InputDataConfig": { "s3Uri": "s3://amzn-s3-demo-bucket-input/abc.jsonl" } }) outputDataConfig=({ "s3OutputDataConfig": { "s3Uri": "s3://amzn-s3-demo-bucket-output/" } }) response=bedrock.create_model_invocation_job( roleArn="arn:aws:iam::123456789012:role/MyBatchInferenceRole", modelId="anthropic.claude-3-haiku-20240307-v1:0", jobName="my-batch-job", inputDataConfig=inputDataConfig, outputDataConfig=outputDataConfig ) jobArn = response.get('jobArn')

Retorne o status do trabalho.

bedrock.get_model_invocation_job(jobIdentifier=jobArn)['status']

Liste trabalhos de inferência em lote queFailed.

bedrock.list_model_invocation_jobs( maxResults=10, statusEquals="Failed", sortOrder="Descending" )

Interrompa o trabalho que começou.

bedrock.stop_model_invocation_job(jobIdentifier=jobArn)