Seleccione sus preferencias de cookies

Usamos cookies esenciales y herramientas similares que son necesarias para proporcionar nuestro sitio y nuestros servicios. Usamos cookies de rendimiento para recopilar estadísticas anónimas para que podamos entender cómo los clientes usan nuestro sitio y hacer mejoras. Las cookies esenciales no se pueden desactivar, pero puede hacer clic en “Personalizar” o “Rechazar” para rechazar las cookies de rendimiento.

Si está de acuerdo, AWS y los terceros aprobados también utilizarán cookies para proporcionar características útiles del sitio, recordar sus preferencias y mostrar contenido relevante, incluida publicidad relevante. Para aceptar o rechazar todas las cookies no esenciales, haga clic en “Aceptar” o “Rechazar”. Para elegir opciones más detalladas, haga clic en “Personalizar”.

Ejemplos de código para la inferencia por lotes

Modo de enfoque
Ejemplos de código para la inferencia por lotes - Amazon Bedrock

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Las traducciones son generadas a través de traducción automática. En caso de conflicto entre la traducción y la version original de inglés, prevalecerá la version en inglés.

Los ejemplos de código de este capítulo muestran cómo crear un trabajo de inferencia por lotes, ver información sobre el mismo y detenerlo. Seleccione un idioma para ver un ejemplo de código:

Python

Cree un archivo JSONL con un nombre abc.jsonl que contenga al menos el número mínimo de registros (consulteCuotas para Amazon Bedrock). Puede utilizar el siguiente contenido como primera línea y entrada:

{ "recordId": "CALL0000001", "modelInput": { "anthropic_version": "bedrock-2023-05-31", "max_tokens": 1024, "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Summarize the following call transcript: ..." } ] } ] } }

Cree un bucket de S3 denominado amzn-s3-demo-bucket-input y cargue el archivo en él. A continuación, cree un bucket de S3 llamado amzn-s3-demo-bucket-output para escribir sus archivos de salida. Ejecuta el siguiente fragmento de código para enviar un trabajo y obtenerlo jobArn de la respuesta:

import boto3 bedrock = boto3.client(service_name="bedrock") inputDataConfig=({ "s3InputDataConfig": { "s3Uri": "s3://amzn-s3-demo-bucket-input/abc.jsonl" } }) outputDataConfig=({ "s3OutputDataConfig": { "s3Uri": "s3://amzn-s3-demo-bucket-output/" } }) response=bedrock.create_model_invocation_job( roleArn="arn:aws:iam::123456789012:role/MyBatchInferenceRole", modelId="anthropic.claude-3-haiku-20240307-v1:0", jobName="my-batch-job", inputDataConfig=inputDataConfig, outputDataConfig=outputDataConfig ) jobArn = response.get('jobArn')

Devuelva la parte status del trabajo.

bedrock.get_model_invocation_job(jobIdentifier=jobArn)['status']

Enumere los trabajos de inferencia por lotes que. Failed

bedrock.list_model_invocation_jobs( maxResults=10, statusEquals="Failed", sortOrder="Descending" )

Detenga el trabajo que inició.

bedrock.stop_model_invocation_job(jobIdentifier=jobArn)

Cree un archivo JSONL con un nombre abc.jsonl que contenga al menos el número mínimo de registros (consulteCuotas para Amazon Bedrock). Puede utilizar el siguiente contenido como primera línea y entrada:

{ "recordId": "CALL0000001", "modelInput": { "anthropic_version": "bedrock-2023-05-31", "max_tokens": 1024, "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Summarize the following call transcript: ..." } ] } ] } }

Cree un bucket de S3 denominado amzn-s3-demo-bucket-input y cargue el archivo en él. A continuación, cree un bucket de S3 llamado amzn-s3-demo-bucket-output para escribir sus archivos de salida. Ejecuta el siguiente fragmento de código para enviar un trabajo y obtenerlo jobArn de la respuesta:

import boto3 bedrock = boto3.client(service_name="bedrock") inputDataConfig=({ "s3InputDataConfig": { "s3Uri": "s3://amzn-s3-demo-bucket-input/abc.jsonl" } }) outputDataConfig=({ "s3OutputDataConfig": { "s3Uri": "s3://amzn-s3-demo-bucket-output/" } }) response=bedrock.create_model_invocation_job( roleArn="arn:aws:iam::123456789012:role/MyBatchInferenceRole", modelId="anthropic.claude-3-haiku-20240307-v1:0", jobName="my-batch-job", inputDataConfig=inputDataConfig, outputDataConfig=outputDataConfig ) jobArn = response.get('jobArn')

Devuelva la parte status del trabajo.

bedrock.get_model_invocation_job(jobIdentifier=jobArn)['status']

Enumere los trabajos de inferencia por lotes que. Failed

bedrock.list_model_invocation_jobs( maxResults=10, statusEquals="Failed", sortOrder="Descending" )

Detenga el trabajo que inició.

bedrock.stop_model_invocation_job(jobIdentifier=jobArn)
PrivacidadTérminos del sitioPreferencias de cookies
© 2025, Amazon Web Services, Inc o sus afiliados. Todos los derechos reservados.