翻訳は機械翻訳により提供されています。提供された翻訳内容と英語版の間で齟齬、不一致または矛盾がある場合、英語版が優先します。
バッチ推論のコード例
この章のコード例は、バッチ推論ジョブを作成し、その情報を表示して停止する方法を示しています。言語を選択すると、コードの例が表示されます。
- Python
-
最低限の数のレコードを含む
abc.jsonl
という名前の JSONL ファイルを作成します (「Amazon Bedrock のクォータ」を参照)。次の内容を最初の行と入力として使用できます。{ "recordId": "CALL0000001", "modelInput": { "anthropic_version": "bedrock-2023-05-31", "max_tokens": 1024, "messages": [ { "role": "user", "content": [ { "type": "text", "text": "Summarize the following call transcript: ..." } ] } ] } }
amzn-s3-demo-bucket-input
という名前の S3 バケットを作成し、そのバケットにファイルをアップロードします。次に、amzn-s3-demo-bucket-output
という名前の S3 バケットを作成して、出力ファイルを書き込みます。次のコードスニペットを実行してジョブを送信し、レスポンスからjobArn
を取得します。import boto3 bedrock = boto3.client(service_name="bedrock") inputDataConfig=({ "s3InputDataConfig": { "s3Uri": "s3://amzn-s3-demo-bucket-input/abc.jsonl" } }) outputDataConfig=({ "s3OutputDataConfig": { "s3Uri": "s3://amzn-s3-demo-bucket-output/" } }) response=bedrock.create_model_invocation_job( roleArn="arn:aws:iam::123456789012:role/MyBatchInferenceRole", modelId="anthropic.claude-3-haiku-20240307-v1:0", jobName="my-batch-job", inputDataConfig=inputDataConfig, outputDataConfig=outputDataConfig ) jobArn = response.get('jobArn')
ジョブの
status
を返します。bedrock.get_model_invocation_job(jobIdentifier=jobArn)['status']
失敗した
バッチ推論ジョブを一覧表示します。bedrock.list_model_invocation_jobs( maxResults=10, statusEquals="Failed", sortOrder="Descending" )
開始したジョブを停止します。
bedrock.stop_model_invocation_job(jobIdentifier=jobArn)
ジョブの結果を表示する
推論プロファイルを使用してモデル呼び出しリソースを設定する