本文属于机器翻译版本。若本译文内容与英语原文存在差异,则一律以英文原文为准。
设置格式并上传推理数据
注意
批量推理目前为预览版,可能会发生变化。Batch 推断目前只能通过。APIAPIs通过以下方式访问批处理SDKs。
我们建议您创建一个虚拟环境来使用SDK。由于批量推理在最新版本中APIs不可用SDKs,因此我们建议您在安装带有批处理推APIs理的版本之前,先SDK从虚拟环境中卸载最新版本的。有关指导性示例,请参阅代码示例。
使用以下格式将包含要输入到模型的数据JSONL的文件上传到您的 S3 存储桶。每行都应该遵循以下格式,并且是用于推理的不同项目。如果您遗漏了 recordId
字段,Amazon Bedrock 会将其添加到输出中。
注意
modelInput
JSONL对象的格式应与您在InvokeModel
请求中使用的模型的body
字段相匹配。有关更多信息,请参阅 根基模型的推理参数。
{ "recordId" : "
11 character alphanumeric string
", "modelInput" :{JSON body}
} ...
例如,您可以提供一个包含以下数据的JSONL文件,然后对Titan文本模型运行批量推理。
{ "recordId" : "
3223593EFGH
", "modelInput" : {"inputText": "Roses are red, violets are
"} } { "recordId" : "1223213ABCD
", "modelInput" : {"inputText": "Hello world
"} }