Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Buat pekerjaan inferensi batch
catatan
Inferensi Batch dalam pratinjau dan dapat berubah sewaktu-waktu. Inferensi Batch saat ini hanya tersedia melalui API. Akses API batch melalui SDK berikut.
-
AWS SDK for
Java.
Kami menyarankan Anda membuat lingkungan virtual untuk menggunakan SDK. Karena API inferensi batch tidak tersedia di SDK terbaru, sebaiknya hapus instalan SDK versi terbaru dari lingkungan virtual sebelum menginstal versi dengan API inferensi batch. Untuk contoh yang dipandu, lihatSampel Kode.
Untuk membuat pekerjaan inferensi batch, kirim CreateModelInvocationJob
permintaan. Berikan informasi berikut.
-
ARN peran dengan izin untuk menjalankan inferensi batch di.
roleArn
-
Informasi untuk bucket S3 yang berisi data input
inputDataConfig
dan bucket tempat menulis informasi.outputDataConfig
-
ID model yang akan digunakan untuk inferensi di
modelId
(lihatID model dasar Amazon Bedrock (throughput sesuai permintaan) ). -
Sebuah nama untuk pekerjaan di
jobName
. -
(Opsional) Tag apa pun yang ingin Anda lampirkan ke pekerjaan
tags
.
Respons menampilkan sebuah jobArn
yang dapat Anda gunakan untuk panggilan API terkait inferensi batch lainnya.
Anda dapat memeriksa status
pekerjaan dengan ListModelInvocationJobs
API GetModelInvocationJob
atau API.
Saat tugasnyaCompleted
, Anda dapat mengekstrak hasil pekerjaan inferensi batch dari file di bucket S3 yang Anda tentukan dalam permintaan untuk. outputDataConfig
Bucket S3 berisi file-file berikut:
-
File keluaran yang berisi hasil inferensi model.
-
Jika outputnya adalah teks, Amazon Bedrock menghasilkan file JSONL keluaran untuk setiap file JSONL input. File output berisi output dari model untuk setiap input dalam format berikut. Sebuah
error
objek menggantikanmodelOutput
bidang di setiap baris di mana ada kesalahan dalam inferensi. Format objekmodelOutput
JSON cocok denganbody
bidang untuk model yang Anda gunakan dalamInvokeModel
respons. Untuk informasi selengkapnya, lihat Parameter inferensi untuk model pondasi.{ "recordId" : "
11 character alphanumeric string
", "modelInput":{JSON body}
, "modelOutput":{JSON body}
}Contoh berikut menunjukkan file output yang mungkin.
{ "recordId" : "3223593EFGH", "modelInput" : {"inputText": "Roses are red, violets are"}, "modelOutput" : {'inputTextTokenCount': 8, 'results': [{'tokenCount': 3, 'outputText': 'blue\n', 'completionReason': 'FINISH'}]}} { "recordId" : "1223213ABCD", "modelInput" : {"inputText": "Hello world"}, "error" : {"errorCode" : 400, "errorMessage" : "bad request" }}
-
Jika outputnya adalah gambar, Amazon Bedrock menghasilkan file untuk setiap gambar.
-
-
manifest.json.out
File yang berisi ringkasan pekerjaan inferensi batch.{ "processedRecordCount" : number, "successRecordCount": number, "errorRecordCount": number, "inputTextTokenCount": number, // For embedding/text to text models "outputTextTokenCount" : number, // For text to text models "outputImgCount512x512pStep50": number, // For text to image models "outputImgCount512x512pStep150" : number, // For text to image models "outputImgCount512x896pStep50" : number, // For text to image models "outputImgCount512x896pStep150" : number // For text to image models }