Jalankan inferensi batch - Amazon Bedrock

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Jalankan inferensi batch

catatan

Inferensi Batch dalam pratinjau dan dapat berubah sewaktu-waktu. Inferensi Batch saat ini hanya tersedia melalui API. Akses API batch melalui SDK berikut.

Kami menyarankan Anda membuat lingkungan virtual untuk menggunakan SDK. Karena API inferensi batch tidak tersedia di SDK terbaru, sebaiknya hapus instalan SDK versi terbaru dari lingkungan virtual sebelum menginstal versi dengan API inferensi batch. Untuk contoh yang dipandu, lihatSampel Kode.

Dengan inferensi batch, Anda dapat menjalankan beberapa permintaan inferensi secara asinkron untuk memproses sejumlah besar permintaan secara efisien dengan menjalankan inferensi pada data yang disimpan dalam bucket S3. Anda dapat menggunakan inferensi batch untuk meningkatkan kinerja inferensi model pada kumpulan data besar.

catatan

Inferensi Batch tidak didukung untuk model yang disediakan.

Untuk melihat kuota untuk inferensi batch, lihat. Kuota inferensi Batch

Amazon Bedrock mendukung inferensi batch pada modalitas berikut.

  • Teks ke penyematan

  • Teks ke teks

  • Teks ke gambar

  • Gambar ke gambar

  • Gambar untuk penyematan

Anda menyimpan data Anda di bucket Amazon S3 untuk menyiapkannya untuk inferensi batch. Anda kemudian dapat melakukan dan mengelola pekerjaan inferensi batch melalui penggunaan ModelInvocationJob API.

Sebelum dapat melakukan inferensi batch, Anda harus menerima izin untuk memanggil API inferensi batch. Anda kemudian mengonfigurasi peran layanan IAM Amazon Bedrock agar memiliki izin untuk melakukan pekerjaan inferensi batch.

Anda dapat menggunakan API inferensi batch dengan mengunduh dan menginstal salah satu paket AWS SDK berikut.