Menjalankan inferensi pada model terlatih di AWS Clean Rooms - AWS Clean Rooms

Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.

Menjalankan inferensi pada model terlatih di AWS Clean Rooms

Anggota dengan kemampuan untuk menjalankan kueri juga dapat memulai pekerjaan inferensi setelah pekerjaan pelatihan selesai. Mereka memilih kumpulan data inferensi yang ingin mereka jalankan inferensi dan mereferensikan keluaran model terlatih yang ingin mereka jalankan dengan wadah inferensi.

Anggota yang akan menerima output inferensi harus diberikan kemampuan CAN_RECEIVE_INFERENCE_OUTPUT anggota.

Console
Untuk membuat pekerjaan inferensi model (konsol)
  1. Masuk ke AWS Management Console dan buka AWS Clean Rooms konsol di https://console.aws.amazon.com/cleanrooms.

  2. Di panel navigasi kiri, pilih Kolaborasi.

  3. Pada halaman Kolaborasi, pilih kolaborasi yang berisi model kustom tempat Anda ingin membuat pekerjaan inferensi.

  4. Setelah kolaborasi terbuka, pilih tab Model ML, lalu pilih model Anda dari tabel model terlatih khusus.

  5. Pada halaman detail model terlatih khusus, klik Mulai pekerjaan inferensi.

  6. Untuk memulai pekerjaan inferensi, untuk detail pekerjaan Inferensi, masukkan Nama dan Deskripsi opsional.

    Masukkan informasi berikut:

    • Algoritma model terkait - Algoritma model terkait yang digunakan selama pekerjaan inferensi.

    • Detail saluran input ML - Saluran input ML yang akan menyediakan data untuk pekerjaan inferensi ini.

    • Transform resources - Instance komputasi yang digunakan untuk melakukan fungsi transformasi dari pekerjaan inferensi.

    • Konfigurasi keluaran - Siapa yang akan menerima output pekerjaan inferensi dan jenis output MIME.

    • Enkripsi - pilih pengaturan Sesuaikan enkripsi untuk menentukan kunci KMS Anda sendiri dan informasi terkait. Jika tidak, Clean Rooms ML akan mengelola enkripsi.

    • Ubah detail pekerjaan - Muatan maksimum pekerjaan inferensi, dalam MB.

    • Variabel lingkungan - Setiap variabel lingkungan yang diperlukan untuk mengakses gambar wadah pekerjaan inferensi.

  7. Pilih Mulai pekerjaan inferensi.

    Hasilnya diekspor ke jalur berikut di lokasi Amazon S3 yang ditentukan dalam konfigurasi ML:. yourSpecifiedS3Path/collaborationIdentifier/trainedModelName/callerAccountId/jobName

API

Untuk membuat pekerjaan inferensi model (API)

Memulai pekerjaan inferensi dengan menjalankan kode berikut:

import boto3 acr_ml_client= boto3.client('cleanroomsml') acr_ml_client.start_trained_model_inference_job( name="inference_job", membershipIdentifier='membership_id', trainedModelArn='arn:aws:cleanrooms-ml:region:account:membership/membershipIdentifier/trained-model/identifier', dataSource={ "mlInputChannelArn": 'channel_arn_3' }, resourceConfig={'instanceType': 'ml.m5.xlarge'}, outputConfiguration={ 'accept': 'text/csv', 'members': [ { "accountId": 'member_account_id' } ] } )

Hasilnya diekspor ke jalur berikut di lokasi Amazon S3 yang ditentukan dalam konfigurasi ML:. yourSpecifiedS3Path/collaborationIdentifier/trainedModelName/callerAccountId/jobName