Pemberitahuan akhir dukungan: Pada 31 Oktober 2025, AWS akan menghentikan dukungan untuk Amazon Lookout for Vision. Setelah 31 Oktober 2025, Anda tidak akan lagi dapat mengakses konsol Lookout for Vision atau sumber daya Lookout for Vision. Untuk informasi lebih lanjut, kunjungi posting blog
Terjemahan disediakan oleh mesin penerjemah. Jika konten terjemahan yang diberikan bertentangan dengan versi bahasa Inggris aslinya, utamakan versi bahasa Inggris.
Menjalankan model Amazon Lookout for Vision Anda yang terlatih
Untuk mendeteksi anomali dalam gambar dengan model Anda, Anda harus terlebih dahulu memulai model Anda dengan operasi. StartModel Konsol Amazon Lookout for Vision AWS CLI menyediakan perintah yang dapat Anda gunakan untuk memulai dan menghentikan model Anda. Bagian ini mencakup contoh kode yang dapat Anda gunakan.
Setelah model Anda dimulai, Anda dapat menggunakan DetectAnomalies
operasi untuk mendeteksi anomali dalam gambar. Untuk informasi selengkapnya, lihat Mendeteksi anomali dalam gambar.
Topik
Unit inferensi
Saat memulai model, Amazon Lookout for Vision menyediakan minimal satu sumber daya komputasi, yang dikenal sebagai unit inferensi. Anda menentukan jumlah unit inferensi yang akan digunakan dalam parameter MinInferenceUnits
input ke StartModel
API. Alokasi default untuk model adalah 1 unit inferensi.
penting
Anda dikenakan biaya untuk jumlah jam yang dijalankan model Anda dan untuk jumlah unit inferensi yang digunakan model Anda saat berjalan, berdasarkan cara Anda mengonfigurasi pengoperasian model Anda. Misalnya, jika Anda memulai model dengan dua unit inferensi dan menggunakan model selama 8 jam, Anda akan dikenakan biaya selama 16 jam inferensi (8 jam waktu berjalan * dua unit inferensi). Untuk informasi selengkapnya, lihat Amazon Lookout
Transaksi per detik (TPS) yang didukung oleh unit inferensi tunggal dipengaruhi oleh hal-hal berikut:
Algoritma yang digunakan Lookout for Vision untuk melatih model. Saat Anda melatih model, beberapa model dilatih. Lookout for Vision memilih model dengan kinerja terbaik berdasarkan ukuran dataset dan komposisi gambar normal dan anomali.
Gambar beresolusi lebih tinggi membutuhkan lebih banyak waktu untuk analisis.
Gambar berukuran lebih kecil (diukur dalam MB) dianalisis lebih cepat daripada gambar yang lebih besar.
Mengelola throughput dengan unit inferensi
Anda dapat menambah atau mengurangi throughput model Anda tergantung pada permintaan pada aplikasi Anda. Untuk meningkatkan throughput, gunakan unit inferensi tambahan. Setiap unit inferensi tambahan meningkatkan kecepatan pemrosesan Anda dengan satu unit inferensi. Untuk informasi tentang menghitung jumlah unit inferensi yang Anda butuhkan, lihat Menghitung unit inferensi untuk Amazon Rekognition Custom Labels dan Amazon Lookout for
Menambahkan atau menghapus unit inferensi secara manual
Hentikan model dan kemudian restart dengan jumlah unit inferensi yang diperlukan. Kerugian dengan pendekatan ini adalah model tidak dapat menerima permintaan saat memulai ulang dan tidak dapat digunakan untuk menangani lonjakan permintaan. Gunakan pendekatan ini jika model Anda memiliki throughput yang stabil dan kasus penggunaan Anda dapat mentolerir waktu henti 10-20 menit. Contohnya adalah jika Anda ingin melakukan batch panggilan ke model Anda menggunakan jadwal mingguan.
Unit inferensi skala otomatis
Jika model Anda harus mengakomodasi lonjakan permintaan, Amazon Lookout for Vision dapat secara otomatis menskalakan jumlah unit inferensi yang digunakan model Anda. Seiring meningkatnya permintaan, Amazon Lookout for Vision menambahkan unit inferensi tambahan ke model dan menghapusnya saat permintaan menurun.
Untuk membiarkan Lookout for Vision secara otomatis menskalakan unit inferensi untuk model, mulai model dan atur jumlah maksimum unit inferensi yang dapat digunakan dengan menggunakan parameter. MaxInferenceUnits
Menetapkan jumlah maksimum unit inferensi memungkinkan Anda mengelola biaya menjalankan model dengan membatasi jumlah unit inferensi yang tersedia untuknya. Jika Anda tidak menentukan jumlah maksimum unit, Lookout for Vision tidak akan secara otomatis menskalakan model Anda, hanya menggunakan jumlah unit inferensi yang Anda mulai. Untuk informasi mengenai jumlah maksimum unit inferensi, lihat Service Quotas.
Anda juga dapat menentukan jumlah minimum unit inferensi dengan menggunakan MinInferenceUnits
parameter. Ini memungkinkan Anda menentukan throughput minimum untuk model Anda, di mana satu unit inferensi mewakili 1 jam waktu pemrosesan.
catatan
Anda tidak dapat mengatur jumlah maksimum unit inferensi dengan konsol Lookout for Vision. Sebagai gantinya, tentukan parameter MaxInferenceUnits
input ke StartModel
operasi.
Lookout for Vision menyediakan metrik CloudWatch Amazon Logs berikut yang dapat Anda gunakan untuk menentukan status penskalaan otomatis saat ini untuk model.
Metrik | Deskripsi |
---|---|
|
Jumlah unit inferensi di mana Lookout for Vision ditingkatkan atau turun. |
|
Jumlah unit inferensi yang digunakan model. |
Jika DesiredInferenceUnits
=InServiceInferenceUnits
, Lookout for Vision saat ini tidak menskalakan jumlah unit inferensi.
Jika DesiredInferenceUnits
>InServiceInferenceUnits
, Lookout for Vision meningkatkan nilai. DesiredInferenceUnits
Jika DesiredInferenceUnits
<InServiceInferenceUnits
, Lookout for Vision menurunkan nilai. DesiredInferenceUnits
Untuk mengetahui jumlah maksimum unit inferensi yang Anda minta untuk model, panggil DescribeModeldan periksa MaxInferenceUnits
bidang dalam respons.
Availability Zone
Amazon Lookout for Vision; mendistribusikan unit inferensi di beberapa Availability Zone dalam AWS suatu Wilayah untuk meningkatkan ketersediaan. Untuk informasi selengkapnya, lihat Availability Zone
Jika terjadi pemadaman Availability Zone, semua unit inferensi di Availability Zone tidak tersedia dan kapasitas model berkurang. Panggilan ke DetectAnomaliesdidistribusikan kembali di seluruh unit inferensi yang tersisa. Panggilan tersebut berhasil jika tidak melebihi Transaksi Per Detik (TPS) yang didukung dari unit inferensi yang tersisa. Setelah AWS memperbaiki Availability Zone, unit inferensi dimulai ulang, dan kapasitas penuh dipulihkan.
Jika unit inferensi tunggal gagal, Amazon Lookout for Vision secara otomatis memulai unit inferensi baru di Availability Zone yang sama. Kapasitas model dikurangi sampai unit inferensi baru dimulai.